JP2992178B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2992178B2
JP2992178B2 JP5153933A JP15393393A JP2992178B2 JP 2992178 B2 JP2992178 B2 JP 2992178B2 JP 5153933 A JP5153933 A JP 5153933A JP 15393393 A JP15393393 A JP 15393393A JP 2992178 B2 JP2992178 B2 JP 2992178B2
Authority
JP
Japan
Prior art keywords
circuit
image data
signal
motion
motion detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5153933A
Other languages
Japanese (ja)
Other versions
JPH0729014A (en
Inventor
健吾 ▲高▼濱
崇 西村
康邦 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Consejo Superior de Investigaciones Cientificas CSIC
Original Assignee
Consejo Superior de Investigaciones Cientificas CSIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Consejo Superior de Investigaciones Cientificas CSIC filed Critical Consejo Superior de Investigaciones Cientificas CSIC
Priority to JP5153933A priority Critical patent/JP2992178B2/en
Publication of JPH0729014A publication Critical patent/JPH0729014A/en
Application granted granted Critical
Publication of JP2992178B2 publication Critical patent/JP2992178B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置に関し、
特に、自動的に対象物を特定する対象物センサ、ドアホ
ンカメラ、テレビ電話、テレビ会議装置、監視装置、ユ
ーザインターフェース機器等の画像処理装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus,
In particular, the present invention relates to an image processing device such as an object sensor for automatically specifying an object, a door phone camera, a videophone, a video conference device, a monitoring device, and a user interface device.

【0002】[0002]

【従来の技術】従来、人を検知する装置としては、人体
から発する赤外線を検知する赤外線センサや、超音波、
電波あるいは光を利用したアクティブセンサ等を用いた
ものがある。これらの装置は、所定の制約条件を仮定す
ることにより、間接的に人を感知する装置である。たと
えば、赤外線を利用する場合は、人体の温度が周囲の温
度より高いため輻射の波長が短波長側へ移動する性質を
利用し、その温度に対応する赤外線波長でモニタするこ
とにより検出するものである。超音波、電波および光を
利用する装置では、人体の反射効率を利用するものや、
人体の遮断特性を利用するものがある。一方、CCD
(Charge Coupled Device)等の
エリアセンサを使用する画像処理装置においては、山本
他(IEEETHPM 14,5 1991年)によ
り、以下に説明する画像処理装置が提案されている。こ
の画像処理装置は、旧フレーム画像を記憶しておき、旧
フレーム画像と新しく入力された新フレーム画像との差
分を取り、差分値の大きい領域を人の領域とし、また、
前記領域の横幅から顔領域を抽出するものである。図4
2に、上記の従来の画像処理装置の構成を示すブロック
図を示す。
2. Description of the Related Art Conventionally, devices for detecting a person include an infrared sensor for detecting infrared rays emitted from a human body, an ultrasonic wave,
There are sensors using an active sensor using radio waves or light. These devices are devices that indirectly sense a person by assuming predetermined constraints. For example, in the case of using infrared light, the property that the wavelength of radiation moves to the shorter wavelength side because the temperature of the human body is higher than the surrounding temperature is used, and detection is performed by monitoring at the infrared wavelength corresponding to that temperature. is there. Devices that use ultrasonic waves, radio waves and light use the reflection efficiency of the human body,
Some use the blocking properties of the human body. Meanwhile, CCD
As for an image processing apparatus using an area sensor such as (Charge Coupled Device), Yamamoto et al. (IEEE HPM 14, 5 1991) proposes an image processing apparatus described below. This image processing apparatus stores an old frame image, calculates a difference between the old frame image and a newly input new frame image, sets an area having a large difference value as a human area,
The face area is extracted from the width of the area. FIG.
FIG. 2 is a block diagram showing a configuration of the conventional image processing apparatus.

【0003】図42において、画像処理装置は、A/D
変換部101、画像メモリ102、絶対差分器103、
コンパレータ104、頭頂検出器105、横幅検出器1
06、比較器107、顔座標出力部108を含む。
In FIG. 42, an image processing apparatus includes an A / D
A conversion unit 101, an image memory 102, an absolute difference unit 103,
Comparator 104, crown detector 105, width detector 1
06, a comparator 107, and a face coordinate output unit 108.

【0004】A/D変換器101は、線順次走査のアナ
ログ画像信号が供給され、アナログ画像信号をデジタル
信号に変換し、画像メモリ102および絶対差分器10
3へ出力する。画像メモリ102は、A/D変換器10
1から出力されたデジタル画像信号をkフレームだけ遅
延させ、絶対差分器103へ出力する。絶対差分器10
3は、kフレーム遅延した画像と現入力画像の差を計算
する。画像の中に動物体がある場合は、動物体のある位
置で2枚の画像データ間に輝度差を生じるため、コンパ
レータ104により二値化することにより、動物体の位
置が判明する。図3に、絶対差分の二値化画像データの
生成過程を示す。図3に示すように、検出された動物体
は、エッジの強い部分が強調されるが、その幅wは動物
体の画面上のスピードvと2つのフレーム画像データ間
の時間tにより次式で表される。
An A / D converter 101 is supplied with a line-sequentially scanned analog image signal, converts the analog image signal into a digital signal, and stores the analog image signal in an image memory 102 and an absolute difference device 10.
Output to 3. The image memory 102 includes the A / D converter 10
The digital image signal output from 1 is delayed by k frames and output to the absolute differentiator 103. Absolute difference device 10
3 calculates the difference between the image delayed by k frames and the current input image. When there is a moving object in the image, a luminance difference occurs between the two pieces of image data at a certain position of the moving object. Therefore, the position of the moving object is determined by binarizing the image data by the comparator 104. FIG. 3 shows a process of generating the binarized image data of the absolute difference. As shown in FIG. 3, in the detected moving object, a portion having a strong edge is emphasized. The width w of the detected moving object depends on the speed v on the screen of the moving object and the time t between two frame image data. expressed.

【0005】w=vt…(33) 上記の式を基に、所定のしきい値wnを適当に設定し、
動物体があるか否かを判定することが可能となる。すな
わち、横幅検出器106は、動物体の幅wとそのX軸
(横軸)座標を検出し、比較器107は、しきい値wn
より大きいときは動物体が検出されたとして“1”を出
力する。また、コンパレータ104の出力は、頭頂検出
器105に入力され、頭頂検出器105では、Y軸(縦
軸)走査方向で最初に動き領域と判断された最初のY座
標を頭頂座標として出力する。顔座標検出部108は、
頭頂検出器105および横幅検出器106で出力された
座標データを比較器107の出力が“1”のときにのみ
有効として出力する。上記の処理により、従来の画像処
理装置では、動物体の動きに応じて、動物体の顔座標を
出力することが可能となる。
W = vt (33) Based on the above equation, a predetermined threshold value wn is appropriately set,
It is possible to determine whether or not there is a moving object. That is, the width detector 106 detects the width w of the moving object and its X-axis (horizontal axis) coordinates, and the comparator 107 determines the threshold wn.
If it is larger, it is determined that a moving object has been detected and "1" is output. The output of the comparator 104 is input to the parietal detector 105, and the parietal detector 105 outputs the first Y coordinate initially determined as a moving area in the Y-axis (vertical axis) scanning direction as the parietal coordinate. The face coordinate detection unit 108
The coordinate data output by the crown detector 105 and the width detector 106 are output as valid only when the output of the comparator 107 is “1”. With the above processing, the conventional image processing apparatus can output the face coordinates of the moving object in accordance with the movement of the moving object.

【0006】[0006]

【発明が解決しようとする課題】上記の赤外線等を利用
したものでは、人や犬や猫等を判別することができず、
また、人と判定したとしても、人の顔の位置がどこにあ
るかまでは判別できなかった。したがって、任意の対象
物体を特定することはできないという問題点があった。
With the above-mentioned apparatus utilizing infrared rays or the like, humans, dogs and cats cannot be distinguished.
Further, even if it is determined that a person is a person, it is not possible to determine the position of the face of the person. Therefore, there is a problem that an arbitrary target object cannot be specified.

【0007】また、上記のエリアセンサを使用する画像
処理装置においては、動物、車、草木、人等を区別でき
ず、任意の対象物を特定することができなかった。ま
た、対象物体の動きが遅い場合、一定遅延させた画像デ
ータとの差分により対象物体の動きを検出しているた
め、十分な動き検出信号を得ることができず、検出漏れ
動作が多く、また頭頂位置の検出においても誤動作が多
く、任意の対象物体を特定することができないという問
題があった。
Further, in the image processing apparatus using the above-mentioned area sensor, animals, vehicles, plants, people, and the like cannot be distinguished, and an arbitrary object cannot be specified. In addition, when the movement of the target object is slow, since the movement of the target object is detected based on the difference from the image data delayed by a certain amount, a sufficient motion detection signal cannot be obtained, and many detection omission operations are performed. There has been a problem that the detection of the top of the head has many malfunctions, and an arbitrary target object cannot be specified.

【0008】本発明は上記課題を解決するためのもので
あって、任意の対象物体を特定するための良好な画像デ
ータを得ることができる画像処理装置を提供することを
目的とする。
An object of the present invention is to solve the above-mentioned problem, and an object of the present invention is to provide an image processing apparatus capable of obtaining good image data for specifying an arbitrary target object.

【0009】[0009]

【課題を解決するための手段】請求項1記載の画像処理
装置は、入力画像データと、入力画像データより所定フ
レーム前に入力された参照画像データとから差分画像デ
ータを作成し、差分画像データを二値化し、動き検出信
号を出力する二値化手段と、動き検出信号より抽出され
た領域の周囲長を検出する周囲長検出手段と、動き検出
信号より抽出された領域の縦方向の長さを検出する縦長
検出手段と、動き検出信号より抽出された領域の面積を
検出する面積検出手段と、周囲長、縦方向の長さおよび
面積に基づいて、動き検出信号より抽出された領域での
物体の動き量が所定値以上か否かを判定する動き判定手
段とを含む、画像処理装置。
An image processing apparatus according to claim 1, wherein :
The apparatus is configured to execute a predetermined process based on the input image data and the input image data.
Difference image data from the reference image data input before
Data, binarize the difference image data, and
And a binarization means for outputting a signal,
Length detection means for detecting the perimeter of a region
Vertical length to detect the vertical length of the area extracted from the signal
Detection means and the area of the region extracted from the motion detection signal
Area detection means to detect, perimeter, vertical length and
Based on the area, in the area extracted from the motion detection signal
A motion determining means for determining whether the amount of motion of an object is equal to or greater than a predetermined value;
And an image processing device.

【0010】請求項2記載の発明は、請求項1に記載の
発明の構成に加えて、二値化手段は、動き判定手段の出
力に基づいて入力画像データと参照画像データとの間の
フレーム間隔を制御する。
[0010] The invention according to claim 2 provides the invention according to claim 1.
In addition to the configuration of the invention, the binarizing means includes an output of the motion determining means.
Between the input image data and the reference image data based on the force
Control the frame interval.

【0011】請求項3記載の発明は、請求項1または2
に記載の発明の構成に加えて、二値化手段は、入力画像
データの各画素の輝度値に基づいて、当該画素位置にお
けるしきい値を決定し、しきい値に基づいて、差分画像
データを二値化する。
[0011] The invention according to claim 3 is the invention according to claim 1 or 2.
In addition to the configuration of the invention described in the above, the binarizing means includes an input image
Based on the luminance value of each pixel in the data,
Threshold value, and based on the threshold value, the difference image
Binarize the data.

【0012】請求項4記載の画像処理装置は、請求項1
〜3のいずれかに記載の発明の構成に加えて、二値化手
段は、入力画像データと参照画像データとから差分画像
データを作成し、差分画像データを二値化し、動き検出
信号を出力する差分画像データ二値化手段と、動き検出
信号に膨張処理を施す二値画像膨張手段とを含む。
An image processing apparatus according to a fourth aspect of the present invention is the first aspect of the invention.
In addition to the constitution of the invention described in any one of the above-mentioned items,
The row shows a difference image between the input image data and the reference image data.
Create data, binarize differential image data, and detect motion
Differential image data binarization means for outputting a signal, and motion detection
Binary image dilation means for dilating the signal.

【0013】請求項5記載の発明は、請求項4に記載の
発明の構成に加えて、二値画像膨張手段は、動き検出信
号の各画素に所定の演算を施すことにより、動き検出信
号の各画素の輝度値を隣接する画素に伝播させていき、
膨張画像データを作成する膨張手段と、膨張画像データ
を所定のしきい値で二値化する膨張画像二値化手段とを
含む。
According to a fifth aspect of the present invention, there is provided a method as set forth in the fourth aspect.
In addition to the configuration of the invention, the binary image dilation means includes a motion detection signal.
By performing a predetermined operation on each pixel of the signal, the motion detection signal
The luminance value of each pixel of the signal is propagated to the adjacent pixels,
Dilation means for generating dilated image data, and dilated image data
And a dilated image binarization means for binarizing the image with a predetermined threshold value.
Including.

【0014】請求項6記載の発明は、請求項4に記載の
発明の構成に加えて、二値画像膨張手段は、動き検出信
号の各行ごとに、輝度値の立上がりタイミングを検出す
る立上がり検出手段と、動き検出信号の各行ごとに、輝
度値の立下がりタイミングを検出する立下がり検出手段
と、立上がりタイミングと立下がりタイミングとの時間
差を計測する時間差計測手段と、時間差に適応させて、
動き検出信号を膨張させ、膨張画像データを作成する膨
張手段と、膨張画像データを所定のしきい値で二値化す
る膨張画像二値化手段とを含む。
[0014] The invention according to claim 6 is the invention according to claim 4.
In addition to the configuration of the invention, the binary image dilation means includes a motion detection signal.
The rising timing of the luminance value is detected for each row of the signal.
The rising edge detection means and the brightness of each line of the motion detection signal.
Fall detection means for detecting the fall timing of the degree value
And the time between the rising timing and the falling timing
Time difference measurement means to measure the difference, and adapted to the time difference,
Dilation for expanding the motion detection signal and creating dilated image data
Expansion means and binarize the dilated image data at a predetermined threshold value.
Expansion image binarization means.

【0015】請求項7記載の発明は、請求項1〜6のい
ずれかに記載の発明の構成に加えて、動き検出信号の垂
直方向の最初の情報が検出されたタイミングを開始点と
して計数動作を行なう計数手段と、動き検出信号の水平
方向の第1スタート位置と第1エンド位置を検出する位
置検出手段と、第1スタート位置の信号の低周波成分を
抽出し、その出力を巡回させ、第2スタート位置の信号
に変換する第1変換手段と、第1エンド位置の信号の低
周波成分を抽出し、その出力を巡回させ、第2エンド位
置の信号に変換する第2変換手段と、第2スタート位置
と第2エンド位置の差分値を計算する差分値計算手段
と、差分値と計数手段の計数値とを比較し、比較結果を
基に第1および第2変換手段の動作を制御する制御手段
とをさらに含む。
The invention according to claim 7 is the invention according to claims 1 to 6.
In addition to the configuration of the invention described in any of the above, the motion detection signal
The timing when the first information in the direct direction is detected is defined as the starting point.
Counting means for performing a counting operation, and
For detecting the first start position and the first end position in the direction
Position detecting means and the low frequency component of the signal at the first start position.
Extract and circulate its output to obtain the signal of the second start position
First converting means for converting the signal at the first end position to a low level.
The frequency component is extracted, its output is circulated, and the second end position
Second conversion means for converting the signal into a second signal, and a second start position
Value calculating means for calculating a difference value between the first and second end positions
And the difference value and the count value of the counting means.
Control means for controlling the operation of the first and second conversion means based on the
And further included.

【0016】請求項8記載の発明は、請求項7に記載の
発明の構成に加えて、入力画像データよりエッジを抽出
するエッジ抽出手段と、動き検出信号とエッジの縦線成
分との論理積を計算する論理処理手段と、論理処理手段
の計算結果を入力画像データの横軸方向へ投影した信号
へ変換する変換手段と、変換手段により変換された信号
のピーク位置を検出する検出手段とをさらに含む。
The invention according to claim 8 is the invention according to claim 7.
In addition to the configuration of the invention, edges are extracted from input image data
Edge extracting means, and a vertical line component of the motion detection signal and the edge.
Logical processing means for calculating a logical product of minutes and logical processing means
Of the input image data projected in the horizontal direction
Conversion means for converting to a signal, and the signal converted by the conversion means
And a detecting means for detecting the peak position.

【0017】請求項9記載の発明は、請求項8に記載の
発明の構成に加えて、エッジ抽出手段は、入力画像デー
タの輝度値を横軸方向に微分する第1の微分手段と、入
力画像データの輝度値を縦軸方向に微分する第2の微分
手段と、第1および第2の微分手段の出力の差分値を計
算し、差分値の符号に基づいて、差分値の絶対値をエッ
ジの縦線成分または横線成分とする手段と、エッジの縦
線成分および横線成分をそれぞれ二値化するエッジ二値
化手段とを含む。
According to the ninth aspect of the present invention, there is provided an image forming apparatus according to the eighth aspect.
In addition to the configuration of the present invention, the edge extracting means may further include input image data.
First differentiating means for differentiating the luminance value of the pixel in the horizontal axis direction;
Second differentiation for differentiating the luminance value of the force image data in the vertical axis direction
Means and a difference value between outputs of the first and second differentiating means.
The absolute value of the difference value based on the sign of the difference value.
A means to determine the vertical or horizontal line component of the
Edge binary to binarize line and horizontal line components respectively
Means.

【0018】請求項10記載の発明は、請求項9記載の
発明の構成に加えて、エッジ二値化手段は、エッジの縦
線成分および横線成分を入力画像データの輝度値によっ
て正規化する正規化手段を含む。 請求項11記載の発明
は、請求項8〜10のいずれかに記載の発明の構成に加
えて、エッジの縦線成分および横線成分に基づいて、入
力画像データ中の対象物体の特徴情報を抽出する抽出手
段と、特徴情報に対して、所定の解析関数による非線形
変換を施し、中間特徴情報へ変換する特徴情報変換手段
と、中間特徴情報に所定の重みづけを行なった後、線形
加算することにより評価データを作成する評価データ作
成手段と、評価データを基に画像データの中の対象物体
を特定する特定手段とをさらに含む。
The invention according to claim 10 is the invention according to claim 9.
In addition to the configuration of the invention, the edge binarizing means further includes a vertical
Line components and horizontal line components are determined by the luminance value of the input image data.
And normalization means for normalizing. The invention according to claim 11
Is added to the configuration of the invention according to any one of claims 8 to 10.
Based on the vertical and horizontal line components of the edge.
Extraction method for extracting feature information of target object in force image data
Non-linear with a predetermined analysis function for steps and feature information
Feature information conversion means for performing conversion and converting to intermediate feature information
After applying a certain weight to the intermediate feature information,
Evaluation data creation that creates evaluation data by adding
Object and target object in image data based on evaluation data
And a specifying means for specifying

【0019】[0019]

【作用】請求項1記載の画像処理装置においては、対象
領域の周囲長、縦方向の長さ、面積を基に、対象領域で
の物体の動きが十分か否かを判定しているので、物体が
遅く動いても、速く動いても、所定値以上に動いたか否
かを安定に判定することができる。
In the image processing apparatus according to the first aspect, the object
Based on the perimeter, vertical length, and area of the area,
It is determined whether the movement of the object is sufficient or not.
Whether it moves more than the specified value, whether it moves slowly or fast
Can be determined stably.

【0020】請求項2記載の発明は、請求項1記載の発
明の作用、効果に加えて、動き判定手段の出力に基づい
て差分画像データを作成する際のフレーム間隔が制御さ
れる。このため、対象物体の動き量に関わらず、安定し
た対象物体の動き情報を得ることができる。
The invention according to claim 2 is the invention according to claim 1.
In addition to the action and effect of light, based on the output of the motion judgment means
Control the frame interval when creating difference image data
It is. Therefore, regardless of the amount of movement of the target object,
Motion information of the target object can be obtained.

【0021】請求項3記載の発明は、請求項1または2
に記載の発明の作用、効果に加えて、各画素ごとに、入
力画像データの輝度値に基づいて二値化しきい値が求め
られる。このため、輝度値の変動の影響を受けず、シェ
ーディングに強い安定した動き情報を得ることができ
る。
The third aspect of the present invention is the first or second aspect.
In addition to the functions and effects of the invention described in
Binarization threshold is calculated based on the brightness value of force image data
Can be Therefore, it is not affected by the fluctuation of the brightness value,
And stable motion information
You.

【0022】請求項4記載の発明は、請求項1〜3のい
ずれかに記載の発明の作用、効果に加えて、動き検出信
号に膨張処理が施される。このため、動き検出信号の欠
陥を埋めることができ、安定した動き情報を得ることが
できる。
The invention according to claim 4 is the invention according to claims 1 to 3.
In addition to the actions and effects of the invention described in
The number is subjected to an expansion process. Therefore, the lack of motion detection signal
Can fill in the gaps and obtain stable motion information
it can.

【0023】請求項5記載の発明は、請求項4に記載の
発明の作用、効果に加えて、膨張手段により動き検出信
号がぼかされて膨張し、膨張画像二値化手段により膨張
した二値画像データを得ることができるので、小さい回
路規模で大きな領域にわたって膨張した二値画像データ
を得ることができる。
The invention according to claim 5 provides the invention according to claim 4.
In addition to the actions and effects of the invention, the motion detection signal
The signal is blurred and expanded, and expanded by the expanded image binarization means.
Small binary image data can be obtained.
Binary image data expanded over a large area on a road scale
Can be obtained.

【0024】請求項6記載の発明は、請求項4に記載の
発明の作用、効果に加えて、二値画像信号の立上がりタ
イミングと立下がりタイミングの時間差に応答して、二
値画像信号を膨張させているので、時間差に適応した膨
張画像データを得ることができる。
The invention according to claim 6 is the invention according to claim 4.
In addition to the functions and effects of the invention, the rising edge of the binary image signal
In response to the time difference between the
Since the value image signal is expanded, the expansion adapted to the time difference
Can be obtained.

【0025】請求項7記載の発明は、請求項1〜6のい
ずれかに記載の発明の作用、効果に加えて、動き情報の
第1スタート位置の信号および第1エンド位置の信号を
第1および第2変換手段により安定した第2スタート位
置の信号および第2エンド位置の信号に変換することが
でき、これらの信号の差分値と計数手段の計数値とを比
較し、比較結果を基に第1および第2判定手段の動作を
制御するので、安定した対象物体の両端座標を得ること
ができる。
[0025] The invention according to claim 7 provides the invention according to claims 1 to 6
In addition to the functions and effects of the invention described in
The signal of the first start position and the signal of the first end position
A stable second starting position by the first and second conversion means
Into a signal at the second end position and a signal at the second end position.
The difference between these signals and the count of the counting means.
Comparing the operation of the first and second determination means based on the comparison result.
Control to obtain stable coordinates of both ends of the target object
Can be.

【0026】請求項8記載の発明は、請求項7に記載の
発明の作用、効果に加えて、二値化された動き検出信号
とエッジの縦線成分との論理積を画像の横軸方向へ投影
し、投影した信号のピーク位置を検出することにより、
画像の中の対象物体の横軸方向の両端座標を得ることが
でき、対象物体の精密な横軸方向の両端座標を得ること
ができる。
[0027] The invention according to claim 8 is the invention according to claim 7.
In addition to the functions and effects of the invention, a binarized motion detection signal
AND of the vertical line component of the edge with the horizontal axis of the image
By detecting the peak position of the projected signal,
Obtain the coordinates of both ends of the target object in the image in the horizontal axis direction.
To obtain accurate coordinates of both ends of the target object in the horizontal axis direction
Can be.

【0027】請求項9記載の発明は、請求項8記載の発
明の作用、効果に加えて、第1および第2の微分手段に
より、孤立したノイズ成分を強調し、差分値の絶対値に
基づいてエッジの縦線成分および横線成分を求める。こ
れにより、孤立ノイズ成分を除去することにより、純粋
なエッジ信号を得ることができ、ノイズの影響の少ない
エッジ信号を得ることができる。
[0027] The invention according to claim 9 is the invention according to claim 8.
In addition to the action and effect of Ming, the first and second differentiating means
More isolated noise components, and the absolute value of the difference value
The vertical line component and the horizontal line component of the edge are determined based on the edge. This
By removing isolated noise components,
Edge signal, and less affected by noise
An edge signal can be obtained.

【0028】請求項10記載の発明は、請求項9記載の
発明の作用、効果に加えて、エッジ成分を輝度値により
正規化することにより、輝度値の変動の影響を受けない
エッジ信号を出力することができ、シューティングに強
いエッジ信号を得ることができる。 請求項11記載の発
明は、請求項8〜10のいずれかに記載の発明の作用、
効果に加えて、非線形変換手段は所定の非線形変換を行
なう解析関数を用いることにより処理が簡略化され、線
形加算手段は計算量が少ないので、少ない計算量で画像
に含まれる対象物体を特定することができる。
The invention according to claim 10 is the invention according to claim 9.
In addition to the functions and effects of the invention, the edge component is represented by a luminance value.
Normalization eliminates the effect of fluctuations in luminance values
Edge signal can be output, making it powerful for shooting
Edge signals can be obtained. Claim 11
Akira is the operation of the invention according to any one of claims 8 to 10,
In addition to the effect, the nonlinear conversion means performs a predetermined nonlinear conversion.
The processing is simplified by using the analysis function
Since the shape addition means requires a small amount of calculation, the image
Can be specified.

【0029】[0029]

【実施例】以下、本発明の一実施例の画像処理装置につ
いて図面を参照しながら説明する。図1は、本発明の一
実施例の画像処理装置の構成を示すブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【0030】図1において、画像処理装置は、A/D変
換部1、タイミング発生部2、動き検出部3、エッジ検
出部4、第1領域制限回路5、第2領域制限回路6、第
3領域制限回路7、第4領域制限回路8、最大動き物体
検出回路9、頭頂座標検出回路10、動き特徴量抽出回
路11、精密頬座標検出回路12、特徴抽出回路13、
切換回路14〜16、評価判定回路17、動き判定回路
18、追尾対象座標出力回路19、モード設定回路2
0、拡大表示回路21、D/A変換回路22、ディスプ
レイ23を含む。
In FIG. 1, the image processing apparatus includes an A / D converter 1, a timing generator 2, a motion detector 3, an edge detector 4, a first area limiter 5, a second area limiter 6, and a third area limiter. An area limiting circuit 7, a fourth area limiting circuit 8, a maximum moving object detecting circuit 9, a parietal coordinate detecting circuit 10, a moving feature amount extracting circuit 11, a precise cheek coordinate detecting circuit 12, a feature extracting circuit 13,
Switching circuits 14 to 16, evaluation determination circuit 17, motion determination circuit 18, tracking target coordinate output circuit 19, mode setting circuit 2
0, an enlargement display circuit 21, a D / A conversion circuit 22, and a display 23.

【0031】A/D変換部1には、固定したカメラやT
V映像装置等から出力された線順次走査のアナログ画像
信号が供給され、線順次走査のアナログ画像信号をデジ
タル信号に変換し、動き検出部3、エッジ検出部4、お
よび拡大表示回路21へ供給する。
The A / D converter 1 includes a fixed camera and T
A line-sequential-scanning analog image signal output from a V-video device or the like is supplied, and the line-sequential-scanning analog image signal is converted into a digital signal and supplied to the motion detection unit 3, the edge detection unit 4, and the enlarged display circuit 21 I do.

【0032】動き検出部3は、A/D変換部1から出力
されたデジタル画像信号を基に、後述する所定の処理に
より動き検出信号を生成し、第1領域制限回路5、第2
領域制限回路6、第3領域制限回路7、第4領域制限回
路8、および最大動き物体検出回路9へ出力する。
The motion detecting section 3 generates a motion detecting signal based on the digital image signal output from the A / D converting section 1 by a predetermined process described later, and generates a first area limiting circuit 5 and a second
It outputs to the area limiting circuit 6, the third area limiting circuit 7, the fourth area limiting circuit 8, and the maximum moving object detecting circuit 9.

【0033】以下、動き検出部3について図面を参照し
ながらさらに詳細に説明する。図2は、動き検出部3の
構成を示す図である。図2において、動き検出部3は、
平滑化回路301、フレームメモリ302、絶対差分器
303、比較器304、水平方向膨張回路305、垂直
方向膨張回路306、定倍回路307、フレームメモリ
制御部308を含む。
Hereinafter, the motion detecting section 3 will be described in more detail with reference to the drawings. FIG. 2 is a diagram illustrating a configuration of the motion detection unit 3. In FIG. 2, the motion detection unit 3
It includes a smoothing circuit 301, a frame memory 302, an absolute difference unit 303, a comparator 304, a horizontal expansion circuit 305, a vertical expansion circuit 306, a constant magnification circuit 307, and a frame memory control unit 308.

【0034】A/D変換部1から入力されたデジタル画
像信号は、平滑化回路301でノイズ成分が抑圧され、
その出力はフレームメモリ302、絶対差分器303、
および定倍回路307を介して比較器304へ出力され
る。
The digital image signal input from the A / D converter 1 has its noise component suppressed by a smoothing circuit 301.
The output is a frame memory 302, an absolute difference device 303,
Then, the signal is output to the comparator 304 via the constant multiplier 307.

【0035】フレームメモリ制御部308には、モード
設定回路20から出力されるライトモード制御信号が入
力され、ライトモード制御信号に応答してフレームメモ
リ302の動作を制御する。最初のフレームnでは、モ
ード設定回路20のモードが“0”になっているものと
する。モードが“0”のとき、モード設定回路20のラ
イトモード制御信号は“H”の状態となり、動き検出部
3の中のフレームメモリ302に第nフレームの画像デ
ータが記憶される。次のフレームでは、モード設定回路
20のモードは“1”になり、ライトモード制御信号は
“L”となり、動き検出部3の中のフレームメモリ30
2は読出しオンリー動作となる。フレームメモリ302
から読出された第nフレームの画像データは絶対差分器
303の一方の入力端子に入力され、もう一方の入力端
子には平滑化回路301より第n+1フレームの画像デ
ータが画像の走査順に入力される。絶対差分器303
は、入力されたデータを基に動き情報である差分画像デ
ータを生成し、比較器304へ出力する。
A write mode control signal output from the mode setting circuit 20 is input to the frame memory control unit 308, and controls the operation of the frame memory 302 in response to the write mode control signal. In the first frame n, it is assumed that the mode of the mode setting circuit 20 is “0”. When the mode is “0”, the write mode control signal of the mode setting circuit 20 becomes “H”, and the image data of the n-th frame is stored in the frame memory 302 in the motion detector 3. In the next frame, the mode of the mode setting circuit 20 becomes “1”, the write mode control signal becomes “L”, and the frame memory 30 in the motion detecting section 3
2 is a read-only operation. Frame memory 302
Is input to one input terminal of the absolute differentiator 303, and the other input terminal receives the image data of the (n + 1) th frame from the smoothing circuit 301 in the order of scanning of the image. . Absolute difference unit 303
Generates difference image data that is motion information based on the input data, and outputs the difference image data to the comparator 304.

【0036】比較器304には、絶対差分器303の差
分画像データと、定倍回路307により所定の倍率α
(0≦α<1.0)で定倍された現フレーム画像の輝度
信号が入力される。比較器304は、入力されたデータ
を基に、輝度値で正規化した動き情報をさらに二値化し
た動き情報として二値データを水平方向膨張回路305
へ出力する。図3に上記のような処理により作成される
絶対差分の二値化画像データの作成過程を示す。上記の
処理より、図3に示すような動きを反映した二値化画像
が得られる。
The comparator 304 has the difference image data of the absolute difference unit 303 and a predetermined magnification α by the constant magnification circuit 307.
A luminance signal of the current frame image multiplied by (0 ≦ α <1.0) is input. The comparator 304 converts the binary data into motion information obtained by further binarizing the motion information normalized by the luminance value based on the input data, into a horizontal expansion circuit 305.
Output to FIG. 3 shows a process of creating the binarized image data of the absolute difference created by the above processing. By the above processing, a binarized image reflecting the motion as shown in FIG. 3 is obtained.

【0037】上記のように、フレームメモリ302によ
り入力されたデジタル映像信号を一旦記憶し、絶対差分
303により新しく入力されたデジタル映像信号と
フレームメモリ302から出力されるnフィールド前の
映像信号との絶対差分を求め、比較器304により二値
化した動き検出信号として出力する。比較器304に
は、デジタル映像信号の輝度信号が加えられており、結
果的に輝度信号で正規化された動き情報が得られ、シュ
ーティングに強い動き検出を実現するとともに、二値化
走査により回路規模を減少することが可能となる。
[0037] As described above, temporarily stores the digital video signal input by the frame memory 302, the absolute difference unit 303, the newly inputted digital video signal and n previous field of the video signal output from the frame memory 302 , And output as a motion detection signal binarized by the comparator 304. The luminance signal of the digital video signal is added to the comparator 304. As a result, motion information normalized by the luminance signal is obtained. The scale can be reduced.

【0038】上記の動き検出方法は、本実施例にのみ適
用されるものではなく、TV電話、ドアホンカメラ、ビ
デオ一体型および、監視装置、特定物体検出装置等の動
き情報を用いる画像処理装置に適用することが可能であ
る。
The above-described motion detection method is not applied only to the present embodiment, but is applied to an image processing apparatus using motion information such as a TV phone, a door phone camera, a video integrated type, a monitoring device, and a specific object detection device. It is possible to apply.

【0039】次に、上記の平滑化回路301について図
面を参照しながらさらに詳細に説明する。図4は、平滑
化回路301の構成を示す図である。
Next, the smoothing circuit 301 will be described in more detail with reference to the drawings. FIG. 4 is a diagram showing a configuration of the smoothing circuit 301.

【0040】図4において、平滑化回路301は、1H
ディレイライン401、402、フリップフロップ回路
403〜408、加算器409を含む。
Referring to FIG. 4, the smoothing circuit 301 has 1H
It includes delay lines 401 and 402, flip-flop circuits 403 to 408, and an adder 409.

【0041】図4に示す平滑化回路301は3×3の二
次元平滑化フィルタである。入力されたデジタル画像信
号はフリップフロップ回路403に供給され、1クロッ
ク分だけ遅延した信号がフリップフロップ回路403か
ら出力される。フリップフロップ回路403の出力はさ
らに後段のフリップフロップ回路404で1クロック遅
延させられる。一方、デジタル画像信号は1Hディレイ
ライン401にも供給されており、1Hだけ遅延した画
像信号が1Hディレイライン401から出力される。同
様の動作により、1Hディレイライン401、402、
フリップフロップ回路403〜408により、3×3の
画像マトリックスが得られる。これら9個の画像輝度デ
ータをA(00)〜A(−2−2)とすると、後段
の加算器409により、 y1=ΣΣa(─i,−j)/8 …(1) ここでi=0〜2,j=0〜2,ただし、i=1かつj
=1は除く。として、平均輝度値が求まり、加算器40
9から出力される。
The smoothing circuit 301 shown in FIG. 4 is a 3 × 3 two-dimensional smoothing filter. The input digital image signal is supplied to the flip-flop circuit 403, and a signal delayed by one clock is output from the flip-flop circuit 403. The output of the flip-flop circuit 403 is further delayed by one clock in the flip-flop circuit 404 in the subsequent stage. On the other hand, the digital image signal is also supplied to the 1H delay line 401, and an image signal delayed by 1H is output from the 1H delay line 401. By the same operation, the 1H delay lines 401, 402,
By the flip-flop circuits 403 to 408, a 3 × 3 image matrix is obtained. Assuming that these nine pieces of image luminance data are A (0 , 0) to A (−2 , −2), y1 = ΣΣa (─i, -j) / 8 (1) I = 0-2, j = 0-2, where i = 1 and j
= 1 is excluded. The average luminance value is obtained as
9 is output.

【0042】平滑化回路301は上記の構成に限ったも
のではなく、2×2やn×nの画像マトリックス構成に
してもよいし、次式のように、重み係数w(−i,
j)を使用した重みづけフィルタを用いてもよい。
The smoothing circuit 301 is limited to the above configuration.
Instead of a 2x2 or nxn image matrix
Or a weighting factor w (−i,
A weighting filter using j) may be used.

【0043】 y1=ΣΣw(−i,−j)×a(−i,−j)…(2) ここで、i=0〜n,j=0〜n 上記の処理により、平滑化回路301は、平滑化された
平均輝度値を出力する。
[0043] y1 = ΣΣw (-i, -j) × a (-i, -j) ... (2) where, i = 0 to n, j = a 0 to n the above process, the smoothing circuit 301 , And outputs a smoothed average luminance value.

【0044】次に、フレームメモリ302、絶対差分器
303についてさらに詳細に説明する。
Next, the frame memory 302 and the absolute difference unit 303 will be described in more detail.

【0045】上記のようにフレームメモリ302はフレ
ームメモリ制御部308により画像の書込み、読出しの
制御が行なわれている。平滑化回路301から出力され
た輝度信号が入力されると、最初のフレームではフレー
ムメモリ制御部308がフレームメモリ302を書込み
モードにし、フレーム画像データを記憶する。次に、第
2のフレームの輝度信号が入力されると、フレームメモ
リ制御部308はフレームメモリ302を読出しモード
にし、上記の最初のフレーム画像が読出され、次段に接
続されている絶対差分器303でその差が次式のように
計算される。
As described above, the writing and reading of the image in the frame memory 302 is controlled by the frame memory control unit 308. When the luminance signal output from the smoothing circuit 301 is input, in the first frame, the frame memory control unit 308 sets the frame memory 302 to the write mode and stores the frame image data. Next, when the luminance signal of the second frame is input, the frame memory control unit 308 puts the frame memory 302 into the reading mode, reads the first frame image, and connects the absolute differentiator connected to the next stage. At 303, the difference is calculated as:

【0046】dy=|yn −ym |…(3) ここで、yn は現在のフレーム画像データを、ym はフ
レームメモリ302に記憶されている前の画像データを
表している。
[0046] dy = | y n -y m | ... (3) where, y n is the current frame image data, y m represents the image data before being stored in the frame memory 302.

【0047】たとえば、カメラが静止しており、撮影し
ている画像の中に動き物体が存在しないときは、yn
m であり、dy=0となる。逆に、撮影している画像
の中に人間のような動物体が存在する場合は、その存在
する場所で、yn ≠ym であり、dy>0となる。この
差分値dyは次段の比較器304の一方の入力端子へ入
力される。
[0047] For example, the camera is stationary, when the object moves in the image being captured is not present, y n =
y m and dy = 0. Conversely, when an animal, such as a human is present in the image being photographed, where the present, is y n ≠ y m, the dy> 0. This difference value dy is input to one input terminal of the comparator 304 in the next stage.

【0048】一方、平滑化回路301で平滑化された輝
度信号は定倍回路307でα倍され、比較器304のも
う一方の入力端子へ入力される。差分値dyが平滑化さ
α倍された輝度信号より大きい場合、比較器304の
出力は“1”の状態で出力され、動き物体が存在するこ
とを示す。逆に、その他の場合は、“0”が出力され、
撮影している画像の中に動き物体がないことを示す。比
較器304の上記の出力は、さらに後段の水平方向膨張
回路305と垂直方向膨張回路306により検出され
た動き領域が拡大され、動き検出結果として出力され
る。
On the other hand, the luminance signal smoothed by the smoothing circuit 301 is multiplied by α by the constant-magnification circuit 307 and input to the other input terminal of the comparator 304. If the difference value dy is larger than the smoothed and multiplied by α, the output of the comparator 304 is output in a state of “1”, indicating that a moving object is present. On the other hand, in other cases, “0” is output,
Indicates that there is no moving object in the image being shot. The above output of the comparator 304 is further enlarged by a horizontal expansion circuit 305 and a vertical expansion circuit 306 at the subsequent stage so that the detected motion area is enlarged and output as a motion detection result.

【0049】次に、水平方向膨張回路305について図
面を参照しながらさらに詳細に説明する。図5は、水平
方向膨張回路305の構成を示すブロック図である。
Next, the horizontal expansion circuit 305 will be described in more detail with reference to the drawings. FIG. 5 is a block diagram showing the configuration of the horizontal expansion circuit 305 .

【0050】図5において、水平方向膨張回路305
は、フリップフロップ回路501、502、OR回路5
03を含む。比較器304から出力される二値データは
フリップフロップ回路501、OR回路503へ入力さ
れる。フリップフロップ回路501は入力した二値デー
タを1クロック分だけ遅延させ、OR回路503へ出力
する。フリップフロップ回路502はフリップフロップ
回路501で遅延した信号をさらに1クロック分だけ遅
延し、OR回路503へ出力する。OR回路503は、
入力した各信号の論理和を出力信号として出力し、水平
方向の膨張画像データである動き検出信号MOV2を出
力する。
In FIG. 5, the horizontal expansion circuit 305
Are flip-flop circuits 501 and 502, OR circuit 5
03 is included. The binary data output from the comparator 304 is input to the flip-flop circuit 501 and the OR circuit 503. The flip-flop circuit 501 delays the input binary data by one clock and outputs the delayed data to the OR circuit 503. The flip-flop circuit 502 further delays the signal delayed by the flip-flop circuit 501 by one clock, and outputs the delayed signal to the OR circuit 503. The OR circuit 503
The logical sum of the input signals is output as an output signal, and a motion detection signal MOV2, which is expanded image data in the horizontal direction, is output.

【0051】次に、垂直方向膨張回路306について図
面を参照しながらさらに詳細に説明する。図6は、垂直
方向膨張回路306の構成を示すブロック図である。
Next, the vertical expansion circuit 306 will be described in more detail with reference to the drawings. FIG. 6 is a block diagram showing the configuration of the vertical expansion circuit 306.

【0052】図6において、垂直方向膨張回路306
は、乗算器601、605、加算器602、比較器60
3、除算器604、1Hディレイライン606を含む。
In FIG. 6, a vertical expansion circuit 306 is provided.
Are multipliers 601, 605, adder 602, comparator 60
3, including a divider 604 and a 1H delay line 606.

【0053】図6において、乗算器601への入力信号
をa(i,j)とすると、加算器602の出力信号O
(i,j)は、次式で表される。
In FIG. 6, if the input signal to the multiplier 601 is a (i, j), the output signal O of the adder 602
(I, j) is represented by the following equation.

【0054】 O(i,j)={8×a(i,j)+7×O(i,j−1)}/8…(4) 上記の処理は画像の縦方向へのリカーシブローパスフィ
ルタとして作用し、出力信号O(i,j)は比較器60
3へ入力され、所定のしきい値と比較され、膨張二値画
像データとして出力される。
O (i, j) = {8 × a (i, j) + 7 × O (i, j−1)} / 8 (4) The above processing is performed as a recursive low-pass filter in the vertical direction of the image. And the output signal O (i, j) is
3, and is compared with a predetermined threshold value and output as dilated binary image data.

【0055】図7に、図6に示す垂直方向膨張回路30
6の信号波形を示す。図の横軸は画像の垂直方向にと
った時間軸を示す。図に示すように、乗算器601へ
入力した入力信号は、上記のリカシブローパスフィルタ
によりぼかされ、加算器602により出力される。加算
器602の出力信号は、所定のしきい値と比較され、二
値データとして比較器603から出力される。上記の処
理により、垂直方向膨張回路306は動き検出信号の欠
陥を埋める働きをする。
FIG. 7 shows the vertical expansion circuit 30 shown in FIG.
6 shows the signal waveform of FIG. The horizontal axis in FIG. 7 indicates the time axis taken in the vertical direction of the image. As shown in FIG. 7 , the input signal input to the multiplier 601 is blurred by the above-described recursive low-pass filter and output by the adder 602. The output signal of the adder 602 is compared with a predetermined threshold value and output from the comparator 603 as binary data. With the above processing, the vertical expansion circuit 306 functions to fill in the defect of the motion detection signal.

【0056】上記のように、図6に示す垂直方向膨張回
路は、入力された二値画像データを二次元リカーシブロ
ーパスフィルタによってぼかされ、二値化手段により膨
張二値画像データとして出力されるので、小さい回路規
模で大きな領域にわたる二値膨張回路を実現することが
可能となる。
As described above, in the vertical dilation circuit shown in FIG. 6, the input binary image data is blurred by the two-dimensional recursive low-pass filter and output as expanded binary image data by the binarizing means. Therefore, it is possible to realize a binary expansion circuit over a large area with a small circuit scale.

【0057】次に、垂直方向膨張回路の第2の実施例に
ついて図面を参照しながら説明する。図8は第2の実施
例である垂直方向膨張回路の構成を示すブロック図であ
る。
Next, a second embodiment of the vertical expansion circuit will be described with reference to the drawings. FIG. 8 is a block diagram showing the configuration of the vertical expansion circuit according to the second embodiment.

【0058】図8において、垂直方向膨張回路は、加減
算回路701、1Hディレイライン702、比較器70
3を含む。
In FIG. 8, the vertical expansion circuit is adjustable.
Sankai path 701,1H delay line 702, the comparator 70
3 inclusive.

【0059】図8に示す垂直方向膨張回路は、図6に示
す垂直方向膨張回路と同様の効果を得る回路であり、1
Hディレイライン702と加減算回路701により1H
分の画素の数と同数のアップダウンカウンタと等価の動
作を行なう。
The vertical expansion circuit shown in FIG. 8 has the same effect as the vertical expansion circuit shown in FIG.
1H by the H delay line 702 and the addition / subtraction circuit 701
An operation equivalent to the number of up-down counters equal to the number of pixels per minute is performed.

【0060】図9に加減算回路701の構成を示す回路
図を示す。図9において、加減算回路701は、NOR
ゲート801〜803、ANDゲート804〜806、
813、ORゲート807〜810、NANDゲート8
11、812を含む。加減算回路701は、図9に示す
ように4ビット構成となっており、INC/DEC信号
が“1”のとき1だけ加算し、“0”のときは1だけ減
算して4ビットの出力信号S0〜S3を出力する。ま
た、NANDゲート811、812は、アップ/ダウン
の制限をするもので、ダウン動作のときは“0”でスト
ップし、アップ動作のときは“10”以上にカウントア
ップしないようにするものである。加減算回路701
は、上記のような動作を行ない、出力信号を比較器70
3へ入力する。比較器703は所定のしきい値と加減算
回路701の出力信号とを比較し、比較結果を膨張二値
画像データとして出力する。
FIG. 9 is a circuit diagram showing the configuration of the addition / subtraction circuit 701. In FIG. 9, an addition / subtraction circuit 701 includes a NOR
Gates 801-803, AND gates 804-806,
813, OR gates 807 to 810, NAND gate 8
11, 812. The addition / subtraction circuit 701 has a 4-bit configuration as shown in FIG. 9. When the INC / DEC signal is “1”, the addition / subtraction circuit 701 adds 1 when the INC / DEC signal is “0”, and subtracts 1 when the INC / DEC signal is “0”. S0 to S3 are output. The NAND gates 811 and 812 limit the up / down operation, and stop at “0” during the down operation and do not count up to “10” or more during the up operation. . Addition / subtraction circuit 701
Performs the operation described above, and compares the output signal with the comparator 70.
Enter 3 The comparator 703 compares the predetermined threshold value with the output signal of the addition / subtraction circuit 701, and outputs the comparison result as dilated binary image data.

【0061】図10に、図8に示す垂直方向膨張回路の
信号波形を示す。図10の横軸は画像の垂直方向にとっ
た時間軸を示している。図10に示すように、加減算回
路701へ入力した入力信号は、上記の処理により波形
が変換され、所定のしきい値と比較されたあと比較器7
03から二値データとして出力される。上記の処理によ
り、垂直方向膨張回路は動き検出信号の欠陥を埋める働
きをする。図8に示す垂直方向膨張回路も図6に示す垂
直方向膨張回路と同様に、小さい回路規模で大きな領域
にわたる二値膨張回路を実現することができる。
FIG. 10 shows signal waveforms of the vertical expansion circuit shown in FIG. The horizontal axis in FIG. 10 indicates the time axis taken in the vertical direction of the image. As shown in FIG. 10, the waveform of the input signal input to the addition / subtraction circuit 701 is converted by the above-described processing and is compared with a predetermined threshold value.
03 is output as binary data. By the above processing, the vertical expansion circuit functions to fill in the defect of the motion detection signal. As with the vertical expansion circuit shown in FIG. 6, the vertical expansion circuit shown in FIG. 8 can realize a binary expansion circuit over a large area with a small circuit scale.

【0062】上記2つの垂直方向膨張回路は本実施例に
のみ適用されるものではなく、TV電話、ドアホンカメ
ラ、ビデオ一体型ムービー、監視装置、特定物体検出装
置等の二値画像データを膨張させた膨張二値画像データ
を用いる画像処理装置に同様に適用することができる。
The above two vertical expansion circuits are not applied only to the present embodiment, but expand the binary image data of a TV phone, a door phone camera, a video integrated movie, a monitoring device, a specific object detection device and the like. The present invention can be similarly applied to an image processing apparatus using expanded dilated image data.

【0063】次に、撮影画像の中の動き物体の動きが遅
いときの動作について説明する。撮影画像の中の動き物
体の動きが遅いとき、フレームメモリ302の内容をフ
レームごとに更新すると、その差分値dyは非常に小さ
いので、動き検出信号が得られない場合がある。このよ
うな場合、フレームメモリ302の更新をkフレームご
とに行なえば、十分な動き検出信号を得ることができ
る。本実施例では、対象となる動き物体の動きの速度に
適応して、フレームメモリ302の更新が行なえるよう
にフレームメモリ制御部308を備えている。すなわ
ち、動き検出部3、最大動き物体検出回路9、第1領域
制限回路5、頭頂座標検出回路10、第2領域制限回路
6、動き特徴量抽出回路11、切換回路14、15、動
き判定回路18により、動き検出部3の動き検出信号か
ら、対象物体が十分に動いたかどうか判定することによ
り、その動き判定結果が十分であれば、モード設定回路
20のモードを“1”から“2”へ更新する。モード
“2”では、ライトモード制御信号は“L”であり、フ
レームメモリ302は第nフレームの画像データを保持
したまま読出モードであり、絶対差分器303は次の第
n+2フレームとの画像間の差が動き検出信号として検
出され、動き検出部から出力される。上記の処理によ
り、撮影画像の中の動き物体の動きが遅い場合でも、十
分な動き検出信号を得ることができる。
Next, the operation when the movement of the moving object in the photographed image is slow will be described. When the motion of the moving object in the captured image is slow, if the content of the frame memory 302 is updated for each frame, the difference value dy is very small, so that a motion detection signal may not be obtained. In such a case, if the frame memory 302 is updated every k frames, a sufficient motion detection signal can be obtained. In the present embodiment, a frame memory control unit 308 is provided so that the frame memory 302 can be updated according to the speed of movement of the target moving object. That is, the motion detecting section 3, the maximum moving object detecting circuit 9, the first area limiting circuit 5, the parietal coordinate detecting circuit 10, the second area limiting circuit 6, the motion feature extracting circuit 11, the switching circuits 14, 15, the motion determining circuit At 18, it is determined whether or not the target object has sufficiently moved from the motion detection signal of the motion detecting section 3. If the result of the motion determination is sufficient, the mode of the mode setting circuit 20 is changed from "1" to "2". Update to In the mode “2”, the write mode control signal is “L”, the frame memory 302 is in the read mode while holding the image data of the n-th frame, and the absolute differentiator 303 is in the read mode between the next (n + 2) -th frame. Is detected as a motion detection signal, and is output from the motion detection unit 3 . With the above processing, a sufficient motion detection signal can be obtained even when the motion of the moving object in the captured image is slow.

【0064】次に、エッジ検出部4について詳細に説明
する。図11は、エッジ検出部4の構成を示すブロック
図である。
Next, the edge detecting section 4 will be described in detail. FIG. 11 is a block diagram illustrating a configuration of the edge detection unit 4.

【0065】図11において、エッジ検出部4は、1H
ディレイライン901、902、画素遅延器903、X
微分器904、Y微分器905、FIX差分器906、
907、比較器908、909、除算器910を含む。
また、画素遅延器903は、フリップフロップ911〜
916を含む。
In FIG. 11, the edge detection unit 4 is 1H
Delay lines 901, 902, pixel delay unit 903, X
Differentiator 904, Y differentiator 905, FIX differentiator 906,
907, comparators 908 and 909, and a divider 910.
The pixel delay unit 903 includes flip-flops 911 to
916.

【0066】A/D変換器1から出力されたデジタル画
像信号は1Hディレイライン901、902によって、
それぞれ1ライン分の遅延と2ライン分の遅延をもった
画像信号を生成する。現画像データ、1ライン遅延デー
タ、2ライン遅延データをそれぞれa(0,0)、a
(0,−1)、a(0,−2)とすると、生成されたa
(0,0)、a(0,−1)、a(0,−2)は画素単
位の遅延を生成する画素遅延器903に入力され、a
(0,0)、a(−1,0)、a(−2,0)、a
(0,−1)、a(−1,−1)、a(−2,−1)、
a(0,−2)、a(−1,−2)、a(−2,−2)
の9個の遅延信号を出力する。9個の遅延信号のうち、
中央の輝度データa(−1,−1)は、除算器910に
入力され、除算係数Bで除算され、後段の比較器90
8、909へ出力される。この場合、除算係数Bが2の
べき乗の場合は、単なるビットシフトでよいため、除算
器910の構成が簡単となる。
The digital image signal output from the A / D converter 1 is transmitted through 1H delay lines 901 and 902.
An image signal having a delay of one line and a delay of two lines is generated. The current image data, the one-line delay data, and the two-line delay data are represented by a (0, 0) and a, respectively.
If (0, -1) and a (0, -2), the generated a
(0, 0), a (0, -1), and a (0, -2) are input to a pixel delay unit 903 that generates a delay in pixel units.
(0,0), a (-1,0), a (-2,0), a
(0, -1), a (-1, -1), a (-2, -1),
a (0, -2), a (-1, -2), a (-2, -2)
Are output. Of the nine delayed signals,
The central luminance data a (−1, −1) is input to a divider 910, is divided by a division coefficient B, and is output to a comparator 90 at the subsequent stage.
8, 909. In this case, when the division coefficient B is a power of two, a simple bit shift is sufficient, and the configuration of the divider 910 is simplified.

【0067】一方、9個の遅延信号はX微分器904と
Y微分器905に入力され、X微分器904とY微分器
905では以下の計算が行なわれる。X微分器904の
出力をDX、Y微分器905の出力をDYとすると、以
下の式で表される。
On the other hand, the nine delay signals are input to an X differentiator 904 and a Y differentiator 905, and the X differentiator 904 and the Y differentiator 905 perform the following calculation. Assuming that the output of the X differentiator 904 is DX and the output of the Y differentiator 905 is DY, the output is expressed by the following equation.

【0068】 DX=|a(0,0)+2×a(0,−1)+a(0,−2)−a(−2,0 )−2×a(−2,−1)−a(−2,−2)|…(5) DY=|a(0,0)+2×a(−1,0)+a(−2,0)−a(0,−2 )−2×a(−1,−2)−a(−2,−2)|…(6) ここで、DXの意味するところは画像の縦線成分で、D
Yの意味するところは画像の横線成分であるとみなすこ
とができる。
DX = | a (0,0) + 2 × a (0, −1) + a (0, −2) −a (−2,0) −2 × a (−2, −1) −a ( DY = | a (0,0) + 2 × a (−1,0) + a (−2,0) −a (0, −2) −2 × a (− 1,6) -a (-2, -2) | (6) where DX means the vertical line component of the image,
The meaning of Y can be regarded as a horizontal line component of the image.

【0069】次に、上記の計算を実行するX微分器90
4、Y微分器905について説明する。
Next, an X differentiator 90 for executing the above calculation
4. The Y differentiator 905 will be described.

【0070】図12は、X微分器904の構成を示すブ
ロック図である。図12において、X微分器904は、
加算器920、921、絶対差分器922を含む。入力
信号a(0,0)、2×a(0,−1)、a(0,−
2)は加算器920に入力され、加算された後、絶対差
分器922へ出力される。遅延信号a(−2,0)、2
×a(−2,−1)、a(−2,−2)は加算器921
へ入力され、加算された後絶対差分器922へ出力され
る。絶対差分器922は、加算器920および加算器9
21から出力された絶対差分を求め、出力信号DXを出
力する。以上の動作により、上記の計算式に基づいた出
力信号DXを出力することが可能となる。
FIG. 12 is a block diagram showing the configuration of the X differentiator 904. In FIG. 12, X differentiator 904 is
It includes adders 920 and 921 and an absolute difference unit 922. Input signal a (0,0), 2 × a (0, −1), a (0, −
2) is input to the adder 920, added, and output to the absolute differentiator 922. Delayed signal a (-2,0), 2
× a (−2, −1) and a (−2, −2) are adders 921
The signal is added to the input signal, and is output to the absolute differentiator 922 after the addition. The absolute differentiator 922 includes an adder 920 and an adder 9
The absolute difference output from 21 is obtained, and an output signal DX is output. With the above operation, it is possible to output the output signal DX based on the above calculation formula.

【0071】図13は、Y微分器905の構成を示すブ
ロック図である。図13において、Y微分器905は、
加算器923、924、絶対差分器925を含む。Y微
分器905の構成は、図12に示したX微分器904の
構成と同様であるので、その説明を省略する。
FIG. 13 is a block diagram showing the configuration of the Y differentiator 905. In FIG. 13, the Y differentiator 905 is
It includes adders 923 and 924 and an absolute difference unit 925. The configuration of Y differentiator 905 is the same as the configuration of X differentiator 904 shown in FIG.

【0072】上記のX微分器904、Y微分器905に
より、上記の計算式を実行し、出力信号DX、DYを得
ることが可能となる。
With the above X differentiator 904 and Y differentiator 905, it is possible to execute the above formula and obtain output signals DX and DY.

【0073】次に、FIX差分器906、907の動作
について説明する。FIX差分器906、907では以
下の計算が行なわれる。FIX差分器906の出力をU
X、FIX差分器907の出力UYとすると、次式で計
算される。
Next, the operation of the FIX differentiators 906 and 907 will be described. The FIX differentiators 906 and 907 perform the following calculations. The output of the FIX differentiator 906 is
Assuming that the output UY of the X, FIX differencer 907 is calculated by the following equation.

【0074】 UX=DX−DY (DX>DY)…(7) UX=0 (DX≦DY)…(8) UY=DY−DX (DY>DX)…(9) UY=0 (DY≦DX)…(10) 上記の計算を行なうFIX差分器906およびFIX差
分器907の構成を図14、図15に示す。図14に示
すように、FIX差分器906は、差分器926、AN
Dゲート927を含む。同様に、図15において、FI
X差分器907は、差分器928、ANDゲート929
を含む。差分器926には、X微分器904の出力信号
DXおよびY微分器905の出力信号DYが入力され、
差分処理が行なわれた後、ANDゲート927へ出力さ
れる。ANDゲート927は入力信号の論理積を出力信
号UXとして出力する。FIX差分器907も同様であ
る。上記の動作により、FIX差分器906、907は
上記の計算式に基づき、出力信号UX、UYを出力する
ことができる。この結果、孤立ノイズが互いに打ち消さ
れ、エッジ成分が強調された縦線成分の出力信号UXと
横線成分の出力信号UYを得ることが可能となる。
UX = DX−DY (DX> DY) (7) UX = 0 (DX ≦ DY) (8) UY = DY−DX (DY> DX) (9) UY = 0 (DY ≦ DX) (10) FIGS. 14 and 15 show the configurations of the FIX differentiator 906 and the FIX differentiator 907 for performing the above calculations. As shown in FIG. 14, the FIX differentiator 906 includes a differentiator 926, AN
D gate 927 is included. Similarly, in FIG.
The X differentiator 907 includes a differentiator 928 and an AND gate 929.
including. The output signal DX of the X differentiator 904 and the output signal DY of the Y differentiator 905 are input to the differentiator 926.
After the difference processing is performed, it is output to the AND gate 927. AND gate 927 outputs a logical product of the input signals as output signal UX. The same applies to the FIX differentiator 907. According to the above operation, the FIX differentiators 906 and 907 can output the output signals UX and UY based on the above calculation formula. As a result, it is possible to obtain an output signal UX of a vertical line component and an output signal UY of a horizontal line component in which isolated noises are canceled each other and edge components are emphasized.

【0075】比較器908、909の一方の入力端子に
は、FIX差分器906、907の出力信号UX、UY
が入力され、もう一方の端子には除算器910の出力信
号である輝度値a(−1,−1)を所定値Bで除算した
信号が入力される。この結果、比較器908の出力信号
EDGEXは以下の式で表される。
The output signals UX, UY of the FIX differentiators 906, 907 are connected to one input terminals of the comparators 908, 909, respectively.
Is input to the other terminal, and a signal obtained by dividing a luminance value a (-1, -1), which is an output signal of the divider 910, by a predetermined value B is input. As a result, the output signal EDGEX of the comparator 908 is expressed by the following equation.

【0076】 EDGEX=1 (UX>a(−1,−1)/B)…(11) EDGEX=0 (UX≦a(−1,−1)/B)…(12) 上記の計算により、エッジ成分が強調された信号を輝度
値で正規化した信号を二値データとして出力することが
可能となる。同様に、比較器909の出力信号EDGE
Yも次式で計算される。
EDGEX = 1 (UX> a (−1, −1) / B) (11) EDGEX = 0 (UX ≦ a (−1, −1) / B) (12) According to the above calculation, It is possible to output a signal obtained by normalizing a signal in which an edge component is emphasized by a luminance value as binary data. Similarly, the output signal EDGE of the comparator 909
Y is also calculated by the following equation.

【0077】 EDGEY=1 (UY>a(−1,−1)/B)…(13) EDGEY=0 (UY≦a(−1,−1)/B)…(14) 上記のように、縦線成分および横線成分が輝度値により
正規化され、シューティングに強いエッジ検出器が得ら
れる。また、同時に二値化しているため、後段の処理が
簡略化され回路規模が少なくて済むという利点もある。
EDGEY = 1 (UY> a (−1, −1) / B) (13) EDGEY = 0 (UY ≦ a (−1, −1) / B) (14) As described above, The vertical line component and the horizontal line component are normalized by the luminance value, and an edge detector that is strong in shooting is obtained. In addition, since the binarization is performed at the same time, there is an advantage that the subsequent processing is simplified and the circuit scale is reduced.

【0078】上記のエッジ検出部は、エッジを検出す
るために上記のソーベル(SOBEL)オペレータを採
用しているが、ソーベルオペレータの代わりにプレウィ
ット(PREWITT)オペレータまたはロバーツ(R
OBERTS)オペレータ等を採用しても同様の効果を
得ることができる。
The edge detector 4 employs the above-described SOBEL operator to detect an edge. Instead of the Sobel operator, a PREWITT operator or Roberts (R) operator is used.
The same effect can be obtained by employing an OBERTS) operator or the like.

【0079】また、上記のエッジ検出部では、FIX
差分器906、907による絶対差分を行ない、かつ、
比較器908、909、除算器910による輝度値によ
る正規化を行なっているが、前者では、孤立ノイズ成分
を取除き、エッジ成分が強調された純粋なエッジ信号を
得ることができるので、ノイズの影響の少ないエッジ検
出を実現することができ、後者では、輝度値で正規化す
ることによりシューティングに強いエッジ検出を実現す
ることができる。したがって、どちらか一方のみをエッ
ジ検出部へ適用してもよい。
In the above-mentioned edge detecting section 4 , FIX
The absolute difference by the differentiators 906 and 907 is performed, and
Although the normalization based on the luminance value is performed by the comparators 908 and 909 and the divider 910, in the former, a pure edge signal in which an edge component is enhanced by removing an isolated noise component can be obtained. Edge detection with little influence can be realized, and in the latter case, edge detection that is strong in shooting can be realized by normalizing with a luminance value. Therefore, only one of them may be applied to the edge detection unit 4 .

【0080】また、上記のエッジ検出部の適用は本実
施例に限られるものではなく、TV電話、ドアホンカメ
ラ、ビデオ一体型ムービー、監視装置、特定物体検出装
置等の画像データからエッジ成分を検出する画像処理装
置に同様に適用することが可能である。
The application of the edge detecting section 4 is not limited to the present embodiment, and an edge component is obtained from image data of a TV phone, a door phone camera, a video integrated movie, a monitoring device, a specific object detecting device, and the like. The present invention can be similarly applied to an image processing apparatus for detecting.

【0081】次に、タイミング発生部2について、以下
詳細に説明する。図16は、タイミング発生部2の構成
を示す回路図である。
Next, the timing generator 2 will be described in detail. FIG. 16 is a circuit diagram showing a configuration of the timing generator 2.

【0082】図16において、タイミング発生部2は、
カウンタ1301、1302、NANDゲート130
3、1304、ANDゲート1305を含む。TVカメ
ラ等から供給される画素クロック信号CLK、水平同期
パルスHDおよび垂直同期パルスVDは、タイミング発
生部2へ入力される。ここで、画素クロック信号CLK
はカウンタ1301、1302のクロック入力端子へ、
水平同期パルスHDはカウンタ1301のクリア端子と
ANDゲート1305の入力端子へ、垂直同期パルスV
Dはカウンタ1302のクリア端子へ入力される。カウ
ンタ1301は水平同期パルスHDによりクリアされ、
画素クロック信号CLKでカウントアップしていく。カ
ウン1301が8ビット構成であるとすると255ま
でカウントアップした時点で、NANDゲート1303
の出力信号が“L”となり、カウンタ1301をディス
エーブル状態にしてカウント動作を止める。再度HDパ
ルスが入力されると上記動作を繰返す。すなわち、カウ
ンタ1301は画像のX軸方向に画素単位につけたアド
レスXADRとして出力する。
In FIG. 16, the timing generator 2
Counters 1301, 1302, NAND gate 130
3, 1304, and an AND gate 1305. The pixel clock signal CLK, the horizontal synchronization pulse HD, and the vertical synchronization pulse VD supplied from a TV camera or the like are input to the timing generation unit 2. Here, the pixel clock signal CLK
To the clock input terminals of the counters 1301 and 1302,
The horizontal synchronizing pulse HD is supplied to the clear terminal of the counter 1301 and the input terminal of the AND gate 1305 to the vertical synchronizing pulse V
D is input to the clear terminal of the counter 1302. The counter 1301 is cleared by the horizontal synchronization pulse HD,
It counts up with the pixel clock signal CLK. Once mosquito <br/> down data 1301 which counts up to 255 When an 8-bit configuration, NAND gate 1303
Becomes "L", the counter 1301 is disabled, and the counting operation is stopped. When the HD pulse is input again, the above operation is repeated. That is, the counter 1301 outputs an address XADR assigned to each pixel in the X-axis direction of the image.

【0083】カウンタ1302は、垂直同期パルスVD
によってクリアされ、水平同期パルスHDが1個入力さ
れるたびにカウントアップしていく。すなわち、カウン
タ1302は画素のY軸方向につけたアドレスYADR
となる。
The counter 1302 receives the vertical synchronizing pulse VD
And is counted up every time one horizontal synchronization pulse HD is input. That is, the counter 1302 stores the address YADR assigned to the pixel in the Y-axis direction.
Becomes

【0084】図17に画像とアドレスXADR、YAD
Rとの対応関係を示す。図17に示すように、アドレス
XADRは画像の左から右へいくほど大きくなり、アド
レスYADRは画像の上から下へいくほど大きくなる。
したがって、アドレスXADR、YADRにより画像の
所定の位置を特定することが可能となる。
FIG. 17 shows an image and addresses XADR and YAD.
The correspondence with R is shown. As shown in FIG. 17, the address XADR increases from left to right of the image, and the address YADR increases from top to bottom of the image.
Therefore, it is possible to specify a predetermined position of the image by the addresses XADR and YADR.

【0085】次に、最大動き物体検出回路について以
下に説明する。図18は、モード設定回路20の各モー
ドを説明する図である。モード設定回路20のモードが
“1”のとき、動き検出部3の出力は二値化された動き
情報であり、最大動き物体検出回路9へ入力されてい
る。最大動き物体検出回路9では、動き情報をX軸に累
積加算し、図18の(a)に示すように動き物体の最も
大きい領域をX軸方向(横方向)に検出する。図19
は、最大動き物体検出回路9の構成を示す図である。
Next, the maximum moving object detecting circuit 9 will be described below. FIG. 18 is a diagram illustrating each mode of the mode setting circuit 20. When the mode of the mode setting circuit 20 is “1”, the output of the motion detection unit 3 is binarized motion information, which is input to the maximum motion object detection circuit 9. The maximum moving object detection circuit 9 accumulates the motion information on the X axis and detects the largest area of the moving object in the X axis direction (lateral direction) as shown in FIG. FIG.
3 is a diagram showing a configuration of a maximum moving object detection circuit 9. FIG.

【0086】図19において、最大動き物体検出回路9
は、加算器1401、ラインメモリ1402、セレクタ
1403、ローパスフィルタ1404、ピーク検出回路
1405、比較器1406、1415、1419、14
21、立上がり検出回路1407、立下がり検出回路1
408、フリップフロップ1409、1410、141
2、1413、減算器1411、1414、ANDゲー
ト1416、ダウンカウンタ1417、ORゲート14
18、1422、アップカウンタ1420を含む。
In FIG. 19, the maximum moving object detection circuit 9
Represents an adder 1401, a line memory 1402, a selector 1403, a low-pass filter 1404, a peak detection circuit 1405, and comparators 1406, 1415, 1419, and 14.
21, rising detection circuit 1407, falling detection circuit 1
408, flip-flops 1409, 1410, 141
2, 1413, subtractors 1411, 1414, AND gate 1416, down counter 1417, OR gate 14
18, 1422 and an up counter 1420.

【0087】セレクタ1403は、モード“1”でブラ
ンキング期間以外は端子1と端子4とが接続されてお
り、加算器1401によってラインメモリ1402に同
じアドレスXADRに対応する位置の動き検出信号が蓄
積されていく。画像領域の走査が終了し、垂直ブランキ
ング期間に入ると、セレクタ1403は端子2と端子4
とを接続し、アドレスXADRが更新するたびにライン
メモリ1402から読出された動き累積値がローパスフ
ィルタ1404で平滑化され、再度ラインメモリ140
2へ戻される。垂直ブランキング期間の第1ライン目で
アドレスXADRはアップ方向へスキャンするが、X軸
方向の対称性を維持するために、第2ライン目はアドレ
スXADRを逆方向にスキャンして、ローパスフィルタ
をかける。このとき、アドレスXADRを逆スキャンす
るには、アドレスXADRにインバータを通せば簡単に
実現できる。第3ライン目はアドレスXADRのスキャ
ンを逆方向に戻し、ラインメモリの累積データからその
ピーク値をピーク検出回路1405で検出する。第4ラ
イン目は検出したピーク値に比例したしきい値で、ライ
ンメモリ1402から読出したデータを二値化する。二
値化された1次元の動き情報は立上がり検出回路140
7と立下がり検出回路1408に入力され、立上がりパ
ルスはフリップフロップ1409のイネーブル端子に入
力され、そのときのX座標をアドレスXADRを保持す
ることで得る。また、二値化された1次元の動き情報が
“H”から“L”へ変化すると、フリップフロップ14
10はアドレスXADRをホールドすることにより、そ
の立下がりのX座標を得る。最初の状態ではフリップフ
ロップ1412、1413はリセットされて“0”であ
る。これらの出力は減算器1414へ入力され、その差
分がとられ、減算器1414の出力は“0”となってお
り、比較器1415のb入力端子へ入力されている。
In the selector 1403, the terminal 1 and the terminal 4 are connected in the mode “1” except during the blanking period, and the adder 1401 stores the motion detection signal at the position corresponding to the same address XADR in the line memory 1402. Will be done. When the scanning of the image area ends and the vertical blanking period starts, the selector 1403 sets the terminal 2 and the terminal 4
Is connected, and every time the address XADR is updated, the motion accumulated value read from the line memory 1402 is smoothed by the low-pass filter 1404, and the line memory 140
Returned to 2. The address XADR scans in the up direction on the first line in the vertical blanking period, but in order to maintain symmetry in the X-axis direction, the second line scans the address XADR in the reverse direction and applies a low-pass filter. Multiply. At this time, an address XAD R in reverse scan, can be easily realized if passed an inverter address XADR. In the third line, the scan at the address XADR is returned in the reverse direction, and the peak value is detected by the peak detection circuit 1405 from the accumulated data in the line memory. The fourth line is a threshold value proportional to the detected peak value, and binarizes data read from the line memory 1402. The binarized one-dimensional motion information is supplied to a rising detection circuit 140.
7 and the falling pulse are input to the falling detection circuit 1408, and the rising pulse is input to the enable terminal of the flip-flop 1409, and the X coordinate at that time is obtained by holding the address XADR. Also, when the binarized one-dimensional motion information changes from “H” to “L”, the flip-flop 14
Numeral 10 holds the address XADR to obtain the falling X coordinate. In the initial state, the flip-flops 1412 and 1413 are reset to “0”. These outputs are input to a subtractor 1414, the difference between them is obtained, and the output of the subtractor 1414 is "0", which is input to the b input terminal of the comparator 1415.

【0088】一方、最初に出力された動き物体のX座標
の右側と左側の位置は、それぞれフリップフロップ14
09、1410に記憶されており、その動き物体の大き
さはフリップフロップ1409、1410の差分で得ら
れる。すなわち、減算器1411の出力がその動き物体
の大きさを出力し、比較器1415のa入力端子へ入力
される。このとき、比較器1415のa入力端子へ入力
される信号はb端子へ入力される信号より大きいので、
比較器1415の出力は“1”となり、ANDゲート1
416の一方の入力端子へ“1”の信号が入力される。
一方、アドレスXADRが物体の右端の位置までカウン
トアップすると、立下がり検出回路1408が動作し、
1クロック分だけ“1”を出力し、ANDゲート141
6のもう一方の端子へ入力され、ANDゲート1416
の出力は1クロック分だけ“1”になる。この結果、フ
リップフロップ1412、1413をイネーブルにし、
フリップフロップ1409、1410の座標データがフ
リップフロップ1412、1413に転送される。も
し、フリップフロップ1412、1413の差分がフリ
ップフロップ1409、1410の差分よりも小さい場
合には、比較器1415の出力は“0”となり、AND
ゲート1416の出力も“0”となり、フリップフロッ
プ1412、1413は更新されない。すなわち、X軸
方向に最も大きい動き物体の座標のみがフリップフロッ
プ1412、1413に残り、出力信号Xa1、Xb1
として出力される。
On the other hand, the positions on the right and left sides of the X coordinate of the moving object output first are respectively indicated by flip-flops 14.
09 and 1410, and the size of the moving object is obtained by the difference between the flip-flops 1409 and 1410. That is, the output of the subtractor 1411 outputs the size of the moving object and is input to the a input terminal of the comparator 1415. At this time, since the signal input to the a input terminal of the comparator 1415 is larger than the signal input to the b terminal,
The output of the comparator 1415 becomes “1”, and the AND gate 1
A signal of “1” is input to one input terminal of 416.
On the other hand, when the address XADR counts up to the right end position of the object, the falling detection circuit 1408 operates,
"1" is output for one clock, and an AND gate 141 is output.
6 to the other terminal of the AND gate 1416
Is "1" for one clock. As a result, the flip-flops 1412 and 1413 are enabled,
The coordinate data of the flip-flops 1409 and 1410 are transferred to the flip-flops 1412 and 1413. If the difference between the flip-flops 1412 and 1413 is smaller than the difference between the flip-flops 1409 and 1410, the output of the comparator 1415 is “0”, and AND
The output of the gate 1416 also becomes “0”, and the flip-flops 1412 and 1413 are not updated. That is, only the coordinates of the largest moving object in the X-axis direction remain in the flip-flops 1412 and 1413, and the output signals Xa1 and Xb1
Is output as

【0089】次に、最大動き物体検出回路9の適用的膨
張機能について説明する。動き検出信号である比較器1
406の出力の立がりのタイミングで立がり検出回
路1408から1クロック分だけ“1”を出力し、ダウ
ンカウンタ1417に減算器1411の出力がロードさ
れる。減算器1411の出力は、このとき、動き物体の
大きさであり、この出力に比例したデータをダウンカウ
ンタ1417に与えてやれば、物体の大きさに適応して
膨張幅を決定することができる。この場合、減算器14
11の出力が“16”のとき、3ビットシフトした
“2”をダウンカウンタ1417にロードすれば、
“2”が“0”になるまでカウントダウンすると、OR
ゲート1418の出力は“0”となり、ダウンカウンタ
1417はディスエーブルとなる。したがって、この場
合、比較器1406の出力は、幅16のパルスが2だけ
膨張し、幅18のパルスとしてORゲート1422から
出力される。図20に上記の動作による最大動き物体検
出回路9の各部の波形を示す。
Next, the applicable expansion function of the maximum moving object detection circuit 9 will be described. Comparator 1 which is a motion detection signal
From falling below rising detection circuit 1408 at the timing of rising falling under the output of 406 by one clock and outputs "1", the output of the subtractor 1411 is loaded into down counter 1417. The output of the subtractor 1411 at this time is the size of the moving object, and if data proportional to this output is given to the down counter 1417, the expansion width can be determined according to the size of the object. . In this case, the subtractor 14
When the output of 11 is “16”, by loading “2” shifted by 3 bits into the down counter 1417,
When counting down until “2” becomes “0”, OR
The output of the gate 1418 becomes "0" and the down counter 1417 is disabled. Accordingly, in this case, the output of the comparator 1406 is output from the OR gate 1422 as a pulse having a width of 18 by expanding a pulse having a width of 16 by two. FIG. 20 shows the waveform of each part of the maximum motion object detection circuit 9 by the above operation.

【0090】次に、第4ライン目ではセレクタ1403
は端子3と端子4とを接続し、適応的に膨張したデータ
がラインメモリ1402へ書込まれる。
Next, in the fourth line, the selector 1403
Connects the terminal 3 and the terminal 4, and adaptively expanded data is written to the line memory 1402.

【0091】次に、第5ライン目では、第4ライン目の
動作とほぼ同様で、アドレスXADRのスキャン方向が
逆になるだけである。第5ライン目では、第4ライン目
と逆方向に適応的膨張がなされる。第6ライン目では、
第4ライン目と同様の動作であり、ラインメモリ140
2を更新しない点だけが異なる。
Next, on the fifth line, the operation is the same as that on the fourth line, except that the scan direction of the address XADR is reversed. On the fifth line, adaptive expansion is performed in the direction opposite to the fourth line. On the sixth line,
The operation is similar to that of the fourth line.
The only difference is that 2 is not updated.

【0092】立下がり検出回路1408の出力は、アッ
プカウンタ1420へ入力しており、立下がりパルスの
個数を計数する。立下がりパルスの個数は、動き物体の
個数と等しく、比較器1421によってその個数が十分
かどうかを判定され、所定の個数以下の場合は“1”が
出力される。判定結果は、物体個数判定結果として出力
される。また、フリップフロップ1412、1413に
記憶された最大物体の座標は、減算器1414によりそ
の物体幅が計算され、比較器1419によって所定の大
きさ以上のとき“1”が出力される。この判定結果は、
最大物体判定結果として出力される。
The output of falling detection circuit 1408 is input to up counter 1420, and counts the number of falling pulses. The number of falling pulses is equal to the number of moving objects, and it is determined by comparator 1421 whether the number is sufficient. If the number is less than a predetermined number, "1" is output. The determination result is output as the object number determination result. The object width of the coordinates of the largest object stored in the flip-flops 1412 and 1413 is calculated by the subtractor 1414, and “1” is output by the comparator 1419 when the size is equal to or larger than a predetermined size. This judgment result is
Output as the maximum object determination result.

【0093】上記の動作により、最大動き物体検出回路
9は2値画像データの連結長さに適応した膨張データを
作成することが可能となる。
With the above operation, the maximum moving object detection circuit 9 can create dilation data adapted to the connection length of the binary image data.

【0094】上記の最大動き物体検出回路9の適用は、
本実施例に限られるものではなく、たとえば、TV電
話、ドアホンカメラ、ビデオ一体型ムービー、監視装
置、特定物体検出装置等の二値化画像処理において適応
的膨張信号を用いる画像処理装置に適用することが可能
である。
The application of the maximum motion object detection circuit 9 is as follows.
The present invention is not limited to this embodiment, and is applied to, for example, an image processing device using an adaptive expansion signal in binary image processing such as a TV phone, a door phone camera, a video integrated movie, a monitoring device, and a specific object detection device. It is possible.

【0095】次に、モード設定回路20の各モードに対
応した動作について説明する。モード設定回路20のモ
ードが“1”のとき、最大動き物体検出回路9から出力
された判定結果は動き判定回路18で判定され、動き物
体の個数が所定の個数以下で、かつ、最大物体の大きさ
が所定の幅以上であるとき、“1”を出力し、モード設
定回路のモードを“2”にする。その他の場合は“0”
を出力し、モードを“1”のままにする。モードが
“1”のとき、動き検出部3の中のフレームメモリ30
2は更新しないため、第mフレームの画像が記憶されて
いる。動き判定結果が“0”のとき、もう1度モード
“1”が繰返されることになり、動き情報は第mフレー
ムと第m+2フレームとの間の動きが反映される。動き
物体の動きが非常に遅いとき、各フレームでの動き判定
結果は“0”が連続し、フレームメモリの内容が更新さ
れず、動き情報は第mフレームと第m+kフレームとで
動き物体が十分に動くまで、次のモードに変わらないよ
うになっている。動き物体が十分に動き、動き判定結果
が“1”になると初めてモード設定回路20のモードは
“2”となる。
Next, the operation of the mode setting circuit 20 corresponding to each mode will be described. When the mode of the mode setting circuit 20 is “1”, the judgment result output from the maximum moving object detecting circuit 9 is judged by the motion judging circuit 18, and the number of moving objects is equal to or less than a predetermined number, and When the size is equal to or larger than the predetermined width, "1" is output, and the mode of the mode setting circuit is set to "2". "0" otherwise
Is output, and the mode is kept at “1”. When the mode is “1”, the frame memory 30 in the motion detection unit 3
Since 2 is not updated, the image of the m-th frame is stored. When the motion determination result is "0", the mode "1" is repeated again, and the motion information reflects the motion between the m-th frame and the (m + 2) -th frame. When the motion of the moving object is extremely slow, the motion determination result in each frame is continuously “0”, the contents of the frame memory are not updated, and the motion information is sufficient for the m-th frame and the (m + k) -th frame. Until it moves, it will not change to the next mode. The mode of the mode setting circuit 20 becomes "2" only when the moving object has sufficiently moved and the result of the motion determination becomes "1".

【0096】モード設定回路20のモードが“2”にな
ると、切換回路14は、端子a側を接続し、最大動き物
体の座標値Xa1、Xb1が第1領域制限回路5へ入力
される。一方、タイミング発生部2からは、画像のX軸
方向のアドレスXADRを示す信号が入力され、動き検
出部3からは動き検出信号MOV1が第1領域制限回路
5へ入力される。第1領域制限回路5では動き検出信号
MOV1をX軸方向に制限し、頭頂座標検出回路10へ
出力する。すなわち、図18の(b)に示すように、モ
ード“1”で検出された最も大きな動き物体のX軸方向
の領域のみが検出の対象となり、その領域の動き物体の
頭頂座標Ytopが頭頂座標検出回路10により検出さ
れる。
When the mode of the mode setting circuit 20 becomes “2”, the switching circuit 14 connects the terminal “a”, and the coordinate values Xa 1 and Xb 1 of the maximum moving object are input to the first area limiting circuit 5. On the other hand, a signal indicating the address XADR in the X-axis direction of the image is input from the timing generation unit 2, and a motion detection signal MOV 1 is input from the motion detection unit 3 to the first area limiting circuit 5. The first area restriction circuit 5 restricts the motion detection signal MOV1 in the X-axis direction and outputs the motion detection signal MOV1 to the parietal coordinate detection circuit 10. That is, as shown in FIG. 18B, only the region in the X-axis direction of the largest moving object detected in mode “1” is to be detected, and the top coordinate Ytop of the moving object in that region is the top coordinate. It is detected by the detection circuit 10.

【0097】次に、第1領域制限回路5について以下に
詳細に説明する。図21は、第1領域制限回路5の構成
を示す図である。
Next, the first area limiting circuit 5 will be described in detail below. FIG. 21 is a diagram showing a configuration of the first area limiting circuit 5.

【0098】図21において、第1領域制限回路は、
減算器1701、1704、1713、乗算器170
2、1712、加算器1705、1714、比較器17
06、1708、1715、1716、ANDゲート1
703、1709、1711、1717、ORゲート1
710を含む。
In FIG. 21, the first area limiting circuit 5
Subtractors 1701, 1704, 1713, multiplier 170
2, 1712, adders 1705, 1714, comparator 17
06, 1708, 1715, 1716, AND gate 1
703, 1709, 1711, 1717, OR gate 1
710.

【0099】モードが“2”のとき、モード信号MOD
Eとして“0”の信号が供給され、ANDゲート170
3の出力は“0”となり、後段に接続されている減算器
1704、加算器1705の入力信号Xa1、Xb1を
そのまま出力し、比較器1706、1708へ入力され
る。また、モード信号MODEはORゲート1710に
も“0”を供給しているので、ORゲート1710は
“1”となり、ANDゲート1709をイネーブルにす
る。比較器1706、1708のもう一方の端子にはア
ドレスXADRが入力されているので、Xa1≧XAD
R≧Xb1のとき、比較器1706、1708の出力は
“1”となり、ANDゲート1709が“1”となりA
NDゲート1711をイネーブルにする。すなわち、図
18の(b)に示すように、画像のアドレスXADRと
して座標Xa1からXb1までの領域のみの動き検出信
号MOV1が処理対象となる。
When the mode is "2", the mode signal MOD
A signal of “0” is supplied as E, and the AND gate 170
The output of 3 becomes "0", and the input signals Xa1 and Xb1 of the subtractor 1704 and the adder 1705 connected at the subsequent stage are output as they are and input to the comparators 1706 and 1708. Further, since the mode signal MODE also supplies "0" to the OR gate 1710, the OR gate 1710 becomes "1" and enables the AND gate 1709. Since the address XADR is input to the other terminals of the comparators 1706 and 1708, Xa1 ≧ XAD
When R ≧ Xb1, the outputs of the comparators 1706 and 1708 become “1”, the AND gate 1709 becomes “1”, and A
Enable the ND gate 1711. That is, the figure
As shown in FIG. 18B, as the image address XADR, the motion detection signal MOV1 of only the region from the coordinates Xa1 to Xb1 is to be processed.

【0100】次に、頭頂座標検出回路10について以下
に詳細に説明する。図22は、頭頂座標検出回路10の
構成を示す図である。
Next, the parietal coordinate detecting circuit 10 will be described in detail below. FIG. 22 is a diagram showing a configuration of the parietal coordinate detection circuit 10.

【0101】図22において、頭頂座標検出回路10
は、Y軸投影器191、ラベリング連結部192、頭頂
座標検出部193を含む。
In FIG. 22, the top coordinate detecting circuit 10
Includes a Y-axis projector 191, a labeling connection unit 192, and a parietal coordinate detection unit 193.

【0102】Y軸投影器191は、第1領域制限回路5
から出力された動き検出信号MOV1を走査線方向、す
なわちX方向に累積加算し、Y軸濃度投影を行なう。そ
の様子を図18の(b)に示す。頭頂座標検出回路10
は、最大動き物体検出回路9と同様の構成となってお
り、共用も可能である。ラベリング連結部192は、Y
軸に濃度投影された動き検出信号にローパスフィルタを
かけ、ピークを検出し、そのピーク値に応じて二値化
し、適用的に膨張させ、ラベリングを行なう。頭頂座標
検出部193は、ラベリング連結部192の出力を基
に、Y軸方向の最大物体の頭頂座標Ytop位置を検出
し、出力する。この動作は1フィールドの動作で完了
し、モード設定回路20のモードが“3”になる。
The Y-axis projector 191 includes the first area limiting circuit 5
Are cumulatively added in the scanning line direction, that is, in the X direction, to perform Y-axis density projection. This is shown in FIG. Top coordinate detection circuit 10
Has the same configuration as that of the maximum moving object detection circuit 9 and can be shared. The labeling connection portion 192 is Y
A low-pass filter is applied to the motion detection signal that is density-projected on the axis, a peak is detected, binarization is performed according to the peak value, expansion is performed, and labeling is performed. The top coordinate detection unit 193 detects the top coordinate Ytop position of the largest object in the Y-axis direction based on the output of the labeling connection unit 192, and outputs the same. This operation is completed by the operation of one field, and the mode of the mode setting circuit 20 becomes "3".

【0103】モード設定回路20のモードが“3”にな
ると、第2領域制限回路6と、動き特徴量抽出回路1
1、および動き判定回路18がイネーブルになる。第2
領域制限回路6には動き検出部3の動き検出信号MOV
1、モード“1”とモード“2”で検出された対象物体
のX座標Xa1、Xb1および頭頂座標Ytop、およ
びタイミング発生部2から出力されたアドレスXAD
R、YADRが入力されており、動き検出信号を図18
の(c)に示すようにマスクする。
When the mode of the mode setting circuit 20 becomes "3", the second area limiting circuit 6 and the motion feature amount extracting circuit 1
1, and the motion determination circuit 18 is enabled. Second
A motion detection signal MOV of the motion detection unit 3 is
1. X coordinate Xa1, Xb1 and top coordinate Ytop of the target object detected in mode "1" and mode "2", and address XAD output from timing generation section 2
R and YADR are input, and the motion detection signal is
(C) as shown in FIG.

【0104】図23に、第2領域制限回路6の構成を示
す。第2領域制限回路6は、図21に示した第1領域制
限回路5と同様の構成であるので、その説明を省略す
る。
FIG. 23 shows the structure of the second area limiting circuit 6. Since the second area limiting circuit 6 has the same configuration as the first area limiting circuit 5 shown in FIG. 21, the description thereof will be omitted.

【0105】マスクされた動き検出信号は、動き特徴量
抽出回路11へ入力される。動き特徴量抽出回路11で
は、動き検出信号の被マスク領域について、動き領域の
周囲長YL、動き領域の縦長L0、動き領域の面積S
0、動き領域のX端座標Xa2、Xb2を抽出する。図
24は、動き領域の周囲長YLを示す図であり、図25
は、動き領域の縦長L0を示す図であり、図26は、動
き領域の面積S0を示す図である。
The masked motion detection signal is input to the motion feature extraction circuit 11. In the motion characteristic amount extraction circuit 11, the perimeter YL of the motion area, the vertical length L0 of the motion area, and the area S
0, X-end coordinates Xa2 and Xb2 of the motion area are extracted. FIG. 24 is a diagram showing the perimeter YL of the motion area.
FIG. 26 is a diagram showing the vertical length L0 of the motion region, and FIG. 26 is a diagram showing the area S0 of the motion region.

【0106】縦軸の画像のアドレスYADRがjのとき
の動き検出信号MOV1が“1”であるX軸アドレスの
最も左の座標MXLj、最も右の座標MXRj、最初に
動き検出信号を検出したY座標をjmin、最後に動き
検出信号を検出したY座標をjmaxとすると、周囲長
YL0、縦長L0、面積S0は以下の式で表される。
When the address YADR of the image on the vertical axis is j, the leftmost coordinate MXLj and the rightmost coordinate MXRj of the X-axis address for which the motion detection signal MOV1 is "1", and Y for which the motion detection signal is detected first Assuming that the coordinate is jmin and the Y coordinate at which the motion detection signal is finally detected is jmax, the peripheral length YL0, the vertical length L0, and the area S0 are represented by the following equations.

【0107】 YL=MXRjmin−MXLjmin+MXRjmax−MXLjmax+Σ(|MXRj − MXRj+1 |+|MXLj −MXLj+1 |)…(15) (但し、Σはj=jmin〜jmax−1の範囲で行な
う) L0=jmax−jmin…(16) S0=Σ|MXRj −MXLj |…(17) 歩行している人の動きは、カメラに対してほぼ横方向に
移動するため、頬の縦位置付近は時間的変化が大きいの
で、動き検出信号として表れやすく、顔付近の検出信号
は、図24に示す領域として表される。動き特徴量抽出
回路11では、上記のような動き特徴上YL、L0、S
0を計算し、動き判定回路18へ出力する。図27、図
28に、動きが不十分なときの動き検出信号を示す第1
および第2の図を示す。対象となる物体の動きが小さい
とき、動き検出信号は図27に示すように孤立した島が
多くなり、周囲長YLは大きく、面積S0は小さくな
る。また、図28に示すように片方のエッジ部分だけが
縦に細長く検知される場合がある。上記の場合は、以下
の式により計算される値により評価される。
YL = MXR jmin −MXL jmin + MXR jmax −MXL jmax + Σ (| MXR j −MXR j + 1 | + | MXL j −MXL j + 1 |) (15) (where Σ is j = jmin to L0 = jmax−jmin (16) S0 = Σ | MXR j −MXL j | (17) The motion of the walking person moves substantially in the horizontal direction with respect to the camera. Therefore, since the temporal change is large near the vertical position of the cheek, it easily appears as a motion detection signal, and the detection signal near the face is expressed as an area shown in FIG. In the motion feature amount extraction circuit 11, YL, L0, S
0 is calculated and output to the motion determination circuit 18. FIGS. 27 and 28 show a first example of the motion detection signal when the motion is insufficient.
And a second diagram. When the movement of the target object is small, the motion detection signal includes many isolated islands as shown in FIG. 27, the perimeter YL is large, and the area S0 is small. In addition, as shown in FIG. 28, only one edge portion may be vertically elongated. The above case is evaluated by a value calculated by the following equation.

【0108】a=S0/YL…(18) b=L0/sqr(S0)…(19) c=S0/Xlen/Xlen…(20) 物体の動きが大きいときは、上記のaの値が大きく、b
の値は小さく、cの値は大きくなる。所定のしきい値a
0、b0、c0を設定し、a>a0、かつ、b<b0、
かつ、c>c0のときに、対象物体の動きが十分にあっ
たと判定することができる。動き判定回路18では、入
力された動き特徴量YL、L0、S0および最大動き物
体検出回路9から入力されたXlen=Xb1−Xa1
から上記の動き判定を行ない、対象物体の動きが十分に
あったと判定した場合、モード設定回路20のモードを
“4”にして、次の判定モードに進む。その他の場合は
モード“1”にし、動き物体がさらに移動するのを待っ
て、もう1度動き物体の測定を行なう。すなわち、対象
物体の動きが非常に遅い場合は、モード“1”、
“2”、“3”と繰返し、最初のフレームに対して十分
に動きが発生するまでフレームメモリ302の内容を更
新せずに待ち、動きが十分と判断されたら初めて次のモ
ード“4”へ進むように動作する。また、対象物体の動
きが大きいときは、モード“3”の次にただちにモード
“4”へ進む。上記の動作により、遅く動く物体でも、
速く動く物体でも、十分に動いたかどうかの判定を正確
に行なうことができる。
A = S0 / YL (18) b = L0 / sqr (S0) (19) c = S0 / Xlen / Xlen (20) When the motion of the object is large, the value of a is large. , B
Is small, and the value of c is large. Predetermined threshold a
0, b0, c0 are set, and a> a0 and b <b0,
When c> c0, it can be determined that the target object has sufficiently moved. In the motion determination circuit 18, the input motion feature values YL, L0, S0 and the input Xlen = Xb1-Xa1 input from the maximum motion object detection circuit 9 are obtained.
From the above, and when it is determined that the movement of the target object is sufficient, the mode of the mode setting circuit 20 is set to “4” and the process proceeds to the next determination mode. In other cases, the mode is set to "1", and the moving object is measured again after waiting for the moving object to move further. That is, when the movement of the target object is very slow, the mode “1”,
It repeats "2" and "3" and waits without updating the contents of the frame memory 302 until a sufficient motion has occurred for the first frame. When it is judged that the motion is sufficient, the next mode is "4". Operate to move forward. When the movement of the target object is large, the mode immediately proceeds to the mode “4” after the mode “3”. By the above operation, even slow moving objects,
It is possible to accurately determine whether or not a fast-moving object has sufficiently moved.

【0109】上記の動き特徴量抽出回路11および動き
判定回路18から構成される動き量判定手段は、本実施
例にのみ適用されるものではなく、TV電話、ドアホン
カメラ、ビデオ一体型ムービー、監視装置、特定物体検
出装置等の他の画像処理装置においても適用が可能であ
る。
The motion amount judging means composed of the motion characteristic amount extracting circuit 11 and the motion judging circuit 18 is not applied only to the present embodiment, but includes a TV phone, an intercom camera, a video integrated movie, The present invention is also applicable to other image processing devices such as a device and a specific object detection device.

【0110】また、モード“3”では、上記動き量の判
定以外に、動き検出信号から対象物体の両端の座標Xa
2、Xb2を検出する。図18の(c)にモード“3”
の動作の概要を示す。座標Xa1と座標Xb1で囲まれ
た領域で、最初に検知された動き検出信号の存在するY
座標、すなわちYtopから走査方向に処理を進め、同
じ水平ライン上で最初に検出された動き検出信号の存在
する座標をXL(j)、最後に検出された座標をXR
(j)とすると、2つの検出座標Xa2、Xb2は次式
で表される。
In the mode "3", in addition to the above-described determination of the amount of motion, the coordinates Xa of both ends of the target object are obtained from the motion detection signal.
2. Detect Xb2. The mode “3” is shown in FIG.
An outline of the operation will be described. In a region surrounded by the coordinates Xa1 and the coordinates Xb1, Y in which the motion detection signal detected first exists
The process proceeds in the scanning direction from the coordinates, that is, Ytop, and the coordinates where the motion detection signal detected first on the same horizontal line exists are XL (j), and the coordinates detected last are XR
Assuming (j), the two detected coordinates Xa2 and Xb2 are represented by the following equations.

【0111】 Xa2(j)=XL(j)×(1−k)+Xa2(j−1)×k…(21) Xb2(j)=XR(j)×(1−k)+Xb2(j−1)×k…(22) 但し、kは巡回係数で0<k<1 j=Ytop+1〜Ytop+(Xb1+Xa1)/2 Xa2(Ytop)=XL(Ytop) Xb2(Ytop)=XR(Ytop) 次に、上記の演算を行なう動き特徴量抽出回路11に含
まれる座標Xa2、Xb2の検出回路について説明す
る。図29は、動き特徴量抽出回路11に含まれる検出
回路の構成を示すブロック図である。
Xa2 (j) = XL (j) × (1-k) + Xa2 (j−1) × k (21) Xb2 (j) = XR (j) × (1-k) + Xb2 (j−1) ) × k (22) where k is a cyclic coefficient and 0 <k <1 j = Ytop + 1 to Ytop + (Xb1 + Xa1) / 2 Xa2 (Ytop) = XL (Ytop) Xb2 (Ytop) = XR (Ytop) A detection circuit for the coordinates Xa2 and Xb2 included in the motion feature amount extraction circuit 11 that performs the above calculation will be described. FIG. 29 is a block diagram illustrating a configuration of a detection circuit included in the motion feature amount extraction circuit 11 .

【0112】図29において、検出回路は、頭頂座標検
出部261、Xa2(j)検出部262、Xb2(j)
検出部263、巡回フィルタ264、265を含む。第
2領域制限回路6から出力された動き検出信号は、頭頂
座標検出261に入力され、Y軸方向に最初に動き検
出信号が現れた座標Ytop2として出力し、検出と同
時にトリガ信号をXa2(j)検出部262、Xb2
(j)検出回路263へ出力する。Xa2(j)検出回
路262、Xb2(j)検出回路263は上記トリガ信
号により動作を開始し、Xa2(j)、Xb2(j)を
検出し、巡回フィルタ264、265へ出力する。巡回
フィルタ264、265では、上記の演算を行ない、対
象物体の両端の座標Xa2、Xb2を得る。
In FIG. 29, the detection circuit includes a top coordinate detection section 261, a Xa2 (j) detection section 262, and an Xb2 (j)
A detection unit 263 and recursive filters 264 and 265 are included. The motion detection signal output from the second area limiting circuit 6 is input to the parietal coordinate detection unit 261 and is output as the coordinate Ytop2 at which the motion detection signal first appears in the Y-axis direction. j) Detector 262, Xb2
(J) Output to the detection circuit 263. The Xa2 (j) detection circuit 262 and the Xb2 (j) detection circuit 263 start operating in response to the trigger signal, detect Xa2 (j) and Xb2 (j), and output them to the cyclic filters 264 and 265. In the recursive filters 264 and 265, the above calculation is performed to obtain the coordinates Xa2 and Xb2 at both ends of the target object.

【0113】モード“4”では、図18の(d)に示す
ように、モード“3”で検出したXa2、Xb2、Yt
op2により、処理対象領域をさらに狭め、その中の動
き検出信号と縦エッジ信号を利用し、さらに人の頬位値
Xa3、Xb3を精密に検出する。すなわち、動き物体
の領域でかつ縦エッジのきつい場所を頬の位置とみなす
ものである。動き検出部3から出力した動き検出信号と
エッジ検出部4で検出された縦エッジ信号は第3領域制
限回路7へ入力される。
In mode "4", as shown in FIG. 18D, Xa2, Xb2, Yt detected in mode "3"
By op2, the processing target area is further narrowed, and the cheek position values Xa3 and Xb3 of the person are detected more precisely by using the motion detection signal and the vertical edge signal therein. In other words, the position of the moving object and where the vertical edge is tight is regarded as the position of the cheek. The motion detection signal output from the motion detection unit 3 and the vertical edge signal detected by the edge detection unit 4 are input to a third area limiting circuit 7.

【0114】次に、第3領域制限回路7について詳細に
説明する。図30は、第3領域制限回路7の構成を示す
ブロック図である。
Next, the third area limiting circuit 7 will be described in detail. FIG. 30 is a block diagram showing a configuration of the third area limiting circuit 7.

【0115】図30において、第3領域制限回路7は、
減算器271、273、乗算器272、278、28
5、スイッチ284、加算器274、279、比較器2
75、276、280、281、ANDゲート282、
283を含む。
In FIG. 30, the third area limiting circuit 7
Subtracters 271, 273, multipliers 272, 278, 28
5, switch 284, adders 274, 279, comparator 2
75, 276, 280, 281, AND gate 282,
283.

【0116】モード“3”で検出された頬座標Xa2、
Xb2は減算器271でその差×len2=Xb2−X
a2が計算される。このモードでは、スイッチ284は
除算器272に接続され、除算器272は計算された×
len2を2で割り、減算器273のb端子に入力す
る。減算器273のa端子には頬座標Xa2が入力され
ているので、減算器273はXa2−(Xb2−Xa
2)/2=(3×Xa2−Xb2)/2を出力する。減
算器273の出力は比較器275のb端子へ、また、ア
ドレス信号XADRは比較器275の(a)端子へ入力
されている。アドレス信号XADRの値が(3×Xa2
−Xb2)/2を超えると比較器275は“1”を出力
する。加算器274の一方の入力にはXb2が、もう一
方の入力には(Xb2−Xa2)/2が入力されている
ので、加算器274はXb2+(Xb2−Xa2)/2
=(3×Xb2−Xa2)/2を比較器276のb端子
に出力する。比較器276のもう一方のa端子には、ア
ドレス信号XADRが入力しているので、結局、比較器
276はアドレスXADRが(3×Xb2−Xa2)/
2を超えない間“1”を出力する。Y軸方向について
は、同様な動作でアドレスYADRが座標Ytop2を
超えると比較器280が“1”を出力し、アドレスYA
DRがYtop+(Xb2−Xa2)×3/4を超えな
い間、比較器281は“1”を出力する。比較器27
5、276、280、281の出力は、ANDゲート2
82で論理積をとられ、さらに、ANDゲート283へ
出力される。ANDゲート283の他の入力端子には動
き検出信号と縦エッジ検出信号が印加されているので、
ANDゲート283の出力は、図18の(d)に示すよ
うな矩形で囲まれた領域に制限された動きかつ縦エッジ
信号として精密頬座標検出回路12へ出力される。上記
の処理により、動き特徴量抽出回路11および第3領域
制限回路7では、安定な動物体座標として、頭頂座標Y
top2、左座標Xa2、右座標Xb2を検出すること
が可能となる。
The cheek coordinates Xa2 detected in the mode “3”,
Xb2 is the difference × len2 = Xb2-X in a subtractor 271.
a2 is calculated. In this mode, the switch 284 is connected to the divider 272 and the divider 272
len2 is divided by 2 and input to the terminal b of the subtractor 273. Since the cheek coordinates Xa2 are input to the terminal a of the subtractor 273, the subtracter 273 outputs Xa2- (Xb2-Xa
2) / 2 = (3 × Xa2−Xb2) / 2 is output. The output of the subtractor 273 is input to the terminal b of the comparator 275, and the address signal XADR is input to the terminal (a) of the comparator 275. When the value of the address signal XADR is (3 × Xa2
-Xb2) / 2, the comparator 275 outputs "1". Since Xb2 is input to one input of the adder 274 and (Xb2-Xa2) / 2 is input to the other input, the adder 274 outputs Xb2 + (Xb2-Xa2) / 2.
= (3 × Xb2−Xa2) / 2 is output to the terminal b of the comparator 276. Since the address signal XADR is input to the other a terminal of the comparator 276, the comparator 276 eventually outputs the address XADR of (3 × Xb2-Xa2) /
"1" is output while it does not exceed 2. In the Y-axis direction, if the address YADR exceeds the coordinate Ytop2 by the same operation, the comparator 280 outputs “1” and the address YADR
While DR does not exceed Ytop + (Xb2−Xa2) × 3/4, the comparator 281 outputs “1”. Comparator 27
5, 276, 280, 281 are connected to AND gate 2
The logical product is obtained at 82 and output to the AND gate 283. Since the motion detection signal and the vertical edge detection signal are applied to the other input terminals of the AND gate 283,
The output of the AND gate 283 is output to the precision cheek coordinate detection circuit 12 as a vertical edge signal with movement limited to a region surrounded by a rectangle as shown in FIG. By the above processing, the motion feature amount extraction circuit 11 and the third area restriction circuit 7 set the top coordinate Y as stable object coordinates.
Top2, left coordinate Xa2, and right coordinate Xb2 can be detected.

【0117】上記の動き特徴量抽出回路11および第3
領域制限回路7による動物体座標の検出は本実施例にの
み適用されるものではなく、TV電話、ドアホンカメ
ラ、ビデオ一体型ムービー、監視装置、特定物体検出装
置等の動物体座標を検出する画像処理装置に同様に適用
することが可能である。
The above-mentioned motion feature quantity extraction circuit 11 and third
The detection of the moving object coordinates by the area limiting circuit 7 is not applied only to the present embodiment, and the image for detecting the moving object coordinates of a TV phone, a door phone camera, a video integrated movie, a monitoring device, a specific object detecting device, etc. It is equally possible to apply to a processing device.

【0118】次に、精密頬座標検出回路12について詳
細に説明する。図31は、精密頬座標検出回路12の構
成を示すブロック図である。
Next, the precise cheek coordinate detection circuit 12 will be described in detail. FIG. 31 is a block diagram showing the configuration of the precision cheek coordinate detection circuit 12.

【0119】図31において、精密頬座標検出回路12
は、加算器291、296、ANDゲート292、29
4、295、メモリ293、除算器297、比較器29
8、ピーク検出回路299、300、フリップフロップ
301、302を含む。
In FIG. 31, the precision cheek coordinate detecting circuit 12
Are adders 291, 296, AND gates 292, 29
4, 295, memory 293, divider 297, comparator 29
8, including peak detection circuits 299 and 300, and flip-flops 301 and 302.

【0120】図32に、精密頬座標検出回路12の動作
タイミングを示す。図32に示す累積メモリリセットタ
イミング領域1では、タイミング発生部2から出力され
たリセット信号/RESET(以降、“/”は反転信号
を示す)はアドレスYADRが0のラインを走査してい
る間は“0”となり、ANDゲート292に印加され、
ANDゲート292は“0”を出力し、メモリ293の
端子Iに供給する。リードライト信号R/Wおよびアド
レスXADRはタイミング発生部2から供給され、アド
レスXADRは1画素ごとにインクリメントされ、リー
ドライト信号R/Wは1画素ごとに1サイクル供給され
る。したがって、1ライン分の走査が完了すると、メモ
リ293のすべての内容がクリアされる。累積加算タイ
ミング領域2は画像の領域で第3領域制限回路7で制限
された動きかつ縦エッジ信号(動き×縦エッジ信号)を
Y軸方向に累積するタイミングである。上記の2つの領
域では、リセット信号/RESETは“1”となり、リ
ードライト信号R/Wも1画素ごとに1サイクル供給さ
れる。このとき、メモリ293の内容と動きかつ縦エッ
ジ信号を加算した結果とがメモリ293に戻され、同じ
アドレスXADRに対応する動きかつ縦エッジ信号が累
積加算され、対応するメモリ293のアドレスに格納さ
れる。ピーク位置検出タイミング領域3では、メモリ2
93に累積された値のピーク値を探し、ピーク値に対応
するアドレスXADRを抽出する。モード“3”で検出
した頬座標Xa2、Xb2が切換回路16から加算器2
96へ供給されており、加算器296はXa2+Xb2
を出力し、除算器297で半分にし、比較器298の端
子bには(Xa2+Xb2)/2が供給される。比較器
298の端子にはアドレスXADRが供給されている
ので、アドレスXADRが顔の中央座標(Xa2+Xb
2)/2より小さいときは、比較器298の出力は
“0”となり、ゲート294がオンになる。ゲート29
4がオンになるとピーク検出回路299とフリップフロ
ップ301が動作可能となる。ピーク検出回路299は
最も大きな値が入力されると1パルス発生し、接続され
ているフリップフロップ301に対応するアドレスXA
DRをラッチする。アドレスXADRが顔の中央座標
(Xa2+Xb2)/2より大きくなるとゲート295
がオンし、ピーク検出回路300およびフリップフロッ
プ302が動作する。このとき、メモリ293のピーク
位置に対応するアドレスXADRをフリップフロップ3
02がラッチする。フリップフロップ301、302に
記憶された座標は、それぞれ、左頬に対応する座標はX
a3、右頬に対応する座標はXb3として出力される。
上記のピーク検出動作は1ラインの間に完了する。モー
ド“4”における動作の概略を図18の(d)に示す。
以上の動作により、動物体の精密な左座標と右座標を検
出することが可能となる。上記の精密頬座標検出回路
による動物体の精密な左座標と右座標の検出は、本実
施例にのみ適用されるものではなく、TV電話、ドアホ
ンカメラ、ビデオ一体化ムービー、監視装置、特定物体
検出装置等の動物体の精密な左座標と右座標とを検出す
る画像処理装置に同様に適用することが可能である。
FIG. 32 shows the operation timing of the precision cheek coordinate detection circuit 12. In the cumulative memory reset timing area 1 shown in FIG. 32, the reset signal / RESET (hereinafter, “/” indicates an inverted signal) output from the timing generator 2 is used while scanning the line of which the address YADR is 0. "0" is applied to the AND gate 292,
The AND gate 292 outputs “0” and supplies it to the terminal I of the memory 293. Read-write signal R / W and the address XADR is supplied from a timing generator 2, address XADR is incremented for each pixel, the read write signal R / W is one cycle supplied to each pixel. Therefore, when the scanning for one line is completed, all the contents of the memory 293 are cleared. The cumulative addition timing area 2 is a timing for accumulating the motion and vertical edge signals (movement × vertical edge signal) restricted by the third area restriction circuit 7 in the image area in the Y-axis direction. In the above two areas, the reset signal / RESET becomes "1", and the read / write signal R / W is also supplied for one cycle for each pixel. At this time, the contents of the memory 293 and the result of the addition of the moving and vertical edge signals are returned to the memory 293, and the moving and vertical edge signals corresponding to the same address XADR are cumulatively added and stored at the corresponding address of the memory 293. You. In the peak position detection timing area 3, the memory 2
A peak value of the value accumulated in 93 is searched for, and an address XADR corresponding to the peak value is extracted. The cheek coordinates Xa2 and Xb2 detected in the mode “3” are supplied from the switching circuit 16 to the adder 2
96, and the adder 296 outputs Xa2 + Xb2
, And halved by the divider 297 , and (Xa2 + Xb2) / 2 is supplied to the terminal b of the comparator 298. Since the address XADR is supplied to the terminal a of the comparator 298, the address XADR is set at the center coordinates (Xa2 + Xb) of the face.
If the value is smaller than 2) / 2, the output of the comparator 298 becomes "0" and the gate 294 is turned on. Gate 29
4 turns on, the peak detection circuit 299 and the flip-flop 301 become operable. When the largest value is input, the peak detection circuit 299 generates one pulse, and the address XA corresponding to the connected flip-flop 301 is output.
Latch DR. When the address XADR becomes larger than the center coordinate (Xa2 + Xb2) / 2 of the face, the gate 295 is set.
Is turned on, and the peak detection circuit 300 and the flip-flop 302 operate. At this time, the address XADR corresponding to the peak position of the memory 293 is stored in the flip-flop 3
02 latches. The coordinates stored in the flip-flops 301 and 302 are respectively the coordinates corresponding to the left cheek.
a3, the coordinates corresponding to the right cheek are output as Xb3.
The above peak detection operation is completed during one line. An outline of the operation in the mode “4” is shown in FIG.
Through the above operation, it is possible to detect the precise left and right coordinates of the moving object. Above precision cheek coordinate detection circuit 1
Detection of precise left coordinates and right coordinates of the animal body by 2 is not intended to apply only to this example, TV telephone, intercom camera, a video integrated movies, monitor, animal body, such as a specific object detection device The present invention can be similarly applied to an image processing device that detects precise left and right coordinates of the image processing device.

【0121】また、モード“4”では、同時に第4領域
制限回路8と特徴抽出回路13も動作する。図33に、
第4領域制限回路8の構成を示す。図33において、第
4領域制限回路8は、減算器311、313、除算器3
12、317、318、加算器314、319、32
0、比較器315、316、321、322、ANDゲ
ート323、324、325を含む。第4領域制限回路
8の構成は、図30に示す第3領域制限回路7と同様の
構成であり、異なる点はY軸方向の制限領域が異なるの
と、制限の対象となる信号を縦エッジ信号と横エッジ信
号の2系統になっていることである。Y軸の上端座標を
Ytop+Xlen/4としたのは、髪の毛の特徴は人
によって千差万別なので、髪の毛の部分をマスクして、
目の付近の特徴だけを抽出するためである。
In the mode "4", the fourth area limiting circuit 8 and the feature extracting circuit 13 operate at the same time. In FIG.
4 shows a configuration of a fourth area limiting circuit 8. In FIG. 33 , a fourth area limiting circuit 8 includes subtractors 311, 313 and a divider 3
12, 317, 318, adders 314, 319, 32
0, comparators 315, 316, 321, 322 and AND gates 323, 324, 325 are included. The configuration of the fourth area limiting circuit 8 is the same as that of the third area limiting circuit 7 shown in FIG. 30. The difference is that the limited area in the Y-axis direction is different, and the signal to be limited is a vertical edge. That is, there are two systems, a signal and a horizontal edge signal. The reason why the top coordinate of the Y axis is Ytop + Xlen / 4 is that the characteristics of the hair vary from person to person, so the hair part is masked,
This is for extracting only the features near the eyes.

【0122】次に、特徴抽出回路13について詳細に説
明する。特徴抽出回路13は図18の(e)に示すよう
に制限されたエッジ信号をY軸方向に累積加算し、精密
頬座標検出回路12で検出した座標Xa3、Xb3をn
分割して、各分割ブロックごとにさらに積分し、縦エッ
ジ特徴量SX0 〜SXn-1 、横エッジ特徴量SY0 〜S
n-1 を得る。
Next, the feature extracting circuit 13 will be described in detail. The feature extraction circuit 13 accumulatively adds the limited edge signals in the Y-axis direction as shown in FIG. 18E, and calculates the coordinates Xa3 and Xb3 detected by the precision cheek coordinate detection circuit 12 as n.
Divided and, further integrated in each of the divided blocks, the vertical edge feature quantity SX 0 ~SX n-1, the lateral edge feature quantity SY 0 to S
Yn -1 is obtained.

【0123】図34に特徴抽出回路13の構成を示す。
34において、特徴抽出回路13は、加算器331、
334、339、ANDゲート332、335、33
8、メモリ333、336、セレクタ337、フリップ
フロップ340、演算器群341、比較器群342、O
Rゲート343、344、フリップフロップ群345、
346を含む。
FIG. 34 shows the configuration of the feature extraction circuit 13.
In FIG. 34 , the feature extraction circuit 13 includes an adder 331,
334, 339, AND gates 332, 335, 33
8, memories 333 and 336, selector 337, flip-flop 340, operation unit group 341, comparator group 342, O
R gates 343 and 344, flip-flop group 345,
346.

【0124】ANDゲート332には、タイミング発生
部2からリセット信号/RESETが供給されている。
図35に、特徴抽出回路13の動作タイミングを示す。
図35に示す累積メモリリセットタイミング領域1で
は、リセット信号/RESETは“0”であり、AND
ゲート332の出力は“0”となり、メモリ333の内
容をクリアする。累積加算タイミング領域2では、メモ
リ333から読出したデータに縦エッジ信号を加算器3
31で加算し、再度メモリ333に書込む。この動作は
1画素の間に実行され、同じアドレスXADRに対応す
る縦エッジ信号はメモリ333に累積されていく。加算
器334、ANDゲート335、メモリ336の構成も
加算器331、ANDゲート332、メモリ333と同
様の構成であり、横エッジ信号はメモリ336に同様に
累積されていく。演算器群341は、精密頬座標検出回
路12で検出したXa3、Xb3からそれぞれ次式に示
すような重みづけ和Siを計算する。
The reset signal / RESET is supplied from the timing generator 2 to the AND gate 332.
FIG. 35 shows the operation timing of the feature extraction circuit 13.
In the cumulative memory reset timing area 1 shown in FIG. 35, the reset signal / RESET is “0”, and
The output of the gate 332 becomes "0", and the contents of the memory 333 are cleared. In the cumulative addition timing area 2, a vertical edge signal is added to the data read from the memory 333.
At 31, the value is added and written into the memory 333 again. This operation is performed during one pixel, and the vertical edge signal corresponding to the same address XADR is accumulated in the memory 333. The configurations of the adder 334, the AND gate 335, and the memory 336 are the same as those of the adder 331, the AND gate 332, and the memory 333, and the horizontal edge signal is accumulated in the memory 336 in the same manner. The arithmetic unit group 341 calculates the weighted sum Si as shown in the following equation from Xa3 and Xb3 detected by the precise cheek coordinate detection circuit 12.

【0125】[0125]

【数1】 (Equation 1)

【0126】上記の重みづけ和Siは比較器群342の
各b端子へ入力される。重みづけ和SiはXa3とXb
3をn分割した座標を表し、比較器群342の各a端子
にはX軸のアドレスXADRが供給されているため、比
較器群342の出力はアドレスXADRの対応する順次
パルスを発生する。重みづけ和S0 〜Sn-1 に対応する
パルスはORゲート343で合成され、重みづけ和S1
〜Sn に対応するパルスはORゲート344で合成され
る。ORゲート343はクリア信号としてANDゲート
338を“0”にし、ORゲート344は転送パルスと
してフリップフロップ群345、346のイネーブル端
子に供給される。
The weighted sum Si is input to each terminal b of the comparator group 342. The weighted sum Si is Xa3 and Xb
3 represents n-divided coordinates, and each terminal a of the comparator group 342 is supplied with the X-axis address XADR. Therefore, the output of the comparator group 342 generates a corresponding sequential pulse of the address XADR. Pulses corresponding to the weighted sum S 0 ~S n-1 is synthesized by an OR gate 343, weighted sum S 1
The pulses corresponding to .about.S n are combined by the OR gate 344. The OR gate 343 sets the AND gate 338 to "0" as a clear signal, and the OR gate 344 supplies a transfer pulse to the enable terminals of the flip-flop groups 345 and 346.

【0127】アドレスXADRが重みづけ和S0 になる
と、ORゲート343の出力が“1”となり、ANDゲ
ート338を“0”にする。セレクタ337が端子Aに
接続されているとすると、アドレスXADRに対応する
縦エッジのX軸への投影値は加算器339の端子aに供
給され、そのままの値でフリップフロップ340に取込
まれる。クロック1画素分進むと、アドレスXADRも
1だけ増え、ORゲート343が“0”となり、フリッ
プフロップ340の出力が加算器339の端子bに供給
され、縦エッジのX軸への投影値と加算され、再度フリ
ップフロップ340に書き込まれる。フリップフロップ
340の出力は後段のフリップフロップ群345、34
6に供給されており、ORゲート344がS1 〜Sn
タイミングごとに“1”となり、順次積分された特徴量
SX0 〜SXn-1 がフリップフロップ群345、346
へ転送されていく。上記の一連の動作を図36に示す。
When the address XADR becomes the weighted sum S 0 , the output of the OR gate 343 becomes “1”, and the AND gate 338 becomes “0”. Assuming that the selector 337 is connected to the terminal A, the projection value of the vertical edge corresponding to the address XADR on the X axis is supplied to the terminal a of the adder 339, and is taken into the flip-flop 340 as it is. When the clock advances by one pixel, the address XADR also increases by 1, the OR gate 343 becomes “0”, the output of the flip-flop 340 is supplied to the terminal b of the adder 339, and the vertical edge is added to the projection value on the X axis. Is written to the flip-flop 340 again. The output of the flip-flop 340 is output to the flip-flop groups 345 and 34 at the subsequent stage.
6 are supplied to the "1" for each timing of the OR gate 344 is S 1 to S n, and the sequence integrated feature quantity SX 0 ~SX n-1 flip-flop group 345
Will be transferred to FIG. 36 shows the above series of operations.

【0128】図35に示す横線特徴抽出タイミング領域
4では、セレクタ337は端子Bに接続し、横エッジの
特徴量SY0 〜SYn-1 を上記と同様の動作により計算
し、フリップフロップ群345、346へ転送する。上
記の動作により、顔の目の付近の特徴量を得ることがで
きる。
In the horizontal line feature extraction timing area 4 shown in FIG. 35, the selector 337 is connected to the terminal B, calculates the horizontal edge feature quantities SY 0 to SY n−1 by the same operation as described above, and outputs the flip-flop group 345. , 346. With the above-described operation, a feature amount near the eyes of the face can be obtained.

【0129】横線特徴抽出タイミング領域4のタイミン
グの後、上記の特徴量SX0 〜SX n-1 、SY0 〜SY
n-1 は評価判定回路17へ入力され、人間であるかそう
でないかを判定する。
Timing of horizontal line feature extraction timing area 4
And then the above feature SX0~ SX n-1, SY0~ SY
n-1Is input to the evaluation determination circuit 17 and is determined to be a human
Is not determined.

【0130】次に、評価判定回路17についてさらに詳
細に説明する。図37は、評価判定回路17の構成を示
すブロック図である。
Next, the evaluation judgment circuit 17 will be described in more detail. FIG. 37 is a block diagram illustrating a configuration of the evaluation determination circuit 17.

【0131】図37において、評価判定回路17は、非
線形変換器351〜356、乗算器357〜362、定
数発生器363、加算器364、比較器365を含む。
In FIG. 37, the evaluation judging circuit 17 includes nonlinear converters 351 to 356, multipliers 357 to 362, a constant generator 363, an adder 364, and a comparator 365.

【0132】特徴量SX0 〜SXn-1 、SY0 〜SY
n-1 は特徴抽出回路13から供給され、m個の非線形変
換器351〜356へ入力している。非線形変換器35
1〜356では、解析関数系の変換が行なわれる。たと
えば、正規化のような操作U0=SX0 /(SX0 +S
1 +…+SXn-1 )、U1=SX0 /SY0 、U2=
SX0 /SXn-1 等、予め入力と出力の関係が固定的な
非線形変換を行なう。ニューラルネットワークを用いた
場合は、重みづけ係数が学習で決定されるため、入力と
出力の関係は学習だけによる非線形変換である。そのた
め、学習に使用するデータは莫大な量を必要とし、ま
た、学習に要する計算量も莫大である。しかしながら、
本実施例では、左右の対称性、向きの変化する物理的条
件、正規化等、予めわかっている拘束条件や既知の知識
が非線形変換部351〜356に組込むことができるの
で、学習データは少なくて済む。また、学習について
も、誤差の最小二乗法を用いた線形加算和の係数を求め
る手法なので、連立一次方程式を解放する問題に帰着す
るため、定数を決定する計算量も非常に少なくて済む。
また、ラグランジェの未定定数法を使えば、学習段階で
さらに拘束条件を追加することも可能である。
The feature values SX 0 to SX n−1 and SY 0 to SY
n-1 is supplied from the feature extraction circuit 13 and input to the m nonlinear converters 351 to 356. Nonlinear converter 35
In steps 1 to 356, the conversion of the analysis function system is performed. For example, such as normalization operation U0 = SX 0 / (SX 0 + S
X 1 + ... + SX n- 1), U1 = SX 0 / SY 0, U2 =
Non-linear conversion in which the relationship between input and output is fixed in advance such as SX 0 / SX n-1 is performed. When a neural network is used, the weighting factor is determined by learning, and the relationship between input and output is a non-linear transformation based on learning alone. Therefore, the data used for learning requires an enormous amount, and the amount of calculation required for learning is also enormous. However,
In the present embodiment, since known constraint conditions and known knowledge, such as left-right symmetry, physical conditions in which the direction changes, and normalization, can be incorporated into the nonlinear conversion units 351 to 356, learning data is small. I can do it. Also, in learning, since the method of finding the coefficient of the linear sum using the least squares method of the error results in a problem of releasing the simultaneous linear equations, the amount of calculation for determining the constant is very small.
If Lagrange's undetermined constant method is used, it is possible to further add a constraint condition at the learning stage.

【0133】非線形変換器351〜356は各々出力信
号U0 〜Um-1 を出力し、乗算器357〜362で所定
の係数WX0 〜WXm-1 が乗算され、各出力と係数WX
m が加算器364で次式のように計算される。
Non-linear converters 351 to 356 output output signals U 0 to U m−1 , respectively, and are multiplied by predetermined coefficients WX 0 to WX m−1 by multipliers 357 to 362, and each output is multiplied by a coefficient WX
m is calculated by the adder 364 as follows.

【0134】Y=ΣWXi × Ui …(28) ただし、i=0〜m、Um =1,0 係数WXi は予め与えられたデータにより、学習で決定
される定数で、判別分析法を用いれば決定することがで
きる。たとえば、人のクラスの特徴量をSX0,j〜S
n-1 ,j、SY0 ,j〜SYn-1 ,j(j=0〜p−
1)、人以外のクラスの特徴量をSX0 ,k〜S
n-1 ,k、SY0 ,k〜SYn-1 ,k(k=0〜q−
1)とすると、人の平均値の評価値を“0”、人以外の
平均値の評価値を“1”に対応させ、以下に示す(2
9)式が最小となるWXi を決定すればよい。
Y = ΣWX i × U i (28) where i = 0 to m , U m = 1,0 The coefficient WX i is a constant determined by learning based on previously given data. Can be determined. For example, the feature amount of the class of a person is SX 0 , j to S
X n−1 , j, SY 0 , j to SY n−1 , j (j = 0 to p−
1), SX 0 , k to S
X n-1, k, SY 0, k~SY n-1, k (k = 0~q-
Assuming that 1), the evaluation value of the average value of a person corresponds to “0”, and the evaluation value of the average value of a person other than a person corresponds to “1”.
9) It is sufficient to determine WX i that minimizes the expression.

【0135】[0135]

【数2】 (Equation 2)

【0136】すなわち、上記の(30)、(31)、
(32)式のm+2次元連立方程式からWXi を決定す
る。
That is, the above (30), (31),
WX i is determined from the (m + 2) -dimensional simultaneous equation of equation (32).

【0137】上記のように学習された定数WXi を乗算
器357〜362、定数発生器363に適用すると、対
象物体が人であるときは評価値Wは“1”に近く、そう
でないときは評価値Yは“0”に近くなる。この場合、
比較器365のしきい値を0.5に設定すれば、判別が
可能となる。評価値Yが“1”に近いときは比較器36
5は“1”を出力し、評価値Yが“0”に近いときは比
較器365は“0”を出力し、次段のモード設定回路2
0へ供給する。
When the constant WX i learned as described above is applied to the multipliers 357 to 362 and the constant generator 363, the evaluation value W is close to “1” when the target object is a person, and otherwise, The evaluation value Y approaches "0". in this case,
If the threshold value of the comparator 365 is set to 0.5, the discrimination becomes possible. When the evaluation value Y is close to "1", the comparator 36
5 outputs “1”, and when the evaluation value Y is close to “0”, the comparator 365 outputs “0”, and the mode setting circuit 2 in the next stage
0.

【0138】上記の評価判定回路17は、上記のように
単一の評価値を求める非線形変換群と線形加算和回路だ
けでなく、複数の評価値を求める回路と複数の比較器と
適当なORゲートとANDゲートとにより、複数の評価
値から評価判定するものでもよい。
As described above, the evaluation judging circuit 17 includes not only a nonlinear conversion group for obtaining a single evaluation value and a linear addition / summing circuit, but also a circuit for obtaining a plurality of evaluation values, a plurality of comparators, and an appropriate OR. A gate and an AND gate may be used for evaluation judgment from a plurality of evaluation values.

【0139】上記の動作により、評価判定回路17は、
簡単な解析関数を用いる非線形変換手段と、計算量の少
ない線形加算手段により構成されているので、ニューラ
ルネットワークを用いた場合よりはるかに少ない計算量
で正確に特定対象の判定を行なうことが可能となる。
By the operation described above, the evaluation judgment circuit 17
Since it is composed of non-linear conversion means using a simple analysis function and linear addition means with a small amount of calculation, it is possible to accurately determine a specific target with a much smaller calculation amount than when using a neural network. Become.

【0140】上記評価判定回路17は、本実施例にのみ
適用されるものではなく、TV電話、ドアホンカメラ、
ビデオ一体型ムービー、監視装置、特定物体検出装置等
の特定対象の判定を行なう画像処理装置に同様に適用す
ることが可能である。
The evaluation determining circuit 17 is not applied only to the present embodiment, but is applied to a TV phone, a door phone camera,
The present invention can be similarly applied to an image processing device that determines a specific target, such as a video-integrated movie, a monitoring device, and a specific object detection device.

【0141】次に、評価判定回路17の出力が“1”の
とき、次のフレームでは、モード“5”となり、一方、
評価判定回路17の出力が“0”のときは、次のフレー
ムは“0”となる。
Next, when the output of the evaluation judging circuit 17 is "1", the mode becomes "5" in the next frame.
When the output of the evaluation determination circuit 17 is "0", the next frame is "0".

【0142】モード“5”では、図1に示す切換回路1
4、16は端子bを選択し、座標Xa1、Xa2の代わ
りに前のフレームで検出された座標Xa3が、座標Xb
1、Xb2の代わりに前のフレームで検出された座標X
b3が供給される。また、ライトモード制御信号は
“1”となり、動き検出部3の中のフレームメモリ30
2は読出しおよび書込みモードとなる。フレームメモリ
302の書込みモードでは、1画素のサイクルで前半の
サイクルを読出し、後半のサイクルは書込み動作を行な
う。このとき、第2領域制限回路6、動き特徴量抽出回
路11、第3領域制限回路7、精密頬座標検出回路1
2、第4領域制限回路8、特徴抽出回路13、領域判定
回路17は同時に動作する。モード“4”では、すでに
顔の座標Xa3、Xb3および頭頂座標Ytop2は判
明しており、顔の移動速度はフレームレートに比較して
遅いので、次のフレームではそれほど大きく移動してい
ない。この特性を利用して、前に求めた座標Xa3、X
b3、Ytop2を基に探索範囲を設ける。図38は、
探索範囲の一例を示す図である。図38では、探索範囲
をXb3−Xa3の1/8として設定した例を示してい
る。動き特徴量は第2領域制限回路6により探索範囲内
だけを処理の対象とする。モード“5”のとき、モード
信号MODEは“1”となり、図23に示す比較器18
06にはXa3−Xlen/8、比較器1808にはX
b3+Xlen/8、比較器1813にはYtop−X
len/8、比較器1814にはYtop+Xlen×
9/8が入力され、ANDゲート1809、1811に
より、所定の領域のみ動き検出信号MOV1が制限され
る。図39に第2領域制限回路6により制限された領域
を示す。制限された動き検出信号MOV1は動き特徴量
抽出回路11に供給され、モード“3”と同様に動き特
徴量YL、L0、S0、Ytop2を抽出し判定する。
In mode "5", switching circuit 1 shown in FIG.
4 and 16 select the terminal b, and the coordinate Xa3 detected in the previous frame is replaced with the coordinate Xb instead of the coordinates Xa1 and Xa2.
1, coordinates X detected in the previous frame instead of Xb2
b3 is supplied. Also, the write mode control signal becomes “1”, and the frame memory 30 in the motion detection unit 3
2 is in read and write mode. In the write mode of the frame memory 302, the first half cycle is read out in one pixel cycle, and the write operation is performed in the second half cycle. At this time, the second region restriction circuit 6, the motion feature amount extraction circuit 11, the third region restriction circuit 7, the precise cheek coordinate detection circuit 1
Second, the fourth area limiting circuit 8, the feature extracting circuit 13, and the area determining circuit 17 operate simultaneously. In mode "4", the coordinates Xa3 and Xb3 of the face and the top coordinate Ytop2 are already known, and since the moving speed of the face is slower than the frame rate, the face does not move so much in the next frame. By utilizing this characteristic, the coordinates Xa3, X
A search range is provided based on b3 and Ytop2. FIG.
It is a figure showing an example of a search range. FIG. 38 shows an example in which the search range is set to 1/8 of Xb3-Xa3. The motion feature amount is processed only by the second area limiting circuit 6 within the search range. When the mode is "5", the mode signal MODE becomes "1" and the comparator 18 shown in FIG.
Xa3-Xlen / 8 for 06, X for comparator 1808
b3 + Xlen / 8, the comparator 1813 has Ytop-X
len / 8, the comparator 1814 has Ytop + Xlen ×
9/8 is input, and the motion detection signal MOV1 is limited only in a predetermined area by the AND gates 1809 and 1811. FIG. 39 shows an area restricted by the second area restriction circuit 6. The restricted motion detection signal MOV1 is supplied to the motion feature amount extraction circuit 11, and extracts and determines the motion feature amounts YL, L0, S0, and Ytop2 as in the mode "3".

【0143】一方、第3領域制限回路7では、図30に
示すスイッチ284は除算器285に接続され、前述し
たように前フレームで検出された座標Xa3、Xb3と
Ytop2から矩形領域に動きかつ縦エッジ信号を制限
する。図40に第3領域制限回路7により矩形領域に制
限された領域を示す。精密頬座標検出回路12はモード
“4”と同様に新しく座標Xa3、Xb3を検出する。
第4領域制限回路8、特徴抽出回路13、評価判定回路
17はモード“4”と同じ動作をする。動き判定回路1
8により追尾対象が十分に動き、追尾している対象が人
と判断された場合はモード“6”へ進む。モード“6”
の動作は、動き検出部3のフレームメモリ302が読出
しオンリーモードとなり、基準画像が更新されないだけ
で、第2領域制限回路6、動き特徴量抽出回路11、動
き判定回路18、第3領域制限回路7、精密頬座標検出
回路12、第4領域制限回路8、特徴抽出回路13、評
価判定回路17の動作は同じである。
On the other hand, in the third area limiting circuit 7, the switch 284 shown in FIG. 30 is connected to the divider 285, and moves from the coordinates Xa3, Xb3 and Ytop2 detected in the previous frame to a rectangular area as described above, and moves vertically. Limit edge signals. FIG. 40 shows an area restricted to a rectangular area by the third area restriction circuit 7. The precision cheek coordinate detection circuit 12 newly detects the coordinates Xa3 and Xb3 as in the mode “4”.
The fourth area limiting circuit 8, the feature extracting circuit 13, and the evaluation judging circuit 17 operate in the same manner as in the mode "4". Motion judgment circuit 1
When the tracking target has sufficiently moved by 8 and the tracking target is determined to be a person, the process proceeds to mode “6”. Mode "6"
The operation of is that the frame memory 302 of the motion detection section 3 is in the read-only mode, and the reference image is not updated, but the second area restriction circuit 6, the motion feature amount extraction circuit 11, the motion determination circuit 18, the third area restriction circuit 7, the operations of the precise cheek coordinate detection circuit 12, the fourth region restriction circuit 8, the feature extraction circuit 13, and the evaluation determination circuit 17 are the same.

【0144】図41に各モードの動作を説明する図を示
す。図41では、モード設定回路20のモード変化の状
態遷移を示している。モード“0”からモード“3”ま
では動物体が動くまで待つルーチンであり、モード
“4”は人であるかどうかを判定する判定モードであ
り、これらのモードが画面全体の中から人を検出する人
検出動作モードである。モード“5”とモード“6”は
後述する検出された人を追尾していく人追尾動作モード
である。
FIG. 41 is a diagram for explaining the operation in each mode. FIG. 41 shows a state transition of a mode change of the mode setting circuit 20. Modes "0" to "3" are routines for waiting until the moving object moves. Mode "4" is a determination mode for determining whether or not a person is a person. This is a human detection operation mode for detecting. The mode “5” and the mode “6” are human tracking operation modes for tracking a detected person, which will be described later.

【0145】上記の人追尾動作モードが続くと、撮影さ
れている人の移動に伴い動き特徴量抽出回路11で検出
された頭頂座標Ytop2と精密頬座標検出回路12で
検出された頬座標Xa3、Xb3とは追尾対象座標出力
回路19へ入力され、追尾対象座標出力回路19は画像
の切出し拡大を行なうための制御信号を発生し、拡大表
示回路21へ出力する。一方、A/D変換部1から出力
されたデジタル画像信号は拡大表示回路21で所定の遅
延操作および補完操作が施され、D/A変換回路22へ
出力される。このデジタル画像信号はD/A変換回路2
2でアナログ画像信号に変換された後ディスプレイ23
で表示される。これらの一連の動作により、撮影された
画像の中から人を検出し、人を追尾し、人の顔を中心と
して拡大表示することが可能になる。
When the above-described human tracking operation mode continues, the top coordinate Ytop2 detected by the motion feature amount extraction circuit 11 and the cheek coordinate Xa3 detected by the precise cheek coordinate detection circuit 12 with the movement of the person being photographed. Xb3 is input to the tracking target coordinate output circuit 19, and the tracking target coordinate output circuit 19 generates a control signal for clipping and enlarging the image, and outputs the control signal to the enlarged display circuit 21. On the other hand, the digital image signal output from the A / D converter 1 is subjected to a predetermined delay operation and a complementary operation in the enlarged display circuit 21, and is output to the D / A conversion circuit 22. This digital image signal is supplied to a D / A conversion circuit 2
Display 23 after being converted into an analog image signal in step 2
Is displayed with. Through a series of these operations, it is possible to detect a person from a captured image, track the person, and enlarge and display the person's face as a center.

【0146】以上のように本実施例では、動き判定をし
ながら動き検出を行なっているので、安定な動き物体の
検出が可能となり、さらに、画像情報の特徴的なエッジ
成分を利用しているため、正確に対象物体を認識するこ
とが可能となる。
As described above, in this embodiment, since the motion detection is performed while judging the motion, a stable moving object can be detected, and the characteristic edge component of the image information is used. Therefore, it is possible to accurately recognize the target object.

【0147】[0147]

【発明の効果】請求項1記載の画像処理装置において
は、対象領域の周囲長、縦方向の長さ、面積を基に、対
象領域での物体の動きが十分か否かを判定しているの
で、物体が遅く動いても、速く動いても、所定値以上に
動いたか否かを安定に判定することができる。
According to the image processing apparatus of the first aspect,
Is based on the perimeter, vertical length, and area of the target area.
To determine whether the movement of the object in the elephant area is sufficient
Therefore, even if the object moves slowly or fast,
It is possible to determine stably whether or not it has moved.

【0148】請求項2記載の画像処理装置においては、
動き判定手段の出力に基づいて差分画像データを作成す
る際のフレーム間隔が制御される。このため、対象物体
の動き量に関わらず、安定した対象物体の動き情報を得
ることができる。
In the image processing apparatus according to the second aspect,
Create difference image data based on the output of the motion determination means
Frame interval at the time of transmission is controlled. Therefore, the target object
Regardless of the amount of movement of the target object,
Can be

【0149】請求項3記載の画像処理装置においては、
各画素ごとに、入力画像データの輝度値に基づいて二値
化しきい値が求められる。このため、輝度値の変動の影
響を受けず、シェーディングに強い安定した動き情報を
得ることができる。
In the image processing apparatus according to the third aspect,
For each pixel, binary based on the brightness value of the input image data
An activation threshold is determined. As a result, the shadow
Stable motion information that is not affected and is strong in shading
Obtainable.

【0150】請求項4記載の画像処理装置においては、
動き検出信号に膨張処理が施される。このため、動き検
出信号の欠陥を埋めることができ、安定した動き情報を
得ることができる。
In the image processing apparatus according to the fourth aspect,
Expansion processing is performed on the motion detection signal. Therefore, motion detection
Outgoing signal defects can be filled and stable motion information
Obtainable.

【0151】請求項5記載の画像処理装置においては、
膨張手段により動き検出信号がぼかされて膨張し、膨張
画像二値化手段により膨張した二値画像データを得るこ
とができるので、小さい回路規模で大きな領域にわたっ
て膨張した二値画像データを得ることができる。
In the image processing apparatus according to the fifth aspect,
The motion detection signal is blurred and expanded by the expansion means, and the expansion is performed.
It is possible to obtain binary image data expanded by the image binarizing means.
So that it can be spread over a large area with a small circuit scale.
To obtain dilated binary image data.

【0152】請求項6記載の画像処理装置においては、
二値画像信号の立上がりタイミングと立下がりタイミン
グの時間差に応答して、二値画像信号を膨張させている
ので、時間差に適応した膨張画像データを得ることがで
きる。
In the image processing apparatus according to the sixth aspect,
Rising timing and falling timing of binary image signal
The binary image signal in response to the time difference
Therefore, it is possible to obtain dilated image data adapted to the time difference.
Wear.

【0153】請求項7記載の画像処理装置においては、
動き情報の第1スタート位置の信号および第1エンド位
置の信号を第1および第2変換手段により安定した第2
スタート位置の信号および第2エンド位置の信号に変換
することができ、これらの信号の差分値と計数手段の計
数値とを比較し、比較結果を基に第1および第2判定手
段の動作を制御するので、安定した対象物体の両端座標
を得ることができる。
In the image processing apparatus according to the seventh aspect,
Signal of first start position and first end position of motion information
The signal of the second position is stabilized by the first and second conversion means.
Convert to start position signal and second end position signal
The difference between these signals and the counting means
Numerical values are compared with each other, and the first and second determination means are
Since the operation of the step is controlled, the coordinates of both ends of the target object are stable.
Can be obtained.

【0154】請求項8記載の画像処理装置においては、
二値化された動き検出信号とエッジの縦線成分との論理
積を画像の横軸方向へ投影し、投影した信号のピーク位
置を検出することにより、画像の中の対象物体の横軸方
向の両端座標を得ることができ、対象物体の精密な横軸
方向の両端座標を得ることができる。
In the image processing apparatus according to the eighth aspect,
Logic between binarized motion detection signal and vertical line component of edge
The product is projected in the horizontal direction of the image, and the peak position of the projected signal is
By detecting the position, the horizontal axis of the target object in the image
The coordinates of both ends can be obtained, and the precise horizontal axis of the target object can be obtained.
The coordinates of both ends of the direction can be obtained.

【0155】請求項9記載の画像処理装置においては、
第1および第2の微分手段により、孤立したノイズ成分
を強調し、差分値の絶対値に基づいてエッジの縦線成分
および横線成分を求める。これにより、孤立ノイズ成分
を除去することにより、純粋なエッジ信号を得ることが
でき、ノイズの影響の少ないエッジ信号を得ることがで
きる。
In the image processing apparatus according to the ninth aspect,
An isolated noise component by the first and second differentiating means
And the vertical line component of the edge based on the absolute value of the difference value
And horizontal line components. As a result, the isolated noise component
To get a pure edge signal
It is possible to obtain edge signals that are less affected by noise.
Wear.

【0156】請求項10記載の画像処理装置において
は、エッジ成分を輝度値により正規化することにより、
輝度値の変動の影響を受けないエッジ信号を出力するこ
とができ、シューティングに強いエッジ信号を得ること
ができる。 請求項11記載の画像処理装置においては、
非線形変換手段は所定の非線形変換を行なう解析関数を
用いることにより処理が簡略化され、線形加算手段は計
算量が少ないので、少ない計算量で画像に含まれる対象
物体を特定することができる。
In the image processing apparatus according to the tenth aspect,
Is obtained by normalizing the edge component by the luminance value.
Output edge signals that are not affected by fluctuations in brightness
To get a strong edge signal for shooting
Can be. In the image processing device according to claim 11,
The non-linear conversion means generates an analysis function for performing a predetermined non-linear conversion.
This simplifies the processing and makes the linear addition
Since the calculation amount is small, the target included in the image with a small calculation amount
The object can be specified.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の情報処理装置の構成を示す
図である。
FIG. 1 is a diagram illustrating a configuration of an information processing apparatus according to an embodiment of the present invention.

【図2】本発明の一実施例の情報処理装置の動き検出部
の構成を示す図である。
FIG. 2 is a diagram illustrating a configuration of a motion detection unit of the information processing apparatus according to one embodiment of the present invention.

【図3】絶対差分の二値化画像データの生成過程を説明
する図である。
FIG. 3 is a diagram illustrating a generation process of binarized image data of an absolute difference.

【図4】本発明の一実施例の情報処理装置の動き検出部
の平滑化回路の構成を示す図である。
FIG. 4 is a diagram illustrating a configuration of a smoothing circuit of a motion detection unit of the information processing apparatus according to one embodiment of the present invention.

【図5】本発明の一実施例の画像処理装置の動き検出部
の水平方向膨張回路の構成を示す図である。
FIG. 5 is a diagram illustrating a configuration of a horizontal expansion circuit of a motion detection unit of the image processing apparatus according to one embodiment of the present invention.

【図6】本発明の一実施例の画像処理装置の動き検出部
の第1の垂直方向膨張回路の構成を示す図である。
FIG. 6 is a diagram illustrating a configuration of a first vertical expansion circuit of a motion detection unit of the image processing apparatus according to one embodiment of the present invention.

【図7】第1の垂直方向膨張回路の信号波形を示す図で
ある。
FIG. 7 is a diagram illustrating a signal waveform of a first vertical expansion circuit.

【図8】本発明の一実施例の画像処理装置の動き検出部
の第2の垂直方向膨張回路の構成を示す図である。
FIG. 8 is a diagram illustrating a configuration of a second vertical expansion circuit of the motion detection unit of the image processing device according to one embodiment of the present invention.

【図9】本発明の一実施例の画像処理装置の動き検出部
の第2の垂直方向膨張回路の加減算回路の構成を示す図
である。
FIG. 9 is a diagram illustrating a configuration of an addition / subtraction circuit of a second vertical expansion circuit of the motion detection unit of the image processing apparatus according to one embodiment of the present invention.

【図10】第2の垂直方向膨張回路の信号波形を示す図
である。
FIG. 10 is a diagram showing a signal waveform of a second vertical expansion circuit.

【図11】本発明の一実施例の画像処理装置のエッジ検
出部の構成を示す図である。
FIG. 11 is a diagram illustrating a configuration of an edge detection unit of the image processing apparatus according to one embodiment of the present invention.

【図12】本発明の一実施例の画像処理装置のエッジ検
出部のX微分器の構成を示す図である。
FIG. 12 is a diagram illustrating a configuration of an X differentiator of an edge detection unit of the image processing device according to one embodiment of the present invention.

【図13】本発明の一実施例の画像処理装置のエッジ検
出部のY微分器の構成を示す図である。
FIG. 13 is a diagram illustrating a configuration of a Y differentiator of an edge detection unit of the image processing device according to one embodiment of the present invention.

【図14】本発明の一実施例の画像処理装置のエッジ検
出部の第1のFIX差分器の構成を示す図である。
FIG. 14 is a diagram illustrating a configuration of a first FIX differentiator of the edge detection unit of the image processing apparatus according to one embodiment of the present invention.

【図15】本発明の一実施例の画像処理装置のエッジ検
出部の第2のFIX差分器の構成を示す図である。
FIG. 15 is a diagram illustrating a configuration of a second FIX differentiator of the edge detection unit of the image processing apparatus according to one embodiment of the present invention.

【図16】本発明の一実施例の画像処理装置のタイミン
グ発生部の構成を示す図である。
FIG. 16 is a diagram illustrating a configuration of a timing generation unit of the image processing apparatus according to one embodiment of the present invention.

【図17】画像とアドレスXADR、YADRとの対応
関係を示す図である。
FIG. 17 is a diagram showing the correspondence between an image and addresses XADR and YADR.

【図18】モード設定回路の各モードを説明する図であ
る。
FIG. 18 is a diagram illustrating each mode of the mode setting circuit.

【図19】本発明の一実施例の画像処理装置の最大動き
物体検出回路の構成を示す図である。
FIG. 19 is a diagram showing a configuration of a maximum moving object detection circuit of the image processing apparatus according to one embodiment of the present invention.

【図20】最大動き物体検出回路の各部の波形を示す図
である。
FIG. 20 is a diagram showing waveforms at various parts of the maximum motion object detection circuit.

【図21】本発明の一実施例の画像処理装置の第1領域
制限回路の構成を示す図である。
FIG. 21 is a diagram illustrating a configuration of a first area limiting circuit of the image processing apparatus according to one embodiment of the present invention.

【図22】本発明の一実施例の画像処理装置の頭頂座標
検出回路の構成を示す図である。
FIG. 22 is a diagram illustrating a configuration of a top coordinate detection circuit of the image processing apparatus according to one embodiment of the present invention.

【図23】本発明の一実施例の画像処理装置の第2領域
制限回路の構成を示す図である。
FIG. 23 is a diagram illustrating a configuration of a second area limiting circuit of the image processing apparatus according to one embodiment of the present invention.

【図24】動き領域の周囲長YLを示す図である。FIG. 24 is a diagram showing a perimeter YL of a motion area.

【図25】動き領域の縦長L0を示す図である。FIG. 25 is a diagram illustrating a vertical length L0 of a motion area.

【図26】動き領域の面積S0を示す図である。FIG. 26 is a diagram showing an area S0 of a motion region.

【図27】動きが不十分なときの動き検出信号を示す第
1の図である。
FIG. 27 is a first diagram illustrating a motion detection signal when the motion is insufficient.

【図28】動きが不十分なときの動き検出信号を示す第
2の図である。
FIG. 28 is a second diagram illustrating a motion detection signal when motion is insufficient.

【図29】本発明の一実施例の画像処理装置の動き特徴
量抽出回路の検出回路の構成を示す図である。
FIG. 29 is a diagram illustrating a configuration of a detection circuit of a motion feature amount extraction circuit of the image processing apparatus according to one embodiment of the present invention.

【図30】本発明の一実施例の画像処理装置の第3領域
制限回路の構成を示す図である。
FIG. 30 is a diagram showing a configuration of a third area limiting circuit of the image processing apparatus according to one embodiment of the present invention.

【図31】本発明の一実施例の画像処理装置の精密頬座
標検出回路の構成を示す図である。
FIG. 31 is a diagram showing a configuration of a precise cheek coordinate detection circuit of the image processing apparatus according to one embodiment of the present invention.

【図32】精密頬座標検出回路の動作タイミングを示す
図である。
FIG. 32 is a diagram showing the operation timing of the precision cheek coordinate detection circuit.

【図33】本発明の一実施例の画像処理装置の第4領域
制限回路の構成を示す図である。
FIG. 33 is a diagram illustrating a configuration of a fourth area limiting circuit of the image processing apparatus according to one embodiment of the present invention;

【図34】本発明の一実施例の画像処理装置の特徴抽出
回路の構成を示す図である。
FIG. 34 is a diagram showing a configuration of a feature extraction circuit of the image processing apparatus according to one embodiment of the present invention.

【図35】特徴抽出回路の動作タイミングを示す図であ
る。
FIG. 35 is a diagram showing the operation timing of the feature extraction circuit.

【図36】特徴抽出回路の動作を説明するタイミングチ
ャートである。
FIG. 36 is a timing chart illustrating the operation of the feature extraction circuit.

【図37】本発明の一実施例の画像処理装置の評価判定
回路の構成を示す図である。
FIG. 37 is a diagram illustrating a configuration of an evaluation determination circuit of the image processing apparatus according to one embodiment of the present invention.

【図38】探索範囲の一例を示す図である。FIG. 38 is a diagram showing an example of a search range.

【図39】第2領域制限回路により制限された領域を説
明する図である。
FIG. 39 is a diagram illustrating an area restricted by a second area restriction circuit.

【図40】第3領域制限回路により矩形領域に制限され
た領域を示す図である。
FIG. 40 is a diagram showing an area restricted to a rectangular area by a third area restriction circuit.

【図41】各モードの動作を説明する図である。FIG. 41 is a diagram illustrating the operation of each mode.

【図42】従来の画像処理装置の構成を示すブロック図
である。
FIG. 42 is a block diagram illustrating a configuration of a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

1 A/D変換部 2 タイミング発生部 3 動き検出部 4 エッジ検出部 5 第1領域制限回路 6 第2領域制限回路 7 第3領域制限回路 8 第4領域制限回路 9 最大動き物体検出回路 10 頭頂座標検出回路 11 動き特徴量抽出回路 12 精密頬座標検出回路 13 特徴抽出回路 14〜16 切換回路 17 評価判定回路 18 動き判定回路 19 追尾対象座標出力回路 20 モード設定回路 21 拡大表示回路 22 D/A変換回路 23 ディスプレイ DESCRIPTION OF SYMBOLS 1 A / D conversion part 2 Timing generation part 3 Motion detection part 4 Edge detection part 5 1st area restriction circuit 6 2nd area restriction circuit 7 3rd area restriction circuit 8 4th area restriction circuit 9 Maximum motion object detection circuit 10 Top Coordinate detection circuit 11 Motion feature extraction circuit 12 Precise cheek coordinate detection circuit 13 Feature extraction circuit 14-16 switching circuit 17 Evaluation judgment circuit 18 Motion judgment circuit 19 Tracking target coordinate output circuit 20 Mode setting circuit 21 Enlarged display circuit 22 D / A Conversion circuit 23 Display

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 7/20 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 6 , DB name) G06T 7/20

Claims (11)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力画像データと、前記入力画像データ
より所定フレーム前に入力された参照画像データとから
差分画像データを作成し、前記差分画像データを二値化
し、動き検出信号を出力する二値化手段と、 前記動き検出信号より抽出された領域の周囲長を検出す
る周囲長検出手段と、 前記動き検出信号より抽出された領域の縦方向の長さを
検出する縦長検出手段と、 前記動き検出信号より抽出された領域の面積を検出する
面積検出手段と、 前記周囲長、前記縦方向の長さおよび前記面積に基づい
て、前記動き検出信号より抽出された領域での物体の動
き量が所定値以上か否かを判定する動き判定手段とを含
む、画像処理装置。
1. An input image data, said input image data
From the reference image data input before the predetermined frame
Create difference image data and binarize the difference image data
And a binarizing means for outputting a motion detection signal, and detecting a perimeter of a region extracted from the motion detection signal.
Peripheral length detecting means, and the vertical length of the region extracted from the motion detection signal.
Vertical length detecting means for detecting, and detecting an area of a region extracted from the motion detection signal
Area detecting means , based on the perimeter, the length in the vertical direction, and the area
The motion of the object in the region extracted from the motion detection signal.
Motion determining means for determining whether the displacement is equal to or greater than a predetermined value.
An image processing device.
【請求項2】 前記二値化手段は、前記動き判定手段の
出力に基づいて前記入力画像データと前記参照画像デー
タとの間のフレーム間隔を制御する、請求項1に記載の
画像処理装置。
2. The method according to claim 1 , wherein said binarizing means includes:
The input image data and the reference image data based on the output.
The method according to claim 1, wherein a frame interval between the frame and the frame is controlled.
Image processing device.
【請求項3】 前記二値化手段は、前記入力画像データ
の各画素の輝度値に基づいて、当該画素位置におけるし
きい値を決定し、前記しきい値に基づいて、前記差分画
像データを二値化する、請求項1または2に記載の画像
処理装置。
3. The apparatus according to claim 2, wherein said binarizing means includes a step of :
Based on the luminance value of each pixel
Determining a threshold value and, based on the threshold value,
The image according to claim 1, wherein the image data is binarized.
Processing equipment.
【請求項4】 前記二値化手段は、 前記入力画像データと前記参照画像データとから前記差
分画像データを作成し、前記差分画像データを二値化
し、動き検出信号を出力する差分画像データ二値化手段
と、 前記動き検出信号に膨張処理を施す二値画像膨張手段と
を含む、請求項1〜3のいずれかに記載の画像処理装
置。
4. The binarizing means according to claim 1 , wherein said binarizing means calculates said difference from said input image data and said reference image data.
Create differential image data and binarize the differential image data
Differential image data binarizing means for outputting a motion detection signal
And a binary image expanding means for performing expansion processing on the motion detection signal;
The image processing apparatus according to claim 1, wherein
Place.
【請求項5】 前記二値画像膨張手段は、 前記動き検出信号の各画素に所定の演算を施すことによ
り、前記動き検出信号の各画素の輝度値を隣接する画素
に伝播させていき、膨張画像データを作成する膨張手段
と、 前記膨張画像データを所定のしきい値で二値化する膨張
画像二値化手段とを含む、請求項4に記載の画像処理装
置。
5. The binary image expanding means according to claim 1 , wherein each of the pixels of the motion detection signal is subjected to a predetermined operation.
The luminance value of each pixel of the motion detection signal
Expansion means for creating expanded image data
And dilation for binarizing the dilated image data with a predetermined threshold value
The image processing apparatus according to claim 4, further comprising: an image binarizing unit.
Place.
【請求項6】 前記二値画像膨張手段は、 前記動き検出信号の各行ごとに、輝度値の立上がりタイ
ミングを検出する立上がり検出手段と、 前記動き検出信号の各行ごとに、輝度値の立下がりタイ
ミングを検出する立下がり検出手段と、 前記立上がりタイミングと前記立下がりタイミングとの
時間差を計測する時間差計測手段と、 前記時間差に適応させて、前記動き検出信号を膨張さ
せ、膨張画像データを作成する膨張手段と、 前記膨張画像データを所定のしきい値で二値化する膨張
画像二値化手段とを含む、請求項4に記載の画像処理装
置。
6. The binary image expanding means includes a rising edge of a luminance value for each row of the motion detection signal.
Rising detection means for detecting the timing of the falling edge of the luminance value for each row of the motion detection signal.
Falling detection means for detecting the timing,
A time difference measuring means for measuring a time difference; and expanding the motion detection signal in accordance with the time difference.
Dilation means for generating dilated image data, and dilation for binarizing the dilated image data with a predetermined threshold value
The image processing apparatus according to claim 4, further comprising: an image binarizing unit.
Place.
【請求項7】 前記動き検出信号の垂直方向の最初の情
報が検出されたタイミングを開始点として計数動作を行
なう計数手段と、 前記動き検出信号の水平方向の第1スタート位置と第1
エンド位置を検出する位置検出手段と、 前記第1スタート位置の信号の低周波成分を抽出し、そ
の出力を巡回させ、第2スタート位置の信号に変換する
第1変換手段と、 前記第1エンド位置の信号の低周波成分を抽出し、その
出力を巡回させ、第2エンド位置の信号に変換する第2
変換手段と、 前記第2スタート位置と前記第2エンド位置の差分値を
計算する差分値計算手段と、 前記差分値と前記計数手段の計数値とを比較し、比較結
果を基に前記第1および第2変換手段の動作を制御する
制御手段とをさらに含む、請求項1〜6のいずれかに記
載の画像処理装置。
7. The first information in the vertical direction of the motion detection signal.
The counting operation is performed with the timing at which the
Counting means; a first start position in the horizontal direction of the motion detection signal;
Position detecting means for detecting an end position; extracting a low-frequency component of the signal at the first start position;
Is output and converted to a signal at the second start position.
First converting means for extracting a low-frequency component of the signal at the first end position;
A second circuit that circulates the output and converts it to a signal at the second end position
Converting means for calculating a difference value between the second start position and the second end position.
A difference value calculating means for calculating, and the count value of said counting means and said difference value is compared, comparing binding
Controlling the operation of the first and second conversion means based on the result
7. The method according to claim 1, further comprising a control unit.
Image processing device.
【請求項8】 前記入力画像データよりエッジを抽出す
るエッジ抽出手段と、 前記動き検出信号と前記エッジの縦線成分との論理積を
計算する論理処理手段と、 前記論理処理手段の計算結果を前記入力画像データの横
軸方向へ投影した信号 へ変換する変換手段と、 前記変換手段により変換された信号のピーク位置を検出
する検出手段とをさらに含む、請求項7に記載の画像処
理装置。
8. An edge is extracted from the input image data.
Edge extraction means, and a logical product of the motion detection signal and a vertical line component of the edge.
A logical processing means for calculating for the horizontal of the input image data the calculation result of the logic processing unit
Converting means for converting into a signal projected in the axial direction, and detecting a peak position of the signal converted by the converting means
The image processing apparatus according to claim 7, further comprising:
Equipment.
【請求項9】 前記エッジ抽出手段は、 前記入力画像データの輝度値を横軸方向に微分する第1
の微分手段と、 前記入力画像データの輝度値を縦軸方向に微分する第2
の微分手段と、 前記第1および第2の微分手段の出力の差分値を計算
し、前記差分値の符号に基づいて、前記差分値の絶対値
を前記エッジの縦線成分または横線成分とする手段と、 前記エッジの縦線成分および横線成分をそれぞれ二値化
するエッジ二値化手段とを含む、請求項8に記載の画像
処理装置。
9. The first edge extracting means for differentiating a luminance value of the input image data in a horizontal axis direction.
And a second means for differentiating the luminance value of the input image data in the vertical axis direction
And a differential value between outputs of the first and second differentiating means are calculated.
And, based on the sign of the difference value, the absolute value of the difference value
Means for converting a vertical line component or a horizontal line component of the edge, and binarizing the vertical line component and the horizontal line component of the edge, respectively.
9. The image according to claim 8, further comprising:
Processing equipment.
【請求項10】 前記エッジ二値化手段は、 前記エッジの縦線成分および横線成分を前記入力画像デ
ータの輝度値によって正規化する正規化手段を含む、請
求項9に記載の画像処理装置。
10. The edge binarizing means converts a vertical line component and a horizontal line component of the edge into the input image data.
Including a normalization means for normalizing by the brightness value of the data
An image processing apparatus according to claim 9.
【請求項11】 前記エッジの縦線成分および横線成分11. A vertical line component and a horizontal line component of the edge.
に基づいて、前記入力画像データ中の対象物体の特徴情Based on the characteristic information of the target object in the input image data.
報を抽出する抽出手段と、Extracting means for extracting information 前記特徴情報に対して、所定の解析関数による非線形変Non-linear transformation of the feature information by a predetermined analysis function
換を施し、中間特徴情報へ変換する特徴情報変換手段Feature information conversion means for performing conversion and converting to intermediate feature information
と、When, 前記中間特徴情報に所定の重みづけを行なった後、線形After performing predetermined weighting on the intermediate feature information,
加算することにより評価データを作成する評価データ作Evaluation data creation that creates evaluation data by adding
成手段と、Means, 前記評価データを基に前記画像データの中の対象物体をA target object in the image data based on the evaluation data;
特定する特定手段とをさらに含む、請求項8〜10のい11. The method according to claim 8, further comprising specifying means for specifying.
ずれかに記載の画像処理装置。An image processing apparatus according to any of the preceding claims.
JP5153933A 1993-06-24 1993-06-24 Image processing device Expired - Fee Related JP2992178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5153933A JP2992178B2 (en) 1993-06-24 1993-06-24 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5153933A JP2992178B2 (en) 1993-06-24 1993-06-24 Image processing device

Publications (2)

Publication Number Publication Date
JPH0729014A JPH0729014A (en) 1995-01-31
JP2992178B2 true JP2992178B2 (en) 1999-12-20

Family

ID=15573256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5153933A Expired - Fee Related JP2992178B2 (en) 1993-06-24 1993-06-24 Image processing device

Country Status (1)

Country Link
JP (1) JP2992178B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764086B2 (en) * 2001-10-29 2006-04-05 本田技研工業株式会社 Vehicle information providing device
JP4577612B2 (en) * 2005-03-30 2010-11-10 カシオ計算機株式会社 Information display system and information display method
JP2007257078A (en) * 2006-03-20 2007-10-04 Fujitsu Ltd Image retrieving device
JP5092270B2 (en) * 2006-04-26 2012-12-05 富士ゼロックス株式会社 Image processing apparatus and method
JP2008234619A (en) * 2007-02-20 2008-10-02 Toshiba Corp Face authenticating device and face authenticating method
WO2012042705A1 (en) * 2010-09-27 2012-04-05 パナソニック株式会社 Method of detecting moving object and moving object detecting device
JP5799179B2 (en) * 2013-03-29 2015-10-21 楽天株式会社 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM
EP3016383B1 (en) * 2014-11-03 2017-06-21 Axis AB Method, device, and system for pre-processing a video stream for subsequent motion detection processing

Also Published As

Publication number Publication date
JPH0729014A (en) 1995-01-31

Similar Documents

Publication Publication Date Title
JP2978406B2 (en) Apparatus and method for generating motion vector field by eliminating local anomalies
US6233008B1 (en) Target tracking method and device therefor
JP3178719B2 (en) Dynamic object recognition method and image processing system thereof
KR101468351B1 (en) Object tracking device, object tracking method, and control program
Cavallaro et al. Video object extraction based on adaptive background and statistical change detection
US8027534B2 (en) Image processing apparatus, image processing method, and program
US7710461B2 (en) Image processing device, image processing method, and image processing program
CN106548185B (en) A kind of foreground area determines method and apparatus
JP3035920B2 (en) Moving object extraction device and moving object extraction method
JPH0766446B2 (en) Method of extracting moving object image
JP2001285695A (en) Mobile body tracking method and device therefor
CN101485192A (en) Image generating device and image generating method
CN109005367B (en) High dynamic range image generation method, mobile terminal and storage medium
JP2992178B2 (en) Image processing device
CN112511859B (en) Video processing method, device and storage medium
US5420637A (en) Dynamic image representation system
EP0586708B1 (en) Image processor and method therefor
Oliveira et al. FPGA architecture for static background subtraction in real time
CN115835035A (en) Image frame interpolation method, device and equipment and computer readable storage medium
JP4140402B2 (en) Image processing device
JP2000011134A (en) Device and method for detecting moving amount
JP2889410B2 (en) Image recognition device
JPH0652311A (en) Image processing method
Hoshi et al. Film blotch removal with a spatiotemporal fuzzy filter based on local image analysis of anisotropic continuity
Kim et al. Study on the implementation of a moving-object tracking system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991005

LAPS Cancellation because of no payment of annual fees