JPH09114977A - Method and device for processing image - Google Patents

Method and device for processing image

Info

Publication number
JPH09114977A
JPH09114977A JP7292207A JP29220795A JPH09114977A JP H09114977 A JPH09114977 A JP H09114977A JP 7292207 A JP7292207 A JP 7292207A JP 29220795 A JP29220795 A JP 29220795A JP H09114977 A JPH09114977 A JP H09114977A
Authority
JP
Japan
Prior art keywords
image data
image
feature point
input
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7292207A
Other languages
Japanese (ja)
Inventor
Yutaka Kato
豊 加藤
Yoshimasa Asougawa
佳誠 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7292207A priority Critical patent/JPH09114977A/en
Publication of JPH09114977A publication Critical patent/JPH09114977A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly extract an object regardlessly of change in the intensity of illumination or the kind of the object. SOLUTION: A television camera 11 is arranged being directed to an observing position and a mobile object, which appears at the observing position, is extracted. A background image memory 2 stores image data previously provided by picking up an image in the state of letting no mobile object exist at the observing position, and image data at the time of extracting processing are inputted to a local correlation circuit 3. The local correlation circuit 3 sets the 5×5 local areas to both the inputted image data and the background image data in the background image memory 2, scans them and executes normalizing correlation arithmetic using the image data at respective scanning positions. At a binarizing circuit 4, a calculated correlation value is binarized by a prescribed threshold value and outputted to a control part or the like.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、テレビカメラを所定
の観測位置に向けて撮像を行い、得られた画像から特定
の対象物を抽出する画像処理方法およびその装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for imaging a television camera toward a predetermined observation position and extracting a specific object from the obtained image.

【0002】[0002]

【従来の技術】特定の観測位置に向けてテレビカメラを
設置し、このテレビカメラからの入力画像を用いて移動
体などの対象物を抽出する方法として、従来、観測対象
となる入力画像とあらかじめ前記観測位置に対象物が存
在しない状態を撮像して得られた背景画像との濃度差分
値を用いる方法(以下「背景差分法」という)や、観測
対象となる入力画像と1段階前に得られた入力画像との
濃度差分値を用いる方法(以下「時間差分法」という)
などが、提案されている。
2. Description of the Related Art As a method of installing a TV camera toward a specific observation position and extracting an object such as a moving object using the input image from the TV camera, conventionally, the input image to be observed and the A method that uses the density difference value with the background image obtained by imaging the state where the object does not exist at the observation position (hereinafter referred to as "background difference method"), or the input image to be observed and the one step before. Method that uses the density difference value from the input image (hereinafter referred to as "time difference method")
Have been proposed.

【0003】図8は、上記背景差分法が導入された画像
処理装置の構成例を示すもので、スイッチ31,背景画
像メモリ32,差分回路33,2値化回路34などから
構成されている。スイッチ31は、テレビカメラ(図示
せず)から得られた濃淡画像データ(以下単に「画像デ
ータ」という)の出力先を切り換えるためのもので、抽
出処理に先立ちテレビカメラにより観測位置に対象物が
存在しない状態が撮像されるとき、図示しない制御部に
よる制御を受けてオン動作する。これによりテレビカメ
ラからの画像データは、背景画像データ(図10に一例
を示す)として背景画像メモリ32に格納されるもの
で、この後スイッチ31はオフに切り換えられる。
FIG. 8 shows an example of the configuration of an image processing apparatus to which the above-mentioned background subtraction method is introduced, which is composed of a switch 31, a background image memory 32, a difference circuit 33, a binarization circuit 34 and the like. The switch 31 is for switching the output destination of the grayscale image data (hereinafter simply referred to as “image data”) obtained from a television camera (not shown). When a non-existing state is imaged, it is turned on under the control of a control unit (not shown). As a result, the image data from the television camera is stored in the background image memory 32 as background image data (an example is shown in FIG. 10), after which the switch 31 is turned off.

【0004】スイッチ31がオフ動作することにより、
以後の画像データは差分回路33へと入力される。この
差分回路33は、入力された画像データと前記背景画像
メモリ32内の背景画像データとの濃度差分値を算出す
るためのもので、両画像データ間の対応する画素毎に濃
度差分の絶対値を算出し、その算出結果を2値化回路3
4へと出力する。2値化回路34は、入力された各絶対
値を所定のしきい値で2値化し、その結果を各画素毎に
出力する。
When the switch 31 is turned off,
The subsequent image data is input to the difference circuit 33. The difference circuit 33 is for calculating the density difference value between the input image data and the background image data in the background image memory 32, and the absolute value of the density difference for each corresponding pixel between both image data. Is calculated, and the calculation result is calculated by the binarization circuit 3
Output to 4. The binarization circuit 34 binarizes each input absolute value with a predetermined threshold value, and outputs the result for each pixel.

【0005】図11は、観測位置に対象物(図示例では
人物)が現れた段階で得られた入力画像を、図12は、
この入力画像について前記図10の背景画像との差分処
理および2値化回路34による2値化処理を行った後の
画像(以下「抽出画像」という)を、それぞれ示すもの
で、抽出画像では、対象物の画像Aに相当する画素群A
´のみが黒画素として表されている。
FIG. 11 shows an input image obtained when an object (a person in the illustrated example) appears at an observation position, and FIG.
An image (hereinafter referred to as an “extracted image”) after the input image is subjected to the difference processing with the background image in FIG. 10 and the binarization processing by the binarization circuit 34 is shown respectively. Pixel group A corresponding to image A of the object
Only 'is represented as a black pixel.

【0006】図9は、時間差分法が導入された画像処理
装置の構成例を示すもので、上記と同様の差分回路3
3,2値化回路34のほかに、フレームバッファ35な
どを構成として含んでいる。
FIG. 9 shows an example of the configuration of an image processing apparatus to which the time difference method is introduced. A difference circuit 3 similar to the above is used.
In addition to the 3-binarization circuit 34, a frame buffer 35 and the like are included as components.

【0007】テレビカメラからの画像データは、前記差
分回路33およびフレームバッファ35に同時に入力さ
れるもので、差分回路33は、現時点で入力された画像
データとフレームバッファ35により1フレーム分遅延
された入力画像データとの濃度差分値の算出処理を行
う。この処理は、前記図8と同様、両画像データ間の対
応する画素毎に濃度差分の絶対値を算出するもので、2
値化回路34は各画素毎の絶対値を2値化処理し、その
結果を画素毎に出力することにより抽出画像を生成す
る。
The image data from the television camera is input to the difference circuit 33 and the frame buffer 35 at the same time. The difference circuit 33 is delayed by one frame by the image data input at the present time and the frame buffer 35. Calculation processing of the density difference value with the input image data is performed. This process calculates the absolute value of the density difference for each corresponding pixel between both image data, as in the case of FIG.
The binarization circuit 34 binarizes the absolute value of each pixel and outputs the result for each pixel to generate an extracted image.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、図8の
「背景差分法」を用いた画像処理装置の場合、背景画像
の撮像時と処理対象の画像の撮像時とで、撮像領域を照
らす照明強度に大きな変化があると、処理対象の画像中
の対象物以外の部分と、背景画像データの対応部分との
濃度差が大きくなり、図13に示すような誤抽出結果を
招くという問題がある。
However, in the case of the image processing apparatus using the "background subtraction method" of FIG. 8, the illumination intensity that illuminates the imaging area at the time of capturing the background image and the image of the processing target. If there is a large change, the density difference between the portion other than the object in the image to be processed and the corresponding portion of the background image data becomes large, which causes the problem of erroneous extraction as shown in FIG.

【0009】このような照明強度の変化による誤抽出を
防ぐため、前記2値化回路34に設定するしきい値を高
くすることも考えられるが、この場合、図14に示すよ
うに対象物に相当する部分まで抽出されなくなる虞があ
る。
In order to prevent erroneous extraction due to such a change in illumination intensity, it is conceivable to increase the threshold value set in the binarization circuit 34. In this case, as shown in FIG. There is a possibility that the corresponding part may not be extracted.

【0010】また、照明強度の変化による誤抽出を防ぐ
他の方法として、背景画像メモリの内容を所定時間毎に
更新して、撮像領域の環境の変化に対応させることも提
案されている。しかしながらこの方法では、背景画像の
更新速度を遅くすると、照明強度の急激な変化に対応し
きれなくなり、図13と同様の結果を招く。逆に、背景
画像の更新速度を速くすると、動きの遅い移動体を抽出
できなくなるという問題が生じる。
Also, as another method for preventing erroneous extraction due to a change in illumination intensity, it has been proposed to update the contents of the background image memory at predetermined time intervals so as to respond to changes in the environment of the image pickup area. However, in this method, if the background image update rate is slowed down, it becomes impossible to cope with a sudden change in illumination intensity, and the same result as in FIG. 13 is brought about. On the contrary, if the update speed of the background image is increased, there is a problem that a moving object having a slow motion cannot be extracted.

【0011】次に、図9の「時間差分法」を用いる場
合、対象物が動きの遅い移動体であると、1フレーム前
の画像データとの間にしきい値を越える濃度差分が生じ
ず、対象物が移動する様子を抽出できなくなる。また、
この方法でも、照明強度の急激な変化に対応することは
不可能である。
Next, when the "time difference method" of FIG. 9 is used, if the object is a moving body with slow movement, a density difference exceeding the threshold value does not occur between the image data of one frame before and the image data of one frame before, It becomes impossible to extract the movement of the object. Also,
Even with this method, it is impossible to cope with a rapid change in illumination intensity.

【0012】この発明は、上記問題点に着目してなされ
たもので、照明強度の変化や対象物の種類にかかわら
ず、対象物を正しく抽出することができる画像処理方法
およびその装置を提供することを目的とする。
The present invention has been made in view of the above problems, and provides an image processing method and apparatus capable of correctly extracting an object regardless of the change in illumination intensity or the type of the object. The purpose is to

【0013】[0013]

【課題を解決するための手段】請求項1の発明は、テレ
ビカメラを所定の観測位置に向けて撮像を行い、得られ
た画像データを入力してその入力画像から特定の対象物
を抽出する画像処理方法であって、前記観測位置に対象
物の存在しない背景画像をあらかじめ記憶しておき、入
力画像上の所定の領域内の画像データとこの画像データ
に対応する背景画像上の画像データとの正規化相関演算
を行った後、その演算結果を用いて入力画像上の前記領
域内に対象物に該当する画像データが存在するか否かを
判別することを特徴とする。
According to a first aspect of the present invention, a television camera is imaged at a predetermined observation position, image data obtained is input, and a specific object is extracted from the input image. In the image processing method, a background image in which the object does not exist at the observation position is stored in advance, and image data in a predetermined area on the input image and image data on the background image corresponding to this image data are stored. After performing the normalized correlation calculation of 1), it is determined whether the image data corresponding to the object exists in the area on the input image by using the calculation result.

【0014】請求項2の発明は、テレビカメラを所定の
観測位置に向けて撮像を行い、得られた画像データを入
力してその入力画像から特定の対象物を抽出する画像処
理装置であって、前記観測位置に対象物の存在しない背
景画像データを記憶する背景画像記憶手段と、前記入力
画像上の所定の領域内の画像データとこの画像データに
対応する背景画像上の画像データとを抽出する画像デー
タ抽出手段と、前記画像データ抽出手段により抽出され
た両画像データにつき正規化相関演算を実行する演算手
段と、前記演算手段により算出された相関値により入力
画像上の前記領域内に対象物に該当する画像データが存
在するか否かを判別する判別手段とを備えて成る。
According to a second aspect of the present invention, there is provided an image processing device for picking up an image with a television camera directed to a predetermined observation position, inputting the obtained image data, and extracting a specific object from the input image. , Background image storage means for storing background image data in which the object does not exist at the observation position, image data in a predetermined area on the input image, and image data on a background image corresponding to this image data Image data extraction means, calculation means for executing a normalized correlation calculation on both image data extracted by the image data extraction means, and a correlation value calculated by the calculation means for targeting in the area on the input image. And a discriminating means for discriminating whether or not image data corresponding to the object exists.

【0015】請求項3の発明では、前記画像データ抽出
手段は、入力画像上に所定の大きさの局所領域を設定し
て走査し、各走査位置毎に局所領域内の入力画像データ
とこの画像データに対応する背景画像上の画像データと
を順次抽出する。
According to a third aspect of the present invention, the image data extracting means sets a local area having a predetermined size on the input image and scans the input image data, and the input image data in the local area and the image at each scanning position. The image data on the background image corresponding to the data is sequentially extracted.

【0016】請求項4の発明は、テレビカメラを所定の
観測位置に向けて撮像を行い、得られた画像データを入
力してその入力画像から特定の対象物を抽出する画像処
理装置であって、前記観測位置に対象物の存在しない背
景画像データを記憶する背景画像記憶手段と、前記入力
画像から複数個の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された各特徴点につい
て、それぞれ特徴点を含む所定の局所領域内の画像デー
タとこの画像データに対応する背景画像上の画像データ
とを抽出する画像データ抽出手段と、各特徴点毎に前記
画像データ抽出手段により抽出された両画像データにつ
き正規化相関演算を実行する演算手段と、前記演算手段
により算出された各相関値を用いて対象物に該当する特
徴点を特定して対象物を判別する判別手段とを備えて成
る。
According to a fourth aspect of the present invention, there is provided an image processing apparatus, wherein a television camera is imaged at a predetermined observation position, image data obtained is input, and a specific object is extracted from the input image. Background image storage means for storing background image data in which the object does not exist at the observation position, and feature point extraction means for extracting a plurality of feature points from the input image,
For each feature point extracted by the feature point extraction means, image data extraction means for extracting image data in a predetermined local area including the feature point and image data on a background image corresponding to this image data, An arithmetic means for executing a normalized correlation operation on both image data extracted by the image data extracting means for each characteristic point, and a characteristic point corresponding to an object by using each correlation value calculated by the arithmetic means. And a discriminating means for discriminating the object.

【0017】請求項5の発明では、前記特徴点抽出手段
は、入力画像中のエッジを構成する画素を特徴点として
抽出する。
According to the invention of claim 5, the feature point extracting means extracts pixels constituting an edge in the input image as feature points.

【0018】請求項6の発明は、複数台のテレビカメラ
を所定の観測位置に向けてそれぞれ撮像を行い、得られ
た各テレビカメラの画像データを同時に入力して対象物
の認識処理を行う画像処理装置であって、各テレビカメ
ラ毎に前記観測位置に対象物の存在しない背景画像デー
タを記憶する背景画像記憶手段と、各テレビカメラから
の入力画像につき、それぞれ複数個の特徴点を抽出する
特徴点抽出手段と、前記特徴点抽出手段により抽出され
た各入力画像毎の各特徴点について、それぞれ特徴点を
含む所定の局所領域内の画像データとこの画像データに
対応する背景画像上の画像データとを抽出する画像デー
タ抽出手段と、各特徴点毎に前記画像データ抽出手段に
より抽出された両画像データ間の正規化相関演算を実行
する演算手段と、前記演算手段により算出された各相関
値を用いて各入力画像毎に対象物に該当する特徴点を特
定する特定手段と、前記特定手段により特定された特徴
点について、各入力画像間での対応付けを行う対応付け
手段と、前記対応付け手段により対応付けられた各特徴
点について3次元計測を行って、各特徴点の3次元座標
を抽出する座標抽出手段と、前記座標抽出手段により抽
出された各特徴点の3次元座標を用いて対象物の3次元
的形状を判別する判別手段とを備えて成る。
According to a sixth aspect of the present invention, an image in which a plurality of television cameras are respectively imaged toward a predetermined observation position, and the obtained image data of each television camera is simultaneously input to perform an object recognition process. In the processing device, a background image storage unit that stores background image data in which the object does not exist at the observation position for each TV camera, and a plurality of feature points are extracted for each input image from each TV camera. Image data on a background image corresponding to the image data in a predetermined local area including the feature points for each feature point of each input image extracted by the feature point extraction means and the feature point extraction means Image data extracting means for extracting data, and arithmetic means for executing a normalized correlation operation between both image data extracted by the image data extracting means for each feature point, Correspondence between each input image with respect to the characteristic point specified by the specifying section and the specifying point for specifying the characteristic point corresponding to the object for each input image using each correlation value calculated by the calculation section The associating means for attaching, the coordinate extracting means for three-dimensionally measuring each feature point associated by the associating means and extracting the three-dimensional coordinates of each feature point, and the coordinate extracting means for extracting. And a determination unit that determines the three-dimensional shape of the object using the three-dimensional coordinates of each feature point.

【0019】[0019]

【作用】請求項1および2の発明では、入力画像、背景
画像それぞれの対応する領域内の画像データについて、
正規化相関演算を行った結果を用いて対象物の判別処理
を行う。正規化相関演算は、照明変動があってもその影
響を受けないため、演算結果は領域内に対象物が存在す
るか否かを反映したものとなる。
According to the first and second aspects of the invention, the image data in the corresponding areas of the input image and the background image are
The object is discriminated using the result of the normalized correlation calculation. Since the normalized correlation calculation is not affected by the illumination variation, the calculation result reflects whether or not the object exists in the area.

【0020】請求項3の発明では、入力画像全体に局所
領域が走査され、各走査位置毎に上記の処理が行われ
る。
According to the third aspect of the invention, the local area is scanned over the entire input image, and the above processing is performed for each scanning position.

【0021】請求項4の発明では、入力画像から複数個
の特徴点を抽出し、各特徴点についてそれぞれ特徴点を
含む所定の局所領域内の画像データとこれに対応する背
景画像データとを抽出して正規化相関演算を実行し、そ
の結果を用いて対象物に該当する特徴点を特定する。
According to the fourth aspect of the invention, a plurality of feature points are extracted from the input image, and image data in a predetermined local area including the feature points and background image data corresponding thereto are extracted for each feature point. Then, the normalized correlation calculation is executed, and the feature point corresponding to the object is specified using the result.

【0022】請求項5の発明では、入力画像中のエッジ
を構成する画素を特徴点として抽出することにより、対
象物の輪郭部分を抽出する。
According to the fifth aspect of the invention, the contour portion of the object is extracted by extracting the pixels forming the edge in the input image as the feature points.

【0023】請求項6の発明では、複数台のテレビカメ
ラにより得られた入力画像について、それぞれ請求項4
と同様の処理を行った後、各入力画像間で対象物に該当
する点として特定された特徴点の対応付けを行って、そ
の対応付けの結果を用いて各特徴点の3次元座標を抽出
し、さらに、その抽出結果により対象物の3次元的形状
を判別する。
According to the invention of claim 6, the input images obtained by a plurality of television cameras are respectively defined by claim 4.
After performing the same process as above, the feature points identified as points corresponding to the object are associated between the input images, and the three-dimensional coordinates of each feature point are extracted using the result of the association. Then, the three-dimensional shape of the object is determined based on the extraction result.

【0024】[0024]

【発明の実施の形態】請求項1〜3の発明を実施するた
めの構成例として図1〜3の画像処理装置を、また請求
項4,5を実施するための構成例として図4の画像処理
装置を、さらに請求項6を実施するための構成例として
図5の画像処理装置を、それぞれあげ、以下に各画像処
理装置についての詳細な説明を展開する。
BEST MODE FOR CARRYING OUT THE INVENTION The image processing apparatus of FIGS. 1 to 3 is an example of the configuration for implementing the inventions of claims 1 to 3, and the image of FIG. 4 is an example of the configuration for implementing claims 4 and 5. As the processing apparatus, the image processing apparatus of FIG. 5 is given as a configuration example for carrying out claim 6, and a detailed description of each image processing apparatus will be developed below.

【0025】[0025]

【実施例】図1は、この発明の第1実施例にかかる画像
処理装置の構成を示す。この画像処理装置は、テレビカ
メラ11(以下、単に「カメラ11」という)を所定の
観測位置に向けて撮像を行うことにより得られた濃淡画
像データ(以下「対象画像データ」という)と、予め観
測位置に抽出対象物が存在しない状態を撮像して得られ
た背景画像データとを用いて、観測対象位置に人間など
動きのある対象物(以下「移動体」という)が現れるか
否かを認識するためのもので、スイッチ1、背景画像メ
モリ2、局所相関回路3、および2値化回路4などを構
成として含んでいる。
1 is a block diagram showing the arrangement of an image processing apparatus according to the first embodiment of the present invention. This image processing device, in advance, produces grayscale image data (hereinafter referred to as “target image data”) obtained by imaging a television camera 11 (hereinafter simply referred to as “camera 11”) toward a predetermined observation position, Whether or not a moving object such as a human (hereinafter referred to as "moving object") appears at the observation target position by using the background image data obtained by imaging the state where the extraction target does not exist at the observation position. It is for recognition, and includes a switch 1, a background image memory 2, a local correlation circuit 3, a binarization circuit 4 and the like as a configuration.

【0026】スイッチ1は、図示しない制御部によって
ON/OFFの切換えが行われるもので、前記した図8
と同様、抽出処理に先立つ背景画像データの取込み時に
オン動作して、背景画像メモリ2への背景画像データの
格納が行われる。この後、スイッチ1はオフに切り換え
られ、対象画像データが局所相関回路3へと入力され
る。
The switch 1 is turned on / off by a control unit (not shown), and is shown in FIG.
Similarly to the above, the background image data is stored in the background image memory 2 by being turned on when the background image data is captured prior to the extraction processing. After that, the switch 1 is turned off, and the target image data is input to the local correlation circuit 3.

【0027】局所相関回路3は、カメラ11から得た対
象画像データおよび背景画像メモリ2内の背景画像デー
タに、それぞれ所定の大きさの局所領域を設定して走査
し、各走査位置毎に両画像データ間の正規化相関演算を
実行するためのもので、各走査位置で算出された相関値
Rは順次2値化回路4へと入力される。2値化回路4
は、入力された相関値Rを所定のしきい値に基づき2値
化処理するためのもので、図示しない制御部は、この処
理結果を用いて対象画像データ内に対象物に相当するデ
ータが存在するか否かなどを判別する。
The local correlation circuit 3 sets a local area of a predetermined size in the target image data obtained from the camera 11 and the background image data in the background image memory 2 and scans them. The correlation value R calculated at each scanning position is sequentially input to the binarization circuit 4 in order to execute the normalized correlation calculation between the image data. Binarization circuit 4
Is for binarizing the input correlation value R based on a predetermined threshold value, and a control unit (not shown) uses the result of this processing to find data corresponding to the object in the target image data. It is determined whether or not it exists.

【0028】この実施例における局所相関回路3は、図
2に示すように、カメラから入力された対象画像データ
I と、背景画像メモリ2から入力された背景画像デー
タGM に対し、それぞれ縦横5画素ずつの局所領域
I ,RM を設定し、この局所領域RI ,RM を各画像
データGI ,GM の左上から水平方向に同タイミングで
走査させると共に、各走査位置における局所領域RI
M 内の画像データを用いて、両局所領域間の正規化相
互相関演算を実行する。
As shown in FIG. 2, the local correlation circuit 3 in this embodiment vertically and horizontally relates to the target image data G I input from the camera and the background image data G M input from the background image memory 2. Local regions R I and R M of 5 pixels are set, and these local regions R I and R M are horizontally scanned from the upper left of each image data G I and G M at the same timing, and local regions at each scanning position are set. Region R I ,
Using the image data in R M , the normalized cross-correlation operation between both local regions is executed.

【0029】図3は、前記局所相関回路3の詳細な構成
を示すもので、対象画像走査部5,背景画像走査部6,
正規化相関演算部7などを含んでいる。前記対象画像走
査部5および背景画像走査部6は、それぞれ4個のライ
ンバッッファLBと4行×5列に配列された20個のフ
リップフロップFFとにより構成されており、対象画像
走査部5の各行,各列からは前記局所領域RI 内の各画
素の濃度データI0 〜I24が、背景画像走査部6の各
行,各列からは前記局所領域RM 内の各画素の濃度デー
タM0 〜M24が、それぞれ抽出される。これら抽出され
た各濃度データは正規化相関演算部7に入力され、つぎ
の(1)式に基づく演算を実行することにより、両局所
領域RI ,RM 間の相関値Rが求められる。なお次式に
おいて、nは25である。
FIG. 3 shows a detailed structure of the local correlation circuit 3, which is a target image scanning unit 5, a background image scanning unit 6, and a background image scanning unit 6.
It includes a normalized correlation calculator 7 and the like. The target image scanning unit 5 and the background image scanning unit 6 each include four line buffers LB and 20 flip-flops FF arranged in 4 rows × 5 columns. , From each column, density data I 0 to I 24 of each pixel in the local area R I , from each row and column of the background image scanning unit 6, density data M 0 of each pixel in the local area R M. ~ M 24 are extracted respectively. Each of the extracted density data is input to the normalized correlation calculation unit 7, and the correlation value R between the local regions R I and R M is obtained by executing the calculation based on the following equation (1). In the following equation, n is 25.

【0030】[0030]

【数1】 (Equation 1)

【0031】前記した図11の対象画像データを、上記
の画像処理装置に入力して図10の背景画像データとの
照合を行った場合、対象画像データ内の背景に相当する
部分における相関値Rは高くなるが、移動体(人物)の
画像Aの部分における相関値Rは低くなり、2値化回路
4による処理結果として、対象物に相当する画素のみが
黒画素に変換された抽出画像データ(図12に示す)が
得られる。正規化相関演算は照明の変動に影響されるこ
となく常に安定した結果が得られるので、たとえ対象画
像データの入力時の照明が背景画像データの入力時から
大きく変動していても、対象物の画像のみを正確に抽出
することができる。
When the target image data shown in FIG. 11 is input to the above image processing apparatus and collated with the background image data shown in FIG. 10, a correlation value R in a portion corresponding to the background in the target image data is obtained. However, the correlation value R in the image A portion of the moving body (person) becomes low, and as a result of the processing by the binarization circuit 4, only the pixels corresponding to the object are converted into black pixels and the extracted image data is obtained. (Shown in FIG. 12) is obtained. Since the normalized correlation calculation can always obtain stable results without being affected by the fluctuation of illumination, even if the illumination at the time of inputting the target image data fluctuates greatly from the time of inputting the background image data, Only the image can be accurately extracted.

【0032】なお上記の実施例では、対象画像データの
全画素を処理対象として背景画像データとのマッチング
処理を行っているが、これに限らず、まず入力された対
象画像データからエッジ構成点などの特徴点を抽出し、
この抽出された特徴点を含む局所領域について背景画像
とのマッチング処理を行なうようにしてもよい。
In the above embodiment, the matching processing with the background image data is performed with all the pixels of the target image data as the processing target. Feature points of
You may make it perform the matching process with a background image about the local area | region containing this extracted feature point.

【0033】図4は、この第2の方法を実現するための
装置構成例を示すもので、CPU17を制御主体とし、
スイッチ12,エッジ抽出部13,エッジ画像メモリ1
4,背景画像メモリ15,画像メモリ16,エッジ座標
メモリ18,特徴点座標メモリ19などを構成として含
んでいる。
FIG. 4 shows an example of a device configuration for realizing the second method, in which the CPU 17 is the main control unit,
Switch 12, edge extraction unit 13, edge image memory 1
4, a background image memory 15, an image memory 16, an edge coordinate memory 18, a feature point coordinate memory 19 and the like are included as components.

【0034】スイッチ12は、CPU17を主体とする
制御部による制御をうけて、背景画像メモリ15,画像
メモリ16のいずれかに接続を切り換えるもので、これ
により背景画像メモリ15には背景画像データが、画像
メモリ16には対象画像データがそれぞれ格納される。
The switch 12 switches the connection to either the background image memory 15 or the image memory 16 under the control of the control unit mainly composed of the CPU 17, whereby the background image data is stored in the background image memory 15. The target image data is stored in the image memory 16, respectively.

【0035】エッジ抽出部13は、カメラからの対象画
像データを入力して画像中のエッジ成分を抽出し、エッ
ジ構成点のみが黒画素で表されるエッジ画像を生成する
ためのもので、生成されたエッジ画像はエッジ画像メモ
リ14内に格納され、さらにこのエッジ画像中のエッジ
構成点の座標がエッジ座標メモリ18に格納される。
The edge extracting unit 13 is for inputting the target image data from the camera, extracting the edge components in the image, and generating an edge image in which only the edge constituent points are represented by black pixels. The created edge image is stored in the edge image memory 14, and the coordinates of the edge constituent points in the edge image are further stored in the edge coordinate memory 18.

【0036】この実施例では、前記第1の実施例の正規
化相関演算部7や2値化回路4の機能を実現するための
プログラムを図示しないROMなどに格納しており、C
PU17は、前記エッジ座標メモリ18を参照して、前
記画像メモリ16内の対象画像データおよび背景画像メ
モリ15内の背景画像データに対し、各エッジ構成点に
対応する画素を中心とする5×5の局所領域を順次設定
し、両局所領域内の画像データについて前記プログラム
に基づく正規化相関演算処理と2値化処理とを行ってい
る。さらにCPU17は、各エッジ構成点毎に求められ
た相関値Rを所定のしきい値と比較し、相関値Rがしき
い値を下回る結果を得たエッジ構成点のみを前記移動体
の輪郭を構成する特徴点(以下「移動体特徴点」とい
う)であると判別し、その座標を前記特徴点座標メモリ
19内に格納して移動体の認識処理などに使用する。
In this embodiment, a program for realizing the functions of the normalized correlation calculator 7 and the binarization circuit 4 of the first embodiment is stored in a ROM (not shown) or the like, and C
The PU 17 refers to the edge coordinate memory 18 and, with respect to the target image data in the image memory 16 and the background image data in the background image memory 15, 5 × 5 centered on a pixel corresponding to each edge constituent point. Local areas are sequentially set, and the normalized correlation calculation processing and the binarization processing based on the program are performed on the image data in both local areas. Further, the CPU 17 compares the correlation value R obtained for each edge composing point with a predetermined threshold value, and only the edge composing points for which the correlation value R is below the threshold value are contoured to the moving body. It is determined that the feature point is a constituent point (hereinafter referred to as a “moving body feature point”), and the coordinates thereof are stored in the feature point coordinate memory 19 and used for a moving body recognition process or the like.

【0037】図5は、この発明の第3実施例にかかる画
像処理装置を示す。この画像処理装置は、2台のカメラ
11a,11bからの画像データを取り込んで、観測位
置における移動体の3次元形状を認識できるもので、第
2実施例の構成を2組合わせた構成のほか、モデルメモ
リ20および3次元座標メモリ21を具備している。な
お図中、第2実施例と共通する構成のうち、CPU17
およびエッジ座標メモリ18は、カメラ11aおよびカ
メラ11bからの両画像データの処理に共通して使用さ
れるが、その他の構成は、各カメラ11a,11b毎に
設けられている。
FIG. 5 shows an image processing apparatus according to the third embodiment of the present invention. This image processing device is capable of recognizing the three-dimensional shape of the moving body at the observation position by taking in the image data from the two cameras 11a and 11b. In addition to the configuration in which the two configurations of the second embodiment are combined, , A model memory 20 and a three-dimensional coordinate memory 21. It should be noted that, in the drawing, of the configurations common to the second embodiment, the CPU 17
The edge coordinate memory 18 is commonly used for processing both image data from the cameras 11a and 11b, but other configurations are provided for each of the cameras 11a and 11b.

【0038】よって、図中、第2実施例と共通する各構
成には同様の符号を付与し、カメラ11aからの画像デ
ータの処理に係る構成には符号の末尾にaを、カメラ1
1bからの画像データの処理に係る構成には符号の末尾
にbを付加することで、その説明を省略する。なお、前
記カメラ11a,11bは、ともに観測位置に向けて固
定配備されると共に、各光軸が互いに平行になるように
位置調整がなされている。
Therefore, in the figure, the same reference numerals are given to the respective constituents common to the second embodiment, and the constituents related to the processing of the image data from the camera 11a have a at the end of the reference numeral and the camera 1
In the configuration related to the processing of the image data from 1b, b is added to the end of the code, and the description thereof is omitted. The cameras 11a and 11b are both fixedly arranged toward the observation position and their positions are adjusted so that their optical axes are parallel to each other.

【0039】3次元座標メモリ21は、後述する移動体
特徴点の対応付け処理および3次元計測処理により求め
られた各移動体特徴点の3次元座標を記憶するためのも
ので、モデルメモリ20には、この画像処理装置が認識
対象とする移動体についての複数種の3次元モデルが格
納されている。CPU17は、3次元座標メモリ21内
の各特徴点により特定される物体の形状をモデルメモリ
20内の各3次元モデルと照合し、その照合結果により
観測対象における移動体の種別などを認識する。
The three-dimensional coordinate memory 21 is for storing the three-dimensional coordinates of each moving body feature point obtained by the moving body feature point associating process and the three-dimensional measuring process described later, and is stored in the model memory 20. Stores a plurality of types of three-dimensional models of a moving object that is a recognition target of this image processing apparatus. The CPU 17 collates the shape of the object specified by each feature point in the three-dimensional coordinate memory 21 with each three-dimensional model in the model memory 20, and recognizes the type of the moving object in the observation target based on the collation result.

【0040】図6は、前記第2実施例の画像処理装置の
処理手順を示す。まずステップ1(図中「ST1」で示
す)でカメラ11からの背景画像データが背景画像メモ
リ15内に格納されると、前記スイッチ12の切換えが
なされ、以後の対象画像データは画像メモリ16へと導
かれる(ステップ2)。
FIG. 6 shows the processing procedure of the image processing apparatus of the second embodiment. First, when the background image data from the camera 11 is stored in the background image memory 15 in step 1 (indicated by "ST1" in the figure), the switch 12 is switched, and the subsequent target image data is stored in the image memory 16. (Step 2).

【0041】この対象画像データは、同時にエッジ抽出
部13にも与えられており、前記したエッジ構成点の抽
出がなされてエッジ画像が生成される。図15は、前記
図11の対象画像データについて生成されたエッジ画像
を示すもので、人物の画像Aの輪郭部分や背景に置かれ
た物体の輪郭部分が抽出されている。
This target image data is also given to the edge extraction unit 13 at the same time, and the edge constituent points are extracted to generate an edge image. FIG. 15 shows an edge image generated for the target image data of FIG. 11, in which the contour portion of the image A of the person and the contour portion of the object placed on the background are extracted.

【0042】1フレーム分の対象画像データが画像メモ
リ16内に格納され、また同時にこの画像データに対応
するエッジ画像データがエッジ画像メモリ14に格納さ
れると、CPU17は、つぎのステップ3で、このエッ
ジ画像中の各エッジ構成点の座標を抽出し、これをエッ
ジ座標メモリ18へと格納する。
When the target image data for one frame is stored in the image memory 16 and simultaneously the edge image data corresponding to this image data is also stored in the edge image memory 14, the CPU 17 executes the following step 3. The coordinates of each edge constituent point in this edge image are extracted and stored in the edge coordinate memory 18.

【0043】つぎのステップ4でCPU17は、前記画
像メモリ16および背景画像メモリ15に対し、前記エ
ッジ座標メモリ18内に格納された所定の座標データに
ついて、それぞれこの座標データにより特定される画素
を中心とする5×5の局所領域内の画像データを抽出し
た後、続くステップ5で、抽出された両画像データにつ
いて前記(1)式を実行することにより、両局所領域間
の正規化相関演算を実行する。
In the next step 4, the CPU 17 sets, for the image memory 16 and the background image memory 15, the predetermined coordinate data stored in the edge coordinate memory 18 as the center of the pixel specified by the coordinate data. After extracting the image data in the 5 × 5 local region, the normalized correlation calculation between the two local regions is performed in the following step 5 by executing the equation (1) for both the extracted image data. Run.

【0044】つぎにCPU17は、前記ステップ5で算
出された相関値Rを所定のしきい値Thと比較し、この
相関値Rがしきい値Thを下回るとき、処理対象のエッ
ジ構成点は移動体特徴点であると判断してその座標を前
記特徴点メモリ19内に格納する(ステップ7)。
Next, the CPU 17 compares the correlation value R calculated in step 5 with a predetermined threshold value Th, and when the correlation value R is below the threshold value Th, the edge constituent point to be processed moves. It is determined that it is a body feature point, and its coordinates are stored in the feature point memory 19 (step 7).

【0045】上記ステップ4〜7の処理は、前記エッジ
座標メモリ18内に座標データが格納されるすべてのエ
ッジ構成点について行われるもので、この処理が終了す
るとステップ8の判定が「YES」となってステップ9
へと移行する。
The processes of steps 4 to 7 are carried out for all the edge composing points for which the coordinate data is stored in the edge coordinate memory 18. When this process is completed, the judgment of step 8 is "YES". Become Step 9
Move to.

【0046】ステップ9で、CPU17は、前記特徴点
座標メモリ19に格納された各座標データから観測対象
位置に対象となる移動体が存在するか否かなどを認識す
る。図16は、前記図15のエッジ画像について相関演
算処理と2値化処理とを行った結果を示す。図示例の場
合、人物の画像部分の各エッジ構成点上に設定された局
所領域における相関値は低くなるが、他のエッジ構成点
上に設定された局所領域における相関値は高くなり、結
果として、人物の画像Aの輪郭部分が抽出されることに
なる。CPU17は、この抽出結果により観測対象位置
に移動体が存在するものと認識し、その認識結果を図示
しないRAMなどに格納する。
In step 9, the CPU 17 recognizes from the coordinate data stored in the feature point coordinate memory 19 whether or not the target moving body exists at the observation target position. FIG. 16 shows the result of performing the correlation calculation process and the binarization process on the edge image of FIG. In the case of the illustrated example, the correlation value in the local region set on each edge composing point of the image portion of the person is low, but the correlation value in the local region set on another edge composing point is high, and as a result, The contour portion of the image A of the person is extracted. Based on this extraction result, the CPU 17 recognizes that a moving object exists at the observation target position, and stores the recognition result in a RAM (not shown) or the like.

【0047】上記の処理は、1フレーム分の対象画像デ
ータの入力毎に行われるもので、CPU17は、各画像
入力時における認識結果の時間的な推移から移動体の動
きや移動方向などを認識する。
The above processing is performed every time one frame of the target image data is input, and the CPU 17 recognizes the movement and the moving direction of the moving body from the temporal transition of the recognition result at the time of inputting each image. To do.

【0048】図7は、前記第3実施例にかかる画像処理
装置の処理手順を示す。ステップ1〜3までの処理は、
カメラ11aからの画像データおよびカメラ11bから
の画像データについて、それぞれ並行して行われてお
り、ステップ1で、各カメラ11a,11bからの背景
画像データがそれぞれ背景画像メモリ15a,15bに
格納された後、続くステップ2で各スイッチ12a,1
2bが切り換えられ、画像メモリ16a,16bへの対
象画像データの入力が行われる。
FIG. 7 shows a processing procedure of the image processing apparatus according to the third embodiment. The processing from steps 1 to 3
The image data from the camera 11a and the image data from the camera 11b are respectively processed in parallel, and in step 1, the background image data from the cameras 11a and 11b are stored in the background image memories 15a and 15b, respectively. Then, in subsequent step 2, each switch 12a, 1
2b is switched, and the target image data is input to the image memories 16a and 16b.

【0049】つぎのステップ3は、各対象画像データ毎
に前記図6のステップ3〜ステップ8と同様の処理を行
うもので、その結果、各対象画像データ内で移動体特徴
点として判別されたエッジ構成点の座標のみが特徴点座
標メモリ19a,19bに格納される。
In the next step 3, the same processing as in steps 3 to 8 of FIG. 6 is performed for each target image data, and as a result, it is determined as a moving body feature point in each target image data. Only the coordinates of the edge constituent points are stored in the feature point coordinate memories 19a and 19b.

【0050】つぎにCPU17は、第1,第2の各対象
画像データ間で抽出された移動体特徴点を一対一に対応
づける処理を実行する(ステップ4)。この処理は、例
えば、第1のカメラ11aからの対象画像データの所定
の移動体特徴点(説明の都合上Pi とする)に着目し、
第2の対象画像データ内で前記移動体特徴点Pi と同一
のエピポーラライン上に位置する複数個の移動体特徴点
(説明の都合上q1 ,q2 ・・・とする)を抽出した
後、各点およびその近傍の数画素分の濃度データをテン
プレートマッチングするなどすることにより移動体特徴
点Pi に最も類似度の高い移動体特徴点qi を対応点と
して決定するものである。
Next, the CPU 17 executes a process of associating the moving body feature points extracted between the first and second target image data with one-to-one correspondence (step 4). In this process, for example, attention is paid to a predetermined moving body feature point of the target image data from the first camera 11a (for convenience of description, Pi),
After extracting a plurality of moving body feature points (for convenience of description, q1, q2 ...) Located on the same epipolar line as the moving body feature point Pi in the second target image data, The mobile body feature point qi having the highest degree of similarity to the mobile body feature point Pi is determined as a corresponding point by performing template matching on the density data of the points and several pixels in the vicinity thereof.

【0051】上記の対応付け処理が完了すると、CPU
17は、対応づけられた各移動体特徴点について3次元
計測の原理を適用し、各移動体特徴点の3次元座標を算
出して前記3次元座標メモリに格納する(ステップ
5)。
When the above associating process is completed, the CPU
17 applies the principle of three-dimensional measurement to each associated moving body feature point, calculates the three-dimensional coordinates of each moving body feature point, and stores them in the three-dimensional coordinate memory (step 5).

【0052】すべての移動体特徴点についての3次元座
標が求められると、CPU17は、これら3次元座標に
より特定される物体の形状を前記モデルメモリ20内の
各3次元モデルと照合し、抽出結果に最も近いモデルを
認識結果として採用する(ステップ6)。なおこの照合
処理としては、例えば、3次元モデル毎に、モデルの構
成点と3次元座標メモリ21内の各移動体特徴点との間
で、対応する点毎に求めたユークリッド距離を平均し、
その平均値を相互に比較するなどの方法が用いられる。
When the three-dimensional coordinates of all the moving body feature points are obtained, the CPU 17 collates the shape of the object specified by these three-dimensional coordinates with each three-dimensional model in the model memory 20, and extracts the extraction result. The model closest to is adopted as the recognition result (step 6). As the matching process, for example, for each three-dimensional model, the Euclidean distance obtained for each corresponding point between the model constituent points and each mobile body feature point in the three-dimensional coordinate memory 21 is averaged,
A method of comparing the average values with each other is used.

【0053】上記の処理は、第2実施例と同様、1フレ
ーム分の対象画像データが入力される毎に繰り返し行わ
れるもので、CPU17は、各画像入力時における認識
結果の推移に基づき、移動体の形状や移動方向などを認
識する。
Similar to the second embodiment, the above process is repeated every time one frame of the target image data is input, and the CPU 17 moves based on the transition of the recognition result at the time of inputting each image. Recognize body shape and movement direction.

【0054】なお第2,第3の各実施例では、対象画像
の特徴点としてエッジ構成点を用いたが、これに限ら
ず、例えば画像内で濃度データが所定の範囲内にある画
素などを対象としてもよい。また第1実施例〜第3実施
例では、移動体を抽出対象としているが、抽出対象はこ
れに限らず、ある静止物体が観測位置から消えるなどの
事象を抽出対象としてもよい。
In each of the second and third embodiments, the edge composing points are used as the characteristic points of the target image, but the present invention is not limited to this. For example, pixels having density data within a predetermined range in the image may be used. It may be the target. Further, in the first to third embodiments, the moving body is the extraction target, but the extraction target is not limited to this, and an event such as a certain stationary object disappearing from the observation position may be the extraction target.

【0055】[0055]

【発明の効果】請求項1および2の発明では、入力画
像、背景画像それぞれの対応する領域内の画像データに
ついて、正規化相関演算を行った結果を用いて対象物の
判別処理を行い、その演算結果を用いて観測位置に対象
物が存在するか否かを判別するので、照明変動や対象物
の動く速度などの影響を受けることなく、観測位置に対
象物が存在するか否かを正確に判別することができ、画
像処理の精度を向上させることができる。
According to the first and second aspects of the invention, the object discrimination processing is performed using the result of the normalized correlation calculation for the image data in the corresponding areas of the input image and the background image, respectively. Since the calculation result is used to determine whether or not an object exists at the observation position, it is possible to accurately determine whether the object exists at the observation position without being affected by lighting fluctuations or the moving speed of the object. Therefore, the accuracy of image processing can be improved.

【0056】請求項3の発明では、入力画像全体に局所
領域を走査して、各走査位置における局所領域内の画像
データと対応する背景画像データとを抽出して上記の処
理を行うので、対象物の詳細な構成を抽出することがで
きる。
According to the third aspect of the invention, the local area is scanned over the entire input image, the image data in the local area at each scanning position and the corresponding background image data are extracted, and the above processing is performed. It is possible to extract the detailed structure of an object.

【0057】請求項4の発明では、入力画像から複数個
の特徴点を抽出し、各特徴点についてそれぞれ特徴点を
含む所定の局所領域内の画像データとこれに対応する背
景画像データとを抽出して正規化相関演算を実行し、そ
の結果を用いて対象物に該当する特徴点を特定するの
で、対象物を高速で抽出することができる。
According to the invention of claim 4, a plurality of feature points are extracted from the input image, and image data in a predetermined local area including the feature points and background image data corresponding thereto are extracted for each feature point. Then, the normalized correlation operation is executed, and the feature point corresponding to the object is specified using the result, so that the object can be extracted at high speed.

【0058】請求項5の発明では、入力画像中のエッジ
を構成する画素を特徴点として抽出するので、対象物の
輪郭部分を正確に抽出することができる。
According to the fifth aspect of the present invention, the pixels forming the edge in the input image are extracted as the feature points, so that the contour portion of the object can be accurately extracted.

【0059】請求項6の発明では、複数台のテレビカメ
ラにより得られた入力画像について、それぞれ請求項4
と同様の処理を行った後、各入力画像間で対象物に該当
する点として特定された特徴点の対応付けを行って、そ
の対応付けの結果を用いて各特徴点の3次元座標を抽出
し、さらに、その抽出結果により対象物の3次元的形状
を判別するよう構成したので、対象物の形状や向きを正
確に抽出することが可能である。
According to the invention of claim 6, the input images obtained by a plurality of television cameras are respectively defined by claim 4.
After performing the same process as above, the feature points identified as points corresponding to the object are associated between the input images, and the three-dimensional coordinates of each feature point are extracted using the result of the association. Moreover, since the three-dimensional shape of the object is determined based on the extraction result, the shape and orientation of the object can be accurately extracted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1実施例にかかる画像処理装置の
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】対象画像と背景画像との照合方法を示す説明図
である。
FIG. 2 is an explanatory diagram showing a method of matching a target image with a background image.

【図3】局所相関回路の詳細な構成を示すブロック図で
ある。
FIG. 3 is a block diagram showing a detailed configuration of a local correlation circuit.

【図4】この発明の第2実施例にかかる画像処理装置の
構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention.

【図5】この発明の第3実施例にかかる画像処理装置の
構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of an image processing apparatus according to a third embodiment of the present invention.

【図6】第2実施例の画像処理装置の処理の流れを示す
フローチャートである。
FIG. 6 is a flowchart showing a processing flow of the image processing apparatus of the second embodiment.

【図7】第3実施例の画像処理装置の処理の流れを示す
フローチャートである。
FIG. 7 is a flowchart showing a processing flow of the image processing apparatus of the third embodiment.

【図8】従来の画像処理装置の構成例を示すブロック図
である。
FIG. 8 is a block diagram showing a configuration example of a conventional image processing apparatus.

【図9】従来の画像処理装置の他の構成例を示すブロッ
ク図である。
FIG. 9 is a block diagram showing another configuration example of a conventional image processing apparatus.

【図10】背景画像の例を示す図である。FIG. 10 is a diagram showing an example of a background image.

【図11】対象画像の例を示す図である。FIG. 11 is a diagram showing an example of a target image.

【図12】抽出画像の一例を示す図である。FIG. 12 is a diagram showing an example of an extracted image.

【図13】抽出画像の一例を示す図である。FIG. 13 is a diagram showing an example of an extracted image.

【図14】抽出画像の一例を示す図である。FIG. 14 is a diagram showing an example of an extracted image.

【図15】図11の対象画像をエッジ抽出処理して得ら
れるエッジ画像を示す図である。
FIG. 15 is a diagram showing an edge image obtained by subjecting the target image of FIG. 11 to edge extraction processing.

【図16】移動体特徴点の抽出例を示す図である。FIG. 16 is a diagram showing an example of extraction of mobile body feature points.

【符号の説明】[Explanation of symbols]

2,15,15a,15b 背景画像メモリ 3 局所相関回路 4 2値化回路 7 正規化相関演算回路 11,11a,11b カメラ 13,13a,13b エッジ抽出部 RI ,RM 局所領域2, 15, 15a, 15b background image memory 3 local correlation circuit 4 binarization circuit 7 normalized correlation operation circuit 11, 11a, 11b camera 13, 13a, 13b edge extraction unit R I , R M local region

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 テレビカメラを所定の観測位置に向けて
撮像を行い、得られた画像データを入力してその入力画
像から特定の対象物を抽出する画像処理方法であって、 前記観測位置に対象物の存在しない背景画像をあらかじ
め記憶しておき、入力画像上の所定の領域内の画像デー
タとこの画像データに対応する背景画像上の画像データ
との正規化相関演算を行った後、その演算結果を用いて
入力画像上の前記領域内に対象物に該当する画像データ
が存在するか否かを判別することを特徴とする画像処理
方法。
1. An image processing method in which a television camera is imaged at a predetermined observation position, image data obtained is input, and a specific object is extracted from the input image. A background image in which an object does not exist is stored in advance, and after performing a normalized correlation calculation between the image data in a predetermined area on the input image and the image data on the background image corresponding to this image data, An image processing method characterized by determining whether or not image data corresponding to an object exists in the area on the input image using the calculation result.
【請求項2】 テレビカメラを所定の観測位置に向けて
撮像を行い、得られた画像データを入力してその入力画
像から特定の対象物を抽出する画像処理装置であって、 前記観測位置に対象物の存在しない背景画像データを記
憶する背景画像記憶手段と、 前記入力画像上の所定の領域内の画像データとこの画像
データに対応する背景画像上の画像データとを抽出する
画像データ抽出手段と、 前記画像データ抽出手段により抽出された両画像データ
につき正規化相関演算を実行する演算手段と、 前記演算手段により算出された相関値により入力画像上
の前記領域内に対象物に該当する画像データが存在する
か否かを判別する判別手段とを備えて成る画像処理装
置。
2. An image processing device for imaging a television camera toward a predetermined observation position, inputting the obtained image data, and extracting a specific object from the input image. Background image storage means for storing background image data in which an object does not exist, and image data extraction means for extracting image data in a predetermined area on the input image and image data on a background image corresponding to this image data An operation means for executing a normalized correlation operation on both image data extracted by the image data extraction means; and an image corresponding to an object in the area on the input image based on the correlation value calculated by the operation means. An image processing apparatus comprising: a determination unit that determines whether or not data exists.
【請求項3】 前記画像データ抽出手段は、入力画像上
に所定の大きさの局所領域を設定して走査し、各走査位
置毎に局所領域内の入力画像データとこの画像データに
対応する背景画像上の画像データとを順次抽出する手段
である請求項2に記載された画像処理装置。
3. The image data extracting means sets and scans a local area having a predetermined size on an input image, and at each scanning position, the input image data in the local area and a background corresponding to this image data. The image processing apparatus according to claim 2, which is a unit that sequentially extracts image data on an image.
【請求項4】 テレビカメラを所定の観測位置に向けて
撮像を行い、得られた画像データを入力してその入力画
像から特定の対象物を抽出する画像処理装置であって、 前記観測位置に対象物の存在しない背景画像データを記
憶する背景画像記憶手段と、 前記入力画像から複数個の特徴点を抽出する特徴点抽出
手段と、 前記特徴点抽出手段により抽出された各特徴点につい
て、それぞれ特徴点を含む所定の局所領域内の画像デー
タとこの画像データに対応する背景画像上の画像データ
とを抽出する画像データ抽出手段と、 各特徴点毎に前記画像データ抽出手段により抽出された
両画像データにつき正規化相関演算を実行する演算手段
と、 前記演算手段により算出された各相関値を用いて対象物
に該当する特徴点を特定して対象物を判別する判別手段
とを備えて成る画像処理装置。
4. An image processing apparatus for imaging a television camera to a predetermined observation position, inputting the obtained image data, and extracting a specific object from the input image. Background image storage means for storing background image data in which the object does not exist, feature point extraction means for extracting a plurality of feature points from the input image, and each feature point extracted by the feature point extraction means, respectively. Image data extracting means for extracting image data in a predetermined local area including a feature point and image data on a background image corresponding to this image data, and both extracted by the image data extracting means for each feature point. Calculation means for performing a normalized correlation calculation on the image data, and a discriminant for discriminating the object by specifying feature points corresponding to the object using the correlation values calculated by the calculation means. The image processing apparatus comprising a means.
【請求項5】 前記特徴点抽出手段は、入力画像中のエ
ッジを構成する画素を特徴点として抽出する請求項4に
記載された画像処理装置。
5. The image processing apparatus according to claim 4, wherein the feature point extracting means extracts pixels forming an edge in the input image as feature points.
【請求項6】 複数台のテレビカメラを所定の観測位置
に向けてそれぞれ撮像を行い、得られた各テレビカメラ
の画像データを同時に入力して対象物の認識処理を行う
画像処理装置であって、 各テレビカメラ毎に前記観測位置に対象物の存在しない
背景画像データを記憶する背景画像記憶手段と、 各テレビカメラからの入力画像につき、それぞれ複数個
の特徴点を抽出する特徴点抽出手段と、 前記特徴点抽出手段により抽出された各入力画像毎の各
特徴点について、それぞれ特徴点を含む所定の局所領域
内の画像データとこの画像データに対応する背景画像上
の画像データとを抽出する画像データ抽出手段と、 各特徴点毎に前記画像データ抽出手段により抽出された
両画像データ間の正規化相関演算を実行する演算手段
と、 前記演算手段により算出された各相関値を用いて各入力
画像毎に対象物に該当する特徴点を特定する特定手段
と、 前記特定手段により特定された特徴点について、各入力
画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応付けられた各特徴点につい
て3次元計測を行って、各特徴点の3次元座標を抽出す
る座標抽出手段と、 前記座標抽出手段により抽出された各特徴点の3次元座
標を用いて対象物の3次元的形状を判別する判別手段と
を備えて成る画像処理装置。
6. An image processing device for recognizing an object by simultaneously imaging a plurality of television cameras toward a predetermined observation position and simultaneously inputting the obtained image data of the television cameras. A background image storage unit that stores background image data in which the object does not exist at the observation position for each TV camera, and a feature point extraction unit that extracts a plurality of feature points for each input image from each TV camera. For each feature point of each input image extracted by the feature point extracting means, image data in a predetermined local area including the feature point and image data on a background image corresponding to this image data are extracted. Image data extraction means, operation means for executing a normalized correlation operation between both image data extracted by the image data extraction means for each feature point, and the operation means Using the correlation values calculated by the above, the specifying means for specifying the feature points corresponding to the object for each input image, and the feature points specified by the specifying means are associated with each other between the input images. Associating means, coordinate extracting means for performing three-dimensional measurement on each feature point associated by the associating means, and extracting three-dimensional coordinates of each feature point, and each feature extracted by the coordinate extracting means. An image processing apparatus comprising: a discriminating means for discriminating a three-dimensional shape of an object using three-dimensional coordinates of points.
JP7292207A 1995-10-12 1995-10-12 Method and device for processing image Pending JPH09114977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7292207A JPH09114977A (en) 1995-10-12 1995-10-12 Method and device for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7292207A JPH09114977A (en) 1995-10-12 1995-10-12 Method and device for processing image

Publications (1)

Publication Number Publication Date
JPH09114977A true JPH09114977A (en) 1997-05-02

Family

ID=17778916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7292207A Pending JPH09114977A (en) 1995-10-12 1995-10-12 Method and device for processing image

Country Status (1)

Country Link
JP (1) JPH09114977A (en)

Similar Documents

Publication Publication Date Title
US10599228B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP5726125B2 (en) Method and system for detecting an object in a depth image
EP3740897A1 (en) License plate reader using optical character recognition on plural detected regions
JP4008282B2 (en) Pupil / iris circle detector
KR100322982B1 (en) Facial Image Processing Equipment
JP2007334751A (en) Vehicle periphery monitoring device
JP6095817B1 (en) Object detection device
KR20000076486A (en) Face-image processing apparatus
JP4729188B2 (en) Gaze detection device
CN115100104A (en) Defect detection method, device and equipment for glass ink area and readable storage medium
JP2008035301A (en) Mobile body tracing apparatus
CN115497056A (en) Method for detecting lost articles in region based on deep learning
JP2007025902A (en) Image processor and image processing method
JP4390487B2 (en) Head region extraction device
CN109074646B (en) Image recognition device and image recognition program
JP4042602B2 (en) Image processing device
JP3465531B2 (en) Object recognition method and apparatus
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JPH0765149A (en) Human body recognition device
JP3230509B2 (en) Moving image processing device
JPH09114977A (en) Method and device for processing image
JP3417635B2 (en) Intruding object recognition method
JP2020035334A (en) Image processing apparatus
JPH1194527A (en) Stereo measuring method and device using image processing
KR20130051680A (en) Apparatus and method for recognition user face in a robot