JP2001005974A - Method and device for recognizing object - Google Patents

Method and device for recognizing object

Info

Publication number
JP2001005974A
JP2001005974A JP11171589A JP17158999A JP2001005974A JP 2001005974 A JP2001005974 A JP 2001005974A JP 11171589 A JP11171589 A JP 11171589A JP 17158999 A JP17158999 A JP 17158999A JP 2001005974 A JP2001005974 A JP 2001005974A
Authority
JP
Japan
Prior art keywords
area
image
extracted
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11171589A
Other languages
Japanese (ja)
Inventor
Yasuyuki Domoto
泰之 道本
Katsumasa Onda
勝政 恩田
Masato Nishizawa
眞人 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11171589A priority Critical patent/JP2001005974A/en
Publication of JP2001005974A publication Critical patent/JP2001005974A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an object recognizing method and device whose operation quantity is small in the case of calculating the feature quantity of an object and which facilitates parameter setting for object identification, also reduces erroneous detection of an object that is easily shaken and can reduce an erroneous detection owing to shadows and reflection. SOLUTION: A reference area is preliminarily acquired in accordance with a distance from a camera, the area ratio of the reference area to a detected object is calculated, and the type of the object is discriminated by using the area ratio. Thus, an operation quantity can be reduced, and also when a human is detected, a parameter can easily be set because a feature quantity which becomes about 100% and is intuitively clear can be obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、侵入者を検出する
物体認識方法と装置、特に画像処理技術を応用した物体
認識方法と装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition method and apparatus for detecting an intruder, and more particularly to an object recognition method and apparatus using image processing technology.

【0002】[0002]

【従来の技術】従来の技術における侵入者を検出する物
体認識装置としては、特願平6−297976号公報に
記載されているような装置が知られている。この物体認
識装置では、撮像装置の設置高さ、撮像装置の設置角度
(俯角)、レンズの画角等の設置パラメータを利用し、
侵入物体の画像上での位置や大きさを実空間上での位置
や大きさに変換して侵入物体の識別に利用していた。
2. Description of the Related Art As an object recognition apparatus for detecting an intruder in the prior art, an apparatus as described in Japanese Patent Application No. 6-297977 is known. In this object recognition device, using the installation parameters such as the installation height of the imaging device, the installation angle (depression angle) of the imaging device, and the angle of view of the lens,
The position and size of the intruding object on the image are converted into the position and size in the real space and used for identifying the intruding object.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
物体認識装置では、物体が検出されるたびに画像上での
大きさや位置を実空間での大きさや位置に変換するため
処理の負担が大きい他、物体の識別の際に用いる閾値パ
ラメータを画素数や実空間での面積値によって指定する
のは直感的には分かりづらかった。また、画像中に揺れ
やすい物体が存在する場合、誤って検出することがあっ
た。さらに、通過する車両等の影や反射を侵入者である
として誤検出することがあった。
However, in the conventional object recognition device, every time an object is detected, the size and position on the image are converted into the size and position in the real space, so that the processing load is large. It is intuitively difficult to specify the threshold parameter used for object identification by the number of pixels or the area value in the real space. In addition, when an object that is easily shaken exists in the image, it may be detected erroneously. Further, shadows and reflections of passing vehicles and the like may be erroneously detected as intruders.

【0004】本発明は、このような問題を解決するため
になされたもので、物体の特徴量を算出する際の演算量
が少なく、物体識別のためのパラメータ設定を容易に
し、また、揺れやすい物体の誤検出を低減し、影や反射
による誤検出を低減することのできる物体認識方法およ
び装置を提供するものである。
The present invention has been made in order to solve such a problem, and has a small amount of calculation when calculating a feature amount of an object, facilitates parameter setting for object identification, and is liable to swing. It is an object of the present invention to provide an object recognition method and apparatus capable of reducing erroneous detection of an object and reducing erroneous detection due to a shadow or reflection.

【0005】[0005]

【課題を解決するための手段】本発明の物体認識方法
は、撮像装置より出力される映像信号を入力し、撮影時
刻の異なる画像間で差分処理を行ない輝度変化領域を抽
出することで移動物体の領域を抽出し、画像上での座標
位置を距離に変換し、前記距離に応じて基準面積を算出
し、抽出された前記移動物体を追跡し、前記基準面積と
抽出された前記移動物体の面積との比率により前記移動
物体を識別することを特徴とした構成を有している。こ
の構成により、画像中より移動物体が存在する領域を抽
出し、画像上の垂直座標位置を実空間上の距離に変換
し、距離に応じた基準面積をあらかじめ算出しておき、
基準面積と物体の画像上での面積を比較するため、物体
が抽出される毎に画像上での面積や大きさを実空間にお
ける面積や大きさに変換する演算量を低減することがで
きるとともに、面積比という直感的に分かりやすい特徴
量を得られるため、閾値パラメータの設定作業を効率化
できることとなる。
According to the object recognizing method of the present invention, a moving object is input by inputting a video signal output from an imaging device and performing a difference process between images having different photographing times to extract a luminance change area. Extract the area, convert the coordinate position on the image into a distance, calculate a reference area in accordance with the distance, track the extracted moving object, the reference area and the extracted moving object The moving object is identified based on a ratio with an area. With this configuration, an area where a moving object is present is extracted from the image, a vertical coordinate position on the image is converted into a distance in real space, and a reference area corresponding to the distance is calculated in advance,
In order to compare the reference area with the area on the image of the object, the amount of calculation for converting the area and size on the image into the area and size in the real space each time the object is extracted can be reduced. In addition, since an intuitively easy-to-understand feature amount such as area ratio can be obtained, the threshold parameter setting operation can be made more efficient.

【0006】また、本発明の物体認識装置は、撮像装置
より出力される映像信号の入力処理を行う画像入力部
と、撮影時刻の異なる画像間で差分処理を行ない輝度変
化領域を抽出することで移動物体の領域を抽出する物体
抽出部と、画像上の座標位置を距離に変換する距離変換
部と、前記距離に応じて基準面積を算出する基準面積算
出部と、抽出された前記移動物体を追跡する物体追跡部
と、前記基準面積と抽出された前記移動物体の面積との
比率により前記移動物体を識別する認識部を持つことを
特徴とした構成を有している。この構成により、画像中
より移動物体が存在する領域を抽出し、画像上の垂直座
標位置を実空間上の距離に変換し、距離に応じた基準面
積をあらかじめ算出しておき、基準面積と物体の画像上
での面積を比較するため、物体が抽出される毎に画像上
での面積や大きさを実空間における面積や大きさに変換
する演算量を低減することができるとともに、面積比と
いう直感的に分かりやすい特徴量を得られるため、閾値
パラメータの設定作業を効率化できることとなる。
Further, the object recognition apparatus of the present invention extracts the luminance change area by performing difference processing between images having different photographing times, and an image input section for performing input processing of a video signal output from the imaging apparatus. An object extraction unit that extracts a region of a moving object, a distance conversion unit that converts a coordinate position on an image into a distance, a reference area calculation unit that calculates a reference area according to the distance, and the extracted moving object An object tracking unit to be tracked and a recognition unit for identifying the moving object based on a ratio between the reference area and the area of the extracted moving object are provided. With this configuration, an area where a moving object is present is extracted from the image, the vertical coordinate position on the image is converted into a distance in real space, a reference area corresponding to the distance is calculated in advance, and the reference area and the object are calculated. In order to compare the area on the image, the amount of calculation for converting the area or size on the image into the area or size in real space every time an object is extracted can be reduced, and the area ratio is called Since an intuitively easy-to-understand feature amount can be obtained, the work of setting the threshold parameter can be made more efficient.

【0007】また、本発明の物体認識方法は、1台また
は複数の撮像装置によって撮影された画像を処理して画
像中の侵入物体を検出する物体認識方法において、画像
中に注目領域を設定し、前記注目領域内で抽出された物
体を追跡し、前記抽出された物体が前記注目領域を出た
か否かを判定することを特徴とした構成を有している。
この構成により、本来抽出すべきではない物体が揺れ等
によって誤って抽出された場合、その物体を追跡して所
定の領域から出ることがなければ、草や木が風等によっ
て揺れることによる誤検出であると判断するため誤検出
数を低減することができることとなる。
Further, according to the object recognition method of the present invention, in an object recognition method for detecting an intruding object in an image by processing an image photographed by one or a plurality of imaging devices, an attention area is set in the image. Tracking the object extracted in the attention area, and determining whether the extracted object has left the attention area.
With this configuration, if an object that should not be extracted is erroneously extracted due to shaking or the like, the object is tracked, and if it does not go out of a predetermined area, erroneous detection due to grass or trees swaying due to wind etc. Therefore, the number of false detections can be reduced.

【0008】また、本発明の物体認識装置は、1台また
は複数の撮像装置によって撮影された画像を処理して画
像中の侵入物体を検出する物体認識方法において、画像
中の注目領域を設定する領域設定工程と、前記領域内で
抽出された物体を追跡する追跡工程と、前記抽出された
物体が、前記注目領域を出たか否かを判定する領域判定
工程を持つことを特徴とした構成を有している。この構
成により、本来抽出すべきではない物体が揺れ等によっ
て誤って抽出された場合、その物体を追跡して所定の領
域から出ることがなければ、草や木が風等によって揺れ
ることによる誤検出であると判断するため誤検出数を低
減することができることとなる。
Further, the object recognizing device of the present invention sets an attention area in an image in an object recognizing method for detecting an intruding object in an image by processing an image taken by one or a plurality of image pickup devices. An area setting step, a tracking step of tracking an object extracted in the area, and an area determining step of determining whether the extracted object has left the attention area. Have. With this configuration, if an object that should not be extracted is erroneously extracted due to shaking or the like, the object is tracked, and if it does not go out of a predetermined area, erroneous detection due to grass or trees swaying due to wind etc. Therefore, the number of false detections can be reduced.

【0009】また、本発明の物体認識方法は、1台また
は複数の撮像装置によって撮影された画像を処理して画
像中の侵入物体を検出する物体認識方法において、画像
中に所定の物体の通過領域を設定し、画像中で抽出され
た物体を追跡し、前記物体の種類を判定し、画像中を所
定の物体が通過していると判断した場合には、前記通過
領域内のその他侵入物体の検出処理を一時停止すること
を特徴とした構成を有している。この構成により、車両
が通過する通過領域を設定し、移動物体を抽出及び追跡
し、抽出された物体を識別し、車両等所定の物体が画像
中に存在している場合、通過領域内のその他侵入物体の
検出処理を停止するため、車両等が通過することに伴っ
て発生するライト等の反射や影による誤検出を低減する
ことができることとなる。
Further, the object recognition method of the present invention is a method for processing an image taken by one or a plurality of imaging devices to detect an intruding object in the image. Set an area, track the object extracted in the image, determine the type of the object, if it is determined that a predetermined object is passing in the image, other intruding objects in the passing area Is temporarily stopped. With this configuration, a passing area through which the vehicle passes is set, a moving object is extracted and tracked, the extracted object is identified, and when a predetermined object such as a vehicle is present in the image, other objects in the passing area are used. Since the detection process of the intruding object is stopped, erroneous detection due to reflection or shadow of a light or the like generated when a vehicle or the like passes can be reduced.

【0010】また、本発明の物体認識装置は、1台また
は複数の撮像装置によって撮影された画像を処理して画
像中の侵入物体を検出する物体認識装置において、画像
中に所定の物体の通過領域を設定する領域設定手段と、
画像中で抽出された物体を追跡する追跡手段と、前記物
体の種類を判定して画像中を所定の物体が通過している
と判断した場合には、前記通過領域内のその他侵入物体
の検出処理を一時停止する前判定手段とを持つことを特
徴とした構成を有している。この構成により、車両が通
過する通過領域を設定し、移動物体を抽出及び追跡し、
抽出された物体を識別し、車両等所定の物体が画像中に
存在している場合、通過領域内のその他侵入物体の検出
処理を停止するため、車両等が通過することに伴って発
生するライト等の反射や影による誤検出を低減すること
ができることとなる。
The object recognition apparatus of the present invention processes an image photographed by one or a plurality of image pickup apparatuses and detects an intruding object in the image. Area setting means for setting an area;
A tracking unit for tracking an object extracted in the image; and detecting the type of the object and detecting other intruding objects in the passing area when determining that a predetermined object is passing through the image. And a pre-judgment means for temporarily stopping the processing. With this configuration, a passing area through which the vehicle passes is set, and a moving object is extracted and tracked.
When the extracted object is identified and a predetermined object such as a vehicle is present in the image, a light generated when the vehicle or the like passes to stop detection processing of other intruding objects in the passage area. As a result, it is possible to reduce erroneous detection due to reflection or shadow.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。 (実施の形態1)本発明の実施の形態1は、画像入力部
と物体抽出部と距離変換部と基準面積算出部と物体追跡
部と認識部とを備えた物体認識装置であり、以下、図1
を用いて説明する。図1において、CAM は撮像装置を示
しており、撮影した画像を映像信号として出力する。IM
P は物体認識装置を示しており、入力された画像を処理
して画像中の侵入物体を認識し、侵入者であると認識し
た場合は発報装置や記録装置にアラーム信号を出力す
る。物体認識装置IMP は画像入力部ADC 、パラメータ入
力手段PIN 、物体抽出部EXT 、距離変換部TRN 、物体追
跡部TRC 、基準面積算出部ARE 、認識部RCG より構成さ
れている。HRN は発報装置であり、物体認識装置によっ
て侵入者等所定の物体が検出された場合に光や音によっ
て侵入者を威嚇したり、監視員に注意喚起する。REC は
記録装置を示しており、物体認識装置が画像中に侵入者
等所定の物体が存在すると判断した場合にその時の画像
を記録するVTR や光ディスクである。
Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) Embodiment 1 of the present invention is an object recognition device including an image input unit, an object extraction unit, a distance conversion unit, a reference area calculation unit, an object tracking unit, and a recognition unit. FIG.
This will be described with reference to FIG. In FIG. 1, CAM indicates an imaging device, and outputs a captured image as a video signal. IM
P denotes an object recognizing device, which processes an input image to recognize an intruding object in the image, and outputs an alarm signal to an alarm device or a recording device when the intruder is recognized. The object recognition device IMP includes an image input unit ADC, parameter input means PIN, an object extraction unit EXT, a distance conversion unit TRN, an object tracking unit TRC, a reference area calculation unit ARE, and a recognition unit RCG. The HRN is an alarm device that, when a predetermined object such as an intruder is detected by the object recognition device, intimidates the intruder with light or sound or alerts a guard. REC indicates a recording device, and is a VTR or an optical disk for recording an image at the time when the object recognition device determines that a predetermined object such as an intruder exists in the image.

【0012】以下に物体認識装置内の各部の機能につい
て具体的に説明する。 (画像入力部ADC )撮像装置より出力された映像信号を
A/D 変換してディジタルの画像データとする。
The function of each unit in the object recognition device will be specifically described below. (Image input unit ADC) The video signal output from the imaging device is
A / D converted to digital image data.

【0013】(物体抽出部EXT )撮影時刻の異なる画像
間で(1)式を用いて差分処理を行い輝度の差分の絶対
値S(X,Y)を求める。
(Object extraction unit EXT) Difference processing is performed between images at different photographing times using equation (1) to obtain the absolute value S (X, Y) of the luminance difference.

【数1】 輝度の差分の絶対値に対して閾値処理を行い、閾値を超
える画素を1、閾値を超えない画素を0とするなどして
画像中の輝度変化領域を抽出する。次に輝度の変化領域
に対してラベリング処理を行い、面積と領域の重心位置
の他、領域に外接する矩形を獲得する。
(Equation 1) Threshold processing is performed on the absolute value of the luminance difference, and a luminance change area in the image is extracted by setting a pixel exceeding the threshold to 1 and a pixel not exceeding the threshold to 0. Next, a labeling process is performed on the luminance change area to obtain a rectangle circumscribing the area in addition to the area and the center of gravity of the area.

【0014】(距離変換部TRN )画像上の垂直位置Yに
対応する実空間における距離Vを算出する。処理の過程
を図2を用いて説明する。撮影されている実空間は起伏
がない平面であると仮定する。画像上の垂直位置Yを実
空間上の距離Vに変換するには(2)式を用いる。
(Distance conversion unit TRN) A distance V in the real space corresponding to the vertical position Y on the image is calculated. The process will be described with reference to FIG. It is assumed that the real space being photographed is a plane without undulations. Expression (2) is used to convert the vertical position Y on the image into the distance V in the real space.

【数2】 画像上の垂直位置Y毎に距離Vを算出する。なお、距離
Vと画像の垂直位置Yを図3のような変換テーブルとし
て保持してもよい。各種パラメータはパラメータ入力手
段によって入力する。
(Equation 2) The distance V is calculated for each vertical position Y on the image. The distance V and the vertical position Y of the image may be stored as a conversion table as shown in FIG. Various parameters are input by parameter input means.

【0015】(基準面積算出部ARE )基準面積算出部で
は、基準物体として例えば人間の標準的大きさ程度の物
体を設定し、この物体がカメラからの距離Vの位置に存
在する場合、画像上でどれくらいの大きさ(面積)とな
るかを算出する。基準物体としてここでは1.7m×0.5mの
平面物体を設定する。基準物体が撮像装置からの距離V
に存在する場合の画像上での面積は(3)、(4)、
(5)式を用いて算出できる。ここでは、簡単のため撮
像装置はほぼ光軸が水平であり、撮像装置の設置高が低
く影響をできる場合を想定する。
(Reference Area Calculation Unit ARE) In the reference area calculation unit, an object having a size of, for example, a standard size of a human is set as a reference object. Is used to calculate the size (area). Here, a plane object of 1.7 m × 0.5 m is set as the reference object. Reference object is distance V from imaging device
Area on the image when it exists in (3), (4),
It can be calculated using equation (5). Here, for the sake of simplicity, it is assumed that the imaging device has a substantially horizontal optical axis, and that the installation height of the imaging device can be low and can have an effect.

【数3】 ただし、Width:1 画素あたりの実空間での幅 Height :1 画素あたりの実空間での高さ ccd X:撮像素子の幅 ccd Y:撮像素子の高さ f:レンズ焦点距離 V:カメラからの距離 sizeX:水平処理画素数 sizeY:垂直処理画素数 基準面積RSは装置起動時等に画像の垂直位置Y毎にあら
かじめ算出ておき、例えば図3のような形式の変換テー
ブルとして保持する。各種パラメータはパラメータ入力
手段PIN によって入力する。
(Equation 3) Where, Width: width in real space per pixel Height: height in real space per pixel ccd X: width of imaging element ccd Y: height of imaging element f: lens focal length V: from camera The distance sizeX: the number of horizontal processing pixels sizeY: the number of vertical processing pixels The reference area RS is calculated in advance for each vertical position Y of the image at the time of starting the apparatus or the like, and is stored as, for example, a conversion table in a format as shown in FIG. Various parameters are input by the parameter input means PIN.

【0016】(物体追跡部TRC )物体抽出部にて抽出さ
れた物体領域の位置を順次追跡し、移動履歴を保持す
る。過去に抽出された物体の位置と現在抽出されている
物体の位置を比較し、十分近い位置にあるならば、同一
の物体が移動したと考え追跡する。カメラから物体まで
の距離は物体領域に外接する矩形の下辺の中点座標位置
をもとに獲得する。
(Object tracking unit TRC) The positions of the object regions extracted by the object extracting unit are sequentially tracked, and the movement history is held. The position of the object extracted in the past is compared with the position of the currently extracted object. If the positions are sufficiently close, it is assumed that the same object has moved and the object is tracked. The distance from the camera to the object is obtained based on the coordinates of the midpoint of the lower side of the rectangle circumscribing the object area.

【0017】(認識部RCG )認識部では、物体抽出部で
抽出された物体の面積と、同一距離における基準面積と
を用いて(6)式により面積比を算出し、面積比によっ
て物体の種類を識別する。 面積比R=(抽出された物体の面積/基準面積)×100[%]・・・(6) 面積比を用いて小動物、侵入者、車両を識別する過程を
図4処理のフロー図に示す。面積比が面積比閾値TH1 よ
り小さい物体は小動物等であると判断できる。一方、面
積比が面積比閾値TH2 より大きな物体は車両等の物体で
あると判断できる。面積比がTH1 より大きくTH2 より小
さい場合は侵入者等であると判断できる。面積比閾値TH
1 は侵入者がとりうる面積比の下限程度とし、面積比閾
値TH2 は侵入者がとりうる面積比の上限程度とするのが
好ましい。TH1 及びTH2 はパラメータ設定手段PIN によ
って入力する。平均的な体格の侵入者を抽出した場合、
面積比は100%前後となる。なお、物体の種類を面積
比のみで判断する例を示したが、物体の滞在時間や、追
跡によって得られる実空間での速度及び移動量を併用し
て判断することも可能である。認識部において画像中の
物体が侵入者であると判断された場合、アラーム信号を
出力する。
(Recognition Unit RCG) The recognition unit calculates the area ratio by the equation (6) using the area of the object extracted by the object extraction unit and the reference area at the same distance, and calculates the type of the object by the area ratio. Identify. Area ratio R = (area of extracted object / reference area) × 100 [%] (6) The process of identifying small animals, intruders, and vehicles using the area ratio is shown in the flowchart of the processing in FIG. . An object whose area ratio is smaller than the area ratio threshold TH1 can be determined to be a small animal or the like. On the other hand, an object whose area ratio is larger than the area ratio threshold TH2 can be determined to be an object such as a vehicle. If the area ratio is larger than TH1 and smaller than TH2, it can be determined that the person is an intruder or the like. Area ratio threshold TH
It is preferable that 1 is about the lower limit of the area ratio that the intruder can take, and the area ratio threshold TH2 is about the upper limit of the area ratio that the intruder can take. TH1 and TH2 are input by the parameter setting means PIN. If you extract intruders of average physique,
The area ratio is around 100%. Although the example in which the type of the object is determined only by the area ratio has been described, it is also possible to use the stay time of the object and the speed and the movement amount in the real space obtained by tracking together to determine. If the recognition unit determines that the object in the image is an intruder, it outputs an alarm signal.

【0018】以上のように、本実施の形態1によれば、
カメラからの距離に応じた基準面積をあらかじめ算出
し、基準面積と抽出された物体の面積の比率を利用する
ため、物体が抽出されるたびに実空間における特徴量に
変換する必要がなく、演算量を削減することができる。
また、人間等を検出した際は100%前後の値となる面
積比を侵入者判定の特徴量とするため、実空間における
面積値等に比べ直感的に理解しやすく、侵入者の識別で
用いる閾値パラメータ設定を効率化することが可能であ
る。
As described above, according to the first embodiment,
Since the reference area according to the distance from the camera is calculated in advance, and the ratio of the reference area to the area of the extracted object is used, it is not necessary to convert to a feature amount in the real space every time an object is extracted. The amount can be reduced.
In addition, when a human or the like is detected, the area ratio, which is a value around 100%, is used as a feature amount for intruder determination. Therefore, it is easier to intuitively understand than an area value in a real space, and is used for intruder identification. It is possible to make the threshold parameter setting more efficient.

【0019】(実施の形態2)本発明の実施の形態2
は、画像上の垂直座標を実空間でのカメラからの距離に
変換し、カメラからの距離に応じた基準面積を算出し、
移動物体の領域を抽出して追跡し、物体の画像上での面
積と基準面積との面積比によって物体の種類を識別する
物体認識方法である。図5の処理のフロー図を用いて本
実施の形態2における各処理ステップの処理概要を説明
する。なお、各ステップの具体的処理内容は第1の実施
の形態でも説明したので省略する。
(Embodiment 2) Embodiment 2 of the present invention
Converts the vertical coordinates on the image to the distance from the camera in the real space, calculates the reference area according to the distance from the camera,
This is an object recognition method in which a region of a moving object is extracted and tracked, and a type of the object is identified based on an area ratio between an area of the object on an image and a reference area. The processing outline of each processing step in the second embodiment will be described with reference to the processing flowchart of FIG. It should be noted that the specific processing content of each step has been described in the first embodiment, and a description thereof will be omitted.

【0020】ステップa01 では、以降の処理ステップで
利用する各種パラメータを入力処理する。ステップa02
では、画像の垂直位置を実空間におけるカメラからの距
離に変換する。ステップa03 では、例えば人間の大きさ
程度の基準物体を設定し、カメラからの距離によって基
準物体が画像上でどのような大きさ(面積)で見えるか
を算出する。ステップa04 では、画像データを入力す
る。ステップa05 では、撮影時刻の異なる画像データ間
で輝度の差分処理を行い、時間的な輝度変化があった領
域検出し、さらに2 値化処理、ラベリング処理をおこな
って物体領域の面積、重心位置、外接する矩形を獲得す
る。ステップa06 では、物体位置を追跡する。ステップ
a07 では、基準面積と抽出された物体の面積とを比較し
て面積比を算出し、面積比が100%前後であれば侵入
者であると判断する。
In step a01, various parameters used in the subsequent processing steps are input. Step a02
Then, the vertical position of the image is converted into the distance from the camera in the real space. In step a03, for example, a reference object of about the size of a human is set, and the size (area) of the reference object seen on the image is calculated based on the distance from the camera. In step a04, image data is input. In step a05, brightness difference processing is performed between image data having different shooting times to detect an area having a temporal brightness change, and further, binarization processing and labeling processing are performed to perform an area, a center of gravity position, Get the bounding rectangle. In step a06, the position of the object is tracked. Steps
In a07, the area ratio is calculated by comparing the reference area with the area of the extracted object, and if the area ratio is around 100%, it is determined that the person is an intruder.

【0021】以上のように、本実施の形態2によれば、
カメラからの距離に応じた基準面積をあらかじめ算出
し、これと抽出された物体の面積を比較するため、物体
が抽出されるたびに実空間における特徴量に変換する必
要がなく、演算量を削減することができる。また、人間
を検出したときに100%前後となる面積比を侵入者判
定の特徴量とするため、実空間における面積や画素数に
よる特徴量よりも直感的に理解しやすく、閾値パラメー
タ設定を効率化することができる。
As described above, according to the second embodiment,
A reference area corresponding to the distance from the camera is calculated in advance, and the area of the extracted object is compared with the reference area. can do. In addition, since the area ratio that is about 100% when a human is detected is used as the feature amount for intruder determination, it is easier to intuitively understand than the feature amount based on the area and the number of pixels in the real space, and the threshold parameter setting can be performed more efficiently. Can be

【0022】(実施の形態3)本発明の実施の形態3
は、画像の時間的な輝度変化から移動物体の領域を抽出
し、領域設定手段で揺れによる輝度変化が発生しやすい
揺れ対策領域を画像中に指定し、追跡手段では輝度の変
化領域を追跡し、領域判定手段では追跡中の物体が揺れ
対策領域を出たか否かを判定し、揺れ対策領域外へ出な
い物体は揺れによる誤検出であると判断する画像処理装
置であり、図6及び図7を用いて説明する。
(Embodiment 3) Embodiment 3 of the present invention
Extracts the area of the moving object from the temporal luminance change of the image, specifies an anti-shake area in which the luminance change due to shaking is likely to occur in the image by the area setting means, and tracks the luminance change area by the tracking means. The area determination means is an image processing apparatus that determines whether or not an object being tracked has exited a shake countermeasure area, and determines that an object that does not go out of the shake countermeasure area is an erroneous detection due to shake. 7 will be described.

【0023】F1は領域設定手段を示し、物体の揺れによ
って輝度変化が発生しやすい領域である揺れ対策領域を
マウス等ポインティングデバイスにより設定する機能を
持ち、その領域情報を保持する。また、検知領域DAR は
移動物体が存在する場合にその種類を判定し、侵入者で
あれば発報を行う領域であり、同様に設定および領域情
報の保持を行う。F2は追跡手段を示し、移動物体の位置
を追跡する。過去に抽出された位置と現在抽出された位
置が十分近ければ同一の物体とみなし追跡する。F3は領
域判定手段を示し、追跡中の物体が揺れ対策領域内にあ
る場合、物体領域に外接する矩形の座標位置を監視し、
終始一貫して外接する矩形が揺れ対策領域外に出ない場
合は草木等の揺れやすい物体を誤って検出したものと判
断する。物体が本来抽出すべきでない揺れによる誤検出
であると判定された場合は検知領域内の物体であっても
認識部において認識対象から除外する。
F1 indicates an area setting means, which has a function of setting a shaking countermeasure area, which is an area in which a luminance change is likely to occur due to shaking of an object, using a pointing device such as a mouse, and holds the area information. Also, the detection area DAR is an area for determining the type of a moving object when it exists, and issuing an alert if it is an intruder. F2 indicates a tracking means for tracking the position of the moving object. If the position extracted in the past and the currently extracted position are sufficiently close, they are regarded as the same object and tracked. F3 indicates an area determination means, and when the object being tracked is within the shake countermeasure area, monitors the coordinate position of a rectangle circumscribing the object area,
When the circumscribed rectangle does not always go out of the sway countermeasure region consistently, it is determined that an easily swayable object such as a plant is erroneously detected. When it is determined that the object is an erroneous detection due to shaking that should not be extracted, even the object in the detection area is excluded from the recognition target by the recognition unit.

【0024】以上のように、本発明の実施の形態3によ
れば、揺れによる誤検出が発生しやすい領域を揺れ対策
領域としてあらかじめ指定し、検出された物体を追跡し
て終始一貫して揺れ対策領域外に出ない場合、これを揺
れ等による誤検出であると判断し、侵入者としての識別
対象から除外するため、揺れによる誤検出を低減した物
体認識装置とすることができる。なお、本実施の形態に
おいては、物体の揺れに起因する誤検出を低減する場合
で説明したが、光の点滅等に伴う誤検出を低減する目的
にも利用可能である。
As described above, according to the third embodiment of the present invention, an area in which erroneous detection due to shaking is likely to occur is specified in advance as a shaking countermeasure area, and the detected object is tracked to consistently shake all the time. If it does not go out of the countermeasure area, it is determined that this is an erroneous detection due to shaking or the like, and is excluded from the identification target as an intruder. Therefore, an object recognition device with reduced erroneous detection due to shaking can be provided. In the present embodiment, the case where the erroneous detection caused by the shaking of the object is reduced has been described. However, the present invention can also be used for the purpose of reducing the erroneous detection caused by blinking light or the like.

【0025】(実施の形態4)本発明の実施の形態4
は、画像の時間的な輝度変化から移動物体の領域を抽出
し、揺れによる輝度変化が発生しやすい揺れ対策領域を
画像中に指定し、抽出された物体領域を追跡し、追跡中
の物体が揺れ対策領域外に出たかどうかを判定し、揺れ
対策領域外へ出ない物体は揺れによる誤検出であると判
断する画像処理方法であり、図7及び図8を用いて説明
する。
(Embodiment 4) Embodiment 4 of the present invention
Extracts the area of the moving object from the temporal luminance change of the image, specifies a shaking countermeasure area where the luminance change due to shaking is likely to occur in the image, tracks the extracted object area, and This is an image processing method in which it is determined whether or not an object has come out of the shake countermeasure area, and an object that does not go out of the shake countermeasure area is determined to be an erroneous detection due to the shake, which will be described with reference to FIGS.

【0026】ステップb01 では、揺れ対策領域YAR をマ
ウス等ポインティングデバイスにより指定する。ステッ
プb02 では、画像中の輝度変化領域を検出して移動物体
の領域を抽出する。ステップb03 では、揺れ対策領域内
の物体を追跡し、ステップb04 では、物体が揺れ対策領
域外へ出ないことを判定する。追跡中、物体が終始一貫
して揺れ対策領域から出ない場合は、揺れ等による誤っ
た領域の抽出されたと判断し、ステップb05 において、
検知領域DAR 内の物体であっても誤検出であるとして認
識対象から除外する。
In step b01, a shaking countermeasure area YAR is designated by a pointing device such as a mouse. In step b02, a brightness change area in the image is detected to extract a moving object area. In step b03, the object within the anti-sway area is tracked, and in step b04, it is determined that the object does not go out of the anti-sway area. During tracking, if the object does not consistently come out of the shaking countermeasure area, it is determined that an erroneous area due to shaking or the like has been extracted, and in step b05,
Even objects within the detection area DAR are excluded from recognition targets as false detections.

【0027】以上のように、本発明の実施の形態4によ
れば、揺れによる誤検出が発生しやすい領域を揺れ対策
領域としてあらかじめ指定し、検出された物体を追跡し
て終始一貫して揺れ対策領域外に出ない場合、これを揺
れ等による誤検出であると判断し、侵入者としての識別
対象から除外するため、揺れによる誤検出を低減した物
体認識方法とすることができる。なお、本実施の形態に
おいては、物体の揺れに起因する誤検出を低減する場合
で説明したが、光の点滅等に伴う誤検出を低減する目的
にも利用可能である。
As described above, according to the fourth embodiment of the present invention, an area in which erroneous detection due to shaking is likely to occur is specified in advance as a shaking countermeasure area, and the detected object is tracked to consistently shake all the time. When it does not go out of the countermeasure area, it is determined that this is an erroneous detection due to shaking or the like, and is excluded from the identification target as an intruder. Therefore, an object recognition method in which erroneous detection due to shaking is reduced can be provided. In the present embodiment, the case where the erroneous detection caused by the shaking of the object is reduced has been described.

【0028】(実施の形態5)本発明の実施の形態5
は、1台または複数の撮像装置によって撮影された画像
を処理して画像中の侵入物体を抽出する物体認識装置に
おいて、画像中に物体の通過領域を設定する領域設定手
段と、画像中で抽出された物体を追跡する追跡手段と、
前記物体の種類を判定して画像中に所定の物体が通過し
ていると判定した場合には領域内のその他侵入物体の検
出処理を停止させる前判定手段とを持つ物体認識装置で
あり、図9および図10を用いて説明する。
(Embodiment 5) Embodiment 5 of the present invention
An object recognizing device for processing an image captured by one or a plurality of image capturing devices to extract an intruding object in the image, comprising: an area setting means for setting a passing area of the object in the image; Tracking means for tracking the object that has been moved;
An object recognition device having a pre-determination unit that stops the detection process of other intruding objects in the area when the type of the object is determined and it is determined that the predetermined object is passing in the image. 9 and FIG.

【0029】ADC は画像入力部を示し、撮像装置より映
像信号を入力する。PIN はパラメータ入力手段を示し、
各種パラメータを入力する。EXT は物体抽出部を示し、
撮影時刻の異なる画像間で差分処理を行い、物体の移動
に伴って輝度変化の生じた領域を抽出する。TRN は距離
変換部を示し、画像上の垂直座標を実空間上におけるカ
メラからの距離に変換する。ARE は基準面積算出部を示
し、カメラからの距離に応じた基準面積を算出する。以
上、画像入力部、パラメータ入力手段、物体抽出部、距
離変換部、基準面積算出部は、実施の形態1でも説明し
たものと同じなら、詳細は省略する。
ADC indicates an image input unit, and inputs a video signal from an imaging device. PIN indicates parameter input means,
Enter various parameters. EXT indicates an object extraction unit,
Difference processing is performed between images at different photographing times, and an area where a luminance change occurs with the movement of the object is extracted. TRN indicates a distance conversion unit that converts vertical coordinates on an image into a distance from a camera in a real space. ARE indicates a reference area calculation unit, and calculates a reference area according to the distance from the camera. As described above, if the image input unit, the parameter input unit, the object extraction unit, the distance conversion unit, and the reference area calculation unit are the same as those described in the first embodiment, the details will be omitted.

【0030】GRN は外乱対策部を示し、物体の通過に伴
って発生する影やヘッドライトの反射による誤検出を防
止する。G1は領域設定手段を示し、車両等の通過に伴い
誤検出が発生しやすい領域である通過領域を画面上に設
定する。設定はマウス等ポインティングデバイスによっ
て行う。G2は物体追跡手段を示し、物体抽出部で抽出さ
れた移動物体を追跡する。過去に抽出された物体と現在
抽出された物体の位置が十分近い場合に同一の物体が移
動したとして追跡を行う。G3は前判定手段を示し、現在
追跡中の物体が車両等所定の物体であるかどうかを判定
する。車両等が画像内に存在していることを判定するに
は、現在抽出されている物体の面積とカメラからの距離
に応じた基準面積との面積比を求め、別途設定した閾値
TH2より面積比が大きい場合に車両等が通過していると
判断する。閾値TH2 は侵入者がとりうる面積比の上限値
程度が好ましい。画像中に車両CAR が存在すると判断し
た場合、通過領域PAR 内における物体の検出を一時停止
するよう認識部RCG を制御する。車両等が通過中である
場合、認識部RCG では、通過領域PAR 外でかつ検知領域
DAR 内の領域に侵入者INT が存在する場合のみ検出して
発報する。車両が画像中に存在しなくなったと判断され
た場合は、ただちに通過領域PAR 内を含む検知領域DAR
において侵入者の検出処理を再開する。
GRN indicates a disturbance countermeasure unit, which prevents erroneous detection due to reflection of a shadow or headlight generated when an object passes. G1 denotes an area setting means, which sets a passing area on the screen, which is an area where erroneous detection is likely to occur as the vehicle passes. The setting is performed using a pointing device such as a mouse. G2 indicates an object tracking unit, which tracks the moving object extracted by the object extracting unit. When the positions of the previously extracted object and the currently extracted object are sufficiently close, the tracking is performed assuming that the same object has moved. G3 indicates a pre-judgment means for judging whether or not the currently tracked object is a predetermined object such as a vehicle. To determine that a vehicle or the like is present in the image, an area ratio between the area of the currently extracted object and a reference area corresponding to the distance from the camera is determined, and a threshold value set separately is set.
If the area ratio is larger than TH2, it is determined that a vehicle or the like is passing. The threshold value TH2 is preferably about the upper limit of the area ratio that an intruder can take. When it is determined that the vehicle CAR exists in the image, the recognition unit RCG is controlled so as to temporarily stop the detection of the object in the passage area PAR. When a vehicle or the like is passing, the recognition unit RCG indicates that the vehicle
Detects and issues an alert only when an intruder INT exists in the area within the DAR. If it is determined that the vehicle is no longer present in the image, the detection area DAR including the inside of the passage area PAR is immediately
Restarts the intruder detection process.

【0031】以上のように、本実施の形態5によれば、
通過領域を設定し、画像中に車両が存在すると判断され
た場合は通過領域内には車両以外の物体は存在しないも
のとして処理することにより、通過領域内に車両が存在
する場合に発生しやすい影やヘッドライトの反射等を誤
って侵入者として判定することのない物体認識装置とす
ることができる。
As described above, according to the fifth embodiment,
If a vehicle is present in the image, it is assumed that no object other than the vehicle exists in the passage area. It is possible to provide an object recognition device that does not erroneously determine a shadow or reflection of a headlight as an intruder.

【0032】(実施の形態6)本発明の実施の形態6
は、1台または複数の撮像装置によって撮影された画像
を処理して画像中の侵入物体を抽出する物体認識方式に
おいて、画像中に物体の通過領域を設定するし、画像中
で抽出された物体を追跡し、前記物体の種類を判定して
画像中に所定の物体が通過していると判定した場合には
通過領域内のその他侵入物体の検出処理を停止させる物
体認識方法であり、図10及び図11の処理のフロー図
を用いて説明する。
(Embodiment 6) Embodiment 6 of the present invention
In an object recognition method for extracting an intruding object in an image by processing an image photographed by one or a plurality of image pickup devices, a passing area of the object is set in the image, and the object extracted in the image is set. This is an object recognition method in which the type of the object is tracked, and when it is determined that a predetermined object is passing in the image, the detection process of other intruding objects in the passing area is stopped. This will be described with reference to the flowchart of FIG.

【0033】ステップc01 では、車両等が通過すること
に伴って誤検出が生じやすい領域を車両領域として指定
するほか、侵入者等が存在する場合に発報を行う検知領
域DAR を設定する。ステップc02 では、以降の処理ステ
ップで利用する各種パラメータを入力する。ステップc0
3 では、画像の垂直位置を実空間におけるカメラからの
距離に変換する。ステップc04 では、例えば人間の大き
さ程度の基準物体を設定し、カメラからの距離によって
基準物体が画像上でどのような大きさ(面積)となるか
を算出する。ステップc05 では、画像データを入力す
る。ステップc06では、撮影時刻の異なる画像データ同
士で差分処理を行い、輝度変化があった領域を抽出し、
さらに2 値化処理、ラベリング処理を行って物体領域の
面積及び重心位置を獲得する。ステップc07 では、物体
の重心位置を追跡する。ステップc08 では、基準面積と
抽出された物体の面積とを比較して面積比を算出し、画
像中に車両が通過中であるかを判断する。車両が通過中
である場合、通過領域PAR 内には車両以外の物体が存在
しないこととしてステップc09 の処理を行う。ステップ
c09 では、検知領域DAR 内に存在する物体の面積比等か
ら物体の種類を判断して侵入者であれば発報を行う。た
だし画像中に車両が存在している場合は、一時的に通過
領域を除く検知領域内でのみ侵入者の検出及び発報を行
う。車両が画像中に存在しなくなあれば、直ちに検知領
域全体で侵入者の検出処理を再開する。
In step c01, an area in which erroneous detection is likely to occur when a vehicle or the like passes is specified as a vehicle area, and a detection area DAR for issuing a warning when an intruder or the like is present is set. In step c02, various parameters used in the subsequent processing steps are input. Step c0
In step 3, the vertical position of the image is converted to the distance from the camera in the real space. In step c04, for example, a reference object of about the size of a human is set, and the size (area) of the reference object on the image is calculated based on the distance from the camera. In step c05, image data is input. In step c06, a difference process is performed between the image data having different shooting times to extract an area where the luminance has changed,
Furthermore, binarization processing and labeling processing are performed to obtain the area and the position of the center of gravity of the object area. In step c07, the position of the center of gravity of the object is tracked. In step c08, the area ratio is calculated by comparing the reference area with the area of the extracted object, and it is determined whether the vehicle is passing through the image. If the vehicle is passing, the process in step c09 is performed assuming that no object other than the vehicle exists in the passage area PAR. Steps
In c09, the type of the object is determined based on the area ratio of the object existing in the detection area DAR and the like, and if the intruder, an alarm is issued. However, when a vehicle is present in the image, detection and alerting of the intruder are performed only in the detection area except for the passing area temporarily. As soon as the vehicle no longer exists in the image, the intruder detection process is restarted in the entire detection area.

【0034】以上のように、本実施の形態6によれば、
車両等、通過に伴って影やヘッドライト反射等による誤
検出を発生させやすい物体が通過する領域である通過領
域を設定し、画像中に車両が存在すると判断された場合
に通過領域には車両以外の物体は存在しないとして処理
を行うので、誤検出が少ない物体認識方法とすることが
できる。
As described above, according to the sixth embodiment,
A passing area is set as an area through which an object that is likely to cause erroneous detection due to a shadow or headlight reflection with the passage of the vehicle or the like passes, and if it is determined that the vehicle is present in the image, the vehicle is included in the passing area. Since the processing is performed assuming that no other object exists, an object recognition method with less erroneous detection can be provided.

【0035】[0035]

【発明の効果】以上のように、本発明によれば、第1の
効果として、画像中より移動物体が存在する領域を抽出
し、画像上の垂直座標位置を実空間上の距離に変換し、
距離に応じた基準面積をあらかじめ算出しておき、基準
面積と物体の画像上での面積の比率である面積比を特徴
量とするため、物体が抽出される毎に画像上での面積や
大きさを実空間における面積や大きさに変換する演算量
を低減することができるとともに、人間等所定の物体を
検出した場合に100%前後となるような直感的に分か
りやすい面積比を特徴量として得られるため、閾値パラ
メータの設定作業を効率化できる。第2の効果として、
本来抽出すべきではない物体が揺れ等によって誤って抽
出された場合、その物体を追跡して所定の領域から出る
ことがなければ、侵入者としての識別対象から除外する
ため、草や木が風等によって揺れることによる誤検出を
低減することができる。第3の効果として、通過領域を
設定し、物体を追跡し、抽出された物体を識別し、車両
等所定の物体が画像中に存在していると判断した場合、
通過領域内のその他侵入物体の検出処理を停止するた
め、車両等が通過することに伴って発生する反射や影に
よる誤検出を低減することができる。
As described above, according to the present invention, as a first effect, a region where a moving object is present is extracted from an image, and the vertical coordinate position on the image is converted into a distance in real space. ,
A reference area corresponding to the distance is calculated in advance, and an area ratio, which is a ratio of the reference area to the area of the object on the image, is used as a feature amount. It is possible to reduce the amount of calculation for converting the height into the area and the size in the real space, and to use the intuitively understandable area ratio such that it becomes about 100% when a predetermined object such as a human is detected. Therefore, the work of setting the threshold parameter can be made more efficient. As a second effect,
If an object that should not be extracted is erroneously extracted due to shaking or the like, the object is tracked and if it does not leave a predetermined area, it is excluded from identification as an intruder. It is possible to reduce erroneous detection due to swinging due to the like. As a third effect, when a passing area is set, an object is tracked, an extracted object is identified, and it is determined that a predetermined object such as a vehicle is present in the image,
Since the detection processing of other intruding objects in the passage area is stopped, erroneous detection due to reflection or shadow caused by the passage of a vehicle or the like can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における物体認識装
置の構成を示すブロック図
FIG. 1 is a block diagram illustrating a configuration of an object recognition device according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態における画像と実空
間の関係を説明する模式図
FIG. 2 is a schematic diagram illustrating a relationship between an image and a real space according to the first embodiment of the present invention.

【図3】本発明の第1の実施の形態における変換テーブ
ル図
FIG. 3 is a conversion table diagram according to the first embodiment of the present invention.

【図4】本発明の第1の実施の形態における物体の識別
の処理のフロー図
FIG. 4 is a flowchart of an object identification process according to the first embodiment of the present invention;

【図5】本発明の第2の実施の形態における処理のフロ
ー図
FIG. 5 is a flowchart of a process according to the second embodiment of the present invention;

【図6】本発明の第3の実施の形態における物体認識装
置の構成を示すブロック図
FIG. 6 is a block diagram illustrating a configuration of an object recognition device according to a third embodiment of the present invention.

【図7】本発明の第3および第4の実施の形態における
揺れ対策領域を説明する模式図
FIG. 7 is a schematic diagram for explaining an anti-sway region in the third and fourth embodiments of the present invention.

【図8】本発明の第4の実施の形態における処理のフロ
ー図
FIG. 8 is a flowchart of processing according to a fourth embodiment of the present invention.

【図9】本発明の第5の実施の形態における物体認識装
置の構成を示すブロック図
FIG. 9 is a block diagram illustrating a configuration of an object recognition device according to a fifth embodiment of the present invention.

【図10】本発明の第5および第6の実施の形態におけ
る通過領域を説明する模式図
FIG. 10 is a schematic diagram illustrating a passage area according to the fifth and sixth embodiments of the present invention.

【図11】本発明の第6の実施の形態における処理のフ
ロー図
FIG. 11 is a flowchart of a process according to the sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

CAM 撮像装置 ADC 画像入力部 PIN パラメータ入力手段 EXT 物体抽出部 TRN 距離変換部 TRC 物体追跡部 ARE 基準面積算出部 RCG 認識部 IMP 物体認識装置 HRN 発報装置 REC 記録装置 IMG1 入力画像 IMG2 画像 REP 実空間 F1、G1 領域設定工程 F2、G2 物体追跡工程 F3 領域判定工程 FLC 揺れ対策部 YAR 揺れ対策領域 DAR 検知領域 G3 前判定工程 PAR 通過領域 CAR 車両 INT 侵入者 CAM imaging device ADC image input unit PIN parameter input means EXT object extraction unit TRN distance conversion unit TRC object tracking unit ARE reference area calculation unit RCG recognition unit IMP object recognition unit HRN broadcasting unit REC recording unit IMG1 input image IMG2 image REP real space F1, G1 area setting process F2, G2 Object tracking process F3 area determination process FLC anti-sway section YAR anti-sway area DAR detection area G3 pre-determination step PAR passing area CAR vehicle INT Intruder

───────────────────────────────────────────────────── フロントページの続き (72)発明者 西澤 眞人 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 Fターム(参考) 2F065 AA06 BB15 CC16 DD06 DD11 FF01 FF09 FF26 FF28 JJ03 JJ05 JJ26 KK02 MM02 QQ13 QQ25 QQ34 RR02 SS03 SS09 UU05 2F112 AC06 AD05 BA05 BA07 CA12 FA01 FA03 FA09 FA33 FA45 FA50 5C084 AA02 AA04 AA07 BB04 BB05 BB06 DD11 GG42 GG78 HH01 HH07 HH12 5L096 AA06 BA02 CA04 CA05 CA24 DA03 FA59 FA66 FA69 GA08 GA34 GA51 HA03 HA05 JA22 9A001 HH20 HH28 HH29 LL03  ────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Masato Nishizawa 4-3-1 Tsunashimahigashi, Kohoku-ku, Yokohama-shi, Kanagawa F-term (reference) 2F065 AA06 BB15 CC16 DD06 DD11 FF01 FF09 FF26 FF03 JJ03 JJ05 JJ26 KK02 MM02 QQ13 QQ25 QQ34 RR02 SS03 SS09 UU05 2F112 AC06 AD05 BA05 BA07 CA12 FA01 FA03 FA09 FA33 FA45 FA50 5C084 AA02 AA04 AA07 BB04 BB05 BB06 DD11 GG42 GG78 HH01 HH07 HH12 FA24GA15GA03A HA05 JA22 9A001 HH20 HH28 HH29 LL03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置より出力される映像信号を入力
し、撮影時刻の異なる画像間で差分処理を行ない、輝度
変化領域を抽出することで移動物体の領域を抽出し、画
像上での座標位置を距離に変換し、前記距離に応じて基
準面積を算出し、抽出された前記移動物体を追跡し、前
記基準面積と抽出された前記移動物体の面積との比率に
より前記移動物体を識別することを特徴とする物体認識
方法。
1. A video signal output from an imaging device is input, a difference process is performed between images at different photographing times, an area of a moving object is extracted by extracting a luminance change area, and coordinates on the image are extracted. The position is converted into a distance, a reference area is calculated according to the distance, the extracted moving object is tracked, and the moving object is identified based on a ratio of the reference area and the area of the extracted moving object. An object recognition method characterized in that:
【請求項2】 撮像装置より出力される映像信号の入力
処理を行う画像入力部と、撮影時刻の異なる画像間で差
分処理を行ない輝度変化領域を抽出することで移動物体
の領域を抽出する物体抽出部と、画像上の座標位置を距
離に変換する距離変換部と、前記距離に応じて基準面積
を算出する基準面積算出部と、抽出された前記移動物体
を追跡する物体追跡部と、前記基準面積と抽出された前
記移動物体の面積との比率により前記移動物体を識別す
る認識部を持つことを特徴とする物体認識装置。
2. An image input unit for inputting a video signal output from an imaging device, and an object for extracting a moving object region by extracting a luminance change region by performing a difference process between images at different photographing times. An extraction unit, a distance conversion unit that converts a coordinate position on an image into a distance, a reference area calculation unit that calculates a reference area according to the distance, an object tracking unit that tracks the extracted moving object, An object recognition device, comprising: a recognition unit that identifies the moving object based on a ratio between a reference area and an area of the extracted moving object.
【請求項3】 1台または複数の撮像装置によって撮影
された画像を処理して画像中の侵入物体を検出する物体
認識方法において、画像中に注目領域を設定し、前記注
目領域内で抽出された物体を追跡し、前記抽出された物
体が前記注目領域を出たか否かを判定することを特徴と
する物体認識方法。
3. An object recognition method for processing an image photographed by one or a plurality of imaging devices to detect an intruding object in the image, wherein a region of interest is set in the image, and the region of interest is extracted in the region of interest. An object recognizing method, wherein the object is tracked to determine whether the extracted object has left the attention area.
【請求項4】 1台または複数の撮像装置によって撮影
された画像を処理して画像中の侵入物体を検出する物体
認識装置において、画像中の注目領域を設定する領域設
定手段と、前記領域内で抽出された物体を追跡する追跡
手段と、前記抽出された物体が前記注目領域を出たか否
かを判定する領域判定手段とを持つことを特徴とする物
体認識装置。
4. An object recognition device for processing an image captured by one or a plurality of imaging devices and detecting an intruding object in the image, wherein: an area setting means for setting a region of interest in the image; An object recognition apparatus, comprising: a tracking unit that tracks the object extracted in step (a); and an area determination unit that determines whether the extracted object has left the attention area.
【請求項5】 1台または複数の撮像装置によって撮影
された画像を処理して画像中の侵入物体を検出する物体
認識方法において、画像中に所定の物体の通過領域を設
定し、画像中で抽出された物体を追跡し、前記物体の種
類を判定し、画像中を所定の物体が通過していると判断
した場合には、前記通過領域内のその他侵入物体の検出
処理を一時停止することを特徴とする物体認識方法。
5. An object recognition method for processing an image captured by one or more imaging devices to detect an intruding object in the image, wherein a passing area of a predetermined object is set in the image, The extracted object is tracked, the type of the object is determined, and when it is determined that a predetermined object is passing through the image, the detection process of other intruding objects in the passing area is temporarily stopped. An object recognition method characterized by the following.
【請求項6】 1台または複数の撮像装置によって撮影
された画像を処理して画像中の侵入物体を検出する物体
認識装置において、画像中に所定の物体の通過領域を設
定する領域設定手段と、画像中で抽出された物体を追跡
する追跡手段と、前記物体の種類を判定して画像中を所
定の物体が通過していると判断した場合には、前記通過
領域内のその他侵入物体の検出処理を一時停止する前判
定手段とを持つことを特徴とする物体認識装置。
6. An object recognition device for processing an image captured by one or a plurality of imaging devices and detecting an intruding object in the image, wherein an area setting means for setting a passing area of a predetermined object in the image. A tracking unit that tracks an object extracted in the image, and, when it is determined that a predetermined object is passing through the image by determining the type of the object, if there is another intruding object in the passing area, An object recognition device comprising: a pre-judgment means for temporarily stopping detection processing.
JP11171589A 1999-06-17 1999-06-17 Method and device for recognizing object Pending JP2001005974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11171589A JP2001005974A (en) 1999-06-17 1999-06-17 Method and device for recognizing object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11171589A JP2001005974A (en) 1999-06-17 1999-06-17 Method and device for recognizing object

Publications (1)

Publication Number Publication Date
JP2001005974A true JP2001005974A (en) 2001-01-12

Family

ID=15925970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11171589A Pending JP2001005974A (en) 1999-06-17 1999-06-17 Method and device for recognizing object

Country Status (1)

Country Link
JP (1) JP2001005974A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044859A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
US6868337B2 (en) * 2001-05-15 2005-03-15 Yamaha Corporation Portable navigation device and system, and online navigation service in wireless communication network
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP2007235485A (en) * 2006-02-28 2007-09-13 Saxa Inc Device and method for monitoring image
JP2007274653A (en) * 2006-03-31 2007-10-18 Saxa Inc Video monitoring device and method
JP2009211122A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Image processor and object estimation program
CN101894375A (en) * 2009-05-21 2010-11-24 富士胶片株式会社 Person tracking method and person tracking apparatus
JP2011215921A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012181660A (en) * 2011-03-01 2012-09-20 Nippon Telegr & Teleph Corp <Ntt> Detector, load reduction method and program
KR101188476B1 (en) 2011-12-13 2012-10-08 한국 한의학 연구원 Apparatus and method for calculating photographing distance and correcting horizontality distance of subject
JP2013186681A (en) * 2012-03-08 2013-09-19 Omron Corp Image processor, image processing method, and image processing program
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
JP2018134547A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine
JP2018153697A (en) * 2018-06-11 2018-10-04 株式会社ユニバーサルエンターテインメント Game machine
JP2019088965A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
JP2019088964A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
CN112153892A (en) * 2018-05-28 2020-12-29 拜耳动物保健有限责任公司 Device for fly management

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62136991A (en) * 1985-12-10 1987-06-19 Matsushita Electric Works Ltd Abnormality monitoring device
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH0620049A (en) * 1992-06-23 1994-01-28 Japan Radio Co Ltd Intruder identification system
JPH1093957A (en) * 1996-09-12 1998-04-10 Hitachi Ltd Mobile object detecting method, device, system and storage medium
JPH10240947A (en) * 1996-12-26 1998-09-11 Mitsubishi Electric Corp Picture processor for monitoring

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62136991A (en) * 1985-12-10 1987-06-19 Matsushita Electric Works Ltd Abnormality monitoring device
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH0620049A (en) * 1992-06-23 1994-01-28 Japan Radio Co Ltd Intruder identification system
JPH1093957A (en) * 1996-09-12 1998-04-10 Hitachi Ltd Mobile object detecting method, device, system and storage medium
JPH10240947A (en) * 1996-12-26 1998-09-11 Mitsubishi Electric Corp Picture processor for monitoring

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868337B2 (en) * 2001-05-15 2005-03-15 Yamaha Corporation Portable navigation device and system, and online navigation service in wireless communication network
JP2003044859A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP4700477B2 (en) * 2005-11-15 2011-06-15 株式会社日立製作所 MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
JP2007235485A (en) * 2006-02-28 2007-09-13 Saxa Inc Device and method for monitoring image
JP2007274653A (en) * 2006-03-31 2007-10-18 Saxa Inc Video monitoring device and method
JP2009211122A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Image processor and object estimation program
JP4691570B2 (en) * 2008-02-29 2011-06-01 東芝テリー株式会社 Image processing apparatus and object estimation program
CN101894375A (en) * 2009-05-21 2010-11-24 富士胶片株式会社 Person tracking method and person tracking apparatus
JP2011215921A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012181660A (en) * 2011-03-01 2012-09-20 Nippon Telegr & Teleph Corp <Ntt> Detector, load reduction method and program
KR101188476B1 (en) 2011-12-13 2012-10-08 한국 한의학 연구원 Apparatus and method for calculating photographing distance and correcting horizontality distance of subject
JP2013186681A (en) * 2012-03-08 2013-09-19 Omron Corp Image processor, image processing method, and image processing program
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
CN112153892A (en) * 2018-05-28 2020-12-29 拜耳动物保健有限责任公司 Device for fly management
CN112153892B (en) * 2018-05-28 2024-01-30 拜耳动物保健有限责任公司 Device for fly management
JP2018134547A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine
JP2018153697A (en) * 2018-06-11 2018-10-04 株式会社ユニバーサルエンターテインメント Game machine
JP2019088965A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
JP2019088964A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine

Similar Documents

Publication Publication Date Title
JP2001005974A (en) Method and device for recognizing object
US7526102B2 (en) System and method for object tracking and activity analysis
Lei et al. Real-time outdoor video surveillance with robust foreground extraction and object tracking via multi-state transition management
WO2022135511A1 (en) Method and apparatus for positioning moving object, and electronic device and storage medium
Xu et al. Segmentation and tracking of multiple moving objects for intelligent video analysis
CN111161312B (en) Object trajectory tracking and identifying device and system based on computer vision
CN108230607B (en) Image fire detection method based on regional characteristic analysis
JPH1141589A (en) Method and system for supervising mobile object
KR20140095333A (en) Method and apparratus of tracing object on image
JP2014027442A (en) Image processing device, image processing method, and program
CN110569770A (en) Human body intrusion behavior recognition method and device, storage medium and electronic equipment
JP3486229B2 (en) Image change detection device
KR102127276B1 (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
KR20160037480A (en) Method for establishing region of interest in intelligent video analytics and video analysis apparatus using the same
CN109841022B (en) Target moving track detecting and alarming method, system and storage medium
Sharma et al. Automatic vehicle detection using spatial time frame and object based classification
CN113657250A (en) Flame detection method and system based on monitoring video
CN111582166B (en) Method for detecting remnants based on Gaussian modeling and YoLo V3 target detection
JP2002145072A (en) Railroad crossing obstacle detecting device
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP2002279429A (en) Method for detecting infiltrating object
TWI476735B (en) Abnormal classification detection method for a video camera and a monitering host with video image abnormal detection
JP2667973B2 (en) Mobile monitoring device
JPS62136988A (en) Invasion monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080729