JP2001333420A - Image supervisory method and device - Google Patents

Image supervisory method and device

Info

Publication number
JP2001333420A
JP2001333420A JP2000154399A JP2000154399A JP2001333420A JP 2001333420 A JP2001333420 A JP 2001333420A JP 2000154399 A JP2000154399 A JP 2000154399A JP 2000154399 A JP2000154399 A JP 2000154399A JP 2001333420 A JP2001333420 A JP 2001333420A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
image
illumination
object
exposure
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000154399A
Other languages
Japanese (ja)
Inventor
Yoshiki Kobayashi
Chieko Konuma
Hisao Ootawa
Shigehisa Sakimura
Yoshio Sakuma
喜郎 佐久間
久雄 大田和
小林  芳樹
小沼  知恵子
茂寿 崎村
Original Assignee
Hitachi Ltd
Secom Co Ltd
セコム株式会社
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image supervisory device that monitors a dark scene with an extended dynamic range and a reduced lighting power. SOLUTION: An image input control section 500 sets a 1st image with normal exposure at strong lighting and a 2nd image with high-speed exposure at weakend lighting to a supervisory scene photographed by an ITV camera 100 with an LED lighting device 200, and an image input section 1000 receives the 1st image and then receives a 2nd image at a succeeding field. An image synthesis section 2000 sums the 1st and 2nd images with a weight coefficient corresponding to the luminance by each pixel multiplied therewith to generate a composite image thereby obtaining a processing object image for object discrimination. A differential image generating section 3000 conducts differential processing by each pixel between a just preceding frame and a current frame of the composite image, and a change area extract section 4000 applies binary processing to the differential image to extract a change area. An object detection section 5000 conducts contrast pattern matching for each inter-frame normalization processing per integrated change area to discriminate and object.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、画像入力時に、LE The present invention relates, at the time of image input, LE
D照明装置の照度を強くしたノーマル露光画像と、LED照明装置の照度を弱くした高速露光画像を取り込んで、これらを合成して処理対象画像とすることにより、低消費電流で昼夜連続の監視を行う画像監視装置に関する。 A normal exposure image strongly illuminance of D illumination device, captures the weakened fast exposure image the illumination intensity of the LED illumination apparatus, by these synthesized by the process target image, the monitor continuously day and night with low current consumption an image monitoring apparatus that performs.

【0002】 [0002]

【従来の技術】動く物体の広ダイナミックレンジの画像を得る撮像装置(特開平7−75026)が知られている。 BACKGROUND ART imaging apparatus for obtaining an image of wide dynamic range of the moving object (JP-A 7-75026) are known. ここでは、第1の露出時間で撮像された第1画像と、第2 Here, a first image captured by the first exposure time, the second
の露出時間で撮像された第2画像において、第2画像の輝度値に応じた2種類の重み付け関数(fとg)を発生する。 In the second image captured with an exposure time of, for generating two types of weighting functions corresponding to the luminance value of the second image (f and g). そして、第1画像の輝度値(画素毎)に関数fによる重み付けを行い、第2画像の輝度値(画素毎)に関数gによる重み付けを行って、これらの加算を行い、広ダイナミックレンジの合成輝度値を演算して作成した合成画像を処理対象画像としている。 Then, the luminance value of the first image (each pixel) performs weighting by a function f, the luminance values ​​of the second image by performing weighting according to the function g in (each pixel), make these addition, the synthesis of a wide dynamic range It has a synthesized image created by calculating the luminance value and the target image.

【0003】 [0003]

【発明が解決しようとする課題】上記のように、第1の露出時間で撮像された第1画像と第2の露出時間で撮像された第2画像のそれぞれに、異なる重み付けを行なって画像の合成を実現する装置は、監視シーンにおいて、 As described above THE INVENTION An object you try solving], in a first image captured by the first exposure time each of the second image captured by the second exposure time, image by performing weighted differently apparatus for realizing synthesis, in monitoring the scene,
所定以上の照度が保証されている場合に有効となる。 It becomes effective when a predetermined or more illumination is guaranteed. しかし、夜間や昼間に光が届かないシーンでは、照明装置を点灯する必要があり、照明装置の点消灯制御や照度の強弱制御を行なう必要があることの考慮がない。 However, does not reach the light at night or daytime scene, it is necessary to light the lighting device, there is no consideration of that necessary to perform the intensity control of the OFF control or illuminance point of the lighting device. このため、昼夜の連続監視等では照明コストがアップする上に、照明装置の寿命が短くなるという問題がある。 Accordingly, in continuous monitoring, etc. day and night on the lighting cost is up, there is a problem that the lifetime of the lighting device is shortened.

【0004】本発明の目的は、上記した従来技術の問題点を克服し、照度を強くした画像と弱くした画像を入力し、これらを合成して処理対象画像とすることにより、 An object of the present invention, by overcoming the problems of the prior art described above, and enter the weak image and strong image illuminance, and these combined and processed image,
低消費電流で昼夜連続の監視ができる画像監視装置を提供することにある。 And an image monitoring apparatus can monitor continuously day and night with low current consumption.

【0005】 [0005]

【課題を解決するための手段】上記目的を達成する本発明は、画像入力時に、照明装置の照度を強くした第1の画像と、照明装置の照度を弱くもしくは消灯した第2の画像を取り込んで、これらを画像合成して処理対象画像とするところに特徴がある。 A solution for the present invention to achieve the above object, when an image input to, capture a first image obtained by strongly illuminance of the illumination device, the second image obtained by weakly or off the illumination of the illumination device in, it is characterized in that these images combined and processed image.

【0006】本発明の画像監視方法では、まず、照明装置付きITVカメラ等で監視シーンを撮影するとき、第1 [0006] In the image monitoring method of the present invention, first, when shooting monitor scene with lighting system ITV camera or the like, first
の画像として照明装置の照度を強くしてノーマル露光画像を入力した後、第2の画像として照明装置の照度を弱くして1フィールドずれた高速露光画像を取り込み、この第1の画像と第2の画像を画素毎の輝度値に応じた重み係数で加算して合成画像を作成する。 After entering the normal exposure image by strong illuminance of the illumination device as an image, a high-speed exposure image shifted by one field to weak illumination of the illumination device as a second image capture, the first image second image by adding the weight coefficient corresponding to the luminance value of each pixel to create a composite image. ここで、前記第1の画像の照明は夜間など暗所での物体が認識可能な照度とし、前記第2の画像の照明は前記第1の画像では飽和領域となる部分が認識可能な照度または照明オフとする。 Here, the lighting of the first image is an object in the dark such as at night and recognizable illuminance, the illumination of the second image is the first illuminance recognizable portions serving as the saturation region in the image or and lighting off.

【0007】画素毎の輝度値に応じた重み係数は、第1 [0007] weighting factor according to the luminance value of each pixel is first
の画像の画素の輝度値を基準にして、第1の画像の輝度値が小さい場合には、第1の画像の輝度値の比率を大きく第2の画像の輝度値の比率を小さくし、第1の画像の輝度値が大きい場合(飽和状態)には、第1の画像の輝度値の比率を小さく第2の画像の輝度値の比率を大きくする。 Luminance values ​​of the pixels of the image with respect to the, when the luminance value of the first image is small, to reduce the ratio of the luminance value of the first ratio the larger second image of the luminance values ​​of the image, the in the case the brightness value of the first image is larger (saturation), to increase the ratio of the luminance value of the first ratio the smaller second image of the luminance values ​​of the image.

【0008】ここで、第1の画像は照明装置の照度を強くしているため、照明装置から投光した光の反射が大きい領域は飽和状態となり易く、該領域に物体が存在しても、第1の画像では認識できない場合がある。 [0008] Here, since the first image has a strong illuminance of the illumination device, the area reflection large light projected from the illumination device tends to be saturated, even if there is an object in the region, in the first image it may not be recognized. しかし、 But,
その他の領域(非飽和領域)は、認識可能な明るさである。 Other regions (non-saturation region) is recognizable brightness. 一方、第2の画像は、照明装置の照度を弱く若しくは消灯しているため、照明装置から投光した光の反射が大きい領域は適切な輝度値となり、物体の存在が認識できるが、その他の領域は低輝度となり認識処理に不向きである。 On the other hand, the second image, because it weakens or off the illumination of the illumination device, the area reflection large light projected from the illumination device comprises an appropriate brightness value, the presence of an object can be recognized, other region is not suitable for the recognition process becomes low luminance.

【0009】次に、この合成画像を処理対象画像としてフレーム間差分を行い、この差分画像の変化領域ないし統合領域による追跡元領域をテンプレートパターンとし、他方の画像で追跡元領域に対応する領域とほぼ同一領域を探索領域として、正規化相関による濃淡パターンマッチングを行い、類似度が所定値より高い変化領域を外乱として除外し、類似度の低い変化領域を監視対象の物体として検出する。 [0009] Next, the inter-frame difference of the composite image as a processing target image, a region tracking source area due to the change area or combined area of ​​the difference image as a template pattern, corresponding to the tracking source area on the other image as substantially the same area search area, performs shading pattern matching by normalized correlation, degree of similarity is excluded as a disturbance higher change area than a predetermined value, it detects a low similarity change region as an object to be monitored.

【0010】本発明の方法を適用する画像監視装置は、 [0010] image monitoring apparatus applying the method of the present invention,
監視領域の画像を取り込む照明装置付きITVカメラ等の撮像手段を備えて、取り込み画像を処理して監視領域に入る物体を監視する装置において、入力画像のフィールドに応じて前記照明装置の照明状態を強くまたは弱く制御する画像入力制御手段と、強い照明状態による第1 An image pickup means such as with lighting system ITV camera for capturing an image of the monitored area, in an apparatus for monitoring an object entering the surveillance area by processing the captured image, the lighting state of the lighting device according to the field of the input image an image input control means for controlling strongly or weakly, the due to strong illumination state 1
の画像と弱い照明状態による第2の画像を周期的に取り込む画像入力手段と、取り込まれた第1の画像と第2の画像を合成して処理対象画像を作成する画像合成手段と、フレーム間の処理対象画像を基に画像処理して前記物体を検出する移動物体検出手段を具備することを特徴とする。 The image and the image input means for capturing a second image by the weak light condition periodically, an image synthesizing means for generating a first image and synthesizing the target image and the second image captured, inter-frame the processing target image the image processing to the basis of characterized by comprising a moving object detecting means for detecting the object. なお、画像入力制御手段は、前記照明状態とともに前記撮像手段の露光状態を制御するようにしてもよい。 Note that the image input control means, together with the illumination condition may be controlling the exposure conditions of the imaging means.

【0011】本発明によれば、ノーマル露光画像の輝度値を基準にして、ノーマル露光画像の非飽和領域は、ノーマル露光画像の輝度値の重みを大きくし、ノーマル露光画像の飽和領域は、高速露光画像の輝度値の重みを大きくして加算を行うので、広ダイナミックレンジを有する合成画像が得られる。 According to the present invention, based on the luminance value of the normal exposure image, the non-saturation region of the normal-exposure image, by increasing the weight of luminance values ​​of the normal exposure image, the saturation region of the normal-exposure image, high speed since the sum by increasing the weight of luminance values ​​of the exposure image, the composite image having a wide dynamic range can be obtained. 更に、高速露光時には、照度を暗くまたは消灯するので、常時強い照度とするより照明電力の低減が図れる上に、照明装置が長寿命化できる効果がある。 Further, at the time of high-speed exposure, the darkening or off the illumination, on the can be reduced illumination power than always strong illuminance, the effect of the lighting device can be long lifetime.

【0012】上記した本発明は昼夜の連続監視に好適である。 [0012] The present invention described above is suitable for continuous monitoring of the day and night. この場合に最も物体認識の難しくなる夜間などの暗いシーンで、かつ照明装置による照明光が鏡や白壁等の高反射率の物に反射し、画像上飽和してしまうシーンを例に、本発明の作用を説明する。 Dark scenes, such as harder night most object recognition in this case, and reflected by the object of high reflectance such as the illumination light mirror, white walls by the illumination device, the scene becomes saturated on the image as an example, the present invention a description will be given of the operation of.

【0013】図2に示すように、照明装置付きITVカメラで監視シーンを撮影する。 [0013] As shown in FIG. 2, to shoot surveillance scene with lighting system ITV camera. 入力タイミングがiフィールド610では、露光状態をノーマル露光611に設定して、 The input timing i field 610, sets the exposure condition to the normal exposure 611,
照明装置の照度612を強くし、第1の画像613を入力する。 Strong illuminance 612 of the lighting device, for inputting a first image 613. 次の入力タイミングi+1フィールド615では、露光状態を高速露光616の状態に設定して、照明装置の照度617を弱く(ないし消灯)した状態で、第2の画像618 At the next input timing i + 1 field 615, an exposure condition is set to a state of high-speed exposure 616, an illuminance 617 of the illumination device weakly (or off) in a state, the second image 618
を入力する。 To enter. 取り込まれた第1の画像613と第2の画像6 First image 613 captured with the second image 6
18を用いて、画素毎の輝度値に応じた重み係数で加算して画像合成630を作成する。 18 is used to create an image synthesis 630 are added by the weighting coefficient corresponding to the luminance value of each pixel. 画素毎の輝度値に応じた重み係数は、第1の画像613の画素の輝度値を基準にして、第1の画像613の輝度値が小さい場合には、第1の画像613の輝度値の比率を大きくして第2の画像618の輝度値の比率を小さくし、第1の画像613の輝度値が大きい場合(飽和状態)には、第1の画像613の輝度値の比率を小さくして第2の画像618の輝度値の比率を大きくする。 Weighting factor according to the luminance value of each pixel, the luminance values ​​of the pixels in the first image 613 as a reference, when the luminance value of the first image 613 is small, the luminance values ​​of the first image 613 increasing the ratio to decrease the ratio of the luminance value of the second image 618, if the luminance value of the first image 613 is greater (saturated), to reduce the ratio of the luminance values ​​of the first image 613 increasing the ratio of the luminance value of the second image 618 Te to.

【0014】この例で、第1の画像613は強い照明状態であり、かつノーマル露光であるため、鏡等に反射光の受光領域614は飽和状態となり、領域614に物体が存在しても、第1の画像613では識別できない。 [0014] In this example, the first image 613 is a strong lighting conditions, and because it is normal exposure, the light-receiving region 614 of the reflection light in mirrors, etc. becomes saturated, even if there is an object in the region 614, in the first image 613 can not be identified. しかし、その他の領域(非飽和領域)は、強い照明と通常のシャッター速度によるノーマル露光によって適切な輝度値を得ることができる。 However, other areas (non-saturation region), it is possible to obtain an appropriate luminance values ​​by the normal exposure due to strong lighting and normal shutter speed. 一方、第2の画像618は、消灯ないし弱い照明とシャッター速度が高速の高速露光によって、鏡等による反射光の受光領域614であっても適切な輝度値となり、領域614に存在する物体619の認識ができる。 On the other hand, the second image 618, by a weak illumination and shutter speed to Off No high-speed fast exposure, even the light-receiving region 614 of the light reflected by the mirror or the like becomes a suitable luminance value of the object 619 existing in the region 614 recognition can be. しかし、その他の領域は低輝度で暗い。 However, other regions are dark at low luminance.

【0015】このように、強い照明光状態であり、かつノーマル露光時は、鏡等による反射光の受光領域が飽和する。 [0015] Thus, a strong illumination state, and during the normal exposure, the light receiving region of the light reflected by the mirror or the like is saturated. 一方、弱い照明状態であり、かつ高速露光時は、 On the other hand, a weak lighting conditions and during high-speed exposure,
鏡等による反射光の受光領域であっても飽和し難くなる。 Even light receiving area of ​​the light reflected by the mirror or the like hardly saturated. この照明状態に応じて露光を制御して撮影したノーマル露光による第1の画像と高速露光による第2の画像を所定の比率で合成すれば、夜間の暗い部分と鏡等による反射光の受光領域を含む全体シーンについて高感度の広ダイナミックレンジの画像を取得でき、暗がりの監視領域で部分的に強力なノイズ光が当る場面でも、精度の高い移動物体の監視が可能になる。 If synthesized second image of the first image and the high-speed exposure with normal exposure taken to control the exposure in accordance with the lighting conditions in a predetermined ratio, the light receiving region of the light reflected by the night dark portion and mirror like can obtain an image of high sensitivity wide dynamic range for the entire scene including, in part, strong noise light hits the scene in the dark in the monitored area, it is possible to monitor with high accuracy the moving object. なお、夜間に光がない暗いシーンの場合は、照明を点灯したノーマル露光画像に飽和領域が存在することが少ない。 In the case of dark no light scenes at night, it is less saturation region to the normal exposure image exists lit illumination. 従って、照明を弱くないし消灯した高速露光画像の必要性は少なく、加算比率が少なくてすむ。 Therefore, the need for high-speed exposure images off to not weak illumination is small, requires less addition rate.

【0016】 [0016]

【発明の実施の形態】以下、本発明の一実施例を図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, will be explained with reference to the drawings an embodiment of the present invention. 図1は、本発明の一実施例を示す画像監視装置のブロック図である。 Figure 1 is a block diagram of an image monitoring apparatus according to an embodiment of the present invention. 本実施例の画像監視装置は、監視装置本体10、表示装置7000から構成される。 Image monitoring apparatus of this embodiment, the monitoring apparatus main body 10, a display device 7000. または、監視装置本体20、ITVカメラ100、照明装置200、 Or, the monitoring device main body 20, ITV camera 100, an illumination apparatus 200,
表示装置7000で構成してもよい。 It may be constituted by a display device 7000. 監視装置本体20は、パーソナルコンピュータに画像処理ボードを装着して実現してもよい。 Monitoring device body 20, an image processing board may be realized by mounting a personal computer. 監視装置本体10は、LED照明とカメラと画像処理ボードとパーソナルコンピュータを一体とした照明付きインテリジェントカメラとして実現してもよい。 Monitoring apparatus main body 10, the LED lighting and camera and image processing board and a personal computer may be implemented as a lighted intelligent camera integrated.

【0017】本実施例では、まず、LED照明装置200付き [0017] In this embodiment, first, with the LED lighting device 200
ITVカメラ100で監視シーンを撮影する。 To shoot the monitoring scene in the ITV camera 100. 画像入力制御部 Image input control unit
500は、第1画像に対し照明装置200の照度を強くし、かつ通常のシャッター速度のノーマル露光状態に設定し、 500, to the first image and strong illumination of the illumination device 200, and sets the normal exposure state of the usual shutter speed,
第1画像と1フィールドずれた第2画像に対し照明装置 The first image and one field shifted second image to the illumination device
200の照度を弱くし、かつシャッター速度が高速の高速露光状態に設定する。 The illuminance of 200 weak, and the shutter speed is set to a high speed fast exposure state of. 画像入力部1000は、iフィールドの第1の画像を入力した後、i+1フィールドの第2画像を入力する。 The image input unit 1000, after entering the first image of the i field, enter a second image of the i + 1 field. 画像合成部2000は、取り込まれた第1画像と第2画像を用いて、画素毎の輝度値に応じた重み係数で加算して画像を合成し、広ダイナミックレンジを有する画像を作成し処理対象画像とする。 Image synthesis unit 2000 uses the first image and the second image captured, the image is synthesized by adding the weight coefficient corresponding to the luminance value of each pixel to create an image having a wide dynamic range processing target and image.

【0018】差分画像作成部3000は、合成画像部2000で合成した広ダイナミックレンジ画像を処理対象画像として、処理対象画像のフレーム間で画素毎の差分処理を行う。 The differential image producing unit 3000, a wide dynamic range image synthesized in the composite image section 2000 as a processing target image, performs differential processing for each pixel between frames of the image to be processed. 変化領域抽出部4000は、差分画像を2値化して変化領域を抽出する。 Change region extraction unit 4000 extracts a change region by binarizing the differential image. 物体検知部50000は、変化領域抽出部4 Object detection unit 50000, the changing area extraction section 4
000で抽出した変化領域の近隣を一つの統合領域にまとめて、統合領域毎に直前フレームと現フレーム間の正規化相関処理による濃淡パターンマッチングを行って物体判定処理を行う。 The neighboring extracted change region 000 together into one combined area, performing object determination process performed shading pattern matching by normalized correlation between the previous frame and the current frame for each integrated region. 表示制御部6000は、検知された物体の検知画像を格納して、監視センター等(図示していない)から表示要求のつど、その検知位置等の情報や検知日や時刻等の情報をリアルタイムに表示装置7000に表示する。 The display control unit 6000, stores the detected image of the detected object, every time the display request from the monitoring center or the like (not shown), information such as the information and the detection date and time, such as the detection position in real time displayed on the display device 7000.

【0019】図3は、画像入力制御部500の一実施例を示すブロック図である。 [0019] FIG. 3 is a block diagram showing an embodiment of an image input control unit 500. 画像入力タイミング設定部510 Image input timing setting unit 510
が画像入力タイミングをiフィールドに設定すると、露光状態設定部520は露光状態をノーマル露光に設定し、 There Setting image input timing i field, exposure state setting unit 520 sets the exposure condition to the normal exposure,
照明強度設定部530が出力電流を大きくして照明装置200 Lighting device illumination intensity setting unit 530 to increase the output current 200
の照度を強くして、画像入力部1000の処理を行う。 The illumination strongly, performs the processing of the image input unit 1000. 次に、画像入力タイミング設定部510がi+1フィールドに設定すると、露光状態設定部520は露光状態を高速露光に設定し、照明強度設定部530が出力電流を小さくしてLED等の照明装置の照度を弱くして、画像入力部1000 Next, when the image input timing setting unit 510 is set to i + 1 field, exposure state setting unit 520 sets the exposure condition at a high speed exposure, illuminance of the illumination device such as an LED illumination intensity setting unit 530 to decrease the output current the weakly, the image input unit 1000
の処理を行う。 Carry out the process. これにより、LED照明が強いノーマル露光画像と1フィールドずれたLED照明の弱い高速露光画像が取り込まれる。 Thus, a weak high-speed exposure images LED lighting LED lighting deviates strongly normal exposure image and one field is captured.

【0020】なお、本実施例の画像入力制御部500は照明強度のみを制御し、露光制御は通常のカメラオートによっている。 [0020] Incidentally, the image input controller 500 of the present embodiment controls only illumination intensity, exposure control are the normal camera auto. このカメラオートではノーマル露光の周期が約1/30秒、高速露光の周期が1/500〜1/1000 Is about 1/30 of a second cycle of the normal exposure in this camera Auto, the period of the high-speed exposure 1/500 to 1/1000
秒に設定されている。 It is set in seconds.

【0021】図4は、画像入力部1000の内部の一実施例を示すブロック図である。 [0021] FIG. 4 is a block diagram showing an embodiment of the interior of the image input unit 1000. 画像入力制御部500がiフィールド目で照明装置200の照度を強くしてノーマル露光状態に設定すると、A/D変換部1010はA/D変換を行い、ノーマル露光画像入力部1020がノーマル露光画像を取り込む。 When the image input controller 500 sets the normal exposure condition strongly the illuminance of the illumination device 200 in i th field, the A / D conversion unit 1010 performs A / D conversion, the normal exposure image input unit 1020 is normal exposure image the capture. 一方、画像入力制御部500がi+1フィールド目で照明装置200の照度を弱くして高速露光状態に設定すると、A/D変換部1010はA/D変換を行い、高速露光画像入力部1030が高速露光画像を取り込む。 On the other hand, the image input controller 500 to weak illumination of the illumination device 200 i + 1 th field is set to a high speed exposure state, A / D conversion unit 1010 performs A / D conversion, fast exposure image input unit 1030 is a high speed It captures the exposure image.

【0022】図5は、画像取り込みと合成画像処理を示すタイムチャートである。 FIG. 5 is a time chart showing the image capture and a composite image processing. ここでは、監視装置に制御可能な照明装置を具備し、24時間連続監視可能な例で説明する。 Here, it comprises a controllable lighting device to the monitoring device, described in 24-hour continuous monitoring possible examples. 時間経過1500tにおいて、画像処理の1周期1510(画像取り込みから物体検出処理までのサイクル)をk秒とする。 In time 1500 t, 1 cycle 1510 of the image processing (cycle from image capture to the object detection processing) is k seconds. オンライン処理の場合、kは100mse In the case of online processing, k is 100mse
c〜数秒である。 c~ a few seconds. このk秒間隔で照明をオンして画像の取り込みを行い、取り込み時以外は照明をオフしている。 It performs image capture and on the illumination in the k seconds interval, except when uptake is off the lighting.

【0023】取込む画像には約1/30秒周期のノーマル露光画像と、1/500〜1/1000秒周期の高速露光画像がある。 [0023] The capture image and a normal exposure image of about 1/30 of a second cycle, there is a high-speed exposure image of 1/500 to 1/1000-second period. ノーマル露光画像に外光による飽和領域がある場合、高速露光画像はこの飽和領域を最適に写す照度があればよいので、通常は照明不要となる。 If there is a saturation region due to external light to the normal exposure image, so high-speed exposure image may be any illumination Projecting this saturation area optimally, usually the illumination required. そこで、ノーマル画像の取り込み時1540にのみ照明をオンし、その後は照明をオフする。 Therefore, by turning on the illumination only incorporation during 1540 of the normal image, then it turns off the illumination. なお、合成画像に用いる高速露光画像は照明による残光の消失したタイミング(○印)で取り込んでいる。 Incidentally, fast exposure image used in the composite image are incorporates in lost time afterglow by the illumination (○ mark).

【0024】図6は、画像合成部2000の一実施例を示すブロック図である。 FIG. 6 is a block diagram showing an embodiment of an image combining unit 2000. 画素の輝度値算出部2100が、まず、 Luminance value calculating unit 2100 of the pixel, first,
ノーマル露光状態の画像を取り込んで、各画素毎の輝度値を算出する。 Capturing an image of the normal exposure conditions, it calculates the luminance value of each pixel. ノーマル露光画像の合成比率算出部2200 Synthesis ratio calculation unit of the normal exposure image 2200
は、算出された画素(i,j)の輝度値に応じて、低輝度ならば比率を多くし、高輝度ならば少なくして、ノーマル露光の比率を算出する。 In accordance with the luminance value of the calculated pixel (i, j), by increasing the ratio if low luminance, with less if high brightness, and calculates the ratio of the normal exposure. また、高速露光画像の合成比率算出部2300は、合成比率全体を100とすると、100からノーマル露光画像の合成比率算出部2200で算出した比率を減算した残りを高速露光の比率として算出する。 Further, synthesis ratio calculation unit 2300 of the fast-exposure image, when the whole combination ratio is 100, calculates the remainder obtained by subtracting the percentage calculated by the combining ratio calculation unit 2200 of the normal exposure image 100 as the ratio of the high-speed exposure. 即ち、画素の輝度値算出部2100が算出した画素(i,j)の輝度値が低輝度ならば少なくし、高輝度ならば多くした比率を算出する。 That is, the luminance value of the pixel luminance value calculating unit 2100 of the pixels is calculated (i, j) is less if a low luminance, to calculate the number and proportions if high luminance. 画像加算部2400は、画素の輝度値算出部2100で算出した各画素毎の輝度値に、画素(i,j)に対して、ノーマル露光画像の合成比率算出部2200で算出した比率を演算し、高速露光画像の合成比率算出部2300 Image adding unit 2400, the luminance value of each pixel calculated by the luminance value calculating unit 2100 of the pixel, is calculated for the pixel (i, j), the ratio calculated in the synthesis ratio calculation unit 2200 of the normal exposure image , synthesis of high-speed exposure image ratio calculating unit 2300
で算出した比率を演算して、画素毎に加算を行い、合成画像を作成する。 In calculates the calculated ratio, it performs addition for each pixel, to create a composite image.

【0025】図7は画像合成部2000の処理手順の一例を示すフロー図である。 FIG. 7 is a flow diagram showing an example of a processing procedure of the image combining unit 2000. まず、ノーマル露光画像の比率係数αが設定される(s101)。 First, rate factor of the normal exposure image α is set (s101). 次に、画素(i,j)についてノーマル露光画像及び高速露光画像の輝度値を算出する(s102)。 Then pixel (i, j) calculates the luminance value of the normal exposure image and high-speed exposure image for (s102). 次に、ノーマル画像の画素(i, Then, the pixels in the normal image (i,
j)の輝度値に比率係数αを乗じてノーマル画像比輝度値(Nnode)を計算する(s103)。 It is multiplied by the ratio factor α on the luminance value of j) calculating a normal image ratio luminance value (Nnode) (s103). 次に、高速露光画像の画素(i,j)の輝度値に高速画像の比率係数(1 Then, rate factor of high-speed image to the luminance value of the pixel of the high-speed exposure image (i, j) (1
−α)を乗じて高速画像比輝度値(Hnode)を計算する(s104)。 Multiplied by-.alpha.) calculating speed image ratio luminance value (Hnode) (s104). そして、ノーマル画像比輝度値(Nnod Then, the normal image ratio luminance value (Nnod
e)と高速画像比輝度値(Hnode)を加算し、合成画像の画素(i,j)の輝度値を求め(s105)、以上の処理を全ての画素について繰り返す(s106)。 e) a high-speed image ratio brightness value by adding (HNODE), luminance calculated value (s105 of the pixels of the composite image (i, j)), repeated for all pixels above processing (s106). なお、ステップs105では誤差を低減するため、NnodeとHnode In order to reduce the error in step s105, NNODE and Hnode
のそれぞれに2のn乗した係数を乗じたのち加算し、加算後に2のn乗した係数で割っている。 Of added after multiplied by n raised to the power factor of 2 in each of which divided by n raised to the power factor of 2 after the addition.

【0026】図8は、合成比率の一例を示す説明図である。 [0026] FIG. 8 is an explanatory diagram showing an example of a combination ratio. この例では、ノーマル露光画像輝度値2410に対し、 In this example, with respect to the normal exposure image luminance values ​​2410,
高速露光画像合成比率2420は直線2430となり、この直線の勾配が比率係数1−αとなる。 Fast exposure image combining ratio 2420 becomes linear 2430, gradient of the straight line is the rate factor 1-alpha. ノーマル露光画像合成比率は100%から高速露光画像合成比率を差し引いた値αで、つまり両者の和は100%となる。 A value obtained by subtracting the fast exposure image combining ratio general exposure image combining ratio from 100% alpha, i.e. the sum of both is 100%. ここでは、 here,
ノーマル露光画像の輝度値(256階調)が最低(0) Luminance value of the normal exposure image (256 tones) is minimum (0)
のときノーマル露光の割合が100%、最高(255) The proportion of normal exposure of 100% when the highest (255)
のとき約70%で、残りが高速露光の割合となる。 About 70% when the the remainder is the ratio of high-speed exposure. これにより、基準のノーマル露光で取り込んだ画像の画素の輝度値が低い場合、ノーマル露光の比率が多くなり、輝度値が高い場合、高速露光の比率が高くなるので、ダイナミックレンジが広くて鮮明な画像を得ることができる。 Thus, when the luminance value of the pixels of the captured image in the normal exposure standard is low, the number ratio of the normal exposure, when the luminance value is high, since the ratio of the high-speed exposure is high, clear and wide dynamic range images can be obtained.

【0027】図9は、画像合成部2000で広ダイナミックレンジの画像を得ることができる一原理を示す説明図である。 FIG. 9 is an explanatory view showing one principle by the image combining unit 2000 can obtain a wide dynamic range image. ここでは、画像として、ノーマル露光画像2460と高速露光画像2470を用い、出力が8ビットの例で説明する。 Here, as an image, using a normal exposure image 2460 and a high-speed exposure image 2470, the output is described in the 8-bit example. ノーマル露光画像2460は、ノーマル露光で飽和するレンジIsn2465の輝度値が255である。 Normal exposure image 2460, the luminance value of the range Isn2465 saturated at normal exposure is 255. 高速露光画像2470 Fast exposure image 2470
に関し、今、高速露光画像レンジをn倍に拡大した場合、ノーマル飽和のn倍のレンジIsh2475となり、レンジ2475の輝度値も255である。 Respect, now, when a high-speed exposure image range was expanded to n times, n times range Ish2475 next to normal saturation, the luminance value of the range 2475 is 255. 高速露光画像は、ノーマル露光画像より暗い領域の感度は低下し、明るい領域の感度がアップする。 Fast-exposure image, the sensitivity of the darker than the normal exposure image area decreases, the sensitivity of the bright area is up.

【0028】ここで、ノーマル露光の比率係数α(0≦ [0028] In this case, the ratio coefficient of normal exposure α (0 ≦
α≦1)とし、ノーマル露光画像の画素(i,j)の輝度値をNnode、高速露光画像の画素(i,j)の輝度値をHnod And α ≦ 1), Hnod the luminance value of Nnode the luminance values ​​of pixels of the normal exposure image (i, j), the pixel of the high-speed exposure image (i, j)
eとすると、合成画像の画素(i,j)の輝度値Bnodeは数1で計算できる。 When e, luminance values ​​Bnode of pixels of the synthesized image (i, j) is can be calculated by the number 1.

【0029】 [0029]

【数1】 [Number 1]

【0030】数1から、合成画像飽和のレンジIsb2485 [0030] From Equation 1, the composite image saturation range Isb2485
は、ノーマルで飽和するレンジIsn2465と高速飽和のレンジIsh2475の間のレンジになり、広ダイナミックレンジの合成画像が得られることが分かる。 Becomes to the range between the range Isn2465 and fast saturation range Ish2475 saturated at normal, it can be seen that composite image of a wide dynamic range can be obtained.

【0031】図10は、差分画像作成部3000の一実施例を示すブロック図である。 [0031] FIG. 10 is a block diagram showing an embodiment of a differential image producing section 3000. ノイズ低減部3100は、画像合成部2000で合成された処理対象画像に対して、平滑化処理やメディアンフィルタ処理等を行ってノイズ等を除去した後、画素間差分部3200は、処理対象画像の画素毎にフレーム間差分を行い、差分画像を作成する。 Noise reduction unit 3100, to the synthesized target image by the image combining unit 2000, after removing noise or the like by performing a smoothing process or a median filtering process or the like, the inter-pixel difference unit 3200, the processing target image It performs inter-frame difference for each pixel, to create a difference image.

【0032】図11は、変化領域抽出部4000の一実施例を示すブロック図である。 [0032] FIG. 11 is a block diagram showing an embodiment of the changing area extraction section 4000. 輝度頻度分布算出部4100は、 Brightness frequency distribution calculation section 4100,
差分画像作成部3000でフレーム間の画素毎の差分を行って作成した差分画像の輝度頻度分布を算出する。 Performing difference for each pixel between frames calculates the luminance frequency distribution of the difference image created by the differential image producing section 3000. 2値化しきい値算出部4500は、輝度頻度分布算出部4100で算出した輝度頻度分布から、差分画像の2値化しきい値をモード法等の汎用的な手法で算出する。 Binary threshold value calculation unit 4500 from the brightness frequency distribution calculated by the luminance frequency distribution calculation section 4100 calculates a binarization threshold of the difference image in a generic approach mode method, or the like. 2値画像作成部46 Binary image generating unit 46
00は、2値化しきい値算出部4500で算出したしきい値で2値化処理して2値画像を作成する。 00 creates a binary image by binarization processing with the threshold calculated in binary threshold value calculation unit 4500. 微小面積除去部48 Small area removal unit 48
00は、検知対象に不適切な微小面積除外のフィルタリングや膨張・収縮等を行ってノイズを除外して変化領域の2値画像を作成する。 00, to create a binary image of the changing area to the exclusion of noise by performing an incorrect small area exclusion filtering and expansion and contraction in the detection target.

【0033】図12は、物体検知部5000の一実施例を示すブロック図である。 FIG. 12 is a block diagram showing an embodiment of the object detection unit 5000. 抽出領域統合部5100は、変化領域抽出部4000で作成した2値画像のラベル画像を作成して、ラベル間の距離が所定距離以内のラベルか否か判定し、所定距離以内でかつ所定距離以内のラベル群の外接矩形が所定サイズか否か判定して、所定サイズ以内のラベル群を統合する。 Extraction region integrating unit 5100 is to create a label image of the binary image created by the change region extraction unit 4000, the distance between the label is determined whether the label within a predetermined distance, and within a predetermined distance within the predetermined distance enclosing rectangle of the label group is determined whether or not a predetermined size, to integrate the labels within a predetermined size. 外接矩形算出部5300は、統合したラベル群の外接矩形領域を算出する。 Circumscribed rectangle calculation unit 5300 calculates a circumscribed rectangular area of ​​the integrated label group. 外接矩形領域類似度算出部5500は、直前フレームと現フレームとの画像間で、いずれか一方の画像の外接矩形領域をテンプレートパターンとして、もう一方の画像に対し外接矩形領域とほぼ同一位置(拡張サイズは±1画素以下)で正規化相関を行う。 Circumscribed rectangular area similarity calculation section 5500, between the images of the previous frame and the current frame, either as a template pattern circumscribed rectangular area of ​​the one image, substantially the same position (extended circumscribed rectangular area to the other image size performs normalization correlation ± 1 pixel or less). 正規化相関における類似度の算出は、数2の正規化相関処理による。 Similarity calculation in the normalized correlation, the number 2 by the normalized correlation processing.

【0034】 [0034]

【数2】 [Number 2]

【0035】即ち、登録テンプレートパターンと対象画像の明るさを正規化して明るさの差を求める(3F−8車番認識システムの濃淡パターンマッチング処理の応用、 [0035] That is, registration template patterns and to normalize the brightness of the target image obtaining the difference in brightness (3F-8 vehicle number applications shading pattern matching processing of the recognition system,
情報処理学会第49回全国大会、平成6年後期、)ものであり、数1の演算をマッチング領域全体にわたって実行し、類似度を算出する。 IPSJ 49th Annual Conference, 1994 late) are those, the operation of the equation 1 running across the matching area, the similarity is calculated. 物体判定部5700は、数1により算出した類似度が所定値以下の場合、移動物体と判定し、それ以外の場合、外乱として除外する。 Object determination unit 5700, if the similarity calculated by the number 1 is equal to or less than a predetermined value, it determines that the moving object, otherwise, be excluded as a disturbance.

【0036】図13、抽出領域統合部5100の抽出領域の統合を行う処理手順の一例を示すフロー図である。 [0036] FIG. 13 is a flow diagram illustrating an example of a process for performing integration of the extraction region of the extraction region integration section 5100. ステップs210は、2値画像のラベリングを行い、1〜L Step s210 performs labeling of a binary image, 1 to L
nまでのラベルをつけると、Lnが総ラベル数となる。 When the label of up to n, Ln is the total number of labels.
総ラベル数Lnを繰り返すため、ステップs220で処理対象のラベル番号を(i)を初期化する。 To repeat the total number of labels Ln, initializes the (i) a label number to be processed in step s220. 次に、ステップs230で、ラベル番号を一つ大きくして(iを+ Next, in step s230, by increasing one label number (i +
1)し、ステップs240で、全てのラベルが終了したか否かチェックする。 1), in step s240, all labels will be checked whether completed. 終了しない場合、i番目のラベルに対し、ステップs250以降の処理を行う。 If not finished, with respect to the i-th label, performing step s250 and subsequent steps.

【0037】まず、ステップs250で、i番目のラベルに対し、重心(中心)座標を算出する。 Firstly, at step s250, with respect to i-th label, it calculates the center of gravity (center) coordinates. ステップs2 Step s2
60でi番目のラベルとi+1番目〜Ln番目のラベル間で、重心(中心)のX方向とY方向の距離が許容範囲か否かチェックする。 Between the i-th label and the (i + 1) th ~Ln th label 60, the distance in the X direction and Y direction of the center of gravity (center) to check whether the allowable range. 許容範囲でない場合、ステップs If it is not within an allowable range, step s
230へ戻る。 Back to 230. 許容範囲以内の場合、ステップs270 If it is within the allowable range, step s270
で、許容範囲のラベルの外接矩形の大きさが所定の大きさの範囲以内か否かチェックする。 In the size of the enclosing rectangle of the label tolerance is checked whether within a range of a predetermined size. 外接矩形が許容範囲でない場合、新たな統合領域生成処理のためステップs If the circumscribed rectangle is not an allowable range, step s for new integration area generation process
230へ戻る。 Back to 230. 許容範囲以内の場合、ステップs280 If it is within the allowable range, step s280
で、許容範囲以内のラベル全てをi番目のラベルに加え、加えたラベルを抹消する。 In addition all labels within the allowable range to the i-th label, deletes the label added. ステップs290でi番目〜Ln番目のラベルについて、昇順にソートすると、 For the i-th ~Ln th label in step s290, when sorted in ascending order,
ステップs230へ戻り、新たなi番目から統合領域生成処理を行う。 It returns to step s230, and integrate the area generation processing from the new i-th. これにより、次々と距離と外接矩形の許容範囲以内のラベル群が統合されていく。 Thus, it is the labels are integrated within a tolerance of one after another distance and bounding rectangles.

【0038】ここで、X方向とY方向の距離の許容範囲は、例えば、物体が縦に長い人物の場合、X方向よりY [0038] Here, the allowable range of distance in the X direction and the Y direction is, for example, if the object is long person vertically, Y from the X direction
方向の距離や大きくしたり、または、物体が横に長い場合、Y方向よりX方向の距離を大きくしたりして設定する。 Or the direction of the distance or greater, or if the object is long sideways and set or increase the distance in the X-direction than the Y-direction. 外接矩形の許容範囲も同様であり、いずれにしても、どこまでの範囲を統合するかにより、検知対象物体に追随して適切に設定すればよい。 Tolerance of the circumscribed rectangles are similar, in any event, by either integrating the range extent, may be appropriately set to follow the object to be detected.

【0039】図14は、外接矩形算出部5300の外接矩形を算出する手順の一例を示す説明図である。 [0039] FIG. 14 is an explanatory diagram showing an example of a procedure for calculating a circumscribed rectangle circumscribed rectangle calculation unit 5300. 抽出領域統合部5100で統合されたラベル群は、同一ラベル番号を有するため、該ラベル群のみ抽出すると、ラベルa5310、 It integrated the labels in the extraction region integrating unit 5100, because it has the same label number, extracting only the label group, the label A5310,
ラベルb5320、ラベルc5330、ラベルd5340、ラベルe Label b5320, label c5330, label d5340, label e
5350、ラベルf5360、ラベルg5370が抽出される。 5350, label F5360, label g5370 are extracted. これらのラベルに対して、外接している矩形を外接矩形5400 For these labels, circumscribed rectangles circumscribe rectangle 5400
として算出する。 It is calculated as.

【0040】図15は、外接矩形領域類似度算出部5500 [0040] Figure 15 is a circumscribed rectangular area similarity calculation section 5500
での正規化相関処理による類似度により移動物体を判定する場合の一例を示す説明図である。 Is an explanatory view showing an example of a case of determining the moving object by the similarity according to the normalized correlation processing in the. 外接矩形領域5400 Circumscribed rectangular area 5400
は、フレーム間差分により抽出した変化領域であり、現フレーム画像における変化領域(移動物体領域)である。 Is the change area extracted by the difference between frames, a change area (moving object region) in the current frame image. 移動物体は、直前フレームでは、外接矩形5400内部には存在していない。 Moving objects in the previous frame does not exist inside the circumscribing rectangle 5400. 即ち、直前フレーム5510における外接矩形領域5400は、移動物体が存在しない背景シーンであり、現フレーム画像5530における外接矩形領域5400 In other words, the circumscribed rectangular area 5400 in the previous frame 5510, a background scene the moving object does not exist, the circumscribed rectangular area in the current frame image 5530 5400
は、移動物体を含むシーンである。 Is a scene including a moving object. 直前フレーム画像と現フレーム画像間では、外接矩形領域5400を比較して相関を行うと、背景が大部分隠れるため、類似度がかなり小さくなる。 Between the immediately preceding frame image and the current frame image, when the correlation by comparing the circumscribed rectangular area 5400, since the background is hidden largely similarity becomes considerably small. これにより、移動物体の存在の有無を正確に判定できる。 This allows accurately determine the presence or absence of a moving object.

【0041】図16は、外接矩形領域類似度算出部5500 [0041] FIG. 16 is a circumscribed rectangular area similarity calculation section 5500
の処理手順の一例を示すフロー図である。 Is a flow diagram illustrating an example of a processing procedure. ステップs3 Step s3
10は、現入力画像に対し、統合領域の外接矩形算出部で算出した外接矩形領域の濃淡画像をテンプレートパターンとして登録する。 10, compared current input image, and registers the grayscale image of the circumscribed rectangular area calculated in the circumscribed rectangle calculation unit combined area as the template pattern. ステップs320は、直前フレーム画像に対し、ステップs310とほぼ同一位置の外接矩形領域をパターンマッチング領域として設定する。 Step s320, compared immediately preceding frame image, sets a circumscribed rectangular area of ​​substantially the same position as the step s310 as a pattern matching area. ステップs330は、ステップs310で登録したパターンとの濃淡パターンマッチングを行い、類似度を算出する。 Step s330 performs shading pattern matching with the registered pattern at step s310, the similarity is calculated. 類似度の算出は数2による。 The computation of the degree of similarity is due to the number 2. ステップs340は、 Step s340 is,
算出した類似度が所定値以上か否か判定する。 Calculated similarity is determined whether more than a predetermined value. 所定値以上の場合、ステップs350は、背景と類似していないため、移動物体と判定する。 For more than a predetermined value, step s350 is because it is not similar to the background, it is determined that the moving object. 所定値未満の場合、ステップs360は、背景と類似しているため、外乱と判定する。 If less than the predetermined value, step s360, since similar to the background, it is determined that the disturbance. ステップs370は、生成した外接矩形領域が全て終了した否か判定し、終了していない場合、ステップs Step s370, when generated circumscribed rectangular area is determined whether or not been completed, not completed, the step s
310へ戻る。 Back to 310.

【0042】図17は、表示装置7000に検知結果を表示した一例を示す説明図である。 [0042] Figure 17 is an explanatory diagram showing an example of displaying the detection result on the display device 7000. 人物6200を検知すると、 Upon detection of a person 6200,
表示制御部6000が、格納した検知物体の外接矩形位置を用いて、表示装置7000に現入力画像に重ねて外接矩形枠 The display control unit 6000, using a circumscribing rectangle position of the stored detected object, circumscribing rectangular frame superimposed on the current input image to the display device 7000
6300を表示制御する。 To display control 6300. 図17において、表示制御部6000 17, the display control unit 6000
が、検知物体を表示装置7000に表示制御する場合、検知物体が明示できる表示方法ならば何でもよい。 But, when the display control detection object on the display device 7000, any good if the display method detected object can be specified. このように表示装置7000に表示することにより、監視者は、例えば、人物監視の場合に、人物及び検知情報を表示装置70 By displaying in this manner to the display device 7000, observer, for example, in the case of a person monitoring, display a person and detection information 70
00上でオンラインに把握できる。 00 on can be grasped in online. また、表示装置7000が遠隔地にあれば、テレビ電話等にRS−232C等の標準的な通信手段で人物を検知したことを報知して、遠方の表示装置に表示してもよい。 Further, if the display device 7000 is in a remote location, to notify the detection of the person in a standard means of communication such as RS-232C to the television telephone or the like, it may be displayed on the remote display device.

【0043】 [0043]

【発明の効果】本発明によれば、まず、照明装置付きIT According to the present invention, firstly, with lighting system IT
Vカメラで監視シーンを撮影する場合に、iフィールドの入力タイミングでは照明を強くしたノーマル露光状態を設定して第1画像を入力、I+1フィールドの入力タイミングでは照明を弱くないし消灯した高速露光状態に設定して第2画像を入力し、両画像を画素毎の輝度値に応じた重み係数で加算して画像合成を作成するので、広ダイナミックレンジの監視画像を作成でき、夜間などの暗いシーンの監視にヘッドライト等の強いノイズ光が当るような場合にも、高感度の監視が可能になる。 When photographing a monitoring scene V camera, i type a first image by setting the normal exposure state of strong illumination in the input timing of the field, a high speed exposure state of off to not weak illumination at the input timing of the I + 1 field set inputs the second image, so creating an addition to the image synthesizing both images by the weighting coefficient corresponding to the luminance value of each pixel, to create a monitoring image of a wide dynamic range, a dark scene such as night even if such a strong noise light of such headlight hits the monitoring, it is possible to monitor with high sensitivity. また、 Also,
ノーマル露光画像の取り込み時に照明を行うので、消費電流の低減が図れる上に、照明装置が長寿命化できる効果がある。 Since the illumination during the normal exposure image capture, on the reduction of the current consumption can be reduced, the effect of the lighting device can be long lifetime.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明における画像監視装置の一実施例を示すブロック図。 Block diagram showing an embodiment of an image monitoring apparatus in the invention; FIG.

【図2】本発明の作用を示す説明図。 Explanatory view showing an operation of the present invention; FIG.

【図3】画像入力制御部の一実施例を示すブロック図。 3 is a block diagram showing an embodiment of an image input control unit.

【図4】画像入力部の一実施例を示すブロック図。 4 is a block diagram showing an embodiment of an image input unit.

【図5】画像の取り込みと照明のタイミングを示すタイムチャート。 FIG. 5 is a time chart showing the timing of the acquisition and the lighting of the image.

【図6】画像合成部の一実施例を示すブロック図。 FIG. 6 is a block diagram showing an embodiment of an image combining unit.

【図7】画像合成部の処理手順の一例を示すフローチャート。 7 is a flowchart showing an example of a processing procedure of the image combining unit.

【図8】画像合成部の合成比率の一例を示す説明図。 FIG. 8 is an explanatory diagram showing an example of a combination ratio of the image combining unit.

【図9】画像合成によるダイナミックレンジの拡大の原理を示す説明図。 Figure 9 is an explanatory diagram showing the principle of expanding the dynamic range by image synthesis.

【図10】差分画像作成部の一実施例を示すブロック図。 10 is a block diagram showing an embodiment of a differential image producing section.

【図11】変化領域抽出部の一実施例を示すブロック図。 11 is a block diagram showing an embodiment of the changing area extraction section.

【図12】物体検知部の一実施例を示すブロック図。 12 is a block diagram showing an embodiment of the object detection unit.

【図13】物体検知部の抽出領域の統合を行う手順の一例を示すフローチャート。 Figure 13 is a flowchart showing an example of a procedure for the integration of the extraction area of ​​the object detection unit.

【図14】外接矩形算出部の外接矩形を算出する一手順を示す説明図。 Figure 14 is an explanatory view showing one procedure of calculating a circumscribed rectangle circumscribed rectangle calculation unit.

【図15】正規化相関処理による移動物体判定の一例を示す説明図。 Figure 15 is an explanatory diagram showing an example of a moving object determination by normalized correlation processing.

【図16】外接矩形領域類似度算出部の処理手順の一例を示すフローチャート。 FIG. 16 is a flowchart showing an example of a circumscribed rectangular area similarity calculation section of the processing procedure.

【図17】表示装置に表示した検知結果の一例を示す説明図。 Figure 17 is an explanatory diagram showing an example of a detection result displayed on the display device.

【符号の説明】 DESCRIPTION OF SYMBOLS

100…ITVカメラ、200…照明装置、500…画像入力制御部、510…画像入力タイミング設定部、520…露光状態設定部、530…照明強度設定部、1000…画像入力部、1010 100 ... ITV camera, 200 ... lighting device, 500 ... image input control unit, 510 ... image input timing setting unit, 520 ... exposure state setting unit, 530 ... illumination intensity setting unit, 1000 ... image input unit, 1010
…A/D変換部、1020…ノーマル露光画像入力部、1030 ... A / D conversion unit, 1020 ... normal exposure image input unit, 1030
…高速露光画像入力部、2000…画像合成部、3000…差分画像作成部、4000…変化領域抽出部、5000…物体検知部、6000…表示制御部、7000…表示装置。 ... Fast exposure image input unit, 2000 ... image synthesis unit, 3000 ... differential image producing section, 4000 ... change region extraction unit, 5000 ... object detection unit, 6000 ... display controller, 7000 ... display device.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl. 7識別記号 FI テーマコート゛(参考) G03B 15/05 G03B 15/05 5C076 G06T 1/00 430 G06T 1/00 430G 5C084 3/00 300 3/00 300 5L096 7/20 7/20 A G08B 13/196 G08B 13/196 H04N 1/387 H04N 1/387 5/225 5/225 C (72)発明者 小林 芳樹 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 大田和 久雄 茨城県ひたちなか市大字稲田1410番地 株 式会社日立製作所デジタルメディア製品事 業部内 (72)発明者 崎村 茂寿 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 佐久間 喜郎 東京都三鷹市下 ────────────────────────────────────────────────── ─── of the front page continued (51) Int.Cl. 7 identification mark FI theme Court Bu (reference) G03B 15/05 G03B 15/05 5C076 G06T 1/00 430 G06T 1/00 430G 5C084 3/00 300 3/00 300 5L096 7/20 7/20 A G08B 13/196 G08B 13/196 H04N 1/387 H04N 1/387 5/225 5/225 C (72) inventor Yoshiki Kobayashi Hitachi City, Ibaraki Prefecture Omika-cho, seven-chome 1 No. Co., Ltd. Hitachi, Ltd. Hitachi the laboratory (72) inventor Otawa Hisao Hitachinaka City, Ibaraki Prefecture, Oaza Inada 1410 address Co., Ltd. Hitachi, digital media product business unit (72) inventor Sakimura ShigeruHisashi Hitachi City, Ibaraki Prefecture Omika-cho, seven chome No. 1 Co., Ltd. Hitachi, Ltd. Hitachi the laboratory (72) inventor Yoshiro Sakuma Tokyo under Mitaka City 雀六丁目11番23号 セコ ム株式会社内 Fターム(参考) 2H053 AA01 AB03 AD00 AD21 BA71 BA91 5B047 AA07 AB02 BB06 CA19 5B057 AA19 BA02 CA08 CA13 CB08 CB12 CC01 CE08 CH08 DA02 DA16 DB03 DB09 DC32 5C022 AB15 AC69 5C054 AA01 CA04 CB03 CC03 CH02 EA01 FE12 HA19 5C076 AA12 AA40 BA06 5C084 AA02 AA07 AA08 AA13 BB27 BB32 CC16 CC19 DD12 DD66 GG20 GG39 GG42 GG43 GG44 GG52 GG56 GG57 GG61 GG68 GG73 GG78 5L096 AA09 BA02 CA02 CA17 EA39 GA08 Sparrow 6-chome 11th No. 23 SECOM Co., Ltd. in the F-term (reference) 2H053 AA01 AB03 AD00 AD21 BA71 BA91 5B047 AA07 AB02 BB06 CA19 5B057 AA19 BA02 CA08 CA13 CB08 CB12 CC01 CE08 CH08 DA02 DA16 DB03 DB09 DC32 5C022 AB15 AC69 5C054 AA01 CA04 CB03 CC03 CH02 EA01 FE12 HA19 5C076 AA12 AA40 BA06 5C084 AA02 AA07 AA08 AA13 BB27 BB32 CC16 CC19 DD12 DD66 GG20 GG39 GG42 GG43 GG44 GG52 GG56 GG57 GG61 GG68 GG73 GG78 5L096 AA09 BA02 CA02 CA17 EA39 GA08

Claims (5)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 監視領域を撮影した入力画像間の差分画像を画像処理して監視領域に入る物体を監視する方法において、 周期的な画像入力時に、まず照明を強くして第1の画像を取り込み、次のフィールドで照明を弱くないしは消灯して第2の画像を取り込み、前記第1の画像と前記第2 1. A method of monitoring an object entering the surveillance area the difference image to the image processing between the input image obtained by photographing a monitoring area, during periodic image input, first, the first image and strong illumination uptake, the to not weak illumination in the next field captures the second image off, the said first image second
    の画像に基づき合成画像を作成し、この合成画像を処理対象画像とするフレーム間差分により前記差分画像を生成することを特徴とする画像監視方法。 Image monitoring method characterized by the creating a composite image based on the image to generate the difference image by the inter-frame difference to the composite image processing target image.
  2. 【請求項2】 請求項1において、 前記第1の画像の照明は夜間など暗所での物体が認識可能な照度とし、前記第2の画像の照明は前記第1の画像では飽和領域となる部分が認識可能な照度または照明オフとすることを特徴とする画像監視方法。 2. A method according to claim 1, wherein the illumination of the first image is an object in the dark such as at night and recognizable illuminance, the illumination of the second image is a saturation region in the first image image monitoring method characterized by element is referred to as recognizable illuminance or lighting off.
  3. 【請求項3】 請求項1または2において、 前記合成画像は、前記第1の画像の画素の輝度値を基準にして、第1の画像の輝度値が非飽和の領域は第1の画像の輝度値の重みを大きくし、一方、第1の画像の輝度値が飽和の領域は第2の画像の輝度値の重みを大きくした重み係数で画素ごとの輝度値を加算して作成することを特徴とする画像監視方法。 3. An apparatus according to claim 1 or 2, wherein the composite image, based on the luminance values ​​of the pixels of the first image, the area of ​​the luminance value non-saturation of the first image of the first image increasing the weight of luminance values, whereas, the area of ​​the luminance value is saturated in the first image to be created by adding the luminance value of each pixel in the larger weighting factors to weight the brightness values ​​of the second image image monitoring method comprising.
  4. 【請求項4】 監視領域の画像を取り込む照明装置付き撮像手段を備えて、取り込み画像を処理して監視領域に入る物体を監視する装置において、 入力画像のフィールドに応じて前記照明装置の照明状態を強くまたは弱く制御する画像入力制御手段と、強い照明状態による第1の画像と弱い照明状態による第2の画像を周期的に取り込む画像入力手段と、取り込まれた第1の画像と第2の画像を合成して処理対象画像を作成する画像合成手段と、フレーム間の処理対象画像を基に画像処理して前記物体を検出する移動物体検出手段を具備することを特徴とする画像監視装置。 4. A an illumination device with an imaging means for capturing an image of a monitored area, the illumination state of the apparatus for monitoring an object entering the surveillance area by processing the captured image, the lighting device according to the field of the input image an image input control means for strongly or weakly control, strong first image and an image input means for capturing a second image periodically by weak lighting conditions by illuminating state, first captured image and the second image monitoring apparatus characterized by comprising an image combining means for generating a combined and processed images, pictures, a moving object detection means for detecting the object by image processing based on the processing target image between frames.
  5. 【請求項5】 請求項4において、 画像入力制御手段は、前記照明状態とともに前記撮像手段の露光状態を制御することを特徴とする画像監視装置。 5. The method of claim 4, the image input control means, the image monitoring apparatus and controls the exposure condition of the imaging unit together with the illumination condition.
JP2000154399A 2000-05-22 2000-05-22 Image supervisory method and device Pending JP2001333420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000154399A JP2001333420A (en) 2000-05-22 2000-05-22 Image supervisory method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000154399A JP2001333420A (en) 2000-05-22 2000-05-22 Image supervisory method and device

Publications (1)

Publication Number Publication Date
JP2001333420A true true JP2001333420A (en) 2001-11-30

Family

ID=18659502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000154399A Pending JP2001333420A (en) 2000-05-22 2000-05-22 Image supervisory method and device

Country Status (1)

Country Link
JP (1) JP2001333420A (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595084B1 (en) 2003-08-20 2006-06-30 엘지전자 주식회사 Method for managing digital slow shutter mode in monitoring camera
JP2007013777A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Imaging apparatus
JP2007311896A (en) * 2006-05-16 2007-11-29 Fujifilm Corp Imaging apparatus and imaging control program
US7433494B2 (en) 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP2009071789A (en) * 2007-09-18 2009-04-02 Denso Corp Vehicle periphery monitoring system
JP2010026858A (en) * 2008-07-22 2010-02-04 Panasonic Corp Authentication imaging apparatus
WO2010135575A2 (en) * 2009-05-20 2010-11-25 Express Imaging Systems, Llc Long-range motion detection for illumination control
JP2011029974A (en) * 2009-07-27 2011-02-10 Aisin Seiki Co Ltd Display image correcting device
JP2011188277A (en) * 2010-03-09 2011-09-22 Sony Corp Image processor, image processing method and program
US8118456B2 (en) 2008-05-08 2012-02-21 Express Imaging Systems, Llc Low-profile pathway illumination system
US8508137B2 (en) 2009-05-20 2013-08-13 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US8610358B2 (en) 2011-08-17 2013-12-17 Express Imaging Systems, Llc Electrostatic discharge protection for luminaire
US8629621B2 (en) 2011-08-24 2014-01-14 Express Imaging Systems, Llc Resonant network for reduction of flicker perception in solid state lighting systems
US8878440B2 (en) 2012-08-28 2014-11-04 Express Imaging Systems, Llc Luminaire with atmospheric electrical activity detection and visual alert capabilities
US8896215B2 (en) 2012-09-05 2014-11-25 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US8901825B2 (en) 2011-04-12 2014-12-02 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
US8922124B2 (en) 2011-11-18 2014-12-30 Express Imaging Systems, Llc Adjustable output solid-state lamp with security features
US8926139B2 (en) 2009-05-01 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement with passive cooling
US8926138B2 (en) 2008-05-13 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement
US9125261B2 (en) 2008-11-17 2015-09-01 Express Imaging Systems, Llc Electronic control to regulate power for solid-state lighting and methods thereof
US9131552B2 (en) 2012-07-25 2015-09-08 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
KR20150120547A (en) * 2014-04-17 2015-10-28 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and Apparatus for Event Detection using Frame Grouping
US9185777B2 (en) 2014-01-30 2015-11-10 Express Imaging Systems, Llc Ambient light control in solid state lamps and luminaires
US9204523B2 (en) 2012-05-02 2015-12-01 Express Imaging Systems, Llc Remotely adjustable solid-state lamp
CN105120191A (en) * 2015-07-31 2015-12-02 小米科技有限责任公司 Video recording method and device
US9210759B2 (en) 2012-11-19 2015-12-08 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
US9210751B2 (en) 2012-05-01 2015-12-08 Express Imaging Systems, Llc Solid state lighting, drive circuit and method of driving same
US9241401B2 (en) 2010-06-22 2016-01-19 Express Imaging Systems, Llc Solid state lighting device and method employing heat exchanger thermally coupled circuit board
US9288873B2 (en) 2013-02-13 2016-03-15 Express Imaging Systems, Llc Systems, methods, and apparatuses for using a high current switching device as a logic level sensor
US9301365B2 (en) 2012-11-07 2016-03-29 Express Imaging Systems, Llc Luminaire with switch-mode converter power monitoring
US9360198B2 (en) 2011-12-06 2016-06-07 Express Imaging Systems, Llc Adjustable output solid-state lighting device
US9414449B2 (en) 2013-11-18 2016-08-09 Express Imaging Systems, Llc High efficiency power controller for luminaire
US9445485B2 (en) 2014-10-24 2016-09-13 Express Imaging Systems, Llc Detection and correction of faulty photo controls in outdoor luminaires
US9462662B1 (en) 2015-03-24 2016-10-04 Express Imaging Systems, Llc Low power photocontrol for luminaire
US9466443B2 (en) 2013-07-24 2016-10-11 Express Imaging Systems, Llc Photocontrol for luminaire consumes very low power
US9497393B2 (en) 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
US9538612B1 (en) 2015-09-03 2017-01-03 Express Imaging Systems, Llc Low power photocontrol for luminaire
US9572230B2 (en) 2014-09-30 2017-02-14 Express Imaging Systems, Llc Centralized control of area lighting hours of illumination
US9924582B2 (en) 2016-04-26 2018-03-20 Express Imaging Systems, Llc Luminaire dimming module uses 3 contact NEMA photocontrol socket
US9985429B2 (en) 2016-09-21 2018-05-29 Express Imaging Systems, Llc Inrush current limiter circuit

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433494B2 (en) 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
KR100595084B1 (en) 2003-08-20 2006-06-30 엘지전자 주식회사 Method for managing digital slow shutter mode in monitoring camera
JP2007013777A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Imaging apparatus
JP2007311896A (en) * 2006-05-16 2007-11-29 Fujifilm Corp Imaging apparatus and imaging control program
JP4716182B2 (en) * 2006-05-16 2011-07-06 富士フイルム株式会社 Imaging apparatus and an imaging control program
JP2009071789A (en) * 2007-09-18 2009-04-02 Denso Corp Vehicle periphery monitoring system
US8118456B2 (en) 2008-05-08 2012-02-21 Express Imaging Systems, Llc Low-profile pathway illumination system
US8926138B2 (en) 2008-05-13 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement
JP2010026858A (en) * 2008-07-22 2010-02-04 Panasonic Corp Authentication imaging apparatus
US9125261B2 (en) 2008-11-17 2015-09-01 Express Imaging Systems, Llc Electronic control to regulate power for solid-state lighting and methods thereof
US9967933B2 (en) 2008-11-17 2018-05-08 Express Imaging Systems, Llc Electronic control to regulate power for solid-state lighting and methods thereof
US8926139B2 (en) 2009-05-01 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement with passive cooling
US8508137B2 (en) 2009-05-20 2013-08-13 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US8541950B2 (en) 2009-05-20 2013-09-24 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
WO2010135575A2 (en) * 2009-05-20 2010-11-25 Express Imaging Systems, Llc Long-range motion detection for illumination control
WO2010135575A3 (en) * 2009-05-20 2011-02-03 Express Imaging Systems, Llc Long-range motion detection for illumination control
US8810138B2 (en) 2009-05-20 2014-08-19 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US8987992B2 (en) 2009-05-20 2015-03-24 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US8872964B2 (en) 2009-05-20 2014-10-28 Express Imaging Systems, Llc Long-range motion detection for illumination control
JP2011029974A (en) * 2009-07-27 2011-02-10 Aisin Seiki Co Ltd Display image correcting device
JP2011188277A (en) * 2010-03-09 2011-09-22 Sony Corp Image processor, image processing method and program
US9241401B2 (en) 2010-06-22 2016-01-19 Express Imaging Systems, Llc Solid state lighting device and method employing heat exchanger thermally coupled circuit board
US8901825B2 (en) 2011-04-12 2014-12-02 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
US9713228B2 (en) 2011-04-12 2017-07-18 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
US8610358B2 (en) 2011-08-17 2013-12-17 Express Imaging Systems, Llc Electrostatic discharge protection for luminaire
US8629621B2 (en) 2011-08-24 2014-01-14 Express Imaging Systems, Llc Resonant network for reduction of flicker perception in solid state lighting systems
US8922124B2 (en) 2011-11-18 2014-12-30 Express Imaging Systems, Llc Adjustable output solid-state lamp with security features
US9360198B2 (en) 2011-12-06 2016-06-07 Express Imaging Systems, Llc Adjustable output solid-state lighting device
US9497393B2 (en) 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
US9210751B2 (en) 2012-05-01 2015-12-08 Express Imaging Systems, Llc Solid state lighting, drive circuit and method of driving same
US9204523B2 (en) 2012-05-02 2015-12-01 Express Imaging Systems, Llc Remotely adjustable solid-state lamp
US9131552B2 (en) 2012-07-25 2015-09-08 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
US9801248B2 (en) 2012-07-25 2017-10-24 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
US8878440B2 (en) 2012-08-28 2014-11-04 Express Imaging Systems, Llc Luminaire with atmospheric electrical activity detection and visual alert capabilities
US9693433B2 (en) 2012-09-05 2017-06-27 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US8896215B2 (en) 2012-09-05 2014-11-25 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US9301365B2 (en) 2012-11-07 2016-03-29 Express Imaging Systems, Llc Luminaire with switch-mode converter power monitoring
US9433062B2 (en) 2012-11-19 2016-08-30 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
US9210759B2 (en) 2012-11-19 2015-12-08 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
US9288873B2 (en) 2013-02-13 2016-03-15 Express Imaging Systems, Llc Systems, methods, and apparatuses for using a high current switching device as a logic level sensor
US9466443B2 (en) 2013-07-24 2016-10-11 Express Imaging Systems, Llc Photocontrol for luminaire consumes very low power
US9414449B2 (en) 2013-11-18 2016-08-09 Express Imaging Systems, Llc High efficiency power controller for luminaire
US9781797B2 (en) 2013-11-18 2017-10-03 Express Imaging Systems, Llc High efficiency power controller for luminaire
US9185777B2 (en) 2014-01-30 2015-11-10 Express Imaging Systems, Llc Ambient light control in solid state lamps and luminaires
KR101579000B1 (en) 2014-04-17 2015-12-22 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and Apparatus for Event Detection using Frame Grouping
KR20150120547A (en) * 2014-04-17 2015-10-28 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and Apparatus for Event Detection using Frame Grouping
US9572230B2 (en) 2014-09-30 2017-02-14 Express Imaging Systems, Llc Centralized control of area lighting hours of illumination
US9445485B2 (en) 2014-10-24 2016-09-13 Express Imaging Systems, Llc Detection and correction of faulty photo controls in outdoor luminaires
US9462662B1 (en) 2015-03-24 2016-10-04 Express Imaging Systems, Llc Low power photocontrol for luminaire
KR101743194B1 (en) * 2015-07-31 2017-06-02 시아오미 아이엔씨. Video recording method and device, program and recording medium
CN105120191A (en) * 2015-07-31 2015-12-02 小米科技有限责任公司 Video recording method and device
US9538612B1 (en) 2015-09-03 2017-01-03 Express Imaging Systems, Llc Low power photocontrol for luminaire
US9924582B2 (en) 2016-04-26 2018-03-20 Express Imaging Systems, Llc Luminaire dimming module uses 3 contact NEMA photocontrol socket
US9985429B2 (en) 2016-09-21 2018-05-29 Express Imaging Systems, Llc Inrush current limiter circuit

Similar Documents

Publication Publication Date Title
US7623733B2 (en) Image combination device, image combination method, image combination program, and recording medium for combining images having at least partially same background
US8260008B2 (en) Methods for performing biometric recognition of a human eye and corroboration of same
US6504942B1 (en) Method of and apparatus for detecting a face-like region and observer tracking display
US20120133797A1 (en) Imaging apparatus, imaging method and computer program
US20070160289A1 (en) Video segmentation using statistical pixel modeling
US8457401B2 (en) Video segmentation using statistical pixel modeling
Faro et al. Adaptive background modeling integrated with luminosity sensors and occlusion processing for reliable vehicle detection
US5926280A (en) Fire detection system utilizing relationship of correspondence with regard to image overlap
KR20070005553A (en) Imaging system
CN101739686A (en) Moving object tracking method and system thereof
JPH07302328A (en) Method for extracting area of moving object based upon background difference
CN101382997A (en) Vehicle detecting and tracking method and device at night
US20110115917A1 (en) Surveillance system and surveilling method
JP2004219277A (en) Method and system, program, and recording medium for detection of human body
JP2005092262A (en) Face detecting device
JP2005309746A (en) Method and program for tracking moving body, recording medium therefor, and moving body tracking device
JP2002312761A (en) Image processing method for cell image
JP2002352340A (en) Image monitoring device
CN101188743A (en) An intelligent digital system based on video and its processing method
US20090251534A1 (en) Vehicle-mounted image processing device, and method for controlling vehicle-mounted image processing device
JP2009201064A (en) Method and apparatus for specifying related region, and method and apparatus for recognizing image
JP2003219399A (en) Supervisory apparatus for identifying supervisory object
JPH1141589A (en) Method and system for supervising mobile object
US20150086077A1 (en) System and method of alerting a driver that visual perception of pedestrian may be difficult
JP2007142527A (en) Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070411

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080318