JP3773236B2 - Surveillance method and apparatus using television camera - Google Patents

Surveillance method and apparatus using television camera Download PDF

Info

Publication number
JP3773236B2
JP3773236B2 JP30238699A JP30238699A JP3773236B2 JP 3773236 B2 JP3773236 B2 JP 3773236B2 JP 30238699 A JP30238699 A JP 30238699A JP 30238699 A JP30238699 A JP 30238699A JP 3773236 B2 JP3773236 B2 JP 3773236B2
Authority
JP
Japan
Prior art keywords
image
memory
monitor
television camera
copied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30238699A
Other languages
Japanese (ja)
Other versions
JP2001126156A (en
Inventor
幸 藤井
俊道 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP30238699A priority Critical patent/JP3773236B2/en
Publication of JP2001126156A publication Critical patent/JP2001126156A/en
Application granted granted Critical
Publication of JP3773236B2 publication Critical patent/JP3773236B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、テレビカメラを用いた監視装置に関し、例えば、侵入者あるいは侵入物を監視する監視用CCTV装置において、監視領域内の侵入者あるいは侵入物を認識するための侵入物認識画像処理における、警報発生時の画像表示の改良に関するものである。
【0002】
【従来の技術】
従来のテレビカメラを用いた監視装置のハードウェア構成について、図5のブロック図をを用いて説明する。公知例のハードウェアは、テレビジョンカメラ101、画像処理装置102、警報表示装置116、VTR117、ビデオモニタ118で構成される。
画像処理装置102は、映像信号のA/D変換を行う画像入力I/F103、画像間の演算及び画像の格納を行う画像メモリ104、画像解析を行うCPU109、ワークメモリ111、プログラムメモリ112、画像の輝度信号のD/A変換を行い、輝度信号を映像信号に変換する画像出力I/F114、データバス115、警報出力を行う出力I/F110で構成される。
画像メモリ104は、画像入力I/F103で得られた輝度信号の格納を行う入力メモリ105、画像間の演算に用いる処理用メモリ106、ビデオモニタに出力する画像を格納するモニタ出力メモリ108で構成される。
画像処理装置102では、画像入力I/F103を用いてテレビジョンカメラ101の映像信号のA/D変換を行い、映像信号を0〜255の256階調の輝度信号に変換する。画像入力I/F103で得られた輝度信号は、画像メモリ104の入力メモリ105に格納される。CPU109は、プログラムメモリ112に格納されているプログラムに従って、ワークメモリ111、画像メモリ104を用いて画像解析を行う。画像出力I/F114は、画像メモリ104内のモニタ出力メモリ108に格納されている画像の輝度信号のD/A変換を行い、輝度信号を映像信号に変換するものである。画像処理I/F114により得られた映像信号はVTR117に記録し、ビデオモニタ118に表示される。データバス115はデータの転送に使用するものである。画像解析で事象が検出された場合には、出力I/F110を用いて警報表示モニタ116に警報を出力する。
【0003】
次に物体認識の流れについて、図3、図5、図6、図7、図9を用いて説明する。図3は物体認識の原理説明のための画像パターン説明図、図6は物体認識の動作フローチャート、図7はタイミングチャート、図9はモニタ画面に写された映像を示す。まず、図3、図6において、背景画像作成ステップ201で物体の存在しない背景画像の作成を行い、背景画像301(図3参照)を得る。入力画像取込みステップ202は、テレビジョンカメラ101(図5参照)から入力画像302を得る。差分処理ステップ203は、背景作成ステップ201又は背景更新処理ステップ212で作成した背景画像301と、入力画像取込みステップ202で得た入力画像302との画素毎の差分を算出し、差分画像303を得る。二値化処理ステップ204は、差分ステップ203で得られた差分画像303をしきい値処理し、差分値が所定のしきい値以下の画素を輝度値0、しきい値以上の画素を輝度値255(1画素の輝度値は0から255の256階調で表現)とした二値画像304を得る。ノイズ除去ステップ205では、二値化処理ステップ204で得られた二値画像304に含まれたノイズ領域305を除去し、ノイズ除去画像306を得る。ここでノイズ領域305とは、数画素で構成されるものを示す。ラベリングステップ206では、ノイズ除去ステップ205で得られたノイズ除去画像306を用いて物体の番号付けを行い、ラベリング画像308を得る。ラベリングステップ206により、ノイズ除去画像306で得られた物体領域307に対してN1という番号が付けられる。物体認識処理ステップ207では、ラベリングステップ206で得られたラベリング画像308を用いて物体の幅X、高さYを算出し、算出した物体の大きさと認識する物体の大きさを比較することにより、認識したい物体のみ抽出する。物体の有無判断ステップ208では、物体認識処理ステップ207の判断結果を用いて認識物体の有無を判断する。物体ありと判断された場合には、警報処理ステップ211で警報出力を行う。画像表示2ステップ601では、モニタ出力メモリ108(図5参照)に入力メモリ105の画像をコピーし、バス115を経由して画像出力I/F114、VTR117を介しビデオモニタ118に画像の表示を行う。背景更新処理ステップ212では、背景画像301の更新を行う。
【0004】
次にモニタ出力メモリの更新タイミングについて、図5、図7を用いて説明する。
図7は、処理タイミング401、入力画像取込みタイミング402、モニタ出力メモリタイミング404、画像表示タイミング405の関係を表したものである。尚、横軸は時間Tとし、物体認識処理は処理時間Tp周期で行っているものとする。図9はテレビジョンカメラ101からの取り込み画像491とビデオモニタ118への出力表示画像492を示す。
まず、取込みタイミング402Aで入力画像Aを入力メモリ105へ格納し、認識処理を行う。入力画像Aの認識結果は、モニタ出力メモリ更新タイミング404Aでモニタ出力画像Aをモニタ出力メモリ108へ格納し、表示タイミング405AでVTR117及びビデオモニタ118に出力する。同様に、取込みタイミング402B、402C、402D、402E、402F、402G、402Hで入力メモリ105に格納した入力画像B、C、D、E、F、G、Hの認識結果を、VTR117及びビデオモニタ118に出力する。この時、VTR117及びビデオモニタ118に出力される画像492は、順にモニタ出力画像B、C、D、E、F、G、Hとなる。
このため、表示タイミング405Aから405Dまではモニタ出力画像Aからモニタ出力画像Dが表示されるため、警報時画像の確認が行える。しかしモニタ出力メモリ更新タイミング404Eでは、モニタ出力メモリ108にモニタ出力画像Eに示すような物体が行き過ぎた画像が格納されるため、表示タイミング405Eでは物体が行き過ぎた後の画像Eが表示され、警報時画像の確認が行えなくなる。
【0005】
【発明が解決しようとする課題】
上記従来の技術では、ビデオモニタ上に表示される画像は、カメラでとらえた画像をほとんど時間遅れなく処理した画像として表示するため、カメラ視野から侵入者がはずれるとほぼ同時にビデオモニタには表示されなくなる。すなわち、監視者がビデオモニタから離れた場合、ビデオモニタでの警報時画像の確認ができない恐れがある。このとき警報発生時の画像を確認するためには、VTRを巻き戻し再生を行う必要があり、大変に効率の悪い作業であった。
【0006】
【課題を解決するための手段】
本発明では、このような課題を解決するため、物体侵入後の一定期間は侵入画像を表示し続けるようにし、又警報発生時の画像を証拠画像としてハードディスク等に記録し、発生時刻を基準にランダム検索し容易にモニタ表示できるようにしたものである。
【0007】
【発明の実施の形態】
本発明の実施例における侵入物認識装置のハードウェア構成の一例を図1に示す。これは、従来のハードウェア構成に、画像メモリ1041の結果メモリ107、ハードディスク113、タイマ119を付け加えたものである。1021は本実施例における処理装置である。
次に物体認識の流れについて、図1、図2、図3を用いて説明する。図2は本実施例の動作フローチャートである。図3は各処理ステップにおける画像の例を示す。
まず、背景画像作成ステップ201で物体の存在しない背景画像の作成を行い、背景画像301を得る。入力画像取込みステップ202は、テレビジョンカメラ101から入力画像302を得る。差分処理ステップ203は、背景画像作成ステップ201又は背景更新処理ステップ212で作成した背景画像301と、入力画像取込みステップ202で得た入力画像302との画素毎の差分を算出し、差分画像303を得る。二値化処理ステップ204は、差分ステップ203で得られた差分画像303をしきい値処理し、差分値が所定のしきい値以下の画素を輝度値0、しきい値以上の画素を輝度値255(1画素の輝度値は0から255の256階調で表現)とした二値画像304を得る。ノイズ除去ステップ205では、二値化処理ステップ204で得られた二値画像304に含まれたノイズ領域305を除去し、ノイズ除去画像306を得る。ここでノイズ領域305とは、数画素で構成されるものである。ラベリングス処理テップ206では、ノイズ除去ステップ205で得られたノイズ除去画像306を用いて物体の番号付けを行い、ラベリング画像308を得る。ラベリングステップ206により、ノイズ除去画像306で得られた物体領域307に対してN1という番号が付けられる。物体認識処理ステップ207では、ラベリングステップ206で得られたラベリング画像308を用いて物体の幅X、高さYを算出し、算出した物体の大きさと認識する物体の大きさを比較することにより、認識したい物体のみ抽出する。物体の有無判断ステップ208では、物体認識処理ステップ207の判断結果を用いて認識物体の有無を判断する。物体の有無判断ステップ208で物体ありと判断された場合、結果画面作成ステップ209、画像表示1ステップ210、警報処理ステップ211を行う。結果画面作成ステップ209では入力メモリ105の画像を結果メモリ107にコピーし、物体の上にマーカーMを描画する(図8参照、詳細は追って説明する)。画像表示ステップ210では、結果メモリ107の画像をモニタ出力メモリ108にコピーする。警報処理ステップ211では警報出力を行う。警報は赤色灯などの警報表示モニタ116(図1参照)により表示される。物体の有無判断ステップ208で物体なしと判断された場合には、保持の要・不要判定ステップ213で画像保持の要・不要の判定を行う。保持の要・不要は、タイマ119を使用して算出し、下記式1が成立した場合には保持要と判定し、成立しない場合には不要と判断する。尚、保持時間は予め決定しておく必要がある。本実施例では、保持時間を60秒としている。
式1: (現時刻)−(最後に発報があった時刻)<保持時間
保持の要・不要判定ステップ213で保持要と判断された場合には、画像表示1ステップ210で結果メモリ107の画像をモニタ出力メモリ108にコピーし、画像表示を行う。保持要時には結果メモリ107の画像は更新されないため、結果メモリ107には最後の物体認識時の画像が格納されている。保持不要と判断された場合には、結果画面作成ステップ209、画像表示1ステップ210を行う。背景画像更新ステップ212では、背景画像301の更新を行う。
【0008】
次にモニタ出力メモリの更新タイミングについて、図1、図4、図8を用いて説明する。
図4は、処理タイミング401、入力画像取込みタイミング402、結果メモリタイミング403、モニタ出力メモリタイミング404、画像表示タイミング405の関係を表したものである。尚、横軸は時間Tとし、物体認識処理は処理時間TP周期で行っているものとする。図8は入力画像491、ハードディスクに記録される画像493およびモニタへの出力画像494を示す。
入力画像取込みタイミング402Aにおいて入力画像Aを入力メモリ105へ格納し、物体認識を行う。結果メモリ更新タイミング403Aにおいて、認識結果である結果画像Aを結果メモリ107へ格納する。モニタ出力メモリ更新タイミング404Aにおいて、結果メモリ更新タイミング403Aで格納された結果メモリ107の画像をモニタ出力メモリ108へ格納する。このとき、モニタ出力メモリ108に格納されている画像はモニタ出力494の画像Aである。表示タイミング405Aにおいて、モニタ出力メモリ更新タイミング404Aで格納されたモニタ出力メモリ108の画像をVTR117及びビデオモニタ118に出力する。同様に、取込みタイミング402B、402C、402Dで入力メモリ105に格納した入力画像B、C、Dの認識結果を、VTR117及びビデオモニタ118に出力する。この時、VTR117及びビデオモニタに出力される画像は、モニタ出力画像B、C、Dとなる。
取込みタイミング402Eにおいて入力画像Eを入力メモリ105へ格納し、物体認識を行う。結果メモリ更新タイミング403Eでは、入力画像Eには認識物体がおらずかつ、認識物体が行き過ぎてからの経過時間が保持時間Th以内であるため、結果メモリ107への格納は行わない。モニタ出力更新タイミング404Eにおいて、結果メモリ更新タイミング403Dで格納された結果メモリ107の画像すなわち結果画像Dをモニタ出力メモリ108へ格納する。このときモニタ出力メモリ108に格納されている画像はモニタ出力494の画像Eである。表示タイミング405Eにおいて、モニタ出力メモリ更新タイミング404Eで格納さたモニタ出力メモリ108の画像をVTR117及びビデオモニタ118に出力する。これにより物体が行き過ぎた後も警報時画像がVTR及びビデオモニタに出力されることとなる。同様に、取込みタイミング402F、402G、で入力メモリ104に格納した入力画像F、G、の認識結果を、VTR117及びビデオモニタ118に出力する。この時、VTR117及びビデオモニタに出力される画像はモニタ出力画像G、Fとなり、出力画像は警報時画像となる。
取込みタイミング402Hにおいて入力画像Hを入力メモリ105へ格納し、物体認識を行う。結果メモリ更新タイミング403Hでは、入力画像Hには認識物体がおらず、認識物体が行き過ぎてからの経過時間が保持時間Th以上であるため、モニタ出力メモリ108の画像493をハードディスク113へ保管し、結果画像Hを結果メモリ107へ格納する。モニタ出力更新タイミング404Hにおいて、結果メモリ更新タイミング403Hで格納された結果メモリ107の画像をモニタ出力メモリ108へ格納する。このときモニタ出力メモリ108に格納されている画像はモニタ出力494の画像Hである。表示タイミング405Hにおいて、モニタ出力メモリ更新タイミング404Hで格納されたモニタ出力メモリ108の画像をVTR117及びビデオモニタ118に出力する。これにより、継続されていた侵入時の画像表示が打ち切られる。よって本実施例では表示タイミング405Aから表示タイミング406Gまで警報時画像の表示が継続されると同時に、表示タイミングHではモニタ出力画像Gをハードディスク112に証拠画像として記録され、記録時間で管理されるので何時でも警報発生時の画像を見ることができる。
【0009】
本実施例では、認識物体の有無をチェックすることにより、物体が行き過ぎる直前の画像の表示、保存する方式で説明を行ったが、前回の認識物体の有無をチェックすることにより、認識物体が入ってきた直後の画像を表示、保存する方式や、物体の位置を算出、チェックすることにより、物体が中央付近に来た時点の画像を表示、保存する方式も容易に実現可能である。
【0010】
【発明の効果】
以上説明したように、認識物体が侵入後すぐに行き過ぎた場合にもビデオモニタ上で画像が確認できるため、監視者がビデオモニタから離れいても保持時間のうちに戻ってくれば、ビデオモニタでの警報確認が行えると同時に、何時でも警報発生時の画像をハードディスク等のランダムアクセス可能な記憶装置から呼び出して見ることができる。
【0011】
このため、監視員のモニタへ、画像処理装置が何を検出して、警報を発しているのかを表示することができ、警報の原因が侵入者なのか、たとえば猫、犬等の監視対象外の動物、あるいは日照変化等の自然現象による誤報なのかを確実に確認することができる。
【図面の簡単な説明】
【図1】本発明の一実施例のハードウェアを示すブロック構成図
【図2】本発明の一実施例の動作フローチャート
【図3】物体認識の原理説明図
【図4】本発明の一実施例の画像表示タイミングチャート
【図5】従来のハードウェアを示すブロック構成図
【図6】従来例の動作フローチャート
【図7】従来の画像表示タイミングチャート
【図8】本発明の実施例における画像説明図
【図9】従来例における画像説明図
【符号の説明】
101:テレビジョンカメラ、1021:画像処理装置、103:画像入力I/F、1041:画像メモリ、105:入力メモリ、106:処理用メモリ、107:結果メモリ、108:モニタ出力メモリ、109:CPU、110:出力I/F、111:ワークメモリ、112:プログラムメモリ、113:ハードディスク、114:画像出力I/F、115:データバス、116:警報表示モニタ、117:VTR、118:ビデオモニタ、119:タイマ、201:背景画像作成ステップ、202:入力画像取込みステップ、203:差分処理ステップ、204:二値化処理ステップ、205:ノイズ除去ステップ、206:ラベリング処理ステップ、207物体認識処理ステップ、208:物体の有無判断ステップ、209:結果画像作成ステップ、210:画像表示1ステップ、211:警報処理ステップ、212:背景更新処理ステップ、213:保持の要・不要判定ステップ、301:背景画像、302:入力画像、303:差分画像、304:二値化画像、305:ノイズ領域、306:ノイズ除去画像、307:検出対象物体、308:ラベリング画像、309:物体認識画像、N1:検出物体番号、X:物体の横幅、Y:物体の高さ、401:処理タイミング、402:入力画像取込みタイミング、402A、402B、402C、402D、402E、402F、402G、402H:取込みタイミング、403:結果メモリタイミング、403A、403B、403C、403D、403E、403F、403G、403H:結果メモリ更新タイミング、405:モニタ出力メモリタイミング、404A、404B、404C、404D、404E、404F、404G、404H:モニタ出力メモリ更新タイミング、405:画像表示タイミング、405A、405B、405C、405D、405E、405F、405G、405H:表示タイミング、Tp:処理時間、Th:保持時間
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring device using a television camera, for example, in a CCTV device for monitoring an intruder or an intruder, in an intruder recognition image processing for recognizing an intruder or an intruder in a monitoring area. The present invention relates to an improvement in image display when an alarm occurs.
[0002]
[Prior art]
A hardware configuration of a monitoring apparatus using a conventional television camera will be described with reference to the block diagram of FIG. The known hardware includes a television camera 101, an image processing device 102, an alarm display device 116, a VTR 117, and a video monitor 118.
The image processing apparatus 102 includes an image input I / F 103 that performs A / D conversion of a video signal, an image memory 104 that performs calculation between images and stores images, a CPU 109 that performs image analysis, a work memory 111, a program memory 112, an image This is composed of an image output I / F 114 for converting the luminance signal into a video signal, a data bus 115, and an output I / F 110 for alarm output.
The image memory 104 includes an input memory 105 that stores the luminance signal obtained by the image input I / F 103, a processing memory 106 used for calculation between images, and a monitor output memory 108 that stores an image to be output to a video monitor. Is done.
The image processing apparatus 102 performs A / D conversion of the video signal of the television camera 101 using the image input I / F 103, and converts the video signal into a luminance signal of 256 gradations from 0 to 255. The luminance signal obtained by the image input I / F 103 is stored in the input memory 105 of the image memory 104. The CPU 109 performs image analysis using the work memory 111 and the image memory 104 in accordance with a program stored in the program memory 112. The image output I / F 114 performs D / A conversion of the luminance signal of the image stored in the monitor output memory 108 in the image memory 104 and converts the luminance signal into a video signal. The video signal obtained by the image processing I / F 114 is recorded on the VTR 117 and displayed on the video monitor 118. The data bus 115 is used for data transfer. When an event is detected by image analysis, an alarm is output to the alarm display monitor 116 using the output I / F 110.
[0003]
Next, the flow of object recognition will be described with reference to FIGS. 3, 5, 6, 7, and 9. FIG. 3 is an explanatory diagram of an image pattern for explaining the principle of object recognition, FIG. 6 is an operation flowchart of object recognition, FIG. 7 is a timing chart, and FIG. 9 shows an image captured on a monitor screen. First, in FIG. 3 and FIG. 6, a background image without an object is created in a background image creation step 201 to obtain a background image 301 (see FIG. 3). In the input image capturing step 202, an input image 302 is obtained from the television camera 101 (see FIG. 5). The difference processing step 203 calculates a difference for each pixel between the background image 301 created in the background creation step 201 or the background update processing step 212 and the input image 302 obtained in the input image capture step 202 to obtain a difference image 303. . In the binarization processing step 204, the difference image 303 obtained in the difference step 203 is subjected to threshold processing, pixels having a difference value equal to or smaller than a predetermined threshold value are set to a luminance value 0, and pixels having a difference value equal to or higher than the threshold value are set to a luminance value. A binary image 304 having 255 (the luminance value of one pixel is expressed by 256 gradations from 0 to 255) is obtained. In the noise removal step 205, the noise area 305 included in the binary image 304 obtained in the binarization processing step 204 is removed to obtain a noise removal image 306. Here, the noise region 305 indicates an area composed of several pixels. In the labeling step 206, an object is numbered using the noise-removed image 306 obtained in the noise removing step 205, and a labeling image 308 is obtained. The labeling step 206, are numbered as N 1 with respect to the object region 307 obtained by the noise-free image 306. In the object recognition processing step 207, the width X and the height Y of the object are calculated using the labeling image 308 obtained in the labeling step 206, and the calculated size of the object is compared with the size of the recognized object. Extract only the objects you want to recognize. In the presence / absence determination step 208 of the object, the presence / absence of the recognition object is determined using the determination result of the object recognition processing step 207. If it is determined that there is an object, an alarm is output in an alarm processing step 211. In the image display 2 step 601, the image in the input memory 105 is copied to the monitor output memory 108 (see FIG. 5), and the image is displayed on the video monitor 118 via the bus 115 and the image output I / F 114 and VTR 117. . In the background update processing step 212, the background image 301 is updated.
[0004]
Next, the update timing of the monitor output memory will be described with reference to FIGS.
FIG. 7 shows the relationship between the processing timing 401, the input image capture timing 402, the monitor output memory timing 404, and the image display timing 405. It is assumed that the horizontal axis is time T, and the object recognition process is performed in the processing time Tp cycle. FIG. 9 shows a captured image 491 from the television camera 101 and an output display image 492 to the video monitor 118.
First, the input image A is stored in the input memory 105 at the capture timing 402A, and recognition processing is performed. The recognition result of the input image A is stored in the monitor output memory 108 at the monitor output memory update timing 404A, and is output to the VTR 117 and the video monitor 118 at the display timing 405A. Similarly, the recognition results of the input images B, C, D, E, F, G, and H stored in the input memory 105 at the capture timings 402B, 402C, 402D, 402E, 402F, 402G, and 402H are converted into the VTR 117 and the video monitor 118. Output to. At this time, the images 492 output to the VTR 117 and the video monitor 118 are the monitor output images B, C, D, E, F, G, and H in order.
For this reason, since the monitor output image D is displayed from the monitor output image A from the display timing 405A to 405D, the alarm-time image can be confirmed. However, at the monitor output memory update timing 404E, the monitor output memory 108 stores an image in which the object has gone too far as shown in the monitor output image E. Therefore, at the display timing 405E, the image E after the object has gone too far is displayed. The image cannot be confirmed.
[0005]
[Problems to be solved by the invention]
In the above conventional technology, the image displayed on the video monitor is displayed as an image obtained by processing the image captured by the camera with almost no time delay. Disappear. That is, when the supervisor leaves the video monitor, there is a possibility that the alarm-time image cannot be confirmed on the video monitor. At this time, in order to confirm the image at the time of the alarm occurrence, it is necessary to rewind and reproduce the VTR, which is a very inefficient operation.
[0006]
[Means for Solving the Problems]
In the present invention, in order to solve such a problem, the intrusion image is continuously displayed for a certain period after the intrusion of the object, and the image at the time of the alarm is recorded as an evidence image on a hard disk or the like, based on the occurrence time. Random search is made so that it can be easily displayed on the monitor.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
An example of the hardware configuration of the intruder recognition apparatus in the embodiment of the present invention is shown in FIG. This is obtained by adding a result memory 107, a hard disk 113, and a timer 119 of the image memory 1041 to the conventional hardware configuration. Reference numeral 1021 denotes a processing apparatus in this embodiment.
Next, the flow of object recognition will be described with reference to FIGS. FIG. 2 is an operation flowchart of this embodiment. FIG. 3 shows an example of an image in each processing step.
First, in the background image creation step 201, a background image without an object is created to obtain a background image 301. The input image capture step 202 obtains an input image 302 from the television camera 101. In the difference processing step 203, a difference for each pixel between the background image 301 created in the background image creation step 201 or the background update processing step 212 and the input image 302 obtained in the input image capture step 202 is calculated. obtain. In the binarization processing step 204, the difference image 303 obtained in the difference step 203 is subjected to threshold processing, pixels having a difference value equal to or smaller than a predetermined threshold value are set to a luminance value 0, and pixels having a difference value equal to or higher than the threshold value are processed A binary image 304 having 255 (the luminance value of one pixel is expressed by 256 gradations from 0 to 255) is obtained. In the noise removal step 205, the noise area 305 included in the binary image 304 obtained in the binarization processing step 204 is removed to obtain a noise removal image 306. Here, the noise region 305 is composed of several pixels. In the labeling processing step 206, an object is numbered using the noise-removed image 306 obtained in the noise removal step 205, and a labeling image 308 is obtained. The labeling step 206, are numbered as N 1 with respect to the object region 307 obtained by the noise-free image 306. In the object recognition processing step 207, the width X and the height Y of the object are calculated using the labeling image 308 obtained in the labeling step 206, and the calculated size of the object is compared with the size of the recognized object. Extract only the objects you want to recognize. In the presence / absence determination step 208 of the object, the presence / absence of the recognition object is determined using the determination result of the object recognition processing step 207. When it is determined that there is an object in the presence / absence determination step 208 of the object, a result screen creation step 209, an image display step 210, and an alarm processing step 211 are performed. In the result screen creation step 209, the image in the input memory 105 is copied to the result memory 107, and the marker M is drawn on the object (see FIG. 8, details will be described later). In the image display step 210, the image in the result memory 107 is copied to the monitor output memory 108. In the alarm processing step 211, an alarm is output. The alarm is displayed by an alarm display monitor 116 (see FIG. 1) such as a red light. When it is determined that there is no object in the presence / absence determination step 208 of the object, a determination is made as to whether or not image holding is required in a holding necessity / unnecessity determination step 213. The necessity / unnecessity of holding is calculated using the timer 119, and it is determined that the holding is necessary when the following expression 1 is satisfied, and is unnecessary when the following equation 1 is not satisfied. The holding time needs to be determined in advance. In this embodiment, the holding time is 60 seconds.
Formula 1: (Current time)-(Time when the last report was issued) <Holding time holding required / unnecessary determination If it is determined that holding is required in step 213, the image display 1 step 210 stores the result memory 107 The image is copied to the monitor output memory 108 and the image is displayed. Since the image in the result memory 107 is not updated when holding is required, the result memory 107 stores the image at the time of the last object recognition. When it is determined that the holding is not necessary, a result screen creation step 209 and an image display 1 step 210 are performed. In the background image update step 212, the background image 301 is updated.
[0008]
Next, the update timing of the monitor output memory will be described with reference to FIG. 1, FIG. 4, and FIG.
FIG. 4 shows the relationship among the processing timing 401, input image capture timing 402, result memory timing 403, monitor output memory timing 404, and image display timing 405. It is assumed that the horizontal axis is time T, and the object recognition process is performed in the processing time TP cycle. FIG. 8 shows an input image 491, an image 493 recorded on the hard disk, and an output image 494 to the monitor.
The input image A is stored in the input memory 105 at the input image capture timing 402A, and object recognition is performed. At the result memory update timing 403A, the result image A as the recognition result is stored in the result memory 107. At the monitor output memory update timing 404A, the image of the result memory 107 stored at the result memory update timing 403A is stored in the monitor output memory 108. At this time, the image stored in the monitor output memory 108 is the image A of the monitor output 494. At the display timing 405A, the image in the monitor output memory 108 stored at the monitor output memory update timing 404A is output to the VTR 117 and the video monitor 118. Similarly, the recognition results of the input images B, C, and D stored in the input memory 105 at the capture timings 402B, 402C, and 402D are output to the VTR 117 and the video monitor 118. At this time, the images output to the VTR 117 and the video monitor are the monitor output images B, C, and D.
At the capture timing 402E, the input image E is stored in the input memory 105, and object recognition is performed. At the result memory update timing 403E, since there is no recognized object in the input image E and the elapsed time after the recognized object has gone too far is within the holding time Th, the result memory 107 is not stored. At the monitor output update timing 404E, the image of the result memory 107 stored at the result memory update timing 403D, that is, the result image D is stored in the monitor output memory 108. At this time, the image stored in the monitor output memory 108 is the image E of the monitor output 494. At the display timing 405E, the image in the monitor output memory 108 stored at the monitor output memory update timing 404E is output to the VTR 117 and the video monitor 118. As a result, an alarm image is output to the VTR and video monitor even after the object has gone too far. Similarly, the recognition results of the input images F and G stored in the input memory 104 at the capture timings 402F and 402G are output to the VTR 117 and the video monitor 118. At this time, the images output to the VTR 117 and the video monitor are the monitor output images G and F, and the output image is an alarm image.
The input image H is stored in the input memory 105 at the capture timing 402H, and object recognition is performed. At the result memory update timing 403H, since there is no recognized object in the input image H, and the elapsed time since the recognized object has gone too far is the holding time Th, the image 493 of the monitor output memory 108 is stored in the hard disk 113, The result image H is stored in the result memory 107. At the monitor output update timing 404H, the image of the result memory 107 stored at the result memory update timing 403H is stored in the monitor output memory 108. At this time, the image stored in the monitor output memory 108 is the image H of the monitor output 494. At the display timing 405H, the image in the monitor output memory 108 stored at the monitor output memory update timing 404H is output to the VTR 117 and the video monitor 118. Thereby, the continued image display at the time of intrusion is discontinued. Therefore, in the present embodiment, the display of the alarm time image is continued from the display timing 405A to the display timing 406G, and at the same time, the monitor output image G is recorded as an evidence image on the hard disk 112 at the display timing H and is managed by the recording time. You can see the image when the alarm occurs at any time.
[0009]
In this embodiment, the method of displaying and saving the image immediately before the object goes too far by checking the presence / absence of the recognized object has been described. However, by checking the previous presence / absence of the recognized object, the recognized object is entered. It is also possible to easily realize a method for displaying and saving an image immediately after the arrival, and a method for displaying and saving an image when the object is near the center by calculating and checking the position of the object.
[0010]
【The invention's effect】
As described above, an image can be confirmed on the video monitor even if the recognized object goes too soon after the intrusion, so if the monitor returns from the holding time even if he / she leaves the video monitor, the video monitor At the same time, it is possible to check the image at the same time, and call the image at the time of the alarm from a randomly accessible storage device such as a hard disk for viewing.
[0011]
For this reason, it is possible to display on the monitor of the monitoring person what the image processing apparatus has detected and issuing an alarm, and whether the cause of the alarm is an intruder, for example, cats, dogs, etc. It is possible to surely confirm whether it is a false alarm due to a natural phenomenon such as a change in sunshine or changes in sunlight.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the hardware of an embodiment of the present invention. FIG. 2 is an operation flowchart of the embodiment of the present invention. FIG. 3 is a diagram for explaining the principle of object recognition. FIG. 5 is a block diagram showing the conventional hardware. FIG. 6 is an operation flowchart of the conventional example. FIG. 7 is a conventional image display timing chart. FIG. [Fig. 9] Image explanatory diagram in the conventional example [Explanation of symbols]
101: Television camera, 1021: Image processing device, 103: Image input I / F, 1041: Image memory, 105: Input memory, 106: Processing memory, 107: Result memory, 108: Monitor output memory, 109: CPU 110: output I / F, 111: work memory, 112: program memory, 113: hard disk, 114: image output I / F, 115: data bus, 116: alarm display monitor, 117: VTR, 118: video monitor, 119: timer, 201: background image creation step, 202: input image capture step, 203: difference processing step, 204: binarization processing step, 205: noise removal step, 206: labeling processing step, 207 object recognition processing step, 208: Object presence / absence determination step, 209: Result image Creation step, 210: image display 1 step, 211: alarm processing step, 212: background update processing step, 213: holding necessity / unnecessity determination step, 301: background image, 302: input image, 303: difference image, 304: Binary image, 305: Noise region, 306: Noise removal image, 307: Object to be detected, 308: Labeling image, 309: Object recognition image, N 1 : Detection object number, X: Width of object, Y: Object width Height: 401: processing timing, 402: input image capture timing, 402A, 402B, 402C, 402D, 402E, 402F, 402G, 402H: capture timing, 403: result memory timing, 403A, 403B, 403C, 403D, 403E, 403F, 403G, 403H: result memory update timing, 05: Monitor output memory timing, 404A, 404B, 404C, 404D, 404E, 404F, 404G, 404H: Monitor output memory update timing, 405: Image display timing, 405A, 405B, 405C, 405D, 405E, 405F, 405G, 405H : Display timing, Tp: Processing time, Th: Holding time

Claims (6)

監視領域内を撮像するテレビカメラから得られた映像信号を画像処理装置によって画像解析して、該監視領域内の監視対象の物体の認識を行うテレビカメラを用いた監視装置に於いて、
前記画像処理装置は、
前記映像信号から得た画像を格納する第1のメモリと、該第1のメモリの画像をコピーする第2のメモリと、該第2のメモリの画像をコピーし該コピーされた画像をモニタに表示するために出力するモニタ出力メモリとを備え、
前記画像処理装置は、
前記テレビカメラからの映像信号に物体ありと判断した場合に、前記第1のメモリにコピーされた画像を前記第2のメモリにコピーし、前記第2のメモリにコピーされた画像を前記モニタ出力メモリにコピーすることによって、前記モニタに物体ありと判断した映像信号から得た画像を表示し、
前記テレビカメラからの映像信号に物体なしと判断した場合に、前記第1のメモリの画像を前記第2のメモリにコピーしないことによって、前記検出された物体が前記監視領域からはずれた後の一定期間は前記検出された物体が写った画像を前記モニタに表示し続けることを特徴とするテレビカメラを用いた監視装置。
In a monitoring apparatus using a television camera that performs image analysis on a video signal obtained from a television camera that captures an image in the monitoring area, and recognizes an object to be monitored in the monitoring area.
The image processing apparatus includes:
A first memory for storing an image obtained from the video signal; a second memory for copying the image in the first memory; and copying the image in the second memory and using the copied image on a monitor And a monitor output memory that outputs for display,
The image processing apparatus includes:
When it is determined that there is an object in the video signal from the television camera, the image copied to the first memory is copied to the second memory, and the image copied to the second memory is output to the monitor. By copying to memory, display the image obtained from the video signal determined to be an object on the monitor,
When it is determined that there is no object in the video signal from the television camera, the image of the first memory is not copied to the second memory, so that the detected object is constant after being deviated from the monitoring area. A monitoring apparatus using a television camera, wherein an image of the detected object is continuously displayed on the monitor for a period .
請求項1記載のテレビカメラを監視装置に於いて、
前記画像処理装置は、
前記テレビカメラからの映像信号に監視対象の物体ありと判断した場合に、前記第1のメモリにコピーされた画像を前記第2のメモリにコピーし、更に該物体の上にマーカを描画し、該画像を前記モニタ出力メモリにコピーすることによって、前記モニタに物体ありと判断した映像信号から得た画像を表示し、
前記テレビカメラからの映像信号に物体なしと判断した場合に、前記第1のメモリの画像を前記第2のメモリにコピーしないことによって、前記検出された物体が前記監視領域からはずれた後の一定期間は前記検出された物体が写った画像を前記モニタに表示し続けることを特徴とするテレビカメラを用いた監視装置。
In the monitoring device of the television camera according to claim 1,
The image processing apparatus includes:
When it is determined that there is an object to be monitored in the video signal from the television camera, the image copied to the first memory is copied to the second memory, and a marker is drawn on the object, By copying the image to the monitor output memory, the image obtained from the video signal determined to be an object on the monitor is displayed,
When it is determined that there is no object in the video signal from the television camera, the image of the first memory is not copied to the second memory, so that the detected object is constant after being deviated from the monitoring area. A monitoring apparatus using a television camera, wherein an image of the detected object is continuously displayed on the monitor for a period .
請求項1または請求項2のいずれかに記載のテレビカメラを監視装置に於いて、
前記画像処理装置は、
前記テレビカメラからの映像信号に監視対象の物体なしと判断した場合に、前記モニタ出力メモリの画像を保持が要か不要かを判定し、
前記モニタ出力メモリの画像が保持要と判定した場合には、前記第1のメモリの画像を前記第2のメモリにコピーしないによって、前記検出された物体が監視領域からはずれた後の一定期間は前記検出された物体が写った画像を前記モニタに表示し続けることを特徴とするテレビカメラを用いた監視装置。
In the monitoring apparatus, the television camera according to claim 1 or 2,
The image processing apparatus includes:
When it is determined that there is no object to be monitored in the video signal from the TV camera, it is determined whether the image in the monitor output memory needs to be retained or not,
If it is determined that the image in the monitor output memory needs to be retained, the image in the first memory is not copied to the second memory, so that a certain period after the detected object is removed from the monitoring area A monitoring apparatus using a television camera, which continuously displays an image of the detected object on the monitor.
請求項1または請求項2のいずれかに記載のテレビカメラを監視装置に於いて、
前記画像処理装置は、
前記テレビカメラからの映像信号に監視対象の物体なしと判断した場合に、前記モニタ出力メモリの画像を保持が要か不要かを判定し、前記モニタ出力メモリの画像が保持不要と判定した場合には、前記第1のメモリの画像を前記第2のメモリにコピーし、該コピーした画像をモニタ出力メモリにコピーすることを特徴とするテレビカメラを用いた監視装置。
In the monitoring apparatus, the television camera according to claim 1 or 2,
The image processing apparatus includes:
When it is determined that there is no object to be monitored in the video signal from the television camera, it is determined whether or not the image in the monitor output memory needs to be retained, and when it is determined that the image in the monitor output memory does not need to be retained The apparatus for monitoring using a television camera, wherein an image in the first memory is copied to the second memory, and the copied image is copied to a monitor output memory.
監視領域内を撮像するテレビカメラから得られた映像信号を画像解析して監視対象の物体の認識を行うと共にモニタ出力メモリから出力される画像をモニタ上に表示するテレビカメラを用いた監視に於いて、
前記テレビジョンカメラから得た入力画像を第1のメモリに格納する入力画像取込みステップと、前記入力画像取込みステップで得た入力画像と背景画像との画素毎の差分を算出し差分画像を得る差分処理ステップと、該差分処理ステップで得た差分画像から差分として検出された物体の大きさを算出し該算出した画像の大きさと監視対象として認識する物体の大きさを比較することにより認識したい物体のみ抽出するステップと、該前記監視領域内に物体の有無を判断する有無判断ステップと、
該物体の有無判断ステップで物体ありと判断された場合に、前記第1のメモリの画像を第2のメモリにコピーする画面作成ステップと、該画面作成ステップでコピーした画像を前記モニタ出力メモリにコピーして前記モニタに該画面作成ステップでコピーした画像を表示する画面表示ステップと、警報を発生させるステップと、
前記物体の有無判断ステップで物体なしと判断された場合に、画像保持の要不要を判定する画像保持要不要判定ステップと、
前記画像保持要不要ステップで画像保持要と判定した場合に、前記第1のメモリの画像を前記第2のメモリにコピーしないことによって、前記検出された物体が前記監視領域からはずれた後の一定期間は前記検出された物体が写った画像を前記モニタに表示し続ける画像保持ステップと、を備えたことを特徴とするテレビカメラを用いた監視方法。
In monitoring using a television camera that analyzes a video signal obtained from a television camera that captures the inside of a surveillance area to recognize an object to be monitored and displays an image output from a monitor output memory on the monitor. And
An input image capturing step for storing an input image obtained from the television camera in a first memory, and a difference for obtaining a difference image by calculating a difference for each pixel between the input image obtained in the input image capturing step and a background image. Object to be recognized by calculating the size of the object detected as a difference from the processing step and the difference image obtained in the difference processing step, and comparing the size of the calculated image with the size of the object to be recognized as a monitoring target Extracting only, and the presence / absence determination step of determining the presence / absence of an object in the monitoring area;
When it is determined that there is an object in the presence / absence determination step of the object , a screen creation step for copying the image in the first memory to the second memory, and the image copied in the screen creation step in the monitor output memory A screen display step of copying and displaying the image copied in the screen creation step on the monitor; a step of generating an alarm;
An image holding necessity determination step for determining whether image holding is necessary when it is determined that there is no object in the object presence / absence determining step;
If it is determined in the image holding necessity unnecessary step that the image holding is necessary, the image stored in the first memory is not copied to the second memory, so that the detected object is fixed after being deviated from the monitoring area. An image holding step for continuously displaying an image of the detected object on the monitor for a period of time , and a monitoring method using a television camera.
請求項5に記載のテレビカメラを用いた監視方法に於いて、
前記画像保持要不要ステップで画像保持不要と判定した場合に、前記第1のメモリの画像を前記第2のメモリにコピーし、該コピーした画像をモニタ出力メモリにコピーすることを特徴とするテレビカメラを用いた監視方法。
In the monitoring method using the television camera of Claim 5,
When it is determined in the image holding necessity unnecessary step that image holding is not required, the image in the first memory is copied to the second memory, and the copied image is copied to a monitor output memory. Monitoring method using a camera.
JP30238699A 1999-10-25 1999-10-25 Surveillance method and apparatus using television camera Expired - Fee Related JP3773236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30238699A JP3773236B2 (en) 1999-10-25 1999-10-25 Surveillance method and apparatus using television camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30238699A JP3773236B2 (en) 1999-10-25 1999-10-25 Surveillance method and apparatus using television camera

Publications (2)

Publication Number Publication Date
JP2001126156A JP2001126156A (en) 2001-05-11
JP3773236B2 true JP3773236B2 (en) 2006-05-10

Family

ID=17908295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30238699A Expired - Fee Related JP3773236B2 (en) 1999-10-25 1999-10-25 Surveillance method and apparatus using television camera

Country Status (1)

Country Link
JP (1) JP3773236B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594209B2 (en) * 2005-10-28 2010-12-08 株式会社日立情報制御ソリューションズ Intruder monitoring method and apparatus
CN104700534B (en) * 2014-12-31 2017-10-31 大亚湾核电运营管理有限责任公司 Alarm method, the apparatus and system of nuclear power plant's monitoring system

Also Published As

Publication number Publication date
JP2001126156A (en) 2001-05-11

Similar Documents

Publication Publication Date Title
JP4315138B2 (en) Image processing apparatus and image processing method
JP4870803B2 (en) Video motion detection method
KR101191844B1 (en) Image processing apparatus and image processing method
US20150092052A1 (en) Image monitoring system and surveillance camera
KR20030005410A (en) Method and apparatus to distinguish deposit and removal in surveillance video
KR101880100B1 (en) CCTV System for detecting Object
JPH0854667A (en) Automatic monitoring equipment
JP3773236B2 (en) Surveillance method and apparatus using television camera
JP2001043383A (en) Image monitoring system
JPH0514891A (en) Image monitor device
JPH10290449A (en) Video monitoring system
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JP2865442B2 (en) Method of extracting change area of surveillance image
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JPH057363A (en) Picture monitoring device
JP2005143052A (en) Monitoring apparatus including background image change detecting function
JP2004128648A (en) Method for tracing intruding object
JP2889410B2 (en) Image recognition device
JP3175947B2 (en) Image monitoring apparatus and image monitoring method
JPH04200084A (en) Image monitor device
JP2703122B2 (en) Anomaly detection method and device for crime prevention
JPH0514897A (en) Image monitor device
KR101888495B1 (en) Pixel parallel processing method for real time motion detection
JPH0514898A (en) Image monitor device
JPH0264800A (en) Remote monitoring system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3773236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140224

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees