JP2006303989A - Monitor device - Google Patents

Monitor device Download PDF

Info

Publication number
JP2006303989A
JP2006303989A JP2005123835A JP2005123835A JP2006303989A JP 2006303989 A JP2006303989 A JP 2006303989A JP 2005123835 A JP2005123835 A JP 2005123835A JP 2005123835 A JP2005123835 A JP 2005123835A JP 2006303989 A JP2006303989 A JP 2006303989A
Authority
JP
Japan
Prior art keywords
image
camera
monitoring
composite image
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005123835A
Other languages
Japanese (ja)
Other versions
JP4722537B2 (en
Inventor
Hiroshi Ishii
浩史 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005123835A priority Critical patent/JP4722537B2/en
Publication of JP2006303989A publication Critical patent/JP2006303989A/en
Application granted granted Critical
Publication of JP4722537B2 publication Critical patent/JP4722537B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitor device that enables a monitoring person to intuitively recognize the position of an object to be monitored and can present a video wherein it is easy to grasp an abnormal state such as movement and features of a suspicious person. <P>SOLUTION: The monitor device for monitoring inner sides of facilities by using camera images photographed by a plurality of cameras 11 to 13 is provided with a composite image generation section 3 which generates a composite image by using the camera images of the cameras 11 to 13, a recording section 9 which holds the camera images and composite image, a display section 4 which displays the images, and a retrieval section 1b which retrieves a camera image corresponding to a selected area and the area of the camera image when the area of the composite image displayed on the display section 4 is selected, and displays the result on the display section 4. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数のカメラを用いた監視を行う監視装置に関する。   The present invention relates to a monitoring apparatus that performs monitoring using a plurality of cameras.

近年、建物等の施設内の各所にカメラを設置し、これらのカメラの撮影映像を1箇所で集中監視する監視システムが実用化されている。しかし、複数の撮影画像を複数のモニタに表示して同時に監視する場合は、監視者が侵入者の侵入等の異常を見落とすことが間々ある。また、侵入者を画面上で発見したときでも、複数のモニタの映像が建物内のどこを映しているのか直感的に分かり難いため、侵入者の移動先をモニタ画像で追うことが難しい場合がある。この傾向は建物の規模が大きくなり、カメラの台数が増えるに比例して増大する。こうした事態に対して、監視者の増員や、監視者に建物の構造を教え込むなど、人に負担を求める対策が講じられている。   In recent years, a monitoring system has been put into practical use in which cameras are installed at various locations in a facility such as a building and the video captured by these cameras is centrally monitored at one location. However, when a plurality of captured images are displayed on a plurality of monitors and monitored simultaneously, the monitor often overlooks an abnormality such as an intruder intrusion. Even when an intruder is found on the screen, it is difficult to intuitively understand where the images of multiple monitors are reflected in the building. is there. This tendency increases in proportion to the size of the building and the number of cameras. In response to this situation, measures are being taken to demand a burden on people, such as increasing the number of observers and instructing observers on the structure of the building.

このような人的負担の軽減を図るためのものとして、特許文献1に示される監視システムがある。この監視システムは、複数のカメラで監視現場を撮影し、映像から侵入者を検知すると、この侵入者を検知したカメラの映像出力を1つのモニタに表示し、さらに、その画像から侵入者の向う方向を予測して、その方向を中心とする一定の範囲内に設置された別のカメラを選択し、その映像を別のモニタに表示するものである。したがって、侵入者を検知したカメラの映像と、これから侵入者が映ると予測されるカメラの映像とが選択されて監視者に提示されるため、監視者は、容易に侵入者を把握することができる。   As a means for reducing such a human burden, there is a monitoring system disclosed in Patent Document 1. When this surveillance system captures a surveillance site with a plurality of cameras and detects an intruder from the video, the video output of the camera that has detected the intruder is displayed on a single monitor, and the intruder faces from the image. A direction is predicted, another camera installed within a certain range centered on the direction is selected, and the video is displayed on another monitor. Therefore, since the video of the camera that detected the intruder and the video of the camera that is predicted to show the intruder are selected and presented to the monitor, the monitor can easily grasp the intruder. it can.

また、特許文献2には、記録された膨大な量の監視カメラの映像から、不審者が映っている部分のみを迅速に再生できる監視システムが開示されている。この監視システムでは、入口のカメラで不審者を検出すると、その人物の特徴を抽象化した抽象化画像を生成し、その不審者を特定する人物IDと共に保存する。施設内のカメラの画像から、その特徴を持つ不審者を検出すると、モニタログデータベースに、人物IDと共に、そのカメラの視野に不審者が出現した「開始時刻」と、その視野から不審者がいなくなった「終了時刻」とを、カメラごとに記録する。再生時には、この「開始時刻」及び「終了時刻」で特定される範囲内の各カメラの撮影画像を検索システムで抽出し、再生する。したがって、この監視システムでは、記録画像の中から、不審者の映る映像が抽出されて提示されるため、監視者の負担は軽減される。   Further, Patent Document 2 discloses a monitoring system that can quickly reproduce only a portion where a suspicious person is shown from an enormous amount of recorded video of a monitoring camera. In this monitoring system, when a suspicious person is detected by an entrance camera, an abstract image that abstracts the characteristics of the person is generated and stored together with a person ID that identifies the suspicious person. When a suspicious person with the characteristic is detected from the image of the camera in the facility, the suspicious person appears in the field of view of the camera together with the person ID in the monitor log database and the suspicious person disappears from the field of view. The “end time” is recorded for each camera. At the time of reproduction, the retrieval system extracts and reproduces the captured images of each camera within the range specified by the “start time” and “end time”. Therefore, in this monitoring system, since the video showing the suspicious person is extracted from the recorded image and presented, the burden on the monitoring person is reduced.

特許平9−016863号公報Japanese Patent No. 9-016863 特開2004−187115号公報JP 2004-187115 A

しかしながら、特許文献1の監視システムでも、それぞれのカメラからの撮影画像を別々のモニタに表示するので、モニタ映像が施設のどの部分を写しているかが監視者に直感的に認識することは困難である。また、個々の監視カメラで映すことができる侵入者の動きは限定されるから、個々の監視カメラの画像を基に侵入者の動きを予測する場合は、誤りや見落としの発生する可能性がある。   However, even in the monitoring system of Patent Document 1, since the captured images from the respective cameras are displayed on separate monitors, it is difficult for the supervisor to intuitively recognize which part of the facility the monitor video is captured. is there. In addition, since the movements of intruders that can be displayed by individual surveillance cameras are limited, there is a possibility that errors or oversights may occur when predicting the movements of intruders based on the images of individual surveillance cameras. .

特許文献2の監視システムのように、個々の監視カメラの画像から侵入者を特定する場合は、そのカメラの撮影位置や角度、あるいは、そこを通過するときの顔の向き等によって、侵入者の特徴を十分に捕捉できないことがあり、そのため、侵入者を見落としたり、侵入者でない人物を検出したりするケースが発生し、多くの誤った画像が監視者に提示される可能性がある。その結果、監視者の負担は、軽減されないことになる。   When an intruder is specified from an image of an individual surveillance camera as in the surveillance system of Patent Document 2, the intruder's position depends on the shooting position and angle of the camera or the orientation of the face when passing through the camera. Features may not be captured sufficiently, which may lead to cases where an intruder is overlooked or a person who is not an intruder is detected, and many false images may be presented to the observer. As a result, the burden on the observer is not reduced.

本発明は、上記事情に鑑みなされたものであり、監視者に対して、監視対象の位置が直感的に分かり、また、不審者等の動きや特徴等の異常の状態が把握し易い映像を提示できる監視装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides an image that allows the monitor to intuitively know the position of the monitoring target and to easily grasp the abnormal state such as the movement and characteristics of the suspicious person. The object is to provide a monitoring device that can be presented.

本発明では、複数のカメラを用いた監視を行う監視装置であって、前記カメラで撮影したカメラ画像を用いて合成画像を生成する合成画像生成手段と、前記カメラ画像及び前記合成画像を保持する記録手段と、画像を表示する表示手段と、前記表示手段に表示した前記合成画像の任意の領域が選択されたとき、前記選択された領域に対応する前記カメラ画像または当該カメラ画像の領域を検索して前記表示手段に表示する検索手段とを備えるものである。本発明によれば、監視者は、合成画像から、各種施設等の監視対象の位置を直感的に知ることができ、この合成画像から見たい領域を選択して、詳細なカメラ画像を見ることができる。   In the present invention, a monitoring apparatus that performs monitoring using a plurality of cameras, the composite image generating means for generating a composite image using a camera image captured by the camera, and the camera image and the composite image are held. When a recording unit, a display unit for displaying an image, and an arbitrary region of the composite image displayed on the display unit are selected, the camera image corresponding to the selected region or the region of the camera image is searched. Search means for displaying on the display means. According to the present invention, the supervisor can intuitively know the position of the monitoring target such as various facilities from the composite image, and selects a desired region from the composite image to view a detailed camera image. Can do.

また、本発明の監視装置は、合成画像生成手段が、複数のカメラのカメラ画像を合成した合成画像を生成するものを含む。本発明によれば、監視者は、広範囲を映す合成画像から、施設内の位置を直感的に知ることができる。   Moreover, the monitoring apparatus of this invention contains what a synthetic | combination image production | generation means produces | generates the synthetic | combination image which synthesize | combined the camera image of a some camera. According to the present invention, the supervisor can intuitively know the position in the facility from the composite image showing a wide range.

また、本発明の監視装置は、複数のカメラが、2倍以上画角が異なる2以上のカメラを含むものを含む。本発明によれば、遠い部分を映す望遠カメラの画像と近い部分を映す広角カメラの画像とを合成して合成画像を生成することにより、合成画像から遠い位置の人物が選択された場合でも、望遠カメラで映した、拡大した人物のカメラ画像を表示することができる。   In addition, the monitoring device of the present invention includes one in which the plurality of cameras includes two or more cameras having different angles of view by a factor of two or more. According to the present invention, even when a person at a far position from the synthesized image is selected by synthesizing the image of the telephoto camera that reflects the far part and the image of the wide-angle camera that reflects the near part, the synthesized image is generated. It is possible to display an enlarged camera image of a person projected with a telephoto camera.

また、本発明の監視装置は、合成画像生成手段が、カメラ画像と監視対象施設の構造を示す図形とを合成した合成画像を生成するものを含む。本発明によれば、監視者は、この合成画像から、カメラ画像が施設のどの位置の画像であるかを直感的に知ることができる。   Moreover, the monitoring apparatus of this invention contains what the synthetic | combination image production | generation means produces | generates the synthetic | combination image which synthesize | combined the camera image and the figure which shows the structure of the monitoring object facility. According to the present invention, the supervisor can intuitively know the position of the facility where the camera image is from the composite image.

また、本発明の監視装置は、さらに、複数のカメラ画像を利用して生成された合成画像から動きを検出する動き検知手段と、動き検知手段が検知した合成画像にタグ情報を付加するタグ情報付加手段と、タグ情報を付加した合成画像に使用されたカメラ画像を検索して、そのカメラ画像にタグ情報を付加するタグ情報伝播手段とを備えるものを含む。本発明によれば、複数のカメラ画像を含む合成画像から動きを検出することで、単独のカメラ画像の解析では明確でない動きが、正確且つ安定的に検知できる。   The monitoring device of the present invention further includes a motion detection unit that detects a motion from a composite image generated using a plurality of camera images, and tag information that adds tag information to the composite image detected by the motion detection unit. And a tag information propagation unit that searches for a camera image used in the combined image with the tag information added and adds the tag information to the camera image. According to the present invention, by detecting a motion from a composite image including a plurality of camera images, a motion that is not clear in the analysis of a single camera image can be detected accurately and stably.

また、本発明の監視装置は、さらに、タグ情報に基づいて、タグ情報が付加された合成画像及びカメラ画像の優先度を決定し、優先度に基づいて消去する画像を決定する消去手段を備えるものを含む。本発明によれば、優先度が低い画像を自動消去することにより、装置の記憶容量を有効に活用することができる。   The monitoring apparatus of the present invention further includes an erasing unit that determines the priority of the composite image and the camera image to which the tag information is added based on the tag information, and determines an image to be deleted based on the priority. Including things. According to the present invention, it is possible to effectively utilize the storage capacity of the apparatus by automatically erasing an image having a low priority.

本発明の監視装置は、監視者に、施設内のどこを監視しているかが一目で直感的に把握できる合成画像を提示することができ、また、合成画像中の監視者が注目する部分を検索して、詳細なカメラ画像を提示することができる。そのため、監視者は、施設内を詳細かつ効率的に監視することができる。   The monitoring apparatus according to the present invention can present a monitor with a composite image that allows the user to know at a glance where the facility is being monitored. By searching, a detailed camera image can be presented. Therefore, the supervisor can monitor the inside of the facility in detail and efficiently.

また、本発明の監視装置は、個々のカメラ画像を解析するだけでは不明確な画像上の動きを、安定的且つ正確に検知することができ、この検知結果を基に画像に付与したタグ情報を用いて、再生画像を的確に絞り込むことができる。   In addition, the monitoring device of the present invention can stably and accurately detect an unclear movement on an image simply by analyzing individual camera images, and tag information assigned to an image based on the detection result. The playback image can be accurately narrowed down using.

以下、本発明の実施の形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施の形態)
図1に、本発明の第1の実施形態の監視装置の概略構成を示す。、図1の監視装置は、建物等の施設の監視を行うもので、カメラ11〜13、監視画像制御部1、データ保持部2、画像合成部3、表示部4、検索・領域指定部5、タイムコード発生部6、動き検知部7、記録部9を含んで構成される。
(First embodiment)
FIG. 1 shows a schematic configuration of a monitoring apparatus according to the first embodiment of the present invention. The monitoring device of FIG. 1 monitors facilities such as buildings, and includes cameras 11 to 13, a monitoring image control unit 1, a data holding unit 2, an image composition unit 3, a display unit 4, and a search / area designation unit 5. , A time code generation unit 6, a motion detection unit 7, and a recording unit 9.

カメラ11〜13は、施設内に設置され、施設の撮影を行うものである。図2に、カメラ11〜13の配置の一例を示す。図2においては、カメラ11〜13は、通路20を監視するために、施設内のほぼ同じ位置に監視方向を違えて設置されている。このとき、図3に示すように、カメラ11からは通路の右側奥の画像31が出力され、カメラ12からは正面の画像32が、また、カメラ13からは通路左側奥の画像33が出力される。ここでは、各カメラ11〜13の出力画像は、水平720×垂直480画素の解像度を持っているものとする。   The cameras 11 to 13 are installed in the facility and shoot the facility. FIG. 2 shows an example of the arrangement of the cameras 11 to 13. In FIG. 2, the cameras 11 to 13 are installed in almost the same position in the facility with different monitoring directions in order to monitor the passage 20. At this time, as shown in FIG. 3, an image 31 on the right side of the passage is output from the camera 11, an image 32 on the front side is output from the camera 12, and an image 33 on the left side of the passage is output from the camera 13. The Here, it is assumed that the output images of the cameras 11 to 13 have a resolution of horizontal 720 × vertical 480 pixels.

監視画像制御部1は、監視画像の表示や記録・再生を制御するもので、カメラ画像や合成画像の記録部9への記録を制御する録画部1a、検索・領域指定部5で指定された監視映像を記録部9から検索する検索部1b、検索部1bが検索した監視映像の再生を制御する再生部1c、動き検知部7が動きを検知した画像にタグ情報を添付するタグ情報添付部1dと、合成画像155に添付されたタグ情報を、対応するカメラ画像154に添付するタグ情報伝播部1eを含んでいる。この監視画像制御部1の各部は、プロセッサがプログラムで規定された動作を実行することにより実現される。   The monitoring image control unit 1 controls display and recording / reproduction of the monitoring image. The monitoring image control unit 1 is designated by the recording unit 1a that controls the recording of the camera image or the composite image in the recording unit 9 and the search / area designation unit 5. A search unit 1b for searching for the monitoring video from the recording unit 9, a playback unit 1c for controlling the playback of the monitoring video searched by the search unit 1b, and a tag information attachment unit for attaching tag information to the image detected by the motion detection unit 7 1d and a tag information propagation unit 1e for attaching the tag information attached to the composite image 155 to the corresponding camera image 154. Each unit of the monitoring image control unit 1 is realized by a processor executing an operation defined by a program.

データ保持部2は、各カメラ11〜13の画角や方向等のカメラパラメータデータ、及びそのカメラパラメータデータを基に生成された合成マップデータを保持するものである。   The data holding unit 2 holds camera parameter data such as the angle of view and direction of each of the cameras 11 to 13 and composite map data generated based on the camera parameter data.

画像合成部3は、各カメラ11〜13の出力画像から合成画像を生成するものである。図2に示すように監視方向が異なる位置にカメラ11〜13が設置された場合、カメラ11〜13の画像31〜33を、各カメラ11〜13の撮影方向及び画角等のカメラパラメータ2に基づいて、投影変換等で図4に示すような画像41、42、43に変形し、変形後の画像を合成する。合成画像は、水平720×垂直200画素の解像度を持つ。この合成により、図5に示すように、魚眼カメラを用いて撮影したような、通路20を180度見渡す横長の合成画像50が生成される。   The image composition unit 3 generates a composite image from the output images of the cameras 11 to 13. As shown in FIG. 2, when the cameras 11 to 13 are installed at different positions in the monitoring direction, the images 31 to 33 of the cameras 11 to 13 are set as camera parameters 2 such as shooting directions and angles of view of the cameras 11 to 13. Based on this, the image is transformed into images 41, 42, and 43 as shown in FIG. 4 by projection conversion or the like, and the transformed images are synthesized. The composite image has a resolution of horizontal 720 × vertical 200 pixels. By this synthesis, as shown in FIG. 5, a horizontally long composite image 50 overlooking the passage 20 by 180 degrees, which is taken using a fisheye camera, is generated.

また、この合成は、カメラパラメータデータを基に生成した合成マップデータを用いても実現できる。合成マップデータは、合成画像上の各画素の出力データを、各カメラ画像の画素の出力データで規定したものである。カメラ11〜13が図2に示す配置の場合、、図6に示すような合成マップ60が記憶される。図6は、合成マップ60が、合成画像上の画素61の出力データが、カメラ11の(x1、y1)の画素データからなり、また、画素62の出力データが、カメラ12の(x2、y2)の画素データ及びカメラ13の(x3、y3)の画素データにそれぞれ(1−α)と(α)の重みを付けて計算されることを示しており、同様に全ての画素とカメラ11〜13の画素との関係が合成マップデータとして、データ保持部2に記憶される。この合成マップ60に基づいて合成された合成画像も解像度が水平720×垂直200画素である。   This composition can also be realized using composition map data generated based on camera parameter data. The composite map data defines the output data of each pixel on the composite image by the output data of the pixel of each camera image. When the cameras 11 to 13 are arranged as shown in FIG. 2, a composite map 60 as shown in FIG. 6 is stored. In FIG. 6, the composite map 60 is such that the output data of the pixel 61 on the composite image is composed of (x1, y1) pixel data of the camera 11, and the output data of the pixel 62 is (x2, y2) of the camera 12. ) And (x3, y3) pixel data of the camera 13 are calculated with weights (1-α) and (α), respectively. Similarly, all the pixels and the cameras 11 to 11 are calculated. The relationship with 13 pixels is stored in the data holding unit 2 as composite map data. The synthesized image synthesized based on the synthesized map 60 also has a resolution of horizontal 720 × vertical 200 pixels.

表示部4は、監視画像制御部1から出力された画像を表示するものであり、監視画像制御部1は、この合成画像を表示部4に出力する。したがって、この合成画像を見た監視者8は、監視画像が施設内のどこを映しているかを一目で直感的に把握することができる。   The display unit 4 displays the image output from the monitoring image control unit 1, and the monitoring image control unit 1 outputs this composite image to the display unit 4. Therefore, the supervisor 8 who has seen the composite image can intuitively grasp at a glance where the surveillance image shows in the facility.

タイムコード発生部6は、記録画像に付されるタイムコードを発生するものであり、監視画像制御部1の録画部1aは、各カメラ11〜13の出力画像に、タイムコード発生部6が発生するタイムコードを付して記録部9に記録するとともに、その画像から合成された合成画像に対しても、同じタイムコードを付して記録部9に記録する。記録部9は、各カメラ11〜13が撮影したカメラ画像154や画像合成部3が合成した合成画像155を記録するものである。   The time code generation unit 6 generates a time code to be added to the recorded image. The recording unit 1a of the monitoring image control unit 1 generates the time code generation unit 6 in the output images of the cameras 11 to 13. Is recorded in the recording unit 9 and the synthesized image synthesized from the image is recorded in the recording unit 9 with the same time code. The recording unit 9 records a camera image 154 taken by each of the cameras 11 to 13 and a synthesized image 155 synthesized by the image synthesizing unit 3.

動き検知部7は、合成画像155から、予め定められた特定の動きを検知し、監視画像制御部1のタグ情報添付部1dは、動き検知部7が検知した特定の動きを示す合成画像に対し、動きタグ情報を付与する。   The motion detection unit 7 detects a predetermined specific motion from the composite image 155, and the tag information attachment unit 1 d of the monitoring image control unit 1 creates a composite image indicating the specific motion detected by the motion detection unit 7. On the other hand, motion tag information is given.

例えば、図7に示すように、人物が通路を通過する場合を考える。合成画像は、図7(a)、図7(b)、図7(c)の順に得られるものとする。このとき動き検知部7に、合成画像上で右端から左端まで動く移動物体を検知するように予め設定されていたとすると、図8のように、合成画像上で右端から左端まで移動する物体が検知されたときにのみ、合成画像にタグ情報が付与される。人物が通路の途中で引き返したり、途中のドアへ消えて行ったり、また、途中のドアから現れたりする動きについては、タグ情報が添付されない。   For example, consider a case where a person passes through a passage as shown in FIG. Assume that the composite image is obtained in the order of FIG. 7A, FIG. 7B, and FIG. 7C. At this time, if the motion detection unit 7 is set in advance to detect a moving object moving from the right end to the left end on the composite image, an object moving from the right end to the left end on the composite image is detected as shown in FIG. Only when it is done, tag information is added to the composite image. Tag information is not attached to movements of a person turning back in the middle of a passage, disappearing to a middle door, or appearing from a middle door.

また、動き検知部7の設定を変えて、移動物体の別の動きに対して別のタグ情報を添付することも可能である。例えば、動き検知部7が、通路の途中で引き返す移動物体の動き、途中のドアへ消えて行った移動物体の動き、及び、途中のドアから現れた移動物体の動きをそれぞれ検知して、各動きに応じた検知信号を監視画像制御部1に出力するように設定すると、監視画像制御部1のタグ情報添付部1dは、検知信号に応じて別々の動きタグ情報を合成画像に添付する。   It is also possible to attach different tag information for different movements of the moving object by changing the setting of the motion detection unit 7. For example, the motion detection unit 7 detects the movement of the moving object that is turned back in the middle of the passage, the movement of the moving object that disappears to the middle door, and the movement of the moving object that appears from the middle door. If it sets so that the detection signal according to a motion may be output to the monitoring image control part 1, the tag information attachment part 1d of the monitoring image control part 1 will attach separate motion tag information to a synthesized image according to a detection signal.

ここで注目すべきは、こうした動きを個々のカメラの画像から検知しようとすると、各画像の連携した複雑な解析が必要になるが、合成画像上で動き検知を行う場合は、容易、且つ、安定して移動物体の動きを検出することができる点である。   It should be noted here that when such movement is detected from the images of individual cameras, a complicated analysis in which each image is linked is necessary. However, when motion detection is performed on a composite image, The point is that the movement of the moving object can be detected stably.

監視画像制御部1のタグ情報伝播部1eは、合成画像に付されたタグ情報と同じものを、その合成画像の作成に使用されたカメラ画像の内で、動く物体が映るカメラ画像にも付与する。このときの動作については後述する。   The tag information propagation unit 1e of the monitoring image control unit 1 applies the same tag information attached to the composite image to the camera image in which the moving object is reflected among the camera images used to create the composite image. To do. The operation at this time will be described later.

検索・領域指定部5は、監視者8が画像表示を指定する際のインターフェースとなるものであり、監視者8が、記録された監視映像から、通路を通過した不審者の映像表示を検索・領域指定部5より指定すると、監視画像制御部1の検索部1bは、記録部9の合成画像155の中から、通路の通過を示す動きタグ情報が付加された合成画像のみを抽出し、再生部1cを通じて表示部4に表示する。この合成画像を見た監視者8が、解像度の高いカメラ画像の表示を検索・領域指定部5から求めた場合、監視画像制御部1の検索部1bは、記録部9のカメラ画像154の中から、同じタグ情報が付加されたカメラ画像を抽出し、この画像が表示部4に表示される。   The search / area designating unit 5 serves as an interface when the supervisor 8 designates image display. The supervisor 8 searches the recorded video of the suspicious person who has passed through the passage. When designated by the area designation unit 5, the search unit 1b of the monitoring image control unit 1 extracts only the synthesized image to which the motion tag information indicating passage of passage is added from the synthesized image 155 of the recording unit 9, and reproduces it. The image is displayed on the display unit 4 through the unit 1c. When the monitor 8 who has seen this composite image obtains the display of the high-resolution camera image from the search / area specifying unit 5, the search unit 1 b of the monitor image control unit 1 includes the camera image 154 in the recording unit 9. Then, a camera image to which the same tag information is added is extracted, and this image is displayed on the display unit 4.

このように、合成画像から不審者の動きを的確に捉えることができ、それを基に、合成画像及びカメラ画像にタグ情報を付加することができる。このタグ情報を利用して、表示する映像を絞り込むことができるため、監視者は、効率的に監視を行うことができる。   In this way, the suspicious person's movement can be accurately grasped from the composite image, and tag information can be added to the composite image and the camera image based on it. Since the video to be displayed can be narrowed down using this tag information, the monitor can efficiently monitor.

また、監視者8は、合成画像に映る人物の顔を確認したい場合、図9(a)に示すように、合成画像から人物の顔が認識できる部分を選び、検索・領域指定部5を通じて、監視画像制御部1に検索・領域指定要求を出す。これを受けた監視画像制御部1の検索部1bは、合成マップデータ2を利用して、合成画像上の指定領域に対応するカメラ画像のデータを検索・抽出し、その顔画像を図9(b)のように提示する。   Further, when the supervisor 8 wants to confirm the face of the person shown in the composite image, as shown in FIG. 9A, the monitor 8 selects a part from which the person's face can be recognized from the composite image, and through the search / area designating unit 5 A search / area designation request is issued to the monitoring image control unit 1. Receiving this, the search unit 1b of the monitoring image control unit 1 uses the composite map data 2 to search and extract the data of the camera image corresponding to the designated area on the composite image, and the face image of FIG. Present as shown in b).

このとき、合成画像は全体的に720×200画素で低解像度であるが、各カメラ画像は、それぞれ720×480画素であり、鮮明である。ただ、人物の顔が一番良く見える箇所の選択は、その人物を長い時間追跡できる合成画像の方が適している。従って、合成画像から人物の顔領域を選択し、その領域のカメラ画像を抽出する操作により、監視者は、鮮明な人物の顔画像を見ることができ、通過する人物を、より確実に確認できる。   At this time, the synthesized image is 720 × 200 pixels as a whole and has a low resolution, but each camera image is 720 × 480 pixels and is clear. However, a composite image that can track a person for a long time is more suitable for selecting a place where the person's face can be best seen. Accordingly, by selecting a person's face area from the composite image and extracting the camera image of the area, the supervisor can see a clear face image of the person and can more surely confirm the passing person. .

図10〜図13を用いて、顔画像抽出の際の処理を説明する。図10は、合成画像による監視画像系列の一例と、監視者による領域指定を示すものであり、監視者8は、図10に示すような画像系列(動画)を見ながら、その中で人物の顔がよく見える画像(a)を選び、その合成画像中の顔が見える矩形領域を指定して、検索・領域指定部5から監視画像制御部1に対し拡大表示要求を行う。このとき、検索・領域指定部5からは、拡大表示要求を示すコマンドデータと、画像(a)を示すタイムコードデータと、矩形領域を示すデータ(左上端点101(X4,Y4)と右下端点102(X5,Y5)の座標データ)とが監視画像制御部1に送られる。   Processing for extracting a face image will be described with reference to FIGS. FIG. 10 shows an example of a monitoring image series based on a composite image and area designation by the supervisor. The supervisor 8 looks at the image series (moving image) as shown in FIG. An image (a) where the face can be seen well is selected, a rectangular area where the face can be seen in the composite image is designated, and an enlargement display request is issued from the search / area designation unit 5 to the monitoring image control unit 1. At this time, the search / area designating unit 5 receives command data indicating an enlarged display request, time code data indicating an image (a), data indicating a rectangular area (the upper left end point 101 (X4, Y4) and the lower right end point). 102 (X5, Y5 coordinate data) is sent to the monitoring image control unit 1.

監視画像制御部1の検索部1bは、検索・領域指定部5から拡大表示要求を示すコマンドデータを受けると、データ保持部2にアクセスし、合成マップ60を取得する。そして、図11に示すように、合成画像上の左上端点101(X4,Y4)及び右下端点102(X5,Y5)にそれぞれ対応する入力カメラとその入力画像上の座標データとを示すデータを得る。図11の例では、左上端点101の画素データは、カメラ13の(x6,y6)の画素データであり、右下端点102の画素データは、カメラ13の(x7,y7)の画素データであることを示している。   When the search unit 1b of the monitoring image control unit 1 receives command data indicating an enlarged display request from the search / area designating unit 5, the search unit 1b accesses the data holding unit 2 and acquires the composite map 60. Then, as shown in FIG. 11, the data indicating the input camera corresponding to the upper left corner point 101 (X4, Y4) and the lower right corner point 102 (X5, Y5) on the composite image and the coordinate data on the input image are displayed. obtain. In the example of FIG. 11, the pixel data of the upper left end point 101 is (x6, y6) pixel data of the camera 13, and the pixel data of the lower right end point 102 is (x7, y7) pixel data of the camera 13. It is shown that.

このように、2つの点に対応する入力カメラが同一の場合は、その入力カメラ13のカメラ画像154の中から、画像(a)を示すタイムコードデータと同じタイムコードデータが添付されたカメラ画像を検索し、さらに検索されたカメラ画像から座標データ((x6,y6),(x7,y7))で示される矩形領域の画像を抽出し、表示装置4に出力する。こうした処理により、図9(b)に示す、入力カメラの鮮明な顔画像を監視者に提示することができる。   Thus, when the input cameras corresponding to the two points are the same, the camera image to which the same time code data as the time code data indicating the image (a) is attached from the camera images 154 of the input camera 13 is attached. And a rectangular area image indicated by the coordinate data ((x6, y6), (x7, y7)) is extracted from the retrieved camera image and output to the display device 4. By such processing, a clear face image of the input camera shown in FIG. 9B can be presented to the supervisor.

監視者8が指定した矩形領域が、図12に示すように、複数のカメラ画像に基づく領域である場合には、別の方法でカメラ画像を抽出する。図12の例では、合成画像上の左上端点121の画素データは、カメラ12の(x8,y8)の画素データであり、合成画像上の右下端点122の画素データは、カメラ13の(x9,y9)の画素データ)である。このように、2つの点に対応する入力カメラが異なる場合は、矩形の外周上で、カメラ13に対応する合成マップデータの(Xの最小座標値,Yの最大座標値)に対応する点をカメラ13の左上端点(カメラ13:x10,y10))として算出し、カメラ12に対応する合成マップデータの(Xの最大座標値,Yの最小座標値)に対応する点をカメラ12の右下端点(カメラ12:(x11,y11))として算出し、それぞれ入力カメラ12、13の記録画像の中から、画像(a)のタイムコードデータと同じタイムコードデータが添付されたカメラ画像を検索し、さらに検索したカメラ画像から座標データ(カメラ12:((x8,y8),(x11,y11)))、(カメラ13:((x9,y9),(x10,y10)))で示される矩形領域の画像を抽出し、表示装置4に出力する。こうした処理により、図13(b)に示す顔画像を監視者に提示することができる。   If the rectangular area designated by the supervisor 8 is an area based on a plurality of camera images as shown in FIG. 12, the camera image is extracted by another method. In the example of FIG. 12, the pixel data of the upper left end point 121 on the composite image is (x8, y8) pixel data of the camera 12, and the pixel data of the lower right end point 122 on the composite image is (x9 of the camera 13). , Y9) pixel data). As described above, when the input cameras corresponding to the two points are different, the points corresponding to (the minimum coordinate value of X and the maximum coordinate value of Y) of the composite map data corresponding to the camera 13 on the outer periphery of the rectangle. Calculated as the upper left end point of the camera 13 (camera 13: x10, y10)), the point corresponding to (the maximum coordinate value of X, the minimum coordinate value of Y) of the composite map data corresponding to the camera 12 is the lower right end point of the camera 12. A point (camera 12: (x11, y11)) is calculated, and a camera image to which the same time code data as the time code data of the image (a) is attached is searched from the recorded images of the input cameras 12 and 13, respectively. Further, coordinate data (camera 12: ((x8, y8), (x11, y11))) and (camera 13: ((x9, y9), (x10, y10))) are indicated from the retrieved camera image. It extracts an image of the rectangular region, and outputs to the display unit 4. By such processing, the face image shown in FIG. 13B can be presented to the supervisor.

このように、合成画像上で入力カメラの切り替わる部分が選択された場合でも、両方の入力カメラの鮮明な人物の顔画像が検索・抽出され、同時に提示されるので、監視者は、通過する人物の顔画像を確実に確認できる。   In this way, even when the part where the input camera is switched is selected on the composite image, the face image of a clear person of both input cameras is searched, extracted, and presented at the same time. The face image of can be confirmed reliably.

なお、合成マップデータを用いて、合成画像に対応したカメラ画像を求める方法は、監視画像制御部1のタグ情報伝播部1eが、合成画像に付されたタグ情報をカメラ画像に付与する場合にも使用される。このとき、タグ情報伝播部1eは、図11及び図12の場合と同様に、動き検知部7により検知された合成画像上の動き領域が、合成マップデータ上で、1つの入力カメラの座標データだけに関係するか、複数の入力カメラの座標データに関係するかを調べる。そして、関係するカメラのカメラ画像の内、合成画像と同一のタイムコードが付されたカメラ画像を選択して、合成画像と同一の動きタグ情報を添付する。   The method for obtaining a camera image corresponding to a composite image using the composite map data is when the tag information propagation unit 1e of the monitoring image control unit 1 adds the tag information attached to the composite image to the camera image. Also used. At this time, as in the case of FIG. 11 and FIG. 12, the tag information propagation unit 1e indicates that the motion area on the composite image detected by the motion detection unit 7 is the coordinate data of one input camera on the composite map data. Whether it is related to the coordinate data of a plurality of input cameras. Then, a camera image with the same time code as the synthesized image is selected from the camera images of the related cameras, and the same motion tag information as that of the synthesized image is attached.

このように、この監視装置の映像を監視する監視者は、まず合成画像を見ることによって施設内のどこを監視しているかを一目で直感的に把握でき、また、再生される合成画像を見ながら、合成画像中の注目したい部分について、対応する入力カメラの鮮明な画像を再生させて確認することができる。また、この監視装置では、合成画像を用いて動き検知を行い、それを基に合成画像及びカメラ画像に動きタグ情報を添付しているため、個々のカメラ画像の解析だけでは侵入者かどうかが不確かな場合でも、安定して侵入者を検出することができ、その後の検索、再生での監視効率が向上する。従って、施設内の侵入者を詳細かつ効率的に監視することができる。   In this way, the supervisor who monitors the video of this monitoring device can grasp at first glance where the facility is being monitored by looking at the composite image, and can also view the composite image to be reproduced. However, a clear image of the corresponding input camera can be reproduced and confirmed for the portion of the composite image that is desired to be noticed. Also, in this monitoring device, since motion detection is performed using a composite image and motion tag information is attached to the composite image and the camera image based on the detection, whether or not it is an intruder can be determined only by analyzing individual camera images. Even if it is uncertain, an intruder can be detected stably, and monitoring efficiency in subsequent search and reproduction is improved. Therefore, intruders in the facility can be monitored in detail and efficiently.

次に、この監視装置の変形例について説明する。図14に、カメラ配置の他の例を示す。図14におけるカメラ11〜13の設置位置は、図2の設置位置と同一であるが、カメラ、11、12、13の画角が異なる。図14に示すように、通路を監視する3つのカメラ11、12、13の内、カメラ11、13に望遠カメラを使用し、カメラ12に広角カメラを使用することにより、カメラ11及び13の画角141、143を水平45度以下に、また、カメラ12の画角142を、画角141、143の2倍以上である、水平90度以上に設定している。   Next, a modified example of this monitoring apparatus will be described. FIG. 14 shows another example of the camera arrangement. The installation positions of the cameras 11 to 13 in FIG. 14 are the same as the installation positions in FIG. 2, but the angles of view of the cameras 11, 12, and 13 are different. As shown in FIG. 14, among the three cameras 11, 12, and 13 that monitor the passage, a telephoto camera is used for the cameras 11 and 13, and a wide-angle camera is used for the camera 12. The angles 141 and 143 are set to 45 degrees or less, and the angle of view 142 of the camera 12 is set to 90 degrees or more, which is twice or more of the angles of view 141 and 143.

図14に示す各カメラ11、12、13で撮影される画像を、図15に示す。通路の左右両端を撮影した画像31、33の中で、人物151、153は比較的遠距離におり、また、中央を撮影した画像32の中で、人物152は比較的近距離にいる。そのため、同じ画角で撮影した場合は、近距離で撮影した人物152の画像が極端に大きく、遠距離で撮影した人物151、153の画像が極端に小さくなるのに対して、この例では、それぞれ撮影される人物の画像は、極端に大きくも、極端に小さくもならない。   Images taken by the cameras 11, 12, and 13 shown in FIG. 14 are shown in FIG. In the images 31 and 33 obtained by photographing the left and right ends of the passage, the persons 151 and 153 are at a relatively long distance, and in the image 32 obtained by photographing the center, the person 152 is at a relatively short distance. Therefore, when shooting at the same angle of view, the image of the person 152 photographed at a short distance is extremely large and the images of the persons 151 and 153 photographed at a long distance are extremely small. The image of the person being photographed cannot be extremely large or extremely small.

図16は、図4と同様に、撮影画像31〜33を合成するため、撮影画像31〜33を、各カメラの撮影方向及び画角等のパラメータを基に投影変換等で画像161〜163に変形した状態を示している。この変形画像を合成することにより、図17に示すように、通路を180度見渡す横長の合成画像を得ることができる。ここで、図4と異なる点は、通路の左右両端を撮影した画像の合成画像上での範囲161、163が小さく、通路の中央を撮影した画像の合成画像上での範囲162が大きくなる点である。   As in FIG. 4, FIG. 16 synthesizes the captured images 31 to 33, so that the captured images 31 to 33 are converted into images 161 to 163 by projection conversion based on parameters such as the shooting direction and the angle of view of each camera. A deformed state is shown. By synthesizing this deformed image, a horizontally long synthesized image overlooking the passage 180 degrees can be obtained as shown in FIG. Here, the difference from FIG. 4 is that the ranges 161 and 163 on the composite image of the images taken at the left and right ends of the passage are small, and the range 162 on the composite image of the image taken at the center of the passage is large. It is.

このような合成画像が表示部4に表示された状態で、合成画像に映る人物の顔を確認したい場合、監視者8は、まず、図17に示す画像合成を見ながら人物の顔の領域、171、172、173をそれぞれ指定する。このとき、対応する入力カメラの画像(図15)から人物の顔画像が検索され提示されるが、図15に示すように、各画像上では、それぞれ撮影される人物の画像が極端に大きくも、極端に小さくもないため、遠距離での人物の顔画像も鮮明に見ることができる。   When such a composite image is displayed on the display unit 4 and wants to confirm the face of a person appearing in the composite image, the supervisor 8 first looks at the image composition shown in FIG. 171, 172, and 173 are respectively designated. At this time, the face image of the person is retrieved from the corresponding input camera image (FIG. 15) and presented. As shown in FIG. 15, the image of the person to be photographed is extremely large on each image. Because it is not extremely small, the face image of a person at a long distance can be seen clearly.

このように、左右を望遠カメラで監視し、この望遠カメラと画角が2倍以上異なる広角カメラで正面を監視する場合は、3つのカメラ画像の合成画像から侵入者を検出し、その人物の顔画像を、カメラ画像で詳細に見る際に、左右の遠く離れた人物の顔画像であっても、より詳細に見ることができる。   Thus, when monitoring the left and right with a telephoto camera and monitoring the front with a wide-angle camera whose angle of view differs from this telephoto camera by more than twice, an intruder is detected from the composite image of the three camera images, and the person's When the face image is viewed in detail with the camera image, even the face images of persons far away from the left and right can be viewed in more detail.

(第2の実施の形態)
図18に、本発明の第2の実施形態の監視装置の概略構成を示す。図14の監視装置は、建物等の施設の監視を行うもので、カメラ画像と施設構造とを合成した合成画像を提示するものである。
(Second Embodiment)
FIG. 18 shows a schematic configuration of a monitoring apparatus according to the second embodiment of the present invention. The monitoring device in FIG. 14 monitors facilities such as buildings, and presents a composite image obtained by combining a camera image and a facility structure.

この監視装置は、カメラ11〜16、監視画像制御部181、データ保持部2、画像合成部3、表示部4、検索・領域指定部5、タイムコード発生部6、動き検知部7、記録部9、施設構造データ保持部182を含んで構成される。図から明らかなように、図1の監視装置とほぼ同様の構成を有するが、施設構造データ保持部182を備え、監視画像制御部181によって監視画像の表示や記録・再生を制御する点で異なる。また、6台のカメラを備え、画像合成部3は、各カメラ11〜16の出力画像を施設構造に逆投影した合成画像やフロアに逆投影したフロア画像を生成し、記録部9には、カメラ画像154、合成画像155とともに各フロア合成画像が記録される。   The monitoring apparatus includes cameras 11 to 16, a monitoring image control unit 181, a data holding unit 2, an image synthesis unit 3, a display unit 4, a search / area designation unit 5, a time code generation unit 6, a motion detection unit 7, and a recording unit. 9 and a facility structure data holding unit 182. As is apparent from the figure, the monitoring apparatus has substantially the same configuration as that of the monitoring apparatus of FIG. 1, but differs in that it includes a facility structure data holding unit 182 and the monitoring image control unit 181 controls display, recording / reproduction of monitoring images. . In addition, the image synthesizing unit 3 includes six cameras, and the image synthesizing unit 3 generates a composite image obtained by back projecting the output images of the cameras 11 to 16 on the facility structure and a floor image obtained by projecting back to the floor. Each floor composite image is recorded together with the camera image 154 and the composite image 155.

監視画像制御部181は、図1の監視装置における監視画像制御部1が備える構成に加えて、優先度の低い画像を記録部9から消去する消去部1fを有する。   The monitoring image control unit 181 includes an erasing unit 1f that deletes an image having a low priority from the recording unit 9 in addition to the configuration of the monitoring image control unit 1 in the monitoring apparatus of FIG.

施設構造データ182は、図19に模式的に示すように、複数のカメラ11〜16の施設内での位置や施設の壁面、フロアの通路面などの配置を3次元的に表したデータである。複数のカメラ11〜16は、施設内に分散して配置されており、各フロアには複数のカメラが設置されている。   The facility structure data 182 is data that three-dimensionally represents the positions of the plurality of cameras 11 to 16 in the facility, the wall surface of the facility, the passage surface of the floor, and the like, as schematically shown in FIG. . The plurality of cameras 11 to 16 are distributed in the facility, and a plurality of cameras are installed on each floor.

画像合成部3は、図20に示すように、入力カメラ201の撮影画像を施設内の通路面204や壁面203に逆投影(202)したときの画像を合成画像として作成する。ここで言う「逆投影」とは、この実際の撮影とは逆方向に、施設の壁や通路面などの3次元データ上に撮影画像を投影する操作のことである。データ保持部2に記憶される合成マップデータは、合成画像上の各画素の出力データをカメラ画像の画素の出力データで規定したものであり、カメラパラメータと施設構造データ182とを用い、カメラの画素データを施設構造データ182に逆投影して作成することができる。画像合成部3は、この合成マップデータ2を用いて、各カメラ11〜16の出力画像を施設構造に逆投影した合成画像を生成し、また、各カメラ11〜16の出力画像をフロアに逆投影したフロア合成画像を生成する。   As shown in FIG. 20, the image composition unit 3 creates an image obtained by back-projecting (202) the captured image of the input camera 201 onto the passage surface 204 and the wall surface 203 in the facility as a composite image. The term “back projection” as used herein refers to an operation of projecting a photographed image on three-dimensional data such as a facility wall or a passage surface in a direction opposite to the actual photographing. The composite map data stored in the data holding unit 2 is obtained by defining the output data of each pixel on the composite image with the output data of the pixel of the camera image, and using the camera parameters and the facility structure data 182, Pixel data can be created by back projecting to the facility structure data 182. The image composition unit 3 uses the composite map data 2 to generate a composite image obtained by back projecting the output images of the cameras 11 to 16 to the facility structure, and reversely outputs the output images of the cameras 11 to 16 to the floor. A projected floor composite image is generated.

監視画像制御部181の録画部1aは、各カメラ11〜13のカメラ画像にタイムコード発生部6が発生するタイムコードを付して記録部9に記録し、また、画像合成部3がカメラ画像を用いて生成した合成画像や各フロア合成画像に、そのカメラ画像と同じタイムコードを付して記録部9に記録する。監視画像制御部181の再生部1cは、検索・領域指定部5からの要求に基づいて、施設構造にカメラ画像を逆投影した、図21に示すような合成画像155を再生し、監視者に提示する。また、その際、要求に応じて、図21(a)に示すように、施設を211または212の方向に所定角度回転し、種々の方向から施設が見られるようにし、あるいは、図21(b)に示すように、要求されたフロア213だけを表示する。したがって、監視者は、施設内を俯瞰する形で監視を行うことができる。   The recording unit 1a of the monitoring image control unit 181 adds the time code generated by the time code generation unit 6 to the camera image of each camera 11 to 13 and records it in the recording unit 9, and the image composition unit 3 also records the camera image. Is recorded on the recording unit 9 with the same time code as that of the camera image. Based on the request from the search / area designating unit 5, the playback unit 1c of the monitoring image control unit 181 plays back a composite image 155 as shown in FIG. Present. At that time, as shown in FIG. 21 (a), the facility is rotated by a predetermined angle in the direction 211 or 212 so that the facility can be seen from various directions, as shown in FIG. ), Only the requested floor 213 is displayed. Therefore, the supervisor can perform monitoring while looking down on the inside of the facility.

また、監視者が、検索・領域指定部5を通じて、この合成画像から注目する位置のカメラを指定したり、合成画像上の顔領域を指定したりした場合、監視画像制御部181の検索部1bは、第1の実施形態と同様に、合成マップデータ2やタイムコードを用いて該当するカメラ画像や、そのカメラ画像の顔領域を検索し、表示部4に表示する。動き検知部7は、画像合成部3が生成した、複数のカメラ画像を含む各フロア合成画像183から、予め定められた特定の動きを検知する。   Further, when the monitor designates a camera at a position of interest from the composite image or designates a face region on the composite image through the search / region specification unit 5, the search unit 1 b of the monitor image control unit 181. As in the first embodiment, the corresponding camera image and the face area of the camera image are searched using the composite map data 2 and the time code and displayed on the display unit 4. The motion detection unit 7 detects a predetermined specific motion from each floor composite image 183 generated by the image composition unit 3 and including a plurality of camera images.

図22は、その様子を模式的に示している。動き検知部7は、各フロア合成画像221、222、223を用いて、人物224がフロア上で第1のカメラの逆投影位置225から第2のカメラの逆投影位置226まで移動する動き227だけを検出する。こうした動きは、個々のカメラの画像を解析しても十分把握できない場合があるが、フロア上に投影された複数のカメラ画像が合成されたフロア合成画像を用いることにより、正確に検出できる。   FIG. 22 schematically shows such a state. The motion detection unit 7 uses only the floor composite images 221, 222, and 223 to move only the motion 227 in which the person 224 moves on the floor from the back projection position 225 of the first camera to the back projection position 226 of the second camera. Is detected. Such movement may not be sufficiently grasped even by analyzing the images of individual cameras, but can be accurately detected by using a floor composite image obtained by combining a plurality of camera images projected on the floor.

監視画像制御部181のタグ情報添付部1dは、動き検知部7が検知した特定の動きを示すフロア合成画像183に対して動きタグ情報を付与する。タグ情報伝播部1eは、フロア合成画像に付されたタグ情報と同じものを、フロア合成画像と同じタイムコードが付された合成画像155や、そのフロア合成画像の作成に使用したカメラ画像であって、フロア合成画像と同じタイムコードが付されたカメラ画像に添付する。合成画像155、各フロア合成画像183及びカメラ画像に付されたタグ情報は、第1の実施形態と同様に、再生する画像を絞り込むために使われる。   The tag information attachment unit 1d of the monitoring image control unit 181 adds motion tag information to the floor composite image 183 that shows the specific motion detected by the motion detection unit 7. The tag information propagation unit 1e is the same as the tag information attached to the floor composite image, the composite image 155 with the same time code as the floor composite image, or the camera image used to create the floor composite image. And attach it to the camera image with the same time code as the floor composite image. The tag information attached to the composite image 155, each floor composite image 183, and the camera image is used to narrow down the images to be reproduced, as in the first embodiment.

また、監視画像制御部181の消去部1fは、記録部9に格納した監視画像の優先度を、それらの画像に付したタグ情報により決定し、優先度に応じて設定した時間が経過した画像を自動的に消去する。こうすることで、装置の記憶容量を効率的に使用することができる。   Further, the erasing unit 1f of the monitoring image control unit 181 determines the priority of the monitoring image stored in the recording unit 9 based on the tag information attached to these images, and an image in which the time set according to the priority has elapsed. Is automatically deleted. In this way, the storage capacity of the device can be used efficiently.

このように、この監視装置は、監視者に対し、その位置が直感的に分かる合成画像を提示することができ、監視者は、この合成画像から、個々のカメラ画像やカメラ画像の領域を選択して詳細に監視することができる。そのため、複雑で大きな施設でも、詳細且つ効率的な監視が可能になる。   In this way, the monitoring device can present a synthesized image whose position can be intuitively understood to the supervisor, and the supervisor selects individual camera images and camera image areas from the synthesized image. And can be monitored in detail. Therefore, detailed and efficient monitoring is possible even in a complex and large facility.

本発明の監視装置は、監視者に対して、監視対象の位置が直感的に分かり、また、不審者等の動きや特徴等の異常の状態が把握し易い映像を提示できる監視装置等として有用である。また、蓄積した映像の中から、監視者が要求する映像を的確に絞り込んで提示することができると言う利点を有しており、大規模施設の集中監視システム等に広く利用することができる。   INDUSTRIAL APPLICABILITY The monitoring device of the present invention is useful as a monitoring device capable of intuitively knowing the position of a monitoring target for a monitor and presenting an image in which an abnormal state such as a suspicious person's movement or characteristic can be easily grasped. It is. Further, it has an advantage that the video requested by the supervisor can be narrowed down and presented from the accumulated video, and can be widely used in a centralized monitoring system of a large-scale facility.

本発明の第1の実施態様の監視装置の概略構成を示す図The figure which shows schematic structure of the monitoring apparatus of the 1st Embodiment of this invention. 本発明の第1の実施態様の監視装置におけるカメラ配置の一例を示す図The figure which shows an example of the camera arrangement | positioning in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置における複数のカメラが撮影した画像の一例を示す図The figure which shows an example of the image which the some camera in the monitoring apparatus of the 1st embodiment of this invention image | photographed. 本発明の第1の実施態様の監視装置における画像合成方法の一例を説明する図The figure explaining an example of the image composition method in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置における合成画像の一例を示す図The figure which shows an example of the synthesized image in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置における画像合成用合成マップの一例を示す図The figure which shows an example of the composite map for image composition in the monitoring apparatus of the 1st Embodiment of this invention 本発明の第1の実施態様の監視装置における合成画像による監視画像系列の一例を示す図The figure which shows an example of the monitoring image series by the synthesized image in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置における合成画像上の動き検知設定の一例を示す図The figure which shows an example of the motion detection setting on the synthesized image in the monitoring apparatus of the 1st embodiment of this invention. 本発明の第1の実施態様の監視装置における合成画像とカメラ画像から抽出された顔画像を示す図The figure which shows the face image extracted from the synthesized image and the camera image in the monitoring apparatus of the 1st Embodiment of this invention 本発明の第1の実施態様の監視装置における合成画像による監視画像系列の一例と、監視者による領域指定を示す模式図FIG. 4 is a schematic diagram illustrating an example of a monitoring image sequence based on a composite image in the monitoring apparatus according to the first embodiment of the present invention, and region designation by a supervisor. 本発明の第1の実施態様の監視装置における合成マップを用いた入力カメラ画像の抽出方法の一例を示す図The figure which shows an example of the extraction method of the input camera image using the synthetic | combination map in the monitoring apparatus of the 1st embodiment of this invention. 本発明の第1の実施態様の監視装置における合成マップを用いた入力カメラ画像の抽出方法の他の例を示す図The figure which shows the other example of the extraction method of the input camera image using the synthetic | combination map in the monitoring apparatus of the 1st Embodiment of this invention. 本発明の第1の実施態様の監視装置における合成画像と二つのカメラ画像から抽出された顔画像を示す図The figure which shows the face image extracted from the synthesized image and two camera images in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置におけるカメラ配置の他の例を示す図The figure which shows the other example of the camera arrangement | positioning in the monitoring apparatus of the 1st embodiment of this invention. 本発明の第1の実施態様の監視装置における複数のカメラが撮影した画像の他の例を示す図The figure which shows the other example of the image which the some camera in the monitoring apparatus of the 1st embodiment of this invention image | photographed. 本発明の第1の実施態様の監視装置における画像合成方法の他の例を説明する図The figure explaining the other example of the image composition method in the monitoring apparatus of the 1st embodiment of this invention 本発明の第1の実施態様の監視装置における合成画像の他の例を示す図The figure which shows the other example of the synthesized image in the monitoring apparatus of the 1st embodiment of this invention 本発明の第2の実施態様の監視装置の概略構成を示す図The figure which shows schematic structure of the monitoring apparatus of the 2nd embodiment of this invention. 本発明の第2の実施態様の監視装置における施設構造データの一例を説明する図The figure explaining an example of the facility structure data in the monitoring apparatus of the 2nd embodiment of this invention 本発明の第2の実施態様の監視装置における合成画像生成方法の一例を説明する図The figure explaining an example of the synthesized image generation method in the monitoring apparatus of the 2nd embodiment of this invention 本発明の第2の実施態様の監視装置における合成画像(a)と1フロア分の合成画像(b)とを示す図The figure which shows the synthesized image (a) and the synthesized image (b) for one floor in the monitoring apparatus of the 2nd embodiment of this invention. 本発明の第2の実施態様の監視装置におけるフロア合成画像での動き検知を示す図The figure which shows the motion detection in the floor composite image in the monitoring apparatus of the 2nd embodiment of this invention.

符号の説明Explanation of symbols

1 監視画像制御部
1a 録画部
1b 検索部
1c 再生部
1d タグ情報添付部
1e タグ情報伝搬部
1f 消去部
2 データ保持部
3 画像合成部
4 表示部
5 検索・領域指定部
6 タイムコード発生部
7 動き検知部
8 監視者
9 記録部
11 カメラ
12 カメラ
13 カメラ
14 カメラ
15 カメラ
16 カメラ
20 通路
31 カメラ画像
32 カメラ画像
33 カメラ画像
41 変形画像
42 変形画像
43 変形画像
50 合成画像
60 合成マップ
61 画素
62 画素
101 左上端点
102 右下端点
121 左上端点
122 右下端点
141 画角
142 画角
143 画角
151 人物
152 人物
153 人物
154 カメラ画像
155 合成画像
161 変形画像
162 変形画像
163 変形画像
171 顔領域
172 顔領域
173 顔領域
181 監視画像制御部
182 施設構造データ保持部
183 各フロア合成画像
201 カメラ
202 逆投影
203 壁面
204 通路面
211 角度変更方向
212 角度変更方向
213 1フロア分の合成画像
221 フロア合成画像
222 フロア合成画像
223 フロア合成画像
224 侵入者の画像
225 位置
226 位置
227 動き
DESCRIPTION OF SYMBOLS 1 Monitoring image control part 1a Recording part 1b Retrieval part 1c Reproduction part 1d Tag information attachment part 1e Tag information propagation part 1f Erasing part 2 Data holding part 3 Image composition part 4 Display part 5 Search and area designation part 6 Time code generation part 7 Motion detection unit 8 Monitor 9 Recording unit 11 Camera 12 Camera 13 Camera 14 Camera 15 Camera 16 Camera 20 Passage 31 Camera image 32 Camera image 33 Camera image 41 Deformed image 42 Deformed image 43 Deformed image 50 Synthetic image 60 Synthetic map 61 Pixel 62 Pixel 101 Upper left point 102 Right lower point 121 Left upper point 122 Right lower point 141 Angle of view 142 Angle of view 143 Angle of view 151 Person 152 Person 153 Person 154 Camera image 155 Composite image 161 Deformed image 162 Deformed image 163 Deformed image 171 Face area 172 Face Area 173 Face area 181 Monitoring image control unit 182 Structure data holding unit 183 Each floor composite image 201 Camera 202 Back projection 203 Wall surface 204 Path surface 211 Angle change direction 212 Angle change direction 213 Composite image 221 for one floor Floor composite image 222 Floor composite image 223 Floor composite image 224 Intruder Image 225 Position 226 Position 227 Movement

Claims (6)

複数のカメラを用いた監視を行う監視装置であって、
前記カメラで撮影したカメラ画像を用いて合成画像を生成する合成画像生成手段と、
前記カメラ画像及び前記合成画像を保持する記録手段と、
画像を表示する表示手段と、
前記表示手段に表示した前記合成画像の任意の領域が選択されたとき、前記選択された領域に対応する前記カメラ画像または当該カメラ画像の領域を検索して前記表示手段に表示する検索手段と
を備えた監視装置。
A monitoring device that performs monitoring using a plurality of cameras,
A composite image generating means for generating a composite image using a camera image photographed by the camera;
Recording means for holding the camera image and the composite image;
Display means for displaying an image;
When an arbitrary area of the composite image displayed on the display means is selected, search means for searching the camera image corresponding to the selected area or the area of the camera image and displaying the area on the display means Equipped with a monitoring device.
請求項1に記載の監視装置であって、
前記合成画像生成手段は、複数のカメラのカメラ画像を合成した合成画像を生成する監視装置。
The monitoring device according to claim 1,
The synthesized image generating means is a monitoring device that generates a synthesized image obtained by synthesizing camera images of a plurality of cameras.
請求項2に記載の監視装置であって、
前記複数のカメラは、2倍以上画角が異なる2以上のカメラを含む監視装置。
The monitoring device according to claim 2,
The plurality of cameras are monitoring devices including two or more cameras having different angles of view by a factor of two or more.
請求項1に記載の監視装置であって、
前記合成画像生成手段は、前記カメラ画像と監視対象施設の構造を示す図形とを合成した合成画像を生成する監視装置。
The monitoring device according to claim 1,
The composite image generation means is a monitoring device that generates a composite image obtained by combining the camera image and a graphic indicating the structure of the monitoring target facility.
請求項1から4のいずれか1項に記載の監視装置であって、
複数のカメラ画像を利用して生成された前記合成画像から動きを検出する動き検知手段と、
前記動き検知手段が検知した前記合成画像にタグ情報を付加するタグ情報付加手段と、
前記タグ情報を付加した合成画像に使用された前記カメラ画像を検索して、当該カメラ画像に前記タグ情報を付加するタグ情報伝播手段とを備えた監視装置。
The monitoring device according to any one of claims 1 to 4,
Motion detection means for detecting motion from the composite image generated using a plurality of camera images;
Tag information adding means for adding tag information to the composite image detected by the motion detecting means;
A monitoring apparatus comprising: tag information propagation means for searching for the camera image used in the composite image to which the tag information is added and adding the tag information to the camera image.
請求項5に記載の監視装置であって、
前記タグ情報に基づいて、前記タグ情報が付加された合成画像及びカメラ画像の優先度を決定し、前記優先度に基づいて消去する画像を決定する消去手段を備えた監視装置。
The monitoring device according to claim 5,
A monitoring apparatus comprising: an erasing unit that determines a priority of a composite image and a camera image to which the tag information is added based on the tag information, and determines an image to be deleted based on the priority.
JP2005123835A 2005-04-21 2005-04-21 Monitoring device Expired - Fee Related JP4722537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005123835A JP4722537B2 (en) 2005-04-21 2005-04-21 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123835A JP4722537B2 (en) 2005-04-21 2005-04-21 Monitoring device

Publications (2)

Publication Number Publication Date
JP2006303989A true JP2006303989A (en) 2006-11-02
JP4722537B2 JP4722537B2 (en) 2011-07-13

Family

ID=37471738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123835A Expired - Fee Related JP4722537B2 (en) 2005-04-21 2005-04-21 Monitoring device

Country Status (1)

Country Link
JP (1) JP4722537B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305156A (en) * 2007-06-07 2008-12-18 Nec Software Kyushu Ltd Facial image extraction and accumulation system, and facial image extraction and accumulation method
JP2009055444A (en) * 2007-08-28 2009-03-12 Toshiba Corp System and device for searching video image
JP2009162413A (en) * 2007-12-28 2009-07-23 Ihi Corp Sniper detecting device
JP2011097309A (en) * 2009-10-29 2011-05-12 Hitachi Ltd Centralized monitoring system and centralized monitoring method by multiple monitoring cameras
WO2012153805A1 (en) * 2011-05-12 2012-11-15 株式会社日立国際電気 Monitoring system and monitoring method
JP2016500855A (en) * 2012-09-13 2016-01-14 ゼネラル・エレクトリック・カンパニイ System and method for generating a human behavior summary
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
WO2020066008A1 (en) * 2018-09-28 2020-04-02 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
US10716431B2 (en) 2014-11-11 2020-07-21 Koninklijke Philips N.V. Beverage and food temperature regulation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7316504B2 (en) 2018-09-21 2023-07-28 国立大学法人東京農工大学 HEATING ELEMENT, HEATING DEVICE, AND HEATING ELEMENT MANUFACTURING METHOD

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0252584A (en) * 1988-08-17 1990-02-22 Hitachi Ltd Video signal transmitter
JPH09271021A (en) * 1995-12-19 1997-10-14 Canon Inc Communication equipment, image processor, communication method and image processing method
JPH1079932A (en) * 1996-09-04 1998-03-24 Osaka Gas Co Ltd Monitoring device and method for linking plural picture and device therefor
JP2000092483A (en) * 1998-09-17 2000-03-31 Toshiba Corp Device and method for displaying monitored image and recording medium for placing monitoring image display device in operation
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2000261794A (en) * 1999-03-10 2000-09-22 Toshiba Corp Moving picture display system and its display method
JP2001086433A (en) * 1999-09-17 2001-03-30 Hitachi Denshi Ltd Method for retrieving and displaying image data in monitoring storage device
JP2001309368A (en) * 2000-04-26 2001-11-02 Matsushita Electric Ind Co Ltd Digital image recording and reproducing device for monitoring
JP2002239178A (en) * 2001-02-14 2002-08-27 Sankyo Kk Game parlor monitoring image information providing system
JP2003009052A (en) * 2001-06-21 2003-01-10 Nippon Computer:Kk Method and device for simultaneous recording and reproducing
JP2003109155A (en) * 2001-07-26 2003-04-11 Matsushita Electric Works Ltd Crime prevention monitoring system
JP2003179911A (en) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd Monitoring apparatus and system
JP2003244683A (en) * 2002-02-13 2003-08-29 Toshiba Corp Remote monitor system and program
JP2004186922A (en) * 2002-12-02 2004-07-02 Chuo Electronics Co Ltd Wide range photographing method using a plurality of cameras
JP2004201231A (en) * 2002-12-20 2004-07-15 Victor Co Of Japan Ltd Monitoring video camera system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0252584A (en) * 1988-08-17 1990-02-22 Hitachi Ltd Video signal transmitter
JPH09271021A (en) * 1995-12-19 1997-10-14 Canon Inc Communication equipment, image processor, communication method and image processing method
JPH1079932A (en) * 1996-09-04 1998-03-24 Osaka Gas Co Ltd Monitoring device and method for linking plural picture and device therefor
JP2000092483A (en) * 1998-09-17 2000-03-31 Toshiba Corp Device and method for displaying monitored image and recording medium for placing monitoring image display device in operation
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2000261794A (en) * 1999-03-10 2000-09-22 Toshiba Corp Moving picture display system and its display method
JP2001086433A (en) * 1999-09-17 2001-03-30 Hitachi Denshi Ltd Method for retrieving and displaying image data in monitoring storage device
JP2001309368A (en) * 2000-04-26 2001-11-02 Matsushita Electric Ind Co Ltd Digital image recording and reproducing device for monitoring
JP2002239178A (en) * 2001-02-14 2002-08-27 Sankyo Kk Game parlor monitoring image information providing system
JP2003009052A (en) * 2001-06-21 2003-01-10 Nippon Computer:Kk Method and device for simultaneous recording and reproducing
JP2003109155A (en) * 2001-07-26 2003-04-11 Matsushita Electric Works Ltd Crime prevention monitoring system
JP2003179911A (en) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd Monitoring apparatus and system
JP2003244683A (en) * 2002-02-13 2003-08-29 Toshiba Corp Remote monitor system and program
JP2004186922A (en) * 2002-12-02 2004-07-02 Chuo Electronics Co Ltd Wide range photographing method using a plurality of cameras
JP2004201231A (en) * 2002-12-20 2004-07-15 Victor Co Of Japan Ltd Monitoring video camera system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305156A (en) * 2007-06-07 2008-12-18 Nec Software Kyushu Ltd Facial image extraction and accumulation system, and facial image extraction and accumulation method
JP4725892B2 (en) * 2007-06-07 2011-07-13 九州日本電気ソフトウェア株式会社 Facial image extraction and storage system and facial image extraction and storage method
JP2009055444A (en) * 2007-08-28 2009-03-12 Toshiba Corp System and device for searching video image
JP2009162413A (en) * 2007-12-28 2009-07-23 Ihi Corp Sniper detecting device
JP2011097309A (en) * 2009-10-29 2011-05-12 Hitachi Ltd Centralized monitoring system and centralized monitoring method by multiple monitoring cameras
WO2012153805A1 (en) * 2011-05-12 2012-11-15 株式会社日立国際電気 Monitoring system and monitoring method
JP2016500855A (en) * 2012-09-13 2016-01-14 ゼネラル・エレクトリック・カンパニイ System and method for generating a human behavior summary
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
US10716431B2 (en) 2014-11-11 2020-07-21 Koninklijke Philips N.V. Beverage and food temperature regulation
WO2020066008A1 (en) * 2018-09-28 2020-04-02 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JPWO2020066008A1 (en) * 2018-09-28 2021-05-13 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JP7011728B2 (en) 2018-09-28 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method

Also Published As

Publication number Publication date
JP4722537B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
JP4722537B2 (en) Monitoring device
JP6055823B2 (en) Surveillance camera control device and video surveillance system
EP2553924B1 (en) Effortless navigation across cameras and cooperative control of cameras
US20190037178A1 (en) Autonomous video management system
EP1872345B1 (en) Intelligent camera selection and object tracking
KR101215199B1 (en) Information processing system, information processing apparatus and information processing method, and recording medium
JP6062039B2 (en) Image processing system and image processing program
US20130021433A1 (en) Overview configuration and control method for ptz cameras
CA2569524A1 (en) Method and system for performing video flashlight
WO2003100726A1 (en) Security camera system for tracking moving objects in both forward and reverse directions
JP4378636B2 (en) Information processing system, information processing apparatus, information processing method, program, and recording medium
JP2006033224A (en) Device and method for tracking object
JP2018032950A (en) Information processing unit and information processing method, and computer program
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
JP4309900B2 (en) Video surveillance system
US20110157355A1 (en) Method and System for Detecting Events in Environments
JP4786447B2 (en) Image recording device for monitoring
US20110157431A1 (en) Method and System for Directing Cameras
KR100689287B1 (en) Camera Control System In Use Of Tile Sensing and a Method Using Thereof
JP2011145730A (en) Monitoring screen display control apparatus
US20080309672A1 (en) System and method for digital video scan using 3-d geometry
JP2018170575A (en) Monitoring system
JP2006129218A (en) Monitoring system
JP3858018B2 (en) Video surveillance system
JP2004088558A (en) Monitoring system, method, program, and recording medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110406

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees