JP2006303989A - Monitor device - Google Patents
Monitor device Download PDFInfo
- Publication number
- JP2006303989A JP2006303989A JP2005123835A JP2005123835A JP2006303989A JP 2006303989 A JP2006303989 A JP 2006303989A JP 2005123835 A JP2005123835 A JP 2005123835A JP 2005123835 A JP2005123835 A JP 2005123835A JP 2006303989 A JP2006303989 A JP 2006303989A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- monitoring
- composite image
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
Abstract
Description
本発明は、複数のカメラを用いた監視を行う監視装置に関する。 The present invention relates to a monitoring apparatus that performs monitoring using a plurality of cameras.
近年、建物等の施設内の各所にカメラを設置し、これらのカメラの撮影映像を1箇所で集中監視する監視システムが実用化されている。しかし、複数の撮影画像を複数のモニタに表示して同時に監視する場合は、監視者が侵入者の侵入等の異常を見落とすことが間々ある。また、侵入者を画面上で発見したときでも、複数のモニタの映像が建物内のどこを映しているのか直感的に分かり難いため、侵入者の移動先をモニタ画像で追うことが難しい場合がある。この傾向は建物の規模が大きくなり、カメラの台数が増えるに比例して増大する。こうした事態に対して、監視者の増員や、監視者に建物の構造を教え込むなど、人に負担を求める対策が講じられている。 In recent years, a monitoring system has been put into practical use in which cameras are installed at various locations in a facility such as a building and the video captured by these cameras is centrally monitored at one location. However, when a plurality of captured images are displayed on a plurality of monitors and monitored simultaneously, the monitor often overlooks an abnormality such as an intruder intrusion. Even when an intruder is found on the screen, it is difficult to intuitively understand where the images of multiple monitors are reflected in the building. is there. This tendency increases in proportion to the size of the building and the number of cameras. In response to this situation, measures are being taken to demand a burden on people, such as increasing the number of observers and instructing observers on the structure of the building.
このような人的負担の軽減を図るためのものとして、特許文献1に示される監視システムがある。この監視システムは、複数のカメラで監視現場を撮影し、映像から侵入者を検知すると、この侵入者を検知したカメラの映像出力を1つのモニタに表示し、さらに、その画像から侵入者の向う方向を予測して、その方向を中心とする一定の範囲内に設置された別のカメラを選択し、その映像を別のモニタに表示するものである。したがって、侵入者を検知したカメラの映像と、これから侵入者が映ると予測されるカメラの映像とが選択されて監視者に提示されるため、監視者は、容易に侵入者を把握することができる。
As a means for reducing such a human burden, there is a monitoring system disclosed in
また、特許文献2には、記録された膨大な量の監視カメラの映像から、不審者が映っている部分のみを迅速に再生できる監視システムが開示されている。この監視システムでは、入口のカメラで不審者を検出すると、その人物の特徴を抽象化した抽象化画像を生成し、その不審者を特定する人物IDと共に保存する。施設内のカメラの画像から、その特徴を持つ不審者を検出すると、モニタログデータベースに、人物IDと共に、そのカメラの視野に不審者が出現した「開始時刻」と、その視野から不審者がいなくなった「終了時刻」とを、カメラごとに記録する。再生時には、この「開始時刻」及び「終了時刻」で特定される範囲内の各カメラの撮影画像を検索システムで抽出し、再生する。したがって、この監視システムでは、記録画像の中から、不審者の映る映像が抽出されて提示されるため、監視者の負担は軽減される。 Further, Patent Document 2 discloses a monitoring system that can quickly reproduce only a portion where a suspicious person is shown from an enormous amount of recorded video of a monitoring camera. In this monitoring system, when a suspicious person is detected by an entrance camera, an abstract image that abstracts the characteristics of the person is generated and stored together with a person ID that identifies the suspicious person. When a suspicious person with the characteristic is detected from the image of the camera in the facility, the suspicious person appears in the field of view of the camera together with the person ID in the monitor log database and the suspicious person disappears from the field of view. The “end time” is recorded for each camera. At the time of reproduction, the retrieval system extracts and reproduces the captured images of each camera within the range specified by the “start time” and “end time”. Therefore, in this monitoring system, since the video showing the suspicious person is extracted from the recorded image and presented, the burden on the monitoring person is reduced.
しかしながら、特許文献1の監視システムでも、それぞれのカメラからの撮影画像を別々のモニタに表示するので、モニタ映像が施設のどの部分を写しているかが監視者に直感的に認識することは困難である。また、個々の監視カメラで映すことができる侵入者の動きは限定されるから、個々の監視カメラの画像を基に侵入者の動きを予測する場合は、誤りや見落としの発生する可能性がある。
However, even in the monitoring system of
特許文献2の監視システムのように、個々の監視カメラの画像から侵入者を特定する場合は、そのカメラの撮影位置や角度、あるいは、そこを通過するときの顔の向き等によって、侵入者の特徴を十分に捕捉できないことがあり、そのため、侵入者を見落としたり、侵入者でない人物を検出したりするケースが発生し、多くの誤った画像が監視者に提示される可能性がある。その結果、監視者の負担は、軽減されないことになる。 When an intruder is specified from an image of an individual surveillance camera as in the surveillance system of Patent Document 2, the intruder's position depends on the shooting position and angle of the camera or the orientation of the face when passing through the camera. Features may not be captured sufficiently, which may lead to cases where an intruder is overlooked or a person who is not an intruder is detected, and many false images may be presented to the observer. As a result, the burden on the observer is not reduced.
本発明は、上記事情に鑑みなされたものであり、監視者に対して、監視対象の位置が直感的に分かり、また、不審者等の動きや特徴等の異常の状態が把握し易い映像を提示できる監視装置を提供することを目的としている。 The present invention has been made in view of the above circumstances, and provides an image that allows the monitor to intuitively know the position of the monitoring target and to easily grasp the abnormal state such as the movement and characteristics of the suspicious person. The object is to provide a monitoring device that can be presented.
本発明では、複数のカメラを用いた監視を行う監視装置であって、前記カメラで撮影したカメラ画像を用いて合成画像を生成する合成画像生成手段と、前記カメラ画像及び前記合成画像を保持する記録手段と、画像を表示する表示手段と、前記表示手段に表示した前記合成画像の任意の領域が選択されたとき、前記選択された領域に対応する前記カメラ画像または当該カメラ画像の領域を検索して前記表示手段に表示する検索手段とを備えるものである。本発明によれば、監視者は、合成画像から、各種施設等の監視対象の位置を直感的に知ることができ、この合成画像から見たい領域を選択して、詳細なカメラ画像を見ることができる。 In the present invention, a monitoring apparatus that performs monitoring using a plurality of cameras, the composite image generating means for generating a composite image using a camera image captured by the camera, and the camera image and the composite image are held. When a recording unit, a display unit for displaying an image, and an arbitrary region of the composite image displayed on the display unit are selected, the camera image corresponding to the selected region or the region of the camera image is searched. Search means for displaying on the display means. According to the present invention, the supervisor can intuitively know the position of the monitoring target such as various facilities from the composite image, and selects a desired region from the composite image to view a detailed camera image. Can do.
また、本発明の監視装置は、合成画像生成手段が、複数のカメラのカメラ画像を合成した合成画像を生成するものを含む。本発明によれば、監視者は、広範囲を映す合成画像から、施設内の位置を直感的に知ることができる。 Moreover, the monitoring apparatus of this invention contains what a synthetic | combination image production | generation means produces | generates the synthetic | combination image which synthesize | combined the camera image of a some camera. According to the present invention, the supervisor can intuitively know the position in the facility from the composite image showing a wide range.
また、本発明の監視装置は、複数のカメラが、2倍以上画角が異なる2以上のカメラを含むものを含む。本発明によれば、遠い部分を映す望遠カメラの画像と近い部分を映す広角カメラの画像とを合成して合成画像を生成することにより、合成画像から遠い位置の人物が選択された場合でも、望遠カメラで映した、拡大した人物のカメラ画像を表示することができる。 In addition, the monitoring device of the present invention includes one in which the plurality of cameras includes two or more cameras having different angles of view by a factor of two or more. According to the present invention, even when a person at a far position from the synthesized image is selected by synthesizing the image of the telephoto camera that reflects the far part and the image of the wide-angle camera that reflects the near part, the synthesized image is generated. It is possible to display an enlarged camera image of a person projected with a telephoto camera.
また、本発明の監視装置は、合成画像生成手段が、カメラ画像と監視対象施設の構造を示す図形とを合成した合成画像を生成するものを含む。本発明によれば、監視者は、この合成画像から、カメラ画像が施設のどの位置の画像であるかを直感的に知ることができる。 Moreover, the monitoring apparatus of this invention contains what the synthetic | combination image production | generation means produces | generates the synthetic | combination image which synthesize | combined the camera image and the figure which shows the structure of the monitoring object facility. According to the present invention, the supervisor can intuitively know the position of the facility where the camera image is from the composite image.
また、本発明の監視装置は、さらに、複数のカメラ画像を利用して生成された合成画像から動きを検出する動き検知手段と、動き検知手段が検知した合成画像にタグ情報を付加するタグ情報付加手段と、タグ情報を付加した合成画像に使用されたカメラ画像を検索して、そのカメラ画像にタグ情報を付加するタグ情報伝播手段とを備えるものを含む。本発明によれば、複数のカメラ画像を含む合成画像から動きを検出することで、単独のカメラ画像の解析では明確でない動きが、正確且つ安定的に検知できる。 The monitoring device of the present invention further includes a motion detection unit that detects a motion from a composite image generated using a plurality of camera images, and tag information that adds tag information to the composite image detected by the motion detection unit. And a tag information propagation unit that searches for a camera image used in the combined image with the tag information added and adds the tag information to the camera image. According to the present invention, by detecting a motion from a composite image including a plurality of camera images, a motion that is not clear in the analysis of a single camera image can be detected accurately and stably.
また、本発明の監視装置は、さらに、タグ情報に基づいて、タグ情報が付加された合成画像及びカメラ画像の優先度を決定し、優先度に基づいて消去する画像を決定する消去手段を備えるものを含む。本発明によれば、優先度が低い画像を自動消去することにより、装置の記憶容量を有効に活用することができる。 The monitoring apparatus of the present invention further includes an erasing unit that determines the priority of the composite image and the camera image to which the tag information is added based on the tag information, and determines an image to be deleted based on the priority. Including things. According to the present invention, it is possible to effectively utilize the storage capacity of the apparatus by automatically erasing an image having a low priority.
本発明の監視装置は、監視者に、施設内のどこを監視しているかが一目で直感的に把握できる合成画像を提示することができ、また、合成画像中の監視者が注目する部分を検索して、詳細なカメラ画像を提示することができる。そのため、監視者は、施設内を詳細かつ効率的に監視することができる。 The monitoring apparatus according to the present invention can present a monitor with a composite image that allows the user to know at a glance where the facility is being monitored. By searching, a detailed camera image can be presented. Therefore, the supervisor can monitor the inside of the facility in detail and efficiently.
また、本発明の監視装置は、個々のカメラ画像を解析するだけでは不明確な画像上の動きを、安定的且つ正確に検知することができ、この検知結果を基に画像に付与したタグ情報を用いて、再生画像を的確に絞り込むことができる。 In addition, the monitoring device of the present invention can stably and accurately detect an unclear movement on an image simply by analyzing individual camera images, and tag information assigned to an image based on the detection result. The playback image can be accurately narrowed down using.
以下、本発明の実施の形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施の形態)
図1に、本発明の第1の実施形態の監視装置の概略構成を示す。、図1の監視装置は、建物等の施設の監視を行うもので、カメラ11〜13、監視画像制御部1、データ保持部2、画像合成部3、表示部4、検索・領域指定部5、タイムコード発生部6、動き検知部7、記録部9を含んで構成される。
(First embodiment)
FIG. 1 shows a schematic configuration of a monitoring apparatus according to the first embodiment of the present invention. The monitoring device of FIG. 1 monitors facilities such as buildings, and includes
カメラ11〜13は、施設内に設置され、施設の撮影を行うものである。図2に、カメラ11〜13の配置の一例を示す。図2においては、カメラ11〜13は、通路20を監視するために、施設内のほぼ同じ位置に監視方向を違えて設置されている。このとき、図3に示すように、カメラ11からは通路の右側奥の画像31が出力され、カメラ12からは正面の画像32が、また、カメラ13からは通路左側奥の画像33が出力される。ここでは、各カメラ11〜13の出力画像は、水平720×垂直480画素の解像度を持っているものとする。
The
監視画像制御部1は、監視画像の表示や記録・再生を制御するもので、カメラ画像や合成画像の記録部9への記録を制御する録画部1a、検索・領域指定部5で指定された監視映像を記録部9から検索する検索部1b、検索部1bが検索した監視映像の再生を制御する再生部1c、動き検知部7が動きを検知した画像にタグ情報を添付するタグ情報添付部1dと、合成画像155に添付されたタグ情報を、対応するカメラ画像154に添付するタグ情報伝播部1eを含んでいる。この監視画像制御部1の各部は、プロセッサがプログラムで規定された動作を実行することにより実現される。
The monitoring
データ保持部2は、各カメラ11〜13の画角や方向等のカメラパラメータデータ、及びそのカメラパラメータデータを基に生成された合成マップデータを保持するものである。
The data holding unit 2 holds camera parameter data such as the angle of view and direction of each of the
画像合成部3は、各カメラ11〜13の出力画像から合成画像を生成するものである。図2に示すように監視方向が異なる位置にカメラ11〜13が設置された場合、カメラ11〜13の画像31〜33を、各カメラ11〜13の撮影方向及び画角等のカメラパラメータ2に基づいて、投影変換等で図4に示すような画像41、42、43に変形し、変形後の画像を合成する。合成画像は、水平720×垂直200画素の解像度を持つ。この合成により、図5に示すように、魚眼カメラを用いて撮影したような、通路20を180度見渡す横長の合成画像50が生成される。
The
また、この合成は、カメラパラメータデータを基に生成した合成マップデータを用いても実現できる。合成マップデータは、合成画像上の各画素の出力データを、各カメラ画像の画素の出力データで規定したものである。カメラ11〜13が図2に示す配置の場合、、図6に示すような合成マップ60が記憶される。図6は、合成マップ60が、合成画像上の画素61の出力データが、カメラ11の(x1、y1)の画素データからなり、また、画素62の出力データが、カメラ12の(x2、y2)の画素データ及びカメラ13の(x3、y3)の画素データにそれぞれ(1−α)と(α)の重みを付けて計算されることを示しており、同様に全ての画素とカメラ11〜13の画素との関係が合成マップデータとして、データ保持部2に記憶される。この合成マップ60に基づいて合成された合成画像も解像度が水平720×垂直200画素である。
This composition can also be realized using composition map data generated based on camera parameter data. The composite map data defines the output data of each pixel on the composite image by the output data of the pixel of each camera image. When the
表示部4は、監視画像制御部1から出力された画像を表示するものであり、監視画像制御部1は、この合成画像を表示部4に出力する。したがって、この合成画像を見た監視者8は、監視画像が施設内のどこを映しているかを一目で直感的に把握することができる。
The display unit 4 displays the image output from the monitoring
タイムコード発生部6は、記録画像に付されるタイムコードを発生するものであり、監視画像制御部1の録画部1aは、各カメラ11〜13の出力画像に、タイムコード発生部6が発生するタイムコードを付して記録部9に記録するとともに、その画像から合成された合成画像に対しても、同じタイムコードを付して記録部9に記録する。記録部9は、各カメラ11〜13が撮影したカメラ画像154や画像合成部3が合成した合成画像155を記録するものである。
The time
動き検知部7は、合成画像155から、予め定められた特定の動きを検知し、監視画像制御部1のタグ情報添付部1dは、動き検知部7が検知した特定の動きを示す合成画像に対し、動きタグ情報を付与する。
The
例えば、図7に示すように、人物が通路を通過する場合を考える。合成画像は、図7(a)、図7(b)、図7(c)の順に得られるものとする。このとき動き検知部7に、合成画像上で右端から左端まで動く移動物体を検知するように予め設定されていたとすると、図8のように、合成画像上で右端から左端まで移動する物体が検知されたときにのみ、合成画像にタグ情報が付与される。人物が通路の途中で引き返したり、途中のドアへ消えて行ったり、また、途中のドアから現れたりする動きについては、タグ情報が添付されない。
For example, consider a case where a person passes through a passage as shown in FIG. Assume that the composite image is obtained in the order of FIG. 7A, FIG. 7B, and FIG. 7C. At this time, if the
また、動き検知部7の設定を変えて、移動物体の別の動きに対して別のタグ情報を添付することも可能である。例えば、動き検知部7が、通路の途中で引き返す移動物体の動き、途中のドアへ消えて行った移動物体の動き、及び、途中のドアから現れた移動物体の動きをそれぞれ検知して、各動きに応じた検知信号を監視画像制御部1に出力するように設定すると、監視画像制御部1のタグ情報添付部1dは、検知信号に応じて別々の動きタグ情報を合成画像に添付する。
It is also possible to attach different tag information for different movements of the moving object by changing the setting of the
ここで注目すべきは、こうした動きを個々のカメラの画像から検知しようとすると、各画像の連携した複雑な解析が必要になるが、合成画像上で動き検知を行う場合は、容易、且つ、安定して移動物体の動きを検出することができる点である。 It should be noted here that when such movement is detected from the images of individual cameras, a complicated analysis in which each image is linked is necessary. However, when motion detection is performed on a composite image, The point is that the movement of the moving object can be detected stably.
監視画像制御部1のタグ情報伝播部1eは、合成画像に付されたタグ情報と同じものを、その合成画像の作成に使用されたカメラ画像の内で、動く物体が映るカメラ画像にも付与する。このときの動作については後述する。
The tag information propagation unit 1e of the monitoring
検索・領域指定部5は、監視者8が画像表示を指定する際のインターフェースとなるものであり、監視者8が、記録された監視映像から、通路を通過した不審者の映像表示を検索・領域指定部5より指定すると、監視画像制御部1の検索部1bは、記録部9の合成画像155の中から、通路の通過を示す動きタグ情報が付加された合成画像のみを抽出し、再生部1cを通じて表示部4に表示する。この合成画像を見た監視者8が、解像度の高いカメラ画像の表示を検索・領域指定部5から求めた場合、監視画像制御部1の検索部1bは、記録部9のカメラ画像154の中から、同じタグ情報が付加されたカメラ画像を抽出し、この画像が表示部4に表示される。
The search / area designating unit 5 serves as an interface when the
このように、合成画像から不審者の動きを的確に捉えることができ、それを基に、合成画像及びカメラ画像にタグ情報を付加することができる。このタグ情報を利用して、表示する映像を絞り込むことができるため、監視者は、効率的に監視を行うことができる。 In this way, the suspicious person's movement can be accurately grasped from the composite image, and tag information can be added to the composite image and the camera image based on it. Since the video to be displayed can be narrowed down using this tag information, the monitor can efficiently monitor.
また、監視者8は、合成画像に映る人物の顔を確認したい場合、図9(a)に示すように、合成画像から人物の顔が認識できる部分を選び、検索・領域指定部5を通じて、監視画像制御部1に検索・領域指定要求を出す。これを受けた監視画像制御部1の検索部1bは、合成マップデータ2を利用して、合成画像上の指定領域に対応するカメラ画像のデータを検索・抽出し、その顔画像を図9(b)のように提示する。
Further, when the
このとき、合成画像は全体的に720×200画素で低解像度であるが、各カメラ画像は、それぞれ720×480画素であり、鮮明である。ただ、人物の顔が一番良く見える箇所の選択は、その人物を長い時間追跡できる合成画像の方が適している。従って、合成画像から人物の顔領域を選択し、その領域のカメラ画像を抽出する操作により、監視者は、鮮明な人物の顔画像を見ることができ、通過する人物を、より確実に確認できる。 At this time, the synthesized image is 720 × 200 pixels as a whole and has a low resolution, but each camera image is 720 × 480 pixels and is clear. However, a composite image that can track a person for a long time is more suitable for selecting a place where the person's face can be best seen. Accordingly, by selecting a person's face area from the composite image and extracting the camera image of the area, the supervisor can see a clear face image of the person and can more surely confirm the passing person. .
図10〜図13を用いて、顔画像抽出の際の処理を説明する。図10は、合成画像による監視画像系列の一例と、監視者による領域指定を示すものであり、監視者8は、図10に示すような画像系列(動画)を見ながら、その中で人物の顔がよく見える画像(a)を選び、その合成画像中の顔が見える矩形領域を指定して、検索・領域指定部5から監視画像制御部1に対し拡大表示要求を行う。このとき、検索・領域指定部5からは、拡大表示要求を示すコマンドデータと、画像(a)を示すタイムコードデータと、矩形領域を示すデータ(左上端点101(X4,Y4)と右下端点102(X5,Y5)の座標データ)とが監視画像制御部1に送られる。
Processing for extracting a face image will be described with reference to FIGS. FIG. 10 shows an example of a monitoring image series based on a composite image and area designation by the supervisor. The
監視画像制御部1の検索部1bは、検索・領域指定部5から拡大表示要求を示すコマンドデータを受けると、データ保持部2にアクセスし、合成マップ60を取得する。そして、図11に示すように、合成画像上の左上端点101(X4,Y4)及び右下端点102(X5,Y5)にそれぞれ対応する入力カメラとその入力画像上の座標データとを示すデータを得る。図11の例では、左上端点101の画素データは、カメラ13の(x6,y6)の画素データであり、右下端点102の画素データは、カメラ13の(x7,y7)の画素データであることを示している。
When the search unit 1b of the monitoring
このように、2つの点に対応する入力カメラが同一の場合は、その入力カメラ13のカメラ画像154の中から、画像(a)を示すタイムコードデータと同じタイムコードデータが添付されたカメラ画像を検索し、さらに検索されたカメラ画像から座標データ((x6,y6),(x7,y7))で示される矩形領域の画像を抽出し、表示装置4に出力する。こうした処理により、図9(b)に示す、入力カメラの鮮明な顔画像を監視者に提示することができる。
Thus, when the input cameras corresponding to the two points are the same, the camera image to which the same time code data as the time code data indicating the image (a) is attached from the
監視者8が指定した矩形領域が、図12に示すように、複数のカメラ画像に基づく領域である場合には、別の方法でカメラ画像を抽出する。図12の例では、合成画像上の左上端点121の画素データは、カメラ12の(x8,y8)の画素データであり、合成画像上の右下端点122の画素データは、カメラ13の(x9,y9)の画素データ)である。このように、2つの点に対応する入力カメラが異なる場合は、矩形の外周上で、カメラ13に対応する合成マップデータの(Xの最小座標値,Yの最大座標値)に対応する点をカメラ13の左上端点(カメラ13:x10,y10))として算出し、カメラ12に対応する合成マップデータの(Xの最大座標値,Yの最小座標値)に対応する点をカメラ12の右下端点(カメラ12:(x11,y11))として算出し、それぞれ入力カメラ12、13の記録画像の中から、画像(a)のタイムコードデータと同じタイムコードデータが添付されたカメラ画像を検索し、さらに検索したカメラ画像から座標データ(カメラ12:((x8,y8),(x11,y11)))、(カメラ13:((x9,y9),(x10,y10)))で示される矩形領域の画像を抽出し、表示装置4に出力する。こうした処理により、図13(b)に示す顔画像を監視者に提示することができる。
If the rectangular area designated by the
このように、合成画像上で入力カメラの切り替わる部分が選択された場合でも、両方の入力カメラの鮮明な人物の顔画像が検索・抽出され、同時に提示されるので、監視者は、通過する人物の顔画像を確実に確認できる。 In this way, even when the part where the input camera is switched is selected on the composite image, the face image of a clear person of both input cameras is searched, extracted, and presented at the same time. The face image of can be confirmed reliably.
なお、合成マップデータを用いて、合成画像に対応したカメラ画像を求める方法は、監視画像制御部1のタグ情報伝播部1eが、合成画像に付されたタグ情報をカメラ画像に付与する場合にも使用される。このとき、タグ情報伝播部1eは、図11及び図12の場合と同様に、動き検知部7により検知された合成画像上の動き領域が、合成マップデータ上で、1つの入力カメラの座標データだけに関係するか、複数の入力カメラの座標データに関係するかを調べる。そして、関係するカメラのカメラ画像の内、合成画像と同一のタイムコードが付されたカメラ画像を選択して、合成画像と同一の動きタグ情報を添付する。
The method for obtaining a camera image corresponding to a composite image using the composite map data is when the tag information propagation unit 1e of the monitoring
このように、この監視装置の映像を監視する監視者は、まず合成画像を見ることによって施設内のどこを監視しているかを一目で直感的に把握でき、また、再生される合成画像を見ながら、合成画像中の注目したい部分について、対応する入力カメラの鮮明な画像を再生させて確認することができる。また、この監視装置では、合成画像を用いて動き検知を行い、それを基に合成画像及びカメラ画像に動きタグ情報を添付しているため、個々のカメラ画像の解析だけでは侵入者かどうかが不確かな場合でも、安定して侵入者を検出することができ、その後の検索、再生での監視効率が向上する。従って、施設内の侵入者を詳細かつ効率的に監視することができる。 In this way, the supervisor who monitors the video of this monitoring device can grasp at first glance where the facility is being monitored by looking at the composite image, and can also view the composite image to be reproduced. However, a clear image of the corresponding input camera can be reproduced and confirmed for the portion of the composite image that is desired to be noticed. Also, in this monitoring device, since motion detection is performed using a composite image and motion tag information is attached to the composite image and the camera image based on the detection, whether or not it is an intruder can be determined only by analyzing individual camera images. Even if it is uncertain, an intruder can be detected stably, and monitoring efficiency in subsequent search and reproduction is improved. Therefore, intruders in the facility can be monitored in detail and efficiently.
次に、この監視装置の変形例について説明する。図14に、カメラ配置の他の例を示す。図14におけるカメラ11〜13の設置位置は、図2の設置位置と同一であるが、カメラ、11、12、13の画角が異なる。図14に示すように、通路を監視する3つのカメラ11、12、13の内、カメラ11、13に望遠カメラを使用し、カメラ12に広角カメラを使用することにより、カメラ11及び13の画角141、143を水平45度以下に、また、カメラ12の画角142を、画角141、143の2倍以上である、水平90度以上に設定している。
Next, a modified example of this monitoring apparatus will be described. FIG. 14 shows another example of the camera arrangement. The installation positions of the
図14に示す各カメラ11、12、13で撮影される画像を、図15に示す。通路の左右両端を撮影した画像31、33の中で、人物151、153は比較的遠距離におり、また、中央を撮影した画像32の中で、人物152は比較的近距離にいる。そのため、同じ画角で撮影した場合は、近距離で撮影した人物152の画像が極端に大きく、遠距離で撮影した人物151、153の画像が極端に小さくなるのに対して、この例では、それぞれ撮影される人物の画像は、極端に大きくも、極端に小さくもならない。
Images taken by the
図16は、図4と同様に、撮影画像31〜33を合成するため、撮影画像31〜33を、各カメラの撮影方向及び画角等のパラメータを基に投影変換等で画像161〜163に変形した状態を示している。この変形画像を合成することにより、図17に示すように、通路を180度見渡す横長の合成画像を得ることができる。ここで、図4と異なる点は、通路の左右両端を撮影した画像の合成画像上での範囲161、163が小さく、通路の中央を撮影した画像の合成画像上での範囲162が大きくなる点である。
As in FIG. 4, FIG. 16 synthesizes the captured
このような合成画像が表示部4に表示された状態で、合成画像に映る人物の顔を確認したい場合、監視者8は、まず、図17に示す画像合成を見ながら人物の顔の領域、171、172、173をそれぞれ指定する。このとき、対応する入力カメラの画像(図15)から人物の顔画像が検索され提示されるが、図15に示すように、各画像上では、それぞれ撮影される人物の画像が極端に大きくも、極端に小さくもないため、遠距離での人物の顔画像も鮮明に見ることができる。
When such a composite image is displayed on the display unit 4 and wants to confirm the face of a person appearing in the composite image, the
このように、左右を望遠カメラで監視し、この望遠カメラと画角が2倍以上異なる広角カメラで正面を監視する場合は、3つのカメラ画像の合成画像から侵入者を検出し、その人物の顔画像を、カメラ画像で詳細に見る際に、左右の遠く離れた人物の顔画像であっても、より詳細に見ることができる。 Thus, when monitoring the left and right with a telephoto camera and monitoring the front with a wide-angle camera whose angle of view differs from this telephoto camera by more than twice, an intruder is detected from the composite image of the three camera images, and the person's When the face image is viewed in detail with the camera image, even the face images of persons far away from the left and right can be viewed in more detail.
(第2の実施の形態)
図18に、本発明の第2の実施形態の監視装置の概略構成を示す。図14の監視装置は、建物等の施設の監視を行うもので、カメラ画像と施設構造とを合成した合成画像を提示するものである。
(Second Embodiment)
FIG. 18 shows a schematic configuration of a monitoring apparatus according to the second embodiment of the present invention. The monitoring device in FIG. 14 monitors facilities such as buildings, and presents a composite image obtained by combining a camera image and a facility structure.
この監視装置は、カメラ11〜16、監視画像制御部181、データ保持部2、画像合成部3、表示部4、検索・領域指定部5、タイムコード発生部6、動き検知部7、記録部9、施設構造データ保持部182を含んで構成される。図から明らかなように、図1の監視装置とほぼ同様の構成を有するが、施設構造データ保持部182を備え、監視画像制御部181によって監視画像の表示や記録・再生を制御する点で異なる。また、6台のカメラを備え、画像合成部3は、各カメラ11〜16の出力画像を施設構造に逆投影した合成画像やフロアに逆投影したフロア画像を生成し、記録部9には、カメラ画像154、合成画像155とともに各フロア合成画像が記録される。
The monitoring apparatus includes
監視画像制御部181は、図1の監視装置における監視画像制御部1が備える構成に加えて、優先度の低い画像を記録部9から消去する消去部1fを有する。
The monitoring
施設構造データ182は、図19に模式的に示すように、複数のカメラ11〜16の施設内での位置や施設の壁面、フロアの通路面などの配置を3次元的に表したデータである。複数のカメラ11〜16は、施設内に分散して配置されており、各フロアには複数のカメラが設置されている。
The
画像合成部3は、図20に示すように、入力カメラ201の撮影画像を施設内の通路面204や壁面203に逆投影(202)したときの画像を合成画像として作成する。ここで言う「逆投影」とは、この実際の撮影とは逆方向に、施設の壁や通路面などの3次元データ上に撮影画像を投影する操作のことである。データ保持部2に記憶される合成マップデータは、合成画像上の各画素の出力データをカメラ画像の画素の出力データで規定したものであり、カメラパラメータと施設構造データ182とを用い、カメラの画素データを施設構造データ182に逆投影して作成することができる。画像合成部3は、この合成マップデータ2を用いて、各カメラ11〜16の出力画像を施設構造に逆投影した合成画像を生成し、また、各カメラ11〜16の出力画像をフロアに逆投影したフロア合成画像を生成する。
As shown in FIG. 20, the
監視画像制御部181の録画部1aは、各カメラ11〜13のカメラ画像にタイムコード発生部6が発生するタイムコードを付して記録部9に記録し、また、画像合成部3がカメラ画像を用いて生成した合成画像や各フロア合成画像に、そのカメラ画像と同じタイムコードを付して記録部9に記録する。監視画像制御部181の再生部1cは、検索・領域指定部5からの要求に基づいて、施設構造にカメラ画像を逆投影した、図21に示すような合成画像155を再生し、監視者に提示する。また、その際、要求に応じて、図21(a)に示すように、施設を211または212の方向に所定角度回転し、種々の方向から施設が見られるようにし、あるいは、図21(b)に示すように、要求されたフロア213だけを表示する。したがって、監視者は、施設内を俯瞰する形で監視を行うことができる。
The recording unit 1a of the monitoring
また、監視者が、検索・領域指定部5を通じて、この合成画像から注目する位置のカメラを指定したり、合成画像上の顔領域を指定したりした場合、監視画像制御部181の検索部1bは、第1の実施形態と同様に、合成マップデータ2やタイムコードを用いて該当するカメラ画像や、そのカメラ画像の顔領域を検索し、表示部4に表示する。動き検知部7は、画像合成部3が生成した、複数のカメラ画像を含む各フロア合成画像183から、予め定められた特定の動きを検知する。
Further, when the monitor designates a camera at a position of interest from the composite image or designates a face region on the composite image through the search / region specification unit 5, the search unit 1 b of the monitor
図22は、その様子を模式的に示している。動き検知部7は、各フロア合成画像221、222、223を用いて、人物224がフロア上で第1のカメラの逆投影位置225から第2のカメラの逆投影位置226まで移動する動き227だけを検出する。こうした動きは、個々のカメラの画像を解析しても十分把握できない場合があるが、フロア上に投影された複数のカメラ画像が合成されたフロア合成画像を用いることにより、正確に検出できる。
FIG. 22 schematically shows such a state. The
監視画像制御部181のタグ情報添付部1dは、動き検知部7が検知した特定の動きを示すフロア合成画像183に対して動きタグ情報を付与する。タグ情報伝播部1eは、フロア合成画像に付されたタグ情報と同じものを、フロア合成画像と同じタイムコードが付された合成画像155や、そのフロア合成画像の作成に使用したカメラ画像であって、フロア合成画像と同じタイムコードが付されたカメラ画像に添付する。合成画像155、各フロア合成画像183及びカメラ画像に付されたタグ情報は、第1の実施形態と同様に、再生する画像を絞り込むために使われる。
The tag information attachment unit 1d of the monitoring
また、監視画像制御部181の消去部1fは、記録部9に格納した監視画像の優先度を、それらの画像に付したタグ情報により決定し、優先度に応じて設定した時間が経過した画像を自動的に消去する。こうすることで、装置の記憶容量を効率的に使用することができる。
Further, the erasing unit 1f of the monitoring
このように、この監視装置は、監視者に対し、その位置が直感的に分かる合成画像を提示することができ、監視者は、この合成画像から、個々のカメラ画像やカメラ画像の領域を選択して詳細に監視することができる。そのため、複雑で大きな施設でも、詳細且つ効率的な監視が可能になる。 In this way, the monitoring device can present a synthesized image whose position can be intuitively understood to the supervisor, and the supervisor selects individual camera images and camera image areas from the synthesized image. And can be monitored in detail. Therefore, detailed and efficient monitoring is possible even in a complex and large facility.
本発明の監視装置は、監視者に対して、監視対象の位置が直感的に分かり、また、不審者等の動きや特徴等の異常の状態が把握し易い映像を提示できる監視装置等として有用である。また、蓄積した映像の中から、監視者が要求する映像を的確に絞り込んで提示することができると言う利点を有しており、大規模施設の集中監視システム等に広く利用することができる。 INDUSTRIAL APPLICABILITY The monitoring device of the present invention is useful as a monitoring device capable of intuitively knowing the position of a monitoring target for a monitor and presenting an image in which an abnormal state such as a suspicious person's movement or characteristic can be easily grasped. It is. Further, it has an advantage that the video requested by the supervisor can be narrowed down and presented from the accumulated video, and can be widely used in a centralized monitoring system of a large-scale facility.
1 監視画像制御部
1a 録画部
1b 検索部
1c 再生部
1d タグ情報添付部
1e タグ情報伝搬部
1f 消去部
2 データ保持部
3 画像合成部
4 表示部
5 検索・領域指定部
6 タイムコード発生部
7 動き検知部
8 監視者
9 記録部
11 カメラ
12 カメラ
13 カメラ
14 カメラ
15 カメラ
16 カメラ
20 通路
31 カメラ画像
32 カメラ画像
33 カメラ画像
41 変形画像
42 変形画像
43 変形画像
50 合成画像
60 合成マップ
61 画素
62 画素
101 左上端点
102 右下端点
121 左上端点
122 右下端点
141 画角
142 画角
143 画角
151 人物
152 人物
153 人物
154 カメラ画像
155 合成画像
161 変形画像
162 変形画像
163 変形画像
171 顔領域
172 顔領域
173 顔領域
181 監視画像制御部
182 施設構造データ保持部
183 各フロア合成画像
201 カメラ
202 逆投影
203 壁面
204 通路面
211 角度変更方向
212 角度変更方向
213 1フロア分の合成画像
221 フロア合成画像
222 フロア合成画像
223 フロア合成画像
224 侵入者の画像
225 位置
226 位置
227 動き
DESCRIPTION OF
Claims (6)
前記カメラで撮影したカメラ画像を用いて合成画像を生成する合成画像生成手段と、
前記カメラ画像及び前記合成画像を保持する記録手段と、
画像を表示する表示手段と、
前記表示手段に表示した前記合成画像の任意の領域が選択されたとき、前記選択された領域に対応する前記カメラ画像または当該カメラ画像の領域を検索して前記表示手段に表示する検索手段と
を備えた監視装置。 A monitoring device that performs monitoring using a plurality of cameras,
A composite image generating means for generating a composite image using a camera image photographed by the camera;
Recording means for holding the camera image and the composite image;
Display means for displaying an image;
When an arbitrary area of the composite image displayed on the display means is selected, search means for searching the camera image corresponding to the selected area or the area of the camera image and displaying the area on the display means Equipped with a monitoring device.
前記合成画像生成手段は、複数のカメラのカメラ画像を合成した合成画像を生成する監視装置。 The monitoring device according to claim 1,
The synthesized image generating means is a monitoring device that generates a synthesized image obtained by synthesizing camera images of a plurality of cameras.
前記複数のカメラは、2倍以上画角が異なる2以上のカメラを含む監視装置。 The monitoring device according to claim 2,
The plurality of cameras are monitoring devices including two or more cameras having different angles of view by a factor of two or more.
前記合成画像生成手段は、前記カメラ画像と監視対象施設の構造を示す図形とを合成した合成画像を生成する監視装置。 The monitoring device according to claim 1,
The composite image generation means is a monitoring device that generates a composite image obtained by combining the camera image and a graphic indicating the structure of the monitoring target facility.
複数のカメラ画像を利用して生成された前記合成画像から動きを検出する動き検知手段と、
前記動き検知手段が検知した前記合成画像にタグ情報を付加するタグ情報付加手段と、
前記タグ情報を付加した合成画像に使用された前記カメラ画像を検索して、当該カメラ画像に前記タグ情報を付加するタグ情報伝播手段とを備えた監視装置。 The monitoring device according to any one of claims 1 to 4,
Motion detection means for detecting motion from the composite image generated using a plurality of camera images;
Tag information adding means for adding tag information to the composite image detected by the motion detecting means;
A monitoring apparatus comprising: tag information propagation means for searching for the camera image used in the composite image to which the tag information is added and adding the tag information to the camera image.
前記タグ情報に基づいて、前記タグ情報が付加された合成画像及びカメラ画像の優先度を決定し、前記優先度に基づいて消去する画像を決定する消去手段を備えた監視装置。 The monitoring device according to claim 5,
A monitoring apparatus comprising: an erasing unit that determines a priority of a composite image and a camera image to which the tag information is added based on the tag information, and determines an image to be deleted based on the priority.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005123835A JP4722537B2 (en) | 2005-04-21 | 2005-04-21 | Monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005123835A JP4722537B2 (en) | 2005-04-21 | 2005-04-21 | Monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006303989A true JP2006303989A (en) | 2006-11-02 |
JP4722537B2 JP4722537B2 (en) | 2011-07-13 |
Family
ID=37471738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005123835A Expired - Fee Related JP4722537B2 (en) | 2005-04-21 | 2005-04-21 | Monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4722537B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305156A (en) * | 2007-06-07 | 2008-12-18 | Nec Software Kyushu Ltd | Facial image extraction and accumulation system, and facial image extraction and accumulation method |
JP2009055444A (en) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | System and device for searching video image |
JP2009162413A (en) * | 2007-12-28 | 2009-07-23 | Ihi Corp | Sniper detecting device |
JP2011097309A (en) * | 2009-10-29 | 2011-05-12 | Hitachi Ltd | Centralized monitoring system and centralized monitoring method by multiple monitoring cameras |
WO2012153805A1 (en) * | 2011-05-12 | 2012-11-15 | 株式会社日立国際電気 | Monitoring system and monitoring method |
JP2016500855A (en) * | 2012-09-13 | 2016-01-14 | ゼネラル・エレクトリック・カンパニイ | System and method for generating a human behavior summary |
US9898829B2 (en) | 2012-09-18 | 2018-02-20 | Hanwha Techwin Co., Ltd. | Monitoring apparatus and system using 3D information of images and monitoring method using the same |
WO2020066008A1 (en) * | 2018-09-28 | 2020-04-02 | 株式会社ソニー・インタラクティブエンタテインメント | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method |
US10716431B2 (en) | 2014-11-11 | 2020-07-21 | Koninklijke Philips N.V. | Beverage and food temperature regulation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7316504B2 (en) | 2018-09-21 | 2023-07-28 | 国立大学法人東京農工大学 | HEATING ELEMENT, HEATING DEVICE, AND HEATING ELEMENT MANUFACTURING METHOD |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0252584A (en) * | 1988-08-17 | 1990-02-22 | Hitachi Ltd | Video signal transmitter |
JPH09271021A (en) * | 1995-12-19 | 1997-10-14 | Canon Inc | Communication equipment, image processor, communication method and image processing method |
JPH1079932A (en) * | 1996-09-04 | 1998-03-24 | Osaka Gas Co Ltd | Monitoring device and method for linking plural picture and device therefor |
JP2000092483A (en) * | 1998-09-17 | 2000-03-31 | Toshiba Corp | Device and method for displaying monitored image and recording medium for placing monitoring image display device in operation |
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2000261794A (en) * | 1999-03-10 | 2000-09-22 | Toshiba Corp | Moving picture display system and its display method |
JP2001086433A (en) * | 1999-09-17 | 2001-03-30 | Hitachi Denshi Ltd | Method for retrieving and displaying image data in monitoring storage device |
JP2001309368A (en) * | 2000-04-26 | 2001-11-02 | Matsushita Electric Ind Co Ltd | Digital image recording and reproducing device for monitoring |
JP2002239178A (en) * | 2001-02-14 | 2002-08-27 | Sankyo Kk | Game parlor monitoring image information providing system |
JP2003009052A (en) * | 2001-06-21 | 2003-01-10 | Nippon Computer:Kk | Method and device for simultaneous recording and reproducing |
JP2003109155A (en) * | 2001-07-26 | 2003-04-11 | Matsushita Electric Works Ltd | Crime prevention monitoring system |
JP2003179911A (en) * | 2001-12-12 | 2003-06-27 | Matsushita Electric Ind Co Ltd | Monitoring apparatus and system |
JP2003244683A (en) * | 2002-02-13 | 2003-08-29 | Toshiba Corp | Remote monitor system and program |
JP2004186922A (en) * | 2002-12-02 | 2004-07-02 | Chuo Electronics Co Ltd | Wide range photographing method using a plurality of cameras |
JP2004201231A (en) * | 2002-12-20 | 2004-07-15 | Victor Co Of Japan Ltd | Monitoring video camera system |
-
2005
- 2005-04-21 JP JP2005123835A patent/JP4722537B2/en not_active Expired - Fee Related
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0252584A (en) * | 1988-08-17 | 1990-02-22 | Hitachi Ltd | Video signal transmitter |
JPH09271021A (en) * | 1995-12-19 | 1997-10-14 | Canon Inc | Communication equipment, image processor, communication method and image processing method |
JPH1079932A (en) * | 1996-09-04 | 1998-03-24 | Osaka Gas Co Ltd | Monitoring device and method for linking plural picture and device therefor |
JP2000092483A (en) * | 1998-09-17 | 2000-03-31 | Toshiba Corp | Device and method for displaying monitored image and recording medium for placing monitoring image display device in operation |
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2000261794A (en) * | 1999-03-10 | 2000-09-22 | Toshiba Corp | Moving picture display system and its display method |
JP2001086433A (en) * | 1999-09-17 | 2001-03-30 | Hitachi Denshi Ltd | Method for retrieving and displaying image data in monitoring storage device |
JP2001309368A (en) * | 2000-04-26 | 2001-11-02 | Matsushita Electric Ind Co Ltd | Digital image recording and reproducing device for monitoring |
JP2002239178A (en) * | 2001-02-14 | 2002-08-27 | Sankyo Kk | Game parlor monitoring image information providing system |
JP2003009052A (en) * | 2001-06-21 | 2003-01-10 | Nippon Computer:Kk | Method and device for simultaneous recording and reproducing |
JP2003109155A (en) * | 2001-07-26 | 2003-04-11 | Matsushita Electric Works Ltd | Crime prevention monitoring system |
JP2003179911A (en) * | 2001-12-12 | 2003-06-27 | Matsushita Electric Ind Co Ltd | Monitoring apparatus and system |
JP2003244683A (en) * | 2002-02-13 | 2003-08-29 | Toshiba Corp | Remote monitor system and program |
JP2004186922A (en) * | 2002-12-02 | 2004-07-02 | Chuo Electronics Co Ltd | Wide range photographing method using a plurality of cameras |
JP2004201231A (en) * | 2002-12-20 | 2004-07-15 | Victor Co Of Japan Ltd | Monitoring video camera system |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305156A (en) * | 2007-06-07 | 2008-12-18 | Nec Software Kyushu Ltd | Facial image extraction and accumulation system, and facial image extraction and accumulation method |
JP4725892B2 (en) * | 2007-06-07 | 2011-07-13 | 九州日本電気ソフトウェア株式会社 | Facial image extraction and storage system and facial image extraction and storage method |
JP2009055444A (en) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | System and device for searching video image |
JP2009162413A (en) * | 2007-12-28 | 2009-07-23 | Ihi Corp | Sniper detecting device |
JP2011097309A (en) * | 2009-10-29 | 2011-05-12 | Hitachi Ltd | Centralized monitoring system and centralized monitoring method by multiple monitoring cameras |
WO2012153805A1 (en) * | 2011-05-12 | 2012-11-15 | 株式会社日立国際電気 | Monitoring system and monitoring method |
JP2016500855A (en) * | 2012-09-13 | 2016-01-14 | ゼネラル・エレクトリック・カンパニイ | System and method for generating a human behavior summary |
US9898829B2 (en) | 2012-09-18 | 2018-02-20 | Hanwha Techwin Co., Ltd. | Monitoring apparatus and system using 3D information of images and monitoring method using the same |
US10716431B2 (en) | 2014-11-11 | 2020-07-21 | Koninklijke Philips N.V. | Beverage and food temperature regulation |
WO2020066008A1 (en) * | 2018-09-28 | 2020-04-02 | 株式会社ソニー・インタラクティブエンタテインメント | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method |
JPWO2020066008A1 (en) * | 2018-09-28 | 2021-05-13 | 株式会社ソニー・インタラクティブエンタテインメント | Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method |
JP7011728B2 (en) | 2018-09-28 | 2022-01-27 | 株式会社ソニー・インタラクティブエンタテインメント | Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method |
Also Published As
Publication number | Publication date |
---|---|
JP4722537B2 (en) | 2011-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4722537B2 (en) | Monitoring device | |
JP6055823B2 (en) | Surveillance camera control device and video surveillance system | |
EP2553924B1 (en) | Effortless navigation across cameras and cooperative control of cameras | |
US20190037178A1 (en) | Autonomous video management system | |
EP1872345B1 (en) | Intelligent camera selection and object tracking | |
KR101215199B1 (en) | Information processing system, information processing apparatus and information processing method, and recording medium | |
JP6062039B2 (en) | Image processing system and image processing program | |
US20130021433A1 (en) | Overview configuration and control method for ptz cameras | |
CA2569524A1 (en) | Method and system for performing video flashlight | |
WO2003100726A1 (en) | Security camera system for tracking moving objects in both forward and reverse directions | |
JP4378636B2 (en) | Information processing system, information processing apparatus, information processing method, program, and recording medium | |
JP2006033224A (en) | Device and method for tracking object | |
JP2018032950A (en) | Information processing unit and information processing method, and computer program | |
KR101778744B1 (en) | Monitoring system through synthesis of multiple camera inputs | |
JP4309900B2 (en) | Video surveillance system | |
US20110157355A1 (en) | Method and System for Detecting Events in Environments | |
JP4786447B2 (en) | Image recording device for monitoring | |
US20110157431A1 (en) | Method and System for Directing Cameras | |
KR100689287B1 (en) | Camera Control System In Use Of Tile Sensing and a Method Using Thereof | |
JP2011145730A (en) | Monitoring screen display control apparatus | |
US20080309672A1 (en) | System and method for digital video scan using 3-d geometry | |
JP2018170575A (en) | Monitoring system | |
JP2006129218A (en) | Monitoring system | |
JP3858018B2 (en) | Video surveillance system | |
JP2004088558A (en) | Monitoring system, method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071113 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110406 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140415 Year of fee payment: 3 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |