JP2016012873A - Monitor video display device and monitor video display method - Google Patents

Monitor video display device and monitor video display method Download PDF

Info

Publication number
JP2016012873A
JP2016012873A JP2014134530A JP2014134530A JP2016012873A JP 2016012873 A JP2016012873 A JP 2016012873A JP 2014134530 A JP2014134530 A JP 2014134530A JP 2014134530 A JP2014134530 A JP 2014134530A JP 2016012873 A JP2016012873 A JP 2016012873A
Authority
JP
Japan
Prior art keywords
moving
monitoring target
video
moving body
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014134530A
Other languages
Japanese (ja)
Other versions
JP6226827B2 (en
Inventor
卓見 秋山
Takumi Akiyama
卓見 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014134530A priority Critical patent/JP6226827B2/en
Publication of JP2016012873A publication Critical patent/JP2016012873A/en
Application granted granted Critical
Publication of JP6226827B2 publication Critical patent/JP6226827B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a monitor video display device and method in which a video in a monitor object area is displayed in an easy-to-view manner, even when a plurality of moving bodies are concentrated in a certain partial area.SOLUTION: A monitor object selection part 5 is provided, which selects a moving body present in a grid when there is one moving body in the grid which is specified by a monitor object coordinate conversion part 4 and in which the moving body is present, and selects one moving body from a plurality of moving bodies when there are a plurality of moving bodies in the grid.

Description

この発明は、広範囲の監視対象領域内に存在している移動体(例えば、人間、車両など)の移動状況や混雑状況等を監視する監視映像表示装置及び監視映像表示方法に関するものである。   The present invention relates to a monitoring video display device and a monitoring video display method for monitoring a moving status or a congestion status of a moving body (for example, a person, a vehicle, etc.) existing in a wide range of monitoring targets.

以下の特許文献1には、広範囲の監視対象領域を容易に監視できるようにするために、複数のカメラにより撮影された映像を1枚の監視映像(監視対象領域の映像)に合成して、その監視映像を表示する監視映像表示装置が開示されている。
また、以下の特許文献2,3には、複数のカメラにより撮影された映像に映っている監視対象の移動体を検出して、その移動体が存在している位置を特定し、その位置を示す図形を監視映像上に表示する監視映像表示装置が開示されている。
なお、以下の特許文献4には、各々のカメラにより撮影された映像に映っている移動体の位置座標を、広範囲の監視対象領域の全体での位置座標に変換する方法が開示されている。
In Patent Document 1 below, in order to be able to easily monitor a wide range of monitoring target areas, the images taken by a plurality of cameras are combined into one monitoring video (video of the monitoring target area), A monitoring video display device that displays the monitoring video is disclosed.
Further, in Patent Documents 2 and 3 below, a moving object to be monitored shown in images taken by a plurality of cameras is detected, a position where the moving object exists is specified, and the position is determined. A monitoring video display device that displays a figure to be displayed on a monitoring video is disclosed.
The following Patent Document 4 discloses a method for converting the position coordinates of a moving body shown in a video photographed by each camera into the position coordinates of the entire monitoring target area.

特開2008−118466号公報(段落番号[0029]から[0031]、図2)JP 2008-118466 A (paragraph numbers [0029] to [0031], FIG. 2) 特開平7−49952号公報(段落番号[0012]、図6)JP 7-49952 A (paragraph number [0012], FIG. 6) 特開2012−109733号公報(段落番号[0080]、図16)JP 2012-109733 A (paragraph number [0080], FIG. 16) 特開平8−251573号公報(段落番号[0019]から[0021]、図1)JP-A-8-251573 (paragraph numbers [0019] to [0021], FIG. 1)

従来の監視映像表示装置は以上のように構成されているので、複数のカメラにより撮影された映像を1枚の監視映像(監視対象領域の映像)に合成して、その監視映像を表示するとともに、監視対象の移動体が存在している位置を示す図形を監視映像上に表示することができる。しかし、多くの移動体が或る部分的な領域に集中して、多くの移動体が密集していると、多くの図形が重なるように表示されて、非常に見にくい監視映像になってしまう課題があった。   Since the conventional monitoring video display device is configured as described above, the video captured by a plurality of cameras is combined with one monitoring video (video of the monitoring target area), and the monitoring video is displayed. The figure indicating the position where the monitoring target moving body is present can be displayed on the monitoring video. However, if many moving objects are concentrated in a certain partial area and many moving objects are concentrated, many figures are displayed so as to overlap each other, resulting in a very difficult to see monitoring video. was there.

この発明は上記のような課題を解決するためになされたもので、多くの移動体が或る部分的な領域に集中している場合でも、見やすい監視対象領域の映像を表示することができる監視映像表示装置及び監視映像表示方法を得ることを目的とする。   The present invention has been made in order to solve the above-described problems. Even when many moving objects are concentrated in a partial area, the monitoring can display an image of the monitoring target area that is easy to see. An object is to obtain a video display device and a monitoring video display method.

この発明に係る監視映像表示装置は、監視対象領域内に分散して配置され、監視対象領域内の異なる部分の領域を撮影する複数のカメラと、複数のカメラにより撮影された映像を合成して、監視対象領域の映像を生成する映像合成手段と、複数のカメラにより撮影された映像に映っている監視対象の移動体を検出するとともに、監視対象領域を構成する複数の区分領域の中で、移動体が存在している区分領域を特定する移動体検出手段と、移動体検出手段により特定された移動体が存在している区分領域内に存在している移動体の数が1つであれば、当該区分領域内に存在している移動体を選択し、当該区分領域内に存在している移動体の数が複数であれば、当該区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を選択する移動体選択手段と、移動体選択手段により選択された移動体が存在している位置を示すマークを映像合成手段により生成された監視対象領域の映像に合成するマーク合成手段とを設け、映像表示手段が、マーク合成手段によりマークが合成された監視対象領域の映像を表示するようにしたものである。   A monitoring video display device according to the present invention is arranged in a distributed manner in a monitoring target area, and combines a plurality of cameras that shoot different portions of the monitoring target area and videos shot by the plurality of cameras. In addition, the video composition means for generating the video of the monitoring target area and the moving object of the monitoring target reflected in the video shot by the plurality of cameras, and among the plurality of divided areas constituting the monitoring target area, The moving object detecting means for identifying the segmented area where the moving object exists and the number of moving objects existing in the segmented area where the moving object specified by the moving object detecting means exist are one. For example, if a mobile object that exists in the segmented area is selected and there are a plurality of mobile objects that exist in the segmented area, a plurality of mobile objects that exist in the segmented area are selected. Select one of the moving objects A moving object selecting means for combining the mark indicating the position where the moving object selected by the moving object selecting means is present with the image of the monitoring target area generated by the image synthesizing means. The display means displays an image of the monitoring target area where the mark is synthesized by the mark synthesis means.

この発明によれば、移動体検出手段により特定された移動体が存在している区分領域内に存在している移動体の数が1つであれば、当該区分領域内に存在している移動体を選択し、当該区分領域内に存在している移動体の数が複数であれば、当該区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を選択する移動体選択手段を設け、マーク合成手段が、移動体選択手段により選択された移動体が存在している位置を示すマークを映像合成手段により生成された監視対象領域の映像に合成するように構成したので、多くの移動体が或る部分的な領域に集中している場合でも、見やすい監視対象領域の映像を表示することができる効果がある。   According to the present invention, if the number of moving bodies existing in the divided area where the moving body specified by the moving body detecting means is one, the movement existing in the divided area is one. If a body is selected and there are a plurality of moving bodies present in the segmented area, one of the moving bodies present in the segmented area is selected. A moving object selecting means is provided, and the mark synthesizing means is configured to synthesize a mark indicating the position where the moving object selected by the moving object selecting means is present with the image of the monitoring target area generated by the image synthesizing means. Therefore, even when many moving objects are concentrated in a certain partial area, there is an effect that an image of the monitoring target area that is easy to see can be displayed.

この発明の実施の形態1による監視映像表示装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the monitoring video display apparatus by Embodiment 1 of this invention. この発明の実施の形態1による監視映像表示装置の処理内容(監視映像表示方法)を示すフローチャートである。It is a flowchart which shows the processing content (monitoring video display method) of the monitoring video display apparatus by Embodiment 1 of this invention. 監視対象選択部5による移動体の選択処理を示すフローチャートである。It is a flowchart which shows the selection process of the mobile body by the monitoring object selection part. 移動体が存在しているグリッドを示す説明図である。It is explanatory drawing which shows the grid in which the mobile body exists. マークが合成された監視映像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the monitoring image | video with which the mark was synthesize | combined.

実施の形態1.
図1はこの発明の実施の形態1による監視映像表示装置を示す構成図である。
図1において、カメラ1−1〜1−Nは監視対象領域内に分散して配置され、監視対象領域内の異なる部分の領域を撮影する。
この実施の形態1では、監視対象領域の全てをカバーできるようにカメラ1−1〜1−Nが配置されているものとする。
映像合成部2は例えばGPU(Graphics Processing Unit)などから構成されており、カメラ1−1〜1−Nにより撮影された映像を合成して、1枚の監視映像(監視対象領域の映像)を生成する処理を実施する。なお、映像合成部2は映像合成手段を構成している。
Embodiment 1 FIG.
1 is a block diagram showing a surveillance video display apparatus according to Embodiment 1 of the present invention.
In FIG. 1, cameras 1-1 to 1-N are arranged in a distributed manner in the monitoring target area, and photograph different areas in the monitoring target area.
In the first embodiment, it is assumed that the cameras 1-1 to 1-N are arranged so as to cover the entire monitoring target area.
The video composition unit 2 is composed of, for example, a GPU (Graphics Processing Unit), etc., and synthesizes video captured by the cameras 1-1 to 1-N to generate one surveillance video (video of a monitoring target area). Perform the process to generate. The video composition unit 2 constitutes a video composition means.

監視対象識別部3−1〜3−Nは例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、カメラ1−1〜1−Nにより撮影された映像に映っている監視対象の移動体(例えば、人間、車両など)を検出する処理を繰り返し実施する。
また、監視対象識別部3−1〜3−Nは、後段の監視対象選択部5により選択された移動体が存在している位置の変化を検出する処理を実施する。
監視対象座標変換部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、監視対象識別部3−1〜3−Nにより検出された移動体の位置の座標(カメラ1−1〜1−Nによる撮影映像上の座標)を、映像合成部2により生成された1枚の監視映像上の座標に変換し、監視対象領域を構成する複数の区分領域であるグリッドの中で、監視対象識別部3−1〜3−Nにより検出された移動体が存在しているグリッドを特定する処理を実施する。
なお、監視対象識別部3−1〜3−N及び監視対象座標変換部4から移動体検出手段が構成されている。
The monitoring target identification units 3-1 to 3-N are composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and are displayed on images captured by the cameras 1-1 to 1-N. The process of detecting a moving object to be monitored (for example, a person, a vehicle, etc.) is repeatedly performed.
In addition, the monitoring target identification units 3-1 to 3-N perform a process of detecting a change in the position where the moving object selected by the monitoring target selection unit 5 in the subsequent stage exists.
The monitoring target coordinate conversion unit 4 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the position of the moving body detected by the monitoring target identification units 3-1 to 3-N. The coordinates (coordinates on the captured video by the cameras 1-1 to 1-N) are converted into the coordinates on one monitoring video generated by the video synthesizing unit 2, and a plurality of divided areas constituting the monitoring target area are converted. The process which identifies the grid in which the mobile body detected by the monitoring object identification parts 3-1 to 3-N exists in a certain grid is implemented.
The monitoring object identification units 3-1 to 3-N and the monitoring object coordinate conversion unit 4 constitute moving body detection means.

監視対象選択部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、監視対象座標変換部4により特定された移動体が存在しているグリッド内に存在している移動体の数が1つであれば、当該グリッド内に存在している移動体を選択し、当該グリッド内に存在している移動体の数が複数であれば、当該グリッド内に存在している複数の移動体の中から、いずれか1つの移動体を選択する処理を実施する。
例えば、或るグリッド内に複数の移動体が存在している場合、複数の移動体の中で、当該グリッドの中心の位置から最も近い位置に存在している移動体を選択する。なお、監視対象選択部5は移動体選択手段を構成している。
The monitoring target selection unit 5 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and exists in a grid in which the moving object specified by the monitoring target coordinate conversion unit 4 exists. If the number of moving bodies is one, select a moving body existing in the grid, and if there are a plurality of moving bodies present in the grid, A process of selecting any one of the plurality of existing moving objects is performed.
For example, when a plurality of moving objects are present in a certain grid, a moving object that is present at a position closest to the center position of the grid is selected from the plurality of moving objects. Note that the monitoring target selection unit 5 constitutes a moving body selection unit.

監視対象マーク合成部6は例えばGPUなどから構成されており、監視対象選択部5により選択された移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成する処理を実施する。
また、監視対象マーク合成部6は監視対象選択部5により選択された移動体の変化に応じて監視映像に合成しているマークの位置を更新する処理を実施する。なお、監視対象マーク合成部6はマーク合成手段を構成している。
監視映像表示部7は例えば液晶ディスプレイなどから構成されており、監視対象マーク合成部6によりマークが合成された監視映像を表示する処理を実施する。なお、監視映像表示部7は映像表示手段を構成している。
The monitoring target mark composition unit 6 is composed of, for example, a GPU or the like, and composes a mark indicating the position where the moving object selected by the monitoring target selection unit 5 is present with the monitoring video generated by the video composition unit 2. Implement the process.
In addition, the monitoring target mark combining unit 6 performs a process of updating the position of the mark combined with the monitoring video according to the change of the moving body selected by the monitoring target selecting unit 5. The monitoring target mark composition unit 6 constitutes a mark composition unit.
The monitoring video display unit 7 is composed of, for example, a liquid crystal display, and performs a process of displaying the monitoring video in which the mark is combined by the monitoring target mark combining unit 6. The monitoring video display unit 7 constitutes video display means.

図1の例では、監視映像表示装置の構成要素であるカメラ1−1〜1−N、映像合成部2、監視対象識別部3−1〜3−N、監視対象座標変換部4、監視対象選択部5、監視対象マーク合成部6及び監視映像表示部7のそれぞれが専用のハードウェアで構成されているものを想定しているが、カメラ1−1〜1−Nを除く構成要素がコンピュータで構成されていてもよい。
例えば、カメラ1−1〜1−Nを除く構成要素をコンピュータで構成する場合、映像合成部2、監視対象識別部3−1〜3−N、監視対象座標変換部4、監視対象選択部5、監視対象マーク合成部6及び監視映像表示部7の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による監視映像表示装置の処理内容(監視映像表示方法)を示すフローチャートである。
また、図3は監視対象選択部5による移動体の選択処理を示すフローチャートである。
In the example of FIG. 1, the cameras 1-1 to 1-N, the video composition unit 2, the monitoring target identification units 3-1 to 3-N, the monitoring target coordinate conversion unit 4, and the monitoring target, which are components of the monitoring video display device. Although it is assumed that each of the selection unit 5, the monitoring target mark composition unit 6, and the monitoring video display unit 7 is configured by dedicated hardware, components other than the cameras 1-1 to 1-N are computers. It may be comprised.
For example, when components other than the cameras 1-1 to 1-N are configured by a computer, the video composition unit 2, the monitoring target identification units 3-1 to 3-N, the monitoring target coordinate conversion unit 4, and the monitoring target selection unit 5 are used. If the program describing the processing contents of the monitoring object mark composition unit 6 and the monitoring video display unit 7 is stored in the memory of the computer, the CPU of the computer executes the program stored in the memory. Good.
FIG. 2 is a flowchart showing the processing contents (monitoring video display method) of the monitoring video display device according to Embodiment 1 of the present invention.
FIG. 3 is a flowchart showing a mobile object selection process performed by the monitoring target selection unit 5.

次に動作について説明する。
カメラ1−1〜1−Nは、監視対象領域内に分散して配置されており、監視対象領域内の異なる部分の領域を撮影して、撮影した領域の映像を示す映像信号を映像合成部2及び監視対象識別部3−1〜3−Nに出力する(図2のステップST1)。
映像合成部2は、カメラ1−1〜1−Nから映像信号を受けると、各映像信号が示す映像を合成して、1枚の監視映像(監視対象領域の映像)を生成する(ステップST2)。
Next, the operation will be described.
The cameras 1-1 to 1-N are arranged in a distributed manner in the monitoring target area. The cameras 1-1 to 1-N shoot different areas in the monitoring target area, and display a video signal indicating the video of the shot area as a video synthesizing unit. 2 and the monitoring target identification units 3-1 to 3-N (step ST1 in FIG. 2).
When receiving the video signals from the cameras 1-1 to 1-N, the video synthesis unit 2 synthesizes the video indicated by each video signal to generate one monitoring video (video of the monitoring target area) (step ST2). ).

複数の映像を合成して、1枚の監視映像を生成する処理自体は公知の技術であるため詳細な説明は省略するが、カメラ1−1〜1−Nにより撮影される各々の映像が、監視対象領域内のどの部分の領域の映像であるかを映像合成部2が事前に認識していれば、カメラ1−1〜1−Nにより撮影された映像を適正な位置に配置して繋ぎ合せることで、1枚の監視映像を生成することができる。
例えば、上記の特許文献1には、複数の映像を合成して、1枚の監視映像を生成する処理が開示されている。
Since the process itself for synthesizing a plurality of videos to generate one surveillance video is a known technique, a detailed description thereof is omitted, but each video shot by the cameras 1-1 to 1-N is If the video composition unit 2 recognizes in advance which area of the monitoring target area the video is, the video shot by the cameras 1-1 to 1-N is arranged and connected at an appropriate position. By combining them, one surveillance video can be generated.
For example, Patent Document 1 described above discloses a process of generating a single monitoring video by combining a plurality of videos.

監視対象識別部3−1〜3−Nは、カメラ1−1〜1−Nから映像信号を受けると、各映像信号が示す映像に映っている監視対象の移動体(例えば、人間、車両など)を検出する(ステップST3)。
映像に映っている移動体の検出処理自体は公知の技術であるため詳細な説明を省略するが、例えば、パターン認識処理などを実施することで、映像に映っている物体等が、監視対象の移動体であるか否かを判別することができる。
パターン認識処理について簡単に説明すると、例えば、監視対象の移動体が人間である場合、人間の眼・鼻・口などの特徴を抽出する特徴抽出用フィルタを使用して、事前に特徴量を抽出し、その抽出した特徴量を学習データとして記憶する。特定の人間を識別するのではなく、人間であるのか、それ以外の物体であるのかを識別する場合、事前に不特定多数の人間の特徴量を抽出して、それらの特徴量の平均値等を算出する。
学習データの記憶が完了したのち、カメラにより撮影された映像から特徴抽出用フィルタを使用して物体の特徴量を抽出する。そして、その特徴量と学習データを照合(パターン認識)して、今回抽出した特徴量と学習データ間の距離を算出し、その距離が予め設定されている閾値より短ければ、カメラにより撮影された映像に映っている物体は人間であると判別する。
When the monitoring target identification units 3-1 to 3-N receive video signals from the cameras 1-1 to 1-N, the monitoring target moving bodies (for example, humans, vehicles, etc.) shown in the video indicated by the video signals ) Is detected (step ST3).
Since the detection process itself of the moving object shown in the video is a known technique, detailed description thereof is omitted, but for example, by performing pattern recognition processing or the like, an object shown in the video can be monitored. It is possible to determine whether the object is a moving body.
Briefly describing pattern recognition processing, for example, if the moving body to be monitored is a human, feature extraction is performed in advance using a feature extraction filter that extracts features such as human eyes, nose, and mouth. Then, the extracted feature amount is stored as learning data. When identifying whether it is a human or other object rather than identifying a specific person, we extract feature values of a large number of unspecified humans in advance and average the feature values, etc. Is calculated.
After the learning data is stored, the feature amount of the object is extracted from the video image taken by the camera using the feature extraction filter. Then, the feature amount and the learning data are collated (pattern recognition), the distance between the feature amount extracted this time and the learning data is calculated, and if the distance is shorter than a preset threshold value, the image is taken by the camera. It is determined that the object shown in the image is a human.

なお、カメラ1−1〜1−Nにより撮影された各映像の間に重複している部分がある場合、1つの移動体が、その重複部分において、複数の映像に映り込んでいることがある。このような場合には、その重複部分に存在している移動体の同一性を認識する処理を実施し、同一性が認められる移動体は、単一の移動体として合成するようにすればよい。
監視対象識別部3−1〜3−Nによる移動体の検出処理は繰り返し実施されるものである。検出処理の繰り返し周期は、例えば、カメラ1−1〜1−Nにより撮影される映像のフレーム単位でもよいし、10秒毎などの所定時間毎でもよい。また、利用者が任意に設定できるようにしてもよい。
In addition, when there exists an overlapping part between each image | video image | photographed with the cameras 1-1 to 1-N, one moving body may be reflected in the some image | video in the overlapping part. . In such a case, a process of recognizing the identity of the moving object existing in the overlapping portion is performed, and the moving object having the recognized identity may be synthesized as a single moving object. .
The moving object detection process by the monitoring target identification units 3-1 to 3-N is repeatedly performed. The repetition cycle of the detection process may be, for example, a frame unit of video captured by the cameras 1-1 to 1-N, or may be every predetermined time such as every 10 seconds. Moreover, you may enable it to set arbitrarily by a user.

監視対象座標変換部4は、監視対象識別部3−1〜3−Nが監視対象の移動体を検出すると、その移動体の位置の座標(カメラ1−1〜1−Nにより撮影された映像上の座標)を、映像合成部2により生成された1枚の監視映像上の座標に変換する(ステップST4)。
監視対象識別部3−1〜3−Nにより検出された移動体の位置の座標を、映像合成部2により生成された1枚の監視映像上の座標に変換する処理自体は公知の技術であるため詳細な説明は省略する。このような座標変換処理は、例えば、上記の特許文献4に開示されている。
When the monitoring object identification units 3-1 to 3-N detect a moving object to be monitored, the monitoring object coordinate conversion unit 4 detects the coordinates of the position of the moving object (images taken by the cameras 1-1 to 1-N). The upper coordinates) are converted into the coordinates on one surveillance video generated by the video composition unit 2 (step ST4).
The process itself for converting the coordinates of the position of the moving body detected by the monitoring target identification units 3-1 to 3-N into the coordinates on one monitoring video generated by the video composition unit 2 is a known technique. Therefore, detailed description is omitted. Such a coordinate conversion process is disclosed in, for example, Patent Document 4 described above.

監視対象座標変換部4は、監視対象識別部3−1〜3−Nにより検出された移動体の位置の座標を監視映像上の座標に変換すると、監視対象領域を構成する複数の区分領域であるグリッドの中で、その移動体が存在しているグリッドを特定する(ステップST5)。
監視対象領域を構成するグリッドの座標範囲は既知であるため、移動体の位置の座標(監視映像上の座標)が分かれば、移動体が存在しているグリッドを特定することができる。
ここで、図4は移動体が存在しているグリッドを示す説明図である。
図4では、監視対象領域を構成するグリッドが25個(=5×5個)である例を示している。グリッドの数は監視対象領域の広さに応じて決定すればよいが、実際の装置では、25個よりも多くのグリッドが設けられることが想定される。
図4の例では、グリッド内に存在している移動体を〇の印で表記しており、右下の5−Eで示されるグリッドなどでは複数の移動体が存在している例を示している。
The monitoring target coordinate conversion unit 4 converts the coordinates of the position of the moving body detected by the monitoring target identification units 3-1 to 3-N into the coordinates on the monitoring video, and the plurality of divided regions constituting the monitoring target region. Among the grids, the grid in which the moving body is present is specified (step ST5).
Since the coordinate range of the grid constituting the monitoring target area is known, if the coordinates of the position of the moving body (coordinates on the monitoring video) are known, the grid where the moving body exists can be specified.
Here, FIG. 4 is an explanatory diagram showing a grid in which a moving object is present.
FIG. 4 shows an example in which there are 25 (= 5 × 5) grids constituting the monitoring target area. The number of grids may be determined according to the size of the monitoring target area, but in an actual apparatus, it is assumed that more than 25 grids are provided.
In the example of FIG. 4, a moving object existing in the grid is indicated by a circle, and an example in which a plurality of moving objects exist in the grid indicated by 5-E in the lower right is shown. Yes.

監視対象選択部5は、監視対象座標変換部4が、移動体が存在しているグリッドを特定すると、各グリッド内に存在している移動体の中から、監視映像上に表示する対象の移動体を選択する(ステップST6)。
以下、監視対象選択部5による移動体の選択処理を具体的に説明する。
監視対象選択部5は、監視対象座標変換部4が、移動体が存在しているグリッドを特定すると、各グリッド内に存在している移動体の数をカウントする(図3のステップST21)。
When the monitoring target coordinate conversion unit 4 identifies a grid in which a moving object exists, the monitoring target selection unit 5 moves a target to be displayed on the monitoring video from the moving objects existing in each grid. A body is selected (step ST6).
Hereinafter, the selection process of the moving body by the monitoring target selection unit 5 will be specifically described.
When the monitoring target coordinate conversion unit 4 identifies the grid in which the moving object exists, the monitoring target selection unit 5 counts the number of moving objects that exist in each grid (step ST21 in FIG. 3).

監視対象選択部5は、各グリッド内に存在している移動体の数をカウントすると、グリッド毎に、当該グリッド内に存在している移動体の数が1つであれば(ステップST22:Yesの場合)、その移動体を選択する(ステップST23)。
図4の例では、2−Aで示されるグリッド、3−Bで示されるグリッド、3−Cで示されるグリッド、3−Dで示されるグリッド内には、1つの移動体が存在しているので、その移動体を選択する。
監視対象選択部5は、当該グリッド内に存在している移動体の数が複数であれば(ステップST22:Noの場合)、複数の移動体の中から、いずれか1つの移動体を選択する(ステップST24)。
図4の例では、4−Dで示されるグリッド、4−Eで示されるグリッド、5−Eで示されるグリッド内には、複数の移動体が存在しているので、いずれか1つの移動体を選択する。
これにより、監視対象領域を構成する複数のグリッドの数と同数以下の移動体を選択することができる。
When the number of moving bodies present in each grid is counted, the monitoring target selection unit 5 counts the number of moving bodies present in the grid for each grid (step ST22: Yes). ), The moving body is selected (step ST23).
In the example of FIG. 4, there is one moving body in the grid indicated by 2-A, the grid indicated by 3-B, the grid indicated by 3-C, and the grid indicated by 3-D. So select that moving body.
If there are a plurality of moving objects existing in the grid (step ST22: No), the monitoring target selection unit 5 selects any one moving object from the plurality of moving objects. (Step ST24).
In the example of FIG. 4, since there are a plurality of moving bodies in the grid indicated by 4-D, the grid indicated by 4-E, and the grid indicated by 5-E, any one moving body is present. Select.
As a result, it is possible to select as many moving bodies as the number of the plurality of grids constituting the monitoring target area.

いずれか1つの移動体の選択する方法としては、監視対象座標変換部4により変換された監視映像上の座標を参照して、複数の移動体の中で、グリッドの中心の位置から最も近い位置に存在している移動体を選択する方法が考えられる。この方法で選択する場合、図4の例では、斜線が施されている移動体が選択される。
ここでは、グリッドの中心の位置から最も近い位置に存在している移動体を選択する方法を示しているが、これに限るものではなく、例えば、グリッドの左上の位置から最も近い位置に存在している移動体を選択するようにしてもよいし、ランダムに移動体を選択するようにしてもよい。
As a method of selecting any one of the moving bodies, a position closest to the center position of the grid among the plurality of moving bodies with reference to the coordinates on the monitoring video converted by the monitoring target coordinate conversion unit 4 A method of selecting a moving body existing in the area can be considered. When selecting by this method, in the example of FIG. 4, a moving body that is shaded is selected.
Here, a method of selecting a moving object that is closest to the center position of the grid is shown, but the present invention is not limited to this. For example, the moving object is located closest to the upper left position of the grid. A moving body may be selected, or a moving body may be selected at random.

監視対象選択部5は、各グリッド内に存在している移動体を選択すると、その選択した移動体に対して識別子を割り当てて、その識別子を記憶することで、選択中の移動体を記憶する(ステップST25)。
また、監視対象選択部5は、その選択した移動体の監視映像上の座標を監視対象マーク合成部6に出力するとともに、その選択した移動体の追尾指令(追尾指令には、選択した移動体の識別子などが含まれている)を監視対象識別部3−1〜3−Nに出力する。
When the monitoring target selection unit 5 selects a moving body existing in each grid, the monitoring target selection unit 5 assigns an identifier to the selected moving body and stores the identifier, thereby storing the selected moving body. (Step ST25).
In addition, the monitoring target selection unit 5 outputs the coordinates of the selected moving body on the monitoring video to the monitoring target mark combining unit 6, and the tracking command of the selected moving body (the tracking command includes the selected moving body Are included in the monitoring target identification units 3-1 to 3 -N.

監視対象マーク合成部6は、監視対象選択部5から選択された移動体の監視映像上の座標を受けると、その移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成する(図2のステップST7)。
監視映像表示部7は、監視対象マーク合成部6によりマークが合成された監視映像を表示する(ステップST8)。
図5はマークが合成された監視映像の表示例を示す説明図である。図5では、移動体が存在している位置を示すマークが〇の例を示している。
When the monitoring object mark composition unit 6 receives the coordinates of the moving object selected from the monitoring object selection unit 5 on the monitoring image, the image composition unit 2 generates a mark indicating the position where the moving object exists. This is synthesized with the monitoring video (step ST7 in FIG. 2).
The monitoring video display unit 7 displays the monitoring video in which the mark is combined by the monitoring target mark combining unit 6 (step ST8).
FIG. 5 is an explanatory diagram showing a display example of a monitoring video in which marks are combined. FIG. 5 shows an example in which the mark indicating the position where the moving body is present is ◯.

監視対象識別部3−1〜3−Nは、監視対象選択部5から移動体の追尾指令を受けると、例えば、監視対象選択部5により選択された移動体の追尾処理を実施することで、その移動体が存在している位置の変化を検出し、その検出結果を監視対象座標変換部4に出力する(ステップST9)。
移動体の追尾処理自体は公知の技術であるため詳細な説明を省略するが、例えば、カルマンフィルタなどを用いた移動体の位置や速度の推定処理を実施することで、移動体が存在している位置の変化を検出することができる。
ここでは、監視対象識別部3−1〜3−Nが、監視対象選択部5により選択された移動体の追尾処理を実施することで、その移動体が存在している位置の変化を検出する例を示しているが、先に説明している移動体の検出処理を繰り返し実施することで、その移動体が存在している位置の変化を検出するようにしてもよい。ただし、この場合、パターン認識処理などを実施することで、監視対象選択部5により選択された移動体と、選択されていない移動体とを区別して、監視対象選択部5により選択された移動体の位置の変化を検出する必要がある。
When the monitoring target identification units 3-1 to 3 -N receive the tracking command of the moving object from the monitoring target selection unit 5, for example, by performing tracking processing of the moving object selected by the monitoring target selection unit 5, The change of the position where the moving body exists is detected, and the detection result is output to the monitoring target coordinate conversion unit 4 (step ST9).
Since the tracking process itself of the moving body is a known technique, a detailed description thereof will be omitted. However, for example, the moving body exists by performing estimation processing of the position and speed of the moving body using a Kalman filter or the like. A change in position can be detected.
Here, the monitoring target identification units 3-1 to 3 -N detect the change in the position where the moving body exists by performing the tracking process of the moving body selected by the monitoring target selection unit 5. Although an example is shown, a change in the position where the moving body exists may be detected by repeatedly performing the moving body detection process described above. However, in this case, by performing pattern recognition processing or the like, the mobile object selected by the monitoring object selection unit 5 is distinguished from the mobile object selected by the monitoring object selection unit 5 and the unselected mobile object. It is necessary to detect a change in the position of.

監視対象座標変換部4は、監視対象識別部3−1〜3−Nが選択中の移動体が存在している位置の変化を検出すると、移動後の移動体の位置の座標を監視映像上の座標に変換して、監視映像上の座標を監視対象選択部5を介して監視対象マーク合成部6に出力する。
監視対象マーク合成部6は、選択中の移動体の監視映像上の座標(移動後の座標)を受けると、移動後の座標と一致するように、監視映像に合成している移動体の位置を示すマークの位置を更新する(ステップST10)。
監視映像表示部7は、監視対象マーク合成部6によりマークの位置が更新された監視映像を表示する(ステップST11)。
以下、監視を継続している間、ステップST9〜ST11の処理を繰り返し実施する(ステップST12)。
When the monitoring object coordinate conversion unit 4 detects a change in the position where the moving object being selected by the monitoring object identification units 3-1 to 3 -N is present, the monitoring object coordinate conversion unit 4 displays the coordinates of the position of the moving object on the monitoring video. The coordinates on the monitoring video are output to the monitoring target mark composition unit 6 via the monitoring target selection unit 5.
When the monitoring target mark composition unit 6 receives the coordinates (post-movement coordinates) of the selected moving body on the monitoring video, the position of the moving body combined with the monitoring video so as to coincide with the coordinates after movement. The mark position indicating is updated (step ST10).
The monitoring video display unit 7 displays the monitoring video in which the mark position has been updated by the monitoring target mark combining unit 6 (step ST11).
Thereafter, while monitoring is continued, the processes of steps ST9 to ST11 are repeatedly performed (step ST12).

以上で明らかなように、この実施の形態1によれば、監視対象座標変換部4により特定された移動体が存在しているグリッド毎に、当該グリッド内に存在している移動体の数が1つであれば、当該グリッド内に存在している移動体を選択し、当該グリッド内に存在している移動体の数が複数であれば、当該グリッド内に存在している複数の移動体の中から、いずれか1つの移動体を選択する監視対象選択部5を設け、監視対象マーク合成部6が、監視対象選択部5により選択された移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成するように構成したので、多くの移動体が或るグリッドに集中している場合でも、見やすい監視対象領域の映像を表示することができる効果を奏する。
即ち、多くの移動体が或るグリッドに集中している場合、そのグリッドに集中している移動体が間引かれるため、そのグリッド内で、複数の移動体の位置を示すマークが重なり合って煩雑になることがなくなる。また、マークの重なりで、当該グリッド内の監視映像自体が見えなくなる状況を避けることができる。
As apparent from the above, according to the first embodiment, for each grid in which the moving object specified by the monitoring target coordinate conversion unit 4 exists, the number of moving objects existing in the grid is determined. If there is one, a moving body existing in the grid is selected, and if there are a plurality of moving bodies existing in the grid, a plurality of moving bodies existing in the grid are selected. The monitoring object selection unit 5 for selecting any one of the moving objects is provided, and the monitoring object mark composition unit 6 displays a mark indicating the position where the moving object selected by the monitoring object selection unit 5 exists. Since it is composed so as to be synthesized with the monitoring video generated by the video synthesizing unit 2, even when many moving objects are concentrated on a certain grid, it is possible to display an image of the monitoring target area that is easy to see. .
That is, when many moving objects are concentrated on a certain grid, the moving objects concentrated on the grid are thinned out, so that marks indicating the positions of a plurality of moving objects overlap in the grid. It will not become. Further, it is possible to avoid a situation in which the monitoring video itself in the grid cannot be seen due to the overlap of marks.

この実施の形態1では、監視映像表示装置の各構成要素が図1のように接続されている例を示したが、例えば、LAN(Local Area Network)を用いて接続することで、各構成要素の間の配線を単純化してもよい。また、各構成要素の間を無線で接続するようにしてもよい。   In the first embodiment, an example in which each component of the monitoring video display device is connected as shown in FIG. 1 is shown. However, for example, each component is connected by using a LAN (Local Area Network). The wiring between the terminals may be simplified. Moreover, you may make it connect between each component by radio | wireless.

実施の形態2.
上記実施の形態1では、監視対象マーク合成部6が、監視対象選択部5により選択された移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成するものを示したが、監視対象選択部5により選択された移動体が移動することで、監視対象領域の外側に出ることがある。
この実施の形態2では、監視対象選択部5により選択された移動体の中で、いずれかの移動体が監視対象領域の外側に出た場合、その移動体を非選択の状態に変更して、その移動体が存在している位置を示すマークを消去するようにする。
具体的には、以下の通りである。
Embodiment 2. FIG.
In the first embodiment, the monitoring target mark combining unit 6 combines the mark indicating the position where the moving object selected by the monitoring target selecting unit 5 is present with the monitoring video generated by the video combining unit 2. However, the moving object selected by the monitoring target selection unit 5 may move outside the monitoring target area.
In the second embodiment, when any of the moving objects selected by the monitoring target selection unit 5 comes outside the monitoring target area, the moving object is changed to a non-selected state. The mark indicating the position where the moving body is present is erased.
Specifically, it is as follows.

監視対象識別部3−1〜3−Nは、監視対象選択部5から移動体の追尾指令を受けると、上記実施の形態1と同様に、監視対象選択部5により選択された移動体が存在している位置の変化を検出し、その検出結果を監視対象座標変換部4に出力する。
監視対象座標変換部4は、監視対象識別部3−1〜3−Nが選択中の移動体が存在している位置の変化を検出すると、移動後の移動体の位置の座標を監視映像上の座標に変換して、監視映像上の座標を監視対象選択部5に出力する。
ただし、監視対象座標変換部4は、監視対象識別部3−1〜3−Nが選択中の移動体が監視対象領域の外側に出ることで、選択中の移動体が存在している位置を検出することができなくなると、監視対象領域の外側に出た移動体を示す識別情報を監視対象選択部5に出力する。
When the monitoring object identification units 3-1 to 3 -N receive a tracking command for the moving object from the monitoring object selection unit 5, the moving object selected by the monitoring object selection unit 5 exists as in the first embodiment. A change in the position is detected, and the detection result is output to the monitoring target coordinate conversion unit 4.
When the monitoring object coordinate conversion unit 4 detects a change in the position where the moving object being selected by the monitoring object identification units 3-1 to 3 -N is present, the monitoring object coordinate conversion unit 4 displays the coordinates of the position of the moving object on the monitoring video. The coordinates on the monitoring video are output to the monitoring target selection unit 5.
However, the monitoring target coordinate conversion unit 4 determines the position where the selected moving body is present when the moving body selected by the monitoring target identification units 3-1 to 3-N comes out of the monitoring target area. When it becomes impossible to detect, identification information indicating the moving body that has moved outside the monitoring target area is output to the monitoring target selection unit 5.

監視対象選択部5は、監視対象座標変換部4から選択中の移動体の監視映像上の座標(移動後の座標)を受けると、監視映像上に表示する対象の移動体として、引き続き、選択中の移動体を選択する。
監視対象選択部5は、監視対象座標変換部4から監視対象領域の外側に出た移動体を示す識別情報を受けると、その移動体を非選択の状態に変更する。
監視対象マーク合成部6は、監視対象選択部5が、選択中の移動体を非選択の状態に変更すると、その移動体が存在している位置を示すマークを映像合成部2により生成された監視映像上から消去する。
これにより、監視の必要性が無くなった移動体の位置を示すマークが表示されなくなるため、監視映像の見易さを高めることができる。
Upon receiving the coordinates (moved coordinates) of the moving body being selected from the monitoring target coordinate conversion section 4, the monitoring target selection unit 5 continues to select the target moving body to be displayed on the monitoring video. Select the moving body inside.
When the monitoring target selection unit 5 receives the identification information indicating the moving body outside the monitoring target region from the monitoring target coordinate conversion unit 4, the monitoring target selection unit 5 changes the moving body to a non-selected state.
When the monitoring target selection unit 5 changes the selected moving body to a non-selected state, the monitoring target mark combining unit 6 generates a mark indicating the position where the moving body exists by the video combining unit 2. Delete from the surveillance video.
As a result, the mark indicating the position of the moving body that is no longer necessary to be monitored is not displayed, so that it is possible to improve the visibility of the monitoring video.

実施の形態3.
上記実施の形態1では、監視対象マーク合成部6が、監視対象選択部5により選択された移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成するものを示したが、監視対象選択部5により選択された移動体が移動することで、複数の移動体が同一のグリッドに集中することがある。
この実施の形態3では、複数の移動体が同一のグリッドに集中している場合、当該グリッド内に存在している複数の移動体の中で、いずれか1つの移動体については選択中のまま残す一方で、その他の移動体については非選択の状態に変更して、その他の移動体が存在している位置を示すマークを消去するようにする。
具体的には、以下の通りである。
Embodiment 3 FIG.
In the first embodiment, the monitoring target mark combining unit 6 combines the mark indicating the position where the moving object selected by the monitoring target selecting unit 5 is present with the monitoring video generated by the video combining unit 2. However, there are cases where a plurality of moving bodies are concentrated on the same grid due to the movement of the moving bodies selected by the monitoring target selection unit 5.
In the third embodiment, when a plurality of moving bodies are concentrated on the same grid, one of the moving bodies existing in the grid remains selected. On the other hand, the other moving objects are changed to a non-selected state so that the mark indicating the position where the other moving objects exist is erased.
Specifically, it is as follows.

監視対象識別部3−1〜3−Nは、監視対象選択部5から移動体の追尾指令を受けると、上記実施の形態1と同様に、監視対象選択部5により選択された移動体が存在している位置の変化を検出し、その検出結果を監視対象座標変換部4に出力する。
監視対象座標変換部4は、監視対象識別部3−1〜3−Nが選択中の移動体が存在している位置の変化を検出すると、移動後の移動体の位置の座標を監視映像上の座標に変換する。
監視対象座標変換部4は、移動後の移動体の位置の座標を監視映像上の座標に変換すると、監視対象領域を構成する複数のグリッドの中で、その移動体が存在しているグリッドを特定する。
When the monitoring object identification units 3-1 to 3 -N receive a tracking command for the moving object from the monitoring object selection unit 5, the moving object selected by the monitoring object selection unit 5 exists as in the first embodiment. A change in the position is detected, and the detection result is output to the monitoring target coordinate conversion unit 4.
When the monitoring object coordinate conversion unit 4 detects a change in the position where the moving object being selected by the monitoring object identification units 3-1 to 3 -N is present, the monitoring object coordinate conversion unit 4 displays the coordinates of the position of the moving object on the monitoring video. Convert to coordinates.
When the monitoring target coordinate conversion unit 4 converts the coordinates of the position of the moving object after movement into coordinates on the monitoring image, the monitoring object coordinate conversion unit 4 selects a grid in which the moving object exists among a plurality of grids constituting the monitoring target area. Identify.

監視対象選択部5は、監視対象座標変換部4が、選択中の移動体が存在しているグリッドを特定すると、各グリッド内に存在している移動体の数をカウントして、複数の移動体が存在しているグリッドの検出処理を実施する。
監視対象選択部5は、複数の移動体が存在しているグリッドがある場合、そのグリッド内に存在している複数の移動体の中で、いずれか1つの移動体については選択中のまま残すが、その他の移動体については非選択の状態に変更する。
When the monitoring target coordinate conversion unit 4 identifies the grid in which the moving body being selected exists, the monitoring target selection unit 5 counts the number of moving bodies present in each grid, and performs a plurality of movements. The detection process of the grid in which the body exists is implemented.
When there is a grid in which a plurality of moving objects are present, the monitoring target selection unit 5 leaves any one of the moving objects in the grid selected. However, other mobile objects are changed to a non-selected state.

選択中のまま残す移動体を選択する方法としては、上記実施の形態1と同様に、監視対象座標変換部4により変換された監視映像上の座標を参照して、複数の移動体の中で、グリッドの中心の位置から最も近い位置に存在している移動体を選択する方法が考えられる。あるいは、グリッドの左上の位置から最も近い位置に存在している移動体を選択するようにしてもよいし、ランダムに移動体を選択するようにしてもよい。   As a method for selecting a moving object to be left in the selected state, as in the first embodiment, referring to the coordinates on the monitoring video converted by the monitoring target coordinate conversion unit 4, among the plurality of moving objects. A method of selecting a moving body that is present at a position closest to the center position of the grid can be considered. Or you may make it select the mobile body which exists in the position nearest from the upper left position of a grid, and you may make it select a mobile body at random.

監視対象マーク合成部6は、監視対象選択部5が、選択中の移動体を非選択の状態に変更すると、その移動体が存在している位置を示すマークを映像合成部2により生成された監視映像上から消去する。
これにより、選択中の移動体が移動して、複数の移動体が同一のグリッドに集中しても、そのグリッドに集中している移動体が間引かれるため、そのグリッド内で、複数の移動体の位置を示すマークが重なり合って煩雑になることがなくなる。また、マークの重なりで、当該グリッド内の監視映像自体が見えなくなる状況を避けることができる。
When the monitoring target selection unit 5 changes the selected moving body to a non-selected state, the monitoring target mark combining unit 6 generates a mark indicating the position where the moving body exists by the video combining unit 2. Delete from the surveillance video.
As a result, even if the selected moving body moves and a plurality of moving bodies concentrate on the same grid, the moving bodies that are concentrated on the grid are thinned out. Marks indicating the position of the body do not overlap and become complicated. Further, it is possible to avoid a situation in which the monitoring video itself in the grid cannot be seen due to the overlap of marks.

実施の形態4.
上記実施の形態2,3では、監視対象選択部5が選択中の移動体を非選択の状態に変更すると、監視対象マーク合成部6が、非選択の状態に変更された移動体が存在している位置を示すマークを監視映像上から消去するものを示したが、現在選択中の移動体が存在しているグリッド以外のグリッド内に監視対象の移動体が存在していれば、その移動体を新たに選択するようにしてもよい。
即ち、監視対象選択部5は、現在選択中の移動体のいずれかを非選択の状態に変更すると、監視対象座標変換部4による移動体が存在しているグリッドの特定結果を参照して、現在選択中の移動体が存在しているグリッド以外で、監視対象の移動体が存在しているグリッドを特定し、その特定したグリッド内に存在している移動体の数が1つであれば、その特定したグリッド内に存在している移動体を新たに選択し、その特定したグリッド内に存在している移動体の数が複数であれば、その特定したグリッド内に存在している複数の移動体の中から、いずれか1つの移動体を新たに選択するようにしてもよい。
具体的には、以下の通りである。
Embodiment 4 FIG.
In the second and third embodiments, when the monitoring object selection unit 5 changes the selected moving body to the non-selected state, there is a moving body in which the monitoring target mark composition unit 6 is changed to the non-selected state. The mark indicating the position of the moving object is deleted from the monitoring video, but if there is a moving object to be monitored in a grid other than the grid where the currently selected moving object exists, its movement A new body may be selected.
That is, when the monitoring target selection unit 5 changes any of the currently selected moving bodies to a non-selected state, the monitoring target coordinate conversion unit 4 refers to the grid identification result in which the moving body exists, If the grid in which the mobile body to be monitored exists other than the grid in which the mobile body currently selected exists, and the number of mobile bodies existing in the specified grid is one, If the number of moving objects that exist in the specified grid is newly selected and the number of moving objects that exist in the specified grid is plural, the plural existing in the specified grid Any one of the moving bodies may be newly selected.
Specifically, it is as follows.

監視対象選択部5は、選択中の移動体を非選択の状態に変更すると、移動体の検出指令を監視対象識別部3−1〜3−Nに出力する。
監視対象識別部3−1〜3−Nは、監視対象選択部5から移動体の検出指令を受けると、上記実施の形態1と同様に、カメラ1−1〜1−Nから出力された映像信号が示す映像に映っている監視対象の移動体を検出する。ただし、ここでは、現在選択中の移動体を除外して、未だ監視対象の移動体として選択されていない移動体を検出するものとする。
現在選択中の移動体以外の移動体(以下、「未選択移動体」と称する)を検出するには、例えば、パターン認識処理などを実施することで、現在選択中の移動体と、未選択移動体とを区別する必要がある。
When the monitoring target selection unit 5 changes the selected moving body to the non-selected state, the monitoring target selection unit 5 outputs a moving body detection command to the monitoring target identification units 3-1 to 3-N.
When the monitoring target identification units 3-1 to 3-N receive a moving body detection command from the monitoring target selection unit 5, the images output from the cameras 1-1 to 1-N are the same as in the first embodiment. A monitoring target moving body shown in the video indicated by the signal is detected. However, here, it is assumed that a moving body that is not yet selected as a monitoring target moving body is detected by excluding the currently selected moving body.
To detect a moving body other than the currently selected moving body (hereinafter referred to as “unselected moving body”), for example, by performing a pattern recognition process or the like, the currently selected moving body and the unselected moving body It is necessary to distinguish the moving object.

監視対象座標変換部4は、監視対象識別部3−1〜3−Nが未選択移動体を検出すると、上記実施の形態1と同様に、その未選択移動体の位置の座標(カメラ1−1〜1−Nにより撮影された映像上の座標)を、映像合成部2により生成された1枚の監視映像上の座標に変換する。
監視対象座標変換部4は、監視対象識別部3−1〜3−Nにより検出された未選択移動体の位置の座標を監視映像上の座標に変換すると、上記実施の形態1と同様に、監視対象領域を構成する複数のグリッドの中で、その未選択移動体が存在しているグリッドを特定する。
When the monitoring target identification units 3-1 to 3-N detect the unselected moving body, the monitoring target coordinate conversion unit 4 detects the coordinates of the position of the unselected moving body (camera 1- 1) as in the first embodiment. 1 to 1-N) are converted into coordinates on one surveillance video generated by the video composition unit 2.
The monitoring target coordinate conversion unit 4 converts the coordinates of the position of the unselected moving body detected by the monitoring target identification units 3-1 to 3-N into coordinates on the monitoring video, as in the first embodiment. Among the plurality of grids constituting the monitoring target area, the grid in which the unselected moving body exists is specified.

監視対象選択部5は、監視対象座標変換部4が、未選択移動体が存在しているグリッドを特定すると、未選択移動体が存在しているグリッドの中で、現在選択中の移動体が存在しているグリッドと異なるグリッド(現在選択中の移動体が存在していないグリッド)を特定する。
監視対象選択部5は、未選択移動体が存在しているグリッドの中で、現在選択中の移動体が存在しているグリッドと異なるグリッド(現在選択中の移動体が存在していないグリッド)が無い場合、新たな移動体の選択は行わない。
一方、未選択移動体が存在しているグリッドの中で、現在選択中の移動体が存在しているグリッドと異なるグリッド(現在選択中の移動体が存在していないグリッド)が有る場合、現在選択中の移動体が存在していないグリッド毎に、当該グリッド内に存在している未選択移動体の数をカウントする。
When the monitoring target coordinate conversion unit 4 specifies a grid in which an unselected moving body exists, the monitoring target selection unit 5 selects a moving body currently selected in the grid in which the unselected moving body exists. A grid different from the existing grid (a grid in which the currently selected moving object does not exist) is specified.
The monitoring target selection unit 5 is different from the grid in which the currently selected moving body is present in the grid in which the unselected moving body exists (the grid in which the currently selected moving body does not exist). If there is no, no new moving object is selected.
On the other hand, if there is a grid that is different from the grid in which the currently selected moving body is present (the grid in which the currently selected moving body does not exist) in the grid in which the unselected moving body exists, For each grid where there is no selected moving body, the number of unselected moving bodies present in the grid is counted.

監視対象選択部5は、現在選択中の移動体が存在していないグリッド毎に、当該グリッド内に存在している未選択移動体の数をカウントすると、現在選択中の移動体が存在していないグリッド毎に、当該グリッド内に存在している未選択移動体の数が1つであれば、その移動体を選択する。
監視対象選択部5は、当該グリッド内に存在している未選択移動体の数が複数であれば、上記実施の形態1と同様の方法で、複数の未選択移動体の中から、いずれか1つの移動体を選択する。
監視対象選択部5は、グリッド毎に、当該グリッド内に存在している移動体を選択すると、その選択した移動体に対して識別子を割り当てて、その識別子を記憶することで、選択中の移動体を記憶する。
また、監視対象選択部5は、上記実施の形態1と同様に、新たに選択された移動体を含む選択中の移動体の監視映像上の座標を監視対象マーク合成部6に出力するとともに、その選択中の移動体の追尾指令(追尾指令には、選択した移動体の識別子などが含まれている)を監視対象識別部3−1〜3−Nに出力する。
When the monitoring target selection unit 5 counts the number of unselected moving objects existing in the grid for each grid in which the currently selected moving object does not exist, the currently selected moving object exists. If there is only one unselected moving object existing in the grid for each grid, that moving object is selected.
As long as the number of unselected moving objects existing in the grid is plural, the monitoring target selecting unit 5 can select any one of the plurality of unselected moving objects from the plurality of unselected moving objects. One moving body is selected.
When the monitoring object selection unit 5 selects a moving body that exists in the grid for each grid, the monitoring target selection unit 5 assigns an identifier to the selected moving body, and stores the identifier to move the selected movement body. Remember the body.
Similarly to the first embodiment, the monitoring target selection unit 5 outputs the coordinates on the monitoring video of the selected moving body including the newly selected moving body to the monitoring target mark composition unit 6, and The tracking command of the moving body being selected (the tracking command includes an identifier of the selected moving body) is output to the monitoring target identification units 3-1 to 3-N.

監視対象マーク合成部6は、監視対象選択部5から新たに選択された移動体を含む選択中の移動体の監視映像上の座標を受けると、上記実施の形態1と同様に、それらの移動体が存在している位置を示すマークを映像合成部2により生成された監視映像に合成する。
監視映像表示部7は、上記実施の形態1と同様に、監視対象マーク合成部6によりマークが合成された監視映像を表示する。
When receiving the coordinates on the monitoring video of the selected moving body including the newly selected moving body from the monitoring target selecting section 5, the monitoring target mark combining unit 6 moves them as in the first embodiment. A mark indicating the position where the body is present is combined with the monitoring image generated by the image combining unit 2.
As in the first embodiment, the monitoring video display unit 7 displays the monitoring video in which the mark is combined by the monitoring target mark combining unit 6.

監視対象識別部3−1〜3−Nは、監視対象選択部5から移動体の追尾指令を受けると、新たに選択された移動体を含む選択中の移動体の追尾処理等を実施することで、それらの移動体が存在している位置の変化を検出し、その検出結果を監視対象座標変換部4に出力する。
監視対象座標変換部4は、監視対象識別部3−1〜3−Nが選択中の移動体が存在している位置の変化を検出すると、上記実施の形態1と同様に、移動後の移動体の位置の座標を監視映像上の座標に変換して、監視映像上の座標を監視対象選択部5を介して監視対象マーク合成部6に出力する。
監視対象マーク合成部6は、選択中の移動体の監視映像上の座標(移動後の座標)を受けると、上記実施の形態1と同様に、移動後の座標と一致するように、監視映像に合成している移動体の位置を示すマークの位置を更新する。
監視映像表示部7は、監視対象マーク合成部6によりマークの位置が更新された監視映像を表示する。
When the monitoring object identification units 3-1 to 3-N receive the tracking command of the moving object from the monitoring object selection unit 5, the monitoring object identifying unit 3-1 to 3-N performs tracking processing of the selected moving object including the newly selected moving object. Then, the change of the position where those moving bodies exist is detected, and the detection result is output to the monitoring target coordinate conversion unit 4.
When the monitoring target coordinate conversion unit 4 detects a change in the position where the moving object being selected by the monitoring target identification units 3-1 to 3-N is present, the movement after the movement is performed as in the first embodiment. The coordinates of the body position are converted into the coordinates on the monitoring video, and the coordinates on the monitoring video are output to the monitoring target mark combining unit 6 via the monitoring target selection unit 5.
When receiving the coordinates on the monitoring image of the moving body being selected (coordinates after the movement), the monitoring target mark composition unit 6 receives the monitoring image so that it matches the coordinates after the movement, as in the first embodiment. The position of the mark that indicates the position of the moving object that is combined with is updated.
The monitoring video display unit 7 displays the monitoring video in which the mark position has been updated by the monitoring target mark combining unit 6.

以上で明らかなように、この実施の形態4によれば、現在選択中の移動体が存在しているグリッド以外のグリッド内に監視対象の移動体が存在していれば、その移動体を新たに選択するように構成したので、複数の移動体の位置を示すマークが重なり合わない範囲内で、多くの移動体の位置を監視することができる効果を奏する。   As is apparent from the above, according to the fourth embodiment, if there is a moving object to be monitored in a grid other than the grid in which the currently selected moving object exists, the moving object is newly set. Therefore, it is possible to monitor the positions of many moving bodies within a range in which marks indicating the positions of a plurality of moving bodies do not overlap.

この実施の形態4では、監視対象選択部5が選択中の移動体を非選択の状態に変更したときに、現在選択中の移動体が存在しているグリッド以外のグリッド内に監視対象の移動体が存在していれば、その移動体を新たに選択するものを示したが、監視対象選択部5が選択中の移動体を非選択の状態に変更しない場合であっても、現在選択中の移動体が存在しているグリッド以外のグリッド内に監視対象の移動体が新たに出現すれば、その移動体を新たに選択するようにしてもよい。   In the fourth embodiment, when the monitoring object selection unit 5 changes the selected moving body to a non-selected state, the movement of the monitoring object is performed in a grid other than the grid in which the currently selected moving body exists. If there is a body, it indicates that the moving body is newly selected. Even if the monitoring target selection unit 5 does not change the selected moving body to the non-selected state, it is currently selected. If a mobile object to be monitored newly appears in a grid other than the grid in which the mobile object exists, the mobile object may be newly selected.

実施の形態5.
上記実施の形態1〜4では、監視映像表示装置がカメラ1−1〜1−N、映像合成部2及び監視映像表示部7を実装しているものを示したが、監視映像表示装置がカメラ1−1〜1−N、映像合成部2及び監視映像表示部7を実装しておらず、監視映像表示装置が、監視対象識別部3−1〜3−N、監視対象座標変換部4、監視対象選択部5及び監視対象マーク合成部6から構成されているものであってもよい。
この場合、監視対象識別部3−1〜3−Nは、監視対象領域が撮影された映像に映っている監視対象の移動体を検出するとともに、監視対象領域を構成する複数の区分領域の中で、その移動体が存在している区分領域を特定する処理を実施する。
監視対象座標変換部4、監視対象選択部5及び監視対象マーク合成部6の処理内容は、上記実施の形態1〜4と同様である。
この実施の形態5によれば、上記実施の形態1〜4と同様の効果を奏する。
Embodiment 5 FIG.
In the first to fourth embodiments described above, the surveillance video display device includes the cameras 1-1 to 1-N, the video composition unit 2, and the surveillance video display unit 7. However, the surveillance video display device is a camera. 1-1 to 1-N, the video compositing unit 2 and the monitoring video display unit 7 are not mounted, and the monitoring video display device includes the monitoring target identification units 3-1 to 3-N, the monitoring target coordinate conversion unit 4, The monitoring target selection unit 5 and the monitoring target mark composition unit 6 may be used.
In this case, the monitoring target identification units 3-1 to 3-N detect the monitoring target moving object shown in the video in which the monitoring target area is photographed, and among the plurality of divided areas constituting the monitoring target area. Then, a process of specifying the segmented area where the moving object exists is performed.
The processing contents of the monitoring target coordinate conversion unit 4, the monitoring target selection unit 5, and the monitoring target mark composition unit 6 are the same as those in the first to fourth embodiments.
According to this Embodiment 5, there exists an effect similar to the said Embodiment 1-4.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1−1〜1−N カメラ、2 映像合成部(映像合成手段)、3−1〜3−N 監視対象識別部(移動体検出手段)、4 監視対象座標変換部(移動体検出手段)、5 監視対象選択部(移動体選択手段)、6 監視対象マーク合成部(マーク合成手段)、7 監視映像表示部(映像表示手段)。   1-1 to 1-N camera, 2 video synthesis unit (video synthesis unit), 3-1 to 3-N monitoring target identification unit (moving body detection unit), 4 monitoring target coordinate conversion unit (moving body detection unit), 5 monitoring target selection unit (moving object selection unit), 6 monitoring target mark combining unit (mark combining unit), 7 monitoring video display unit (video display unit).

Claims (7)

監視対象領域内に分散して配置され、前記監視対象領域内の異なる部分の領域を撮影する複数のカメラと、
前記複数のカメラにより撮影された映像を合成して、前記監視対象領域の映像を生成する映像合成手段と、
前記複数のカメラにより撮影された映像に映っている監視対象の移動体を検出するとともに、前記監視対象領域を構成する複数の区分領域の中で、前記移動体が存在している区分領域を特定する移動体検出手段と、
前記移動体検出手段により特定された移動体が存在している区分領域内に存在している移動体の数が1つであれば、当該区分領域内に存在している移動体を選択し、当該区分領域内に存在している移動体の数が複数であれば、当該区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を選択する移動体選択手段と、
前記移動体選択手段により選択された移動体が存在している位置を示すマークを前記映像合成手段により生成された監視対象領域の映像に合成するマーク合成手段と、
前記マーク合成手段によりマークが合成された監視対象領域の映像を表示する映像表示手段と
を備えた監視映像表示装置。
A plurality of cameras that are arranged in a distributed manner in the monitoring target area and shoot different areas in the monitoring target area;
Video synthesizing means for synthesizing videos captured by the plurality of cameras and generating video of the monitoring target area;
Detecting a moving object to be monitored shown in images taken by the plurality of cameras, and identifying a divided area where the moving object is present among a plurality of divided areas constituting the monitored area Moving body detecting means for
If the number of moving objects present in the segmented area where the moving object specified by the moving object detecting means is one, select the moving object present in the segmented area, If there are a plurality of moving objects existing in the segmented area, a moving object selecting means for selecting any one of the moving objects existing in the segmented area; ,
Mark composing means for composing a mark indicating the position where the moving object selected by the moving object selecting means is present with the image of the monitoring target area generated by the image composing means;
A monitoring video display device comprising: video display means for displaying a video of a monitoring target area where the marks are synthesized by the mark synthesis means.
前記移動体検出手段は、前記複数のカメラにより撮影された映像に映っている監視対象の移動体を検出する処理を繰り返し実施して、前記移動体選択手段により選択された移動体が存在している位置の変化を検出し、
前記マーク合成手段は、前記移動体検出手段により検出された位置の変化に応じて前記監視対象領域の映像に合成しているマークの位置を更新することを特徴とする請求項1記載の監視映像表示装置。
The moving body detecting means repeatedly performs a process of detecting a moving body to be monitored shown in images taken by the plurality of cameras, and there is a moving body selected by the moving body selecting means. Change of the position
The monitoring video according to claim 1, wherein the mark synthesizing unit updates the position of the mark synthesized with the video of the monitoring target area in accordance with a change in the position detected by the moving body detecting unit. Display device.
前記移動体検出手段は、前記複数のカメラにより撮影された映像に映っている監視対象の移動体を検出する処理を繰り返し実施して、前記監視対象領域を構成する複数の区分領域の中で、前記移動体が存在している区分領域を特定する処理を繰り返し実施するとともに、前記移動体選択手段により選択された移動体の中で、いずれかの移動体が前記監視対象領域の外側に出た場合には、前記監視対象領域の外側に出た移動体を示す識別情報を出力し、
前記移動体選択手段は、前記移動体検出手段から出力された識別情報が示す移動体を非選択の状態に変更し、
前記マーク合成手段は、前記移動体選択手段により非選択の状態に変更された移動体が存在している位置を示すマークを前記映像合成手段により生成された監視対象領域の映像上から消去することを特徴とする請求項2記載の監視映像表示装置。
The moving body detection means repeatedly performs a process of detecting a moving body to be monitored that is reflected in the images captured by the plurality of cameras, and among the plurality of divided areas that constitute the monitoring target area, The process of identifying the segmented area where the moving object is present is repeatedly performed, and one of the moving objects selected by the moving object selecting means comes outside the monitoring target area. In the case, the identification information indicating the moving body that has gone outside the monitoring target area is output,
The moving body selecting means changes the moving body indicated by the identification information output from the moving body detecting means to a non-selected state,
The mark synthesizing unit deletes the mark indicating the position where the moving body changed to the non-selected state by the moving body selecting unit exists from the image of the monitoring target area generated by the video synthesizing unit. The monitoring video display device according to claim 2.
前記移動体検出手段は、前記複数のカメラにより撮影された映像に映っている監視対象の移動体を検出する処理を繰り返し実施して、前記監視対象領域を構成する複数の区分領域の中で、前記移動体が存在している区分領域を特定する処理を繰り返し実施し、
前記移動体選択手段は、前記移動体検出手段による区分領域の特定結果を参照して、現在選択中の移動体が存在している区分領域の変化を検出し、現在選択中の移動体が複数存在している区分領域が現れた場合には、当該区分領域内に存在している複数の移動体の中で、いずれか1つの移動体については選択中のまま残して、その他の移動体については非選択の状態に変更し、
前記マーク合成手段は、前記移動体選択手段により非選択の状態に変更された移動体が存在している位置を示すマークを前記映像合成手段により生成された監視対象領域の映像上から消去することを特徴とする請求項2記載の監視映像表示装置。
The moving body detection means repeatedly performs a process of detecting a moving body to be monitored that is reflected in the images captured by the plurality of cameras, and among the plurality of divided areas that constitute the monitoring target area, Repeatedly performing the process of identifying the segmented area where the moving object is present,
The moving object selecting means refers to a result of specifying the segmented area by the moving object detecting means, detects a change in the segmented area where the currently selected moving object exists, and a plurality of currently selected moving objects are detected. When an existing segmented area appears, leave any one of the multiple moving objects in the segmented area selected, and select other moving objects. Changes to unselected state,
The mark synthesizing unit deletes the mark indicating the position where the moving body changed to the non-selected state by the moving body selecting unit exists from the image of the monitoring target area generated by the video synthesizing unit. The monitoring video display device according to claim 2.
前記移動体選択手段は、現在選択中の移動体のいずれかを非選択の状態に変更すると、前記移動体検出手段による区分領域の特定結果を参照して、現在選択中の移動体が存在している区分領域以外で、前記監視対象の移動体が存在している区分領域を特定し、その特定した区分領域内に存在している移動体の数が1つであれば、その特定した区分領域内に存在している移動体を新たに選択し、その特定した区分領域内に存在している移動体の数が複数であれば、その特定した区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を新たに選択することを特徴とする請求項3または請求項4記載の監視映像表示装置。   When the moving object selecting means changes any of the currently selected moving objects to a non-selected state, the moving object detecting means refers to the result of specifying the segment area by the moving object detecting means and there is a moving object currently selected. If the number of moving objects existing in the specified divided area is one, the specified divided area is specified. If a new moving object is selected in the area and there are multiple moving objects in the specified segmented area, multiple movements existing in the identified segmented area are selected. 5. The surveillance video display device according to claim 3, wherein any one moving body is newly selected from the body. 監視対象領域が撮影された映像に映っている監視対象の移動体を検出するとともに、前記監視対象領域を構成する複数の区分領域の中で、前記移動体が存在している区分領域を特定する移動体検出手段と、
前記移動体検出手段により特定された移動体が存在している区分領域内に存在している移動体の数が1つであれば、当該区分領域内に存在している移動体を選択し、当該区分領域内に存在している移動体の数が複数であれば、当該区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を選択する移動体選択手段と、
前記移動体選択手段により選択された移動体が存在している位置を示すマークを前記監視対象領域の映像に合成するマーク合成手段と
を備えた監視映像生成装置。
A monitoring target moving body reflected in a video in which the monitoring target area is captured is detected, and a partitioned area in which the moving body exists is specified from among a plurality of partitioned areas constituting the monitoring target area. Moving object detection means;
If the number of moving objects present in the segmented area where the moving object specified by the moving object detecting means is one, select the moving object present in the segmented area, If there are a plurality of moving objects existing in the segmented area, a moving object selecting means for selecting any one of the moving objects existing in the segmented area; ,
A surveillance video generation device comprising: mark synthesis means for synthesizing a mark indicating a position where the mobile body selected by the mobile body selection means is present with an image of the monitoring target area.
映像合成手段が、監視対象領域内に分散して配置されて、前記監視対象領域内の異なる部分の領域を撮影している複数のカメラの映像を合成して、前記監視対象領域の映像を生成する映像合成処理ステップと、
移動体検出手段が、前記複数のカメラにより撮影された映像に映っている監視対象の移動体を検出するとともに、前記監視対象領域を構成する複数の区分領域の中で、前記移動体が存在している区分領域を特定する移動体検出処理ステップと、
移動体選択手段が、前記移動体検出処理ステップで特定された移動体が存在している区分領域内に存在している移動体の数が1つであれば、当該区分領域内に存在している移動体を選択し、当該区分領域内に存在している移動体の数が複数であれば、当該区分領域内に存在している複数の移動体の中から、いずれか1つの移動体を選択する移動体選択処理ステップと、
マーク合成手段が、前記移動体選択処理ステップで選択された移動体が存在している位置を示すマークを前記映像合成処理ステップで生成された監視対象領域の映像に合成するマーク合成処理ステップと、
映像表示手段が、前記マーク合成処理ステップでマークが合成された監視対象領域の映像を表示する映像表示処理ステップと
を備えた監視映像表示方法。
A video synthesizing unit is arranged in a distributed manner within the monitoring target area, and generates a video of the monitoring target area by synthesizing videos of a plurality of cameras that are shooting different portions of the monitoring target area. Video composition processing steps to
The moving body detecting means detects the moving body to be monitored that is reflected in the images taken by the plurality of cameras, and the moving body is present in the plurality of divided areas constituting the monitoring target area. A moving object detection processing step for identifying a segmented area,
If the moving object selecting means has one moving object existing in the divided area where the moving object specified in the moving object detection processing step exists, the moving object selecting means exists in the divided area. If there are a plurality of mobile objects existing in the segmented area, one mobile object is selected from the plurality of mobile objects present in the segmented area. A moving object selection processing step to select;
A mark composition processing step for composing a mark indicating a position where the mobile object selected in the mobile object selection processing step is present on the video of the monitoring target area generated in the video composition processing step;
A monitoring video display method, comprising: a video display processing step in which a video display means displays a video of the monitoring target area where the mark is combined in the mark combining processing step.
JP2014134530A 2014-06-30 2014-06-30 Surveillance video display device and surveillance video display method Active JP6226827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014134530A JP6226827B2 (en) 2014-06-30 2014-06-30 Surveillance video display device and surveillance video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134530A JP6226827B2 (en) 2014-06-30 2014-06-30 Surveillance video display device and surveillance video display method

Publications (2)

Publication Number Publication Date
JP2016012873A true JP2016012873A (en) 2016-01-21
JP6226827B2 JP6226827B2 (en) 2017-11-08

Family

ID=55229315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134530A Active JP6226827B2 (en) 2014-06-30 2014-06-30 Surveillance video display device and surveillance video display method

Country Status (1)

Country Link
JP (1) JP6226827B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204165A (en) * 2018-05-21 2019-11-28 株式会社東芝 Image sensor, identification method, control system and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111987A (en) * 1999-10-07 2001-04-20 Daikoku Denki Co Ltd Monitoring device
JP2002027442A (en) * 2000-07-05 2002-01-25 Hitachi Kokusai Electric Inc Target tracking system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111987A (en) * 1999-10-07 2001-04-20 Daikoku Denki Co Ltd Monitoring device
JP2002027442A (en) * 2000-07-05 2002-01-25 Hitachi Kokusai Electric Inc Target tracking system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204165A (en) * 2018-05-21 2019-11-28 株式会社東芝 Image sensor, identification method, control system and program

Also Published As

Publication number Publication date
JP6226827B2 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
JP7004017B2 (en) Object tracking system, object tracking method, program
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
CN108156450B (en) Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium
US11017537B2 (en) Image monitoring system
JP2019057836A (en) Video processing device, video processing method, computer program, and storage medium
JP2016163075A (en) Video processing device, video processing method, and program
JP2011146796A5 (en)
US9761012B2 (en) Object tracking device, object tracking method, and computer-readable medium
JP2009190164A (en) Object recognition and method for estimating self-position of robot based on information about surrounding environment including recognized object
JP2014123261A (en) Information processor and recording medium
KR101125233B1 (en) Fusion technology-based security method and security system thereof
JP5832910B2 (en) Image monitoring device
US20200145623A1 (en) Method and System for Initiating a Video Stream
JP2011186576A (en) Operation recognition device
JP2010123019A (en) Device and method for recognizing motion
JP2015194901A (en) Track device and tracking system
TWI631516B (en) Target tracking method and system adaptable to multi-target tracking
US20200311438A1 (en) Representative image generation device and representative image generation method
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP6226827B2 (en) Surveillance video display device and surveillance video display method
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
US10074188B2 (en) Method and apparatus for processing images for use with a three-dimensional hand model database
US10482641B2 (en) Virtual reality display
JP6950273B2 (en) Flying object position detection device, flying object position detection system, flying object position detection method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R150 Certificate of patent or registration of utility model

Ref document number: 6226827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250