JP2018055521A - Detector, detection method and detection system - Google Patents

Detector, detection method and detection system Download PDF

Info

Publication number
JP2018055521A
JP2018055521A JP2016192639A JP2016192639A JP2018055521A JP 2018055521 A JP2018055521 A JP 2018055521A JP 2016192639 A JP2016192639 A JP 2016192639A JP 2016192639 A JP2016192639 A JP 2016192639A JP 2018055521 A JP2018055521 A JP 2018055521A
Authority
JP
Japan
Prior art keywords
moving
region
area
shape data
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016192639A
Other languages
Japanese (ja)
Inventor
塚本 明利
Akitoshi Tsukamoto
明利 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016192639A priority Critical patent/JP2018055521A/en
Publication of JP2018055521A publication Critical patent/JP2018055521A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique of enabling detection of a mobile object whose shape is known with higher accuracy.SOLUTION: The detector includes a moving area detection unit that detects a moving area from an image and obtains moving-area detection result data, an evaluation unit that evaluates a degree of matching between a group of moving pixels constituting the moving area and shape data prepared in advance for each of a plurality of areas in the moving-area detection result data, and a determination unit that determines whether an area in which the degree of matching exceeds a threshold exists in the plurality of areas.SELECTED DRAWING: Figure 2

Description

本発明は、検出装置、検出方法および検出システムに関する。   The present invention relates to a detection device, a detection method, and a detection system.

従来、移動物体を検出する技術として様々な技術が開示されている。例えば、ITV(Industrial TeleVision)カメラによって撮像された映像から移動物体が存在する領域(以下、「移動物体領域」とも言う。)を検出し、検出した移動物体領域に基づいて物体追跡テンプレートを作成し、作成した物体追跡テンプレートを用いて移動物体を追跡する技術が開示されている(例えば、特許文献1参照)。   Conventionally, various techniques have been disclosed as techniques for detecting a moving object. For example, an area where a moving object exists (hereinafter also referred to as a “moving object area”) is detected from an image captured by an ITV (Industrial TeleVision) camera, and an object tracking template is created based on the detected moving object area. A technique for tracking a moving object using the created object tracking template is disclosed (for example, see Patent Document 1).

特開2006−012013号公報JP 2006-012013 A

しかしながら、形状が既知である移動物体をより高精度に検出することが可能な技術が提供されることが望まれる。   However, it is desirable to provide a technique that can detect a moving object having a known shape with higher accuracy.

上記問題を解決するために、本発明のある観点によれば、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、を備える、検出装置が提供される。   In order to solve the above problem, according to one aspect of the present invention, a moving area detection unit that detects a moving area from video and obtains moving area detection result data, and each of a plurality of areas in the moving area detection result data An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving area and shape data prepared in advance, and whether or not there is an area in which the degree of fit exceeds a threshold value in the plurality of areas. And a determination unit for determining.

また、本発明の他の観点によれば、映像から移動領域を検出して移動領域検出結果データを得ることと、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価することと、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定することと、を備える、検出方法が提供される。   According to another aspect of the present invention, a moving region is detected from an image to obtain moving region detection result data, and a moving pixel that constitutes the moving region for each of a plurality of regions in the moving region detection result data Detecting the degree of fit between the group and the shape data prepared in advance, and determining whether or not there is a region where the degree of fit exceeds a threshold value in the plurality of regions. A method is provided.

また、本発明の他の観点によれば、映像を撮像するカメラと検出装置とを有する検出システムであって、前記検出装置は、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、を備える、検出システムが提供される。   According to another aspect of the present invention, there is provided a detection system including a camera that captures an image and a detection device, wherein the detection device detects a movement region from the image and obtains movement region detection result data. An area detection unit, an evaluation unit for evaluating the degree of fit between a moving pixel group constituting the moving region and shape data prepared in advance for each of the plurality of regions in the moving region detection result data, and among the plurality of regions And a determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value.

以上説明したように本発明によれば、形状が既知である移動物体をより高精度に検出することが可能となる。   As described above, according to the present invention, a moving object having a known shape can be detected with higher accuracy.

映像に含まれる画像の例およびその映像から検出された移動領域の例を示す図である。It is a figure which shows the example of the image contained in an image | video, and the example of the movement area | region detected from the image | video. 映像に含まれる画像の例およびその映像から検出された移動領域の例を示す図である。It is a figure which shows the example of the image contained in an image | video, and the example of the movement area | region detected from the image | video. 映像に含まれる画像の例およびその映像から検出された移動領域の例を示す図である。It is a figure which shows the example of the image contained in an image | video, and the example of the movement area | region detected from the image | video. 本発明の第1の実施形態に係る検出システムの構成例を示した説明図である。It is explanatory drawing which showed the structural example of the detection system which concerns on the 1st Embodiment of this invention. カメラによって撮像される画像の例を示す図である。It is a figure which shows the example of the image imaged with a camera. 同実施形態に係る移動物体領域検出装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the moving object area | region detection apparatus which concerns on the same embodiment. 同実施形態に係る移動物体領域検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the moving object area | region detection apparatus which concerns on the same embodiment. 移動領域検出部によって検出される移動領域の例を示す図である。It is a figure which shows the example of the movement area | region detected by the movement area | region detection part. 形状データの例を示す図である。It is a figure which shows the example of shape data. あてはまり度合いの評価の変形例を説明するための図である。It is a figure for demonstrating the modification of evaluation of a fit degree. あてはまり度合いの最大値が閾値を超える2つの座標位置それぞれに対して、あてはまり度合いを最大とした見え方モデルを重ね合わせた場合を示す図である。It is a figure which shows the case where the appearance model which maximized the fit degree was superimposed on each of the two coordinate positions where the maximum fit degree exceeds the threshold value. 見え方モデル領域の変形例を示す図である。It is a figure which shows the modification of an appearance model area | region. 形状データを選択するための第1の手法を説明するための図である。It is a figure for demonstrating the 1st method for selecting shape data. 形状データを選択するための第2の手法を説明するための図である。It is a figure for demonstrating the 2nd method for selecting shape data. 形状データを選択するための第3の手法を説明するための図である。It is a figure for demonstrating the 3rd method for selecting shape data. 本発明の第2の実施形態に係る移動物体領域検出装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the moving object area | region detection apparatus which concerns on the 2nd Embodiment of this invention. 同実施形態に係る移動物体領域検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the moving object area | region detection apparatus which concerns on the same embodiment. カメラが動きを有する場合に検出されるオプティカルフローの例を示す図である。It is a figure which shows the example of the optical flow detected when a camera has a motion.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same or similar functional configuration are distinguished by attaching different numerals to the same reference numerals. Further, similar constituent elements of different embodiments are distinguished by attaching different alphabets after the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

(0.背景)
まず、本発明の実施形態の背景について説明する。移動物体を検出する技術として様々な技術が開示されている。例えば、ITVカメラによって撮像された映像から移動物体領域を検出し、検出した移動物体領域に基づいて物体追跡テンプレートを作成し、作成した物体追跡テンプレートを用いて移動物体を追跡する技術が開示されている。かかる技術においては、移動物体領域の検出に際して、背景差分法またはオプティカルフローによって、複数のフレーム間で移動が生じた領域(以下、「移動領域」とも言う。)が検出される。
(0. Background)
First, the background of the embodiment of the present invention will be described. Various techniques have been disclosed as techniques for detecting a moving object. For example, a technique for detecting a moving object region from an image captured by an ITV camera, creating an object tracking template based on the detected moving object region, and tracking the moving object using the created object tracking template is disclosed. Yes. In such a technique, when a moving object area is detected, an area in which movement has occurred between a plurality of frames (hereinafter also referred to as “moving area”) is detected by a background difference method or an optical flow.

しかし、背景差分法またはオプティカルフローによっては、移動領域が高精度に検出されないという状況が起こり得る。かかる状況について、詳細に説明する。図1A〜図1Cそれぞれは、映像に含まれる画像の例およびその映像から検出された移動領域の例を示す図である。   However, depending on the background difference method or the optical flow, a situation may occur in which the moving region is not detected with high accuracy. This situation will be described in detail. 1A to 1C are diagrams illustrating examples of images included in a video and examples of moving areas detected from the video.

図1Aを参照すると、カメラによって撮像された画像G10−1が示されている。画像G10−1には、移動物体G11−1として左向きに移動する乗用車が写っている。また、図1Aを参照すると、移動物体G11−1が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−1(移動領域G21−1を該当位置に含む移動領域検出結果データG20−1)が示されている。   Referring to FIG. 1A, an image G10-1 captured by a camera is shown. The image G10-1 shows a passenger car that moves to the left as the moving object G11-1. Further, referring to FIG. 1A, in order to detect a region (moving object region) where the moving object G11-1 exists, the moving region G21-1 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Movement area detection result data G20-1 including movement area G21-1 at the corresponding position) is shown.

また、図1Bを参照すると、カメラによって撮像された画像G10−2が示されている。画像G10−2には、移動物体G11−2として左向きに移動するトラックが写っている。また、図1Bを参照すると、移動物体G11−2が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−2(移動領域G21−1を該当位置に含む移動領域検出結果データG20−2)が示されている。   Referring to FIG. 1B, an image G10-2 captured by the camera is shown. The image G10-2 shows a track that moves to the left as the moving object G11-2. Referring to FIG. 1B, in order to detect a region (moving object region) where the moving object G11-2 exists, the moving region G21-2 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Moving area detection result data G20-2 including the moving area G21-1 at the corresponding position) is shown.

また、図1Cを参照すると、カメラによって撮像された画像G10−3が示されている。画像G10−3には、移動物体G11−3として左向きに移動する航空機が写っている。また、図1Cを参照すると、移動物体G11−3が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−3(移動領域G21−1を該当位置に含む移動領域検出結果データG20−3)が示されている。   Also, referring to FIG. 1C, an image G10-3 captured by the camera is shown. The image G10-3 shows an aircraft that moves to the left as the moving object G11-3. Further, referring to FIG. 1C, in order to detect a region (moving object region) where the moving object G11-3 exists, the moving region G21-3 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Movement area detection result data G20-3 including the movement area G21-1 at the corresponding position) is shown.

例えば、図1Aを参照すると、画像G10−1においては、移動物体G11−1の全体が左向きに移動しているため、移動物体G11−1が存在する領域の全体が移動領域として検出されるのが理想的である。しかし、実際には、移動物体G11−1が存在する領域のうち、移動物体G11−1の中央領域における映像上の変化が小さいため、移動物体G11−1の中央領域が移動領域G21−1として検出されない(移動領域G21−1が移動物体G11−1の移動方向に分離してしまう)という状況が生じ得る。   For example, referring to FIG. 1A, in the image G10-1, since the entire moving object G11-1 is moving leftward, the entire area where the moving object G11-1 exists is detected as the moving area. Is ideal. However, in practice, since the change in the image in the central area of the moving object G11-1 is small in the area where the moving object G11-1 exists, the central area of the moving object G11-1 is set as the moving area G21-1. There may be a situation in which it is not detected (the moving region G21-1 is separated in the moving direction of the moving object G11-1).

同様の状況は、図1Bおよび図1Cに示した例においても生じ得る。このように、カメラによって撮像された映像から背景差分法またはオプティカルフローによって移動領域が検出され、検出された移動領域が移動物体領域として扱われる場合、移動物体領域の検出精度が向上しない場合がある。移動物体領域の検出精度が向上しない場合、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行ったとしても、移動物体の一部に対してしか所定の処理がされなくなってしまう場合があり得る。   A similar situation can occur in the examples shown in FIGS. 1B and 1C. As described above, when the moving area is detected from the video imaged by the camera by the background subtraction method or the optical flow, and the detected moving area is treated as the moving object area, the detection accuracy of the moving object area may not be improved. . If the detection accuracy of the moving object area does not improve, even if a predetermined process (for example, storage or high-quality transmission) is performed on the moving object area, the predetermined process is performed only on a part of the moving object. It can be lost.

そこで、本発明の実施形態においては、移動物体を所定方向から見た2次元モデル(以下、「見え方モデル」とも言う。)に基づく形状データがあらかじめ用意されている。そして、検出装置(以下、「移動物体領域検出装置」とも言う。)は、形状データを用いて映像から移動物体を検出する。かかる構成によれば、形状が既知である移動物体がより高精度に検出される。以下では、形状データを用いて映像から移動物体を検出することが可能な技術について主に説明する。   Therefore, in the embodiment of the present invention, shape data based on a two-dimensional model (hereinafter also referred to as “appearance model”) obtained by viewing a moving object from a predetermined direction is prepared in advance. A detection device (hereinafter also referred to as a “moving object region detection device”) detects a moving object from an image using shape data. According to this configuration, a moving object whose shape is known is detected with higher accuracy. Below, the technique which can detect a moving object from an image | video using shape data is mainly demonstrated.

以上、本発明の実施形態の背景について説明した。   The background of the embodiment of the present invention has been described above.

(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(1. First embodiment)
First, a first embodiment of the present invention will be described.

(1−1.検出システムの構成)
図2を参照しながら、本発明の第1の実施形態に係る検出システム1Aの構成例について説明する。図2は、本発明の第1の実施形態に係る検出システム1Aの構成例を示した説明図である。なお、図2に示した構成例は、後に説明する本発明の第2の実施形態に係る検出システム1Bの構成例に対しても同様に適用され得る。図2に示したように、検出システム1Aは、カメラ10および移動物体領域検出装置20Aを備える。
(1-1. Configuration of detection system)
A configuration example of the detection system 1A according to the first embodiment of the present invention will be described with reference to FIG. FIG. 2 is an explanatory diagram showing a configuration example of the detection system 1A according to the first embodiment of the present invention. The configuration example shown in FIG. 2 can be similarly applied to the configuration example of the detection system 1B according to the second embodiment of the present invention described later. As shown in FIG. 2, the detection system 1A includes a camera 10 and a moving object area detection device 20A.

カメラ10と移動物体領域検出装置20Aとは、相互に通信可能に構成されている。図2に示した例では、カメラ10と移動物体領域検出装置20Aとがネットワークを介さずに直接的に接続されている。しかし、カメラ10と移動物体領域検出装置20Aとは、ネットワークを介して接続されていてもよい。カメラ10と移動物体領域検出装置20Aとがネットワークを介して接続されている場合、ネットワークには、複数のカメラ10が接続されていてもよいし、複数の移動物体領域検出装置20Aが接続されていてもよい。   The camera 10 and the moving object region detection device 20A are configured to be able to communicate with each other. In the example illustrated in FIG. 2, the camera 10 and the moving object area detection device 20 </ b> A are directly connected without a network. However, the camera 10 and the moving object region detection device 20A may be connected via a network. When the camera 10 and the moving object area detection device 20A are connected via a network, a plurality of cameras 10 may be connected to the network, or a plurality of moving object area detection devices 20A are connected. May be.

本実施形態においては、カメラ10が固定カメラであり、同一の撮像範囲における画像を連続的に撮像することによって同一の撮像範囲における映像を得る場合(例えば、カメラ10が監視カメラである場合)を主に想定する。しかし、カメラ10は、固定カメラに限定されない。例えば、カメラ10は、撮像範囲を変更可能な変動カメラであってもよい。変動カメラは、パン・チルト・ズームが可能なPTZカメラであってよい。カメラ10は、撮像した映像を移動物体領域検出装置20Aに出力する。   In the present embodiment, the camera 10 is a fixed camera, and when images in the same imaging range are obtained by continuously capturing images in the same imaging range (for example, when the camera 10 is a surveillance camera). Assume mainly. However, the camera 10 is not limited to a fixed camera. For example, the camera 10 may be a variable camera that can change the imaging range. The variable camera may be a PTZ camera capable of pan / tilt / zoom. The camera 10 outputs the captured image to the moving object region detection device 20A.

図3は、カメラ10によって撮像される画像の例を示す図である。図3を参照すると、カメラ10によって撮像された画像G10−4が示されている。画像G10−4には、移動物体G11−4および移動物体G11−5が写っている。本明細書においては、図3に示したように、カメラ10が飛行場に設置され、移動物体が航空機である場合を主に説明する。しかし、カメラ10が設置される場所は、車両が走行する道路、船舶の通過する航路および電車の線路などであってもよい(移動物体は、車両、船舶および電車などであってもよい)。   FIG. 3 is a diagram illustrating an example of an image captured by the camera 10. Referring to FIG. 3, an image G10-4 captured by the camera 10 is shown. The moving object G11-4 and the moving object G11-5 are shown in the image G10-4. In this specification, as shown in FIG. 3, the case where the camera 10 is installed in an airfield and the moving object is an aircraft will be mainly described. However, the place where the camera 10 is installed may be a road on which a vehicle travels, a route through which a ship passes, a train line, or the like (the moving object may be a vehicle, a ship, a train, or the like).

移動物体領域検出装置20Aは、形状データを用いてカメラ10によって撮像された映像から、移動物体が存在するか否かを検出する。移動物体領域検出装置20Aは、移動物体が存在する領域(移動物体領域)を検出した場合、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方を、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力する。当該他の装置は、移動物体領域検出装置20Aから出力された情報を記録する。   The moving object region detection device 20A detects whether or not a moving object is present from an image captured by the camera 10 using shape data. When the moving object region detection device 20A detects a region where the moving object exists (moving object region), at least one of the information related to the moving object region and the information related to the shape data is not shown. (For example, a recording device (not shown), camera 10, etc.). The other device records the information output from the moving object region detection device 20A.

以上、本発明の第1の実施形態に係る検出システム1Aの構成例について説明した。   The configuration example of the detection system 1A according to the first embodiment of the present invention has been described above.

(1−2.移動物体領域検出装置の機能構成)
続いて、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能構成例について説明する。図4は、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能構成例を示すブロック図である。図4に示したように、本発明の第1の実施形態に係る移動物体領域検出装置20Aは、制御部210A、通信部230および記憶部240を備える。
(1-2. Functional Configuration of Moving Object Area Detection Device)
Subsequently, a functional configuration example of the moving object region detection device 20A according to the first embodiment of the present invention will be described. FIG. 4 is a block diagram illustrating a functional configuration example of the moving object region detection device 20A according to the first embodiment of the present invention. As illustrated in FIG. 4, the moving object region detection device 20A according to the first embodiment of the present invention includes a control unit 210A, a communication unit 230, and a storage unit 240.

制御部210Aは、移動物体領域検出装置20Aの動作全体を制御する機能を有し、専用のハードウェアによって構成されてもよいし、移動物体領域検出装置20Aに内蔵されたCPUがROMに記憶されたプログラムをRAMに展開して実行することにより実現されてもよい。かかるプログラムが提供され得る他、かかるプログラムを記憶させた記憶媒体も提供され得る。制御部210Aは、移動領域検出部211A、評価部212、判定部213および出力制御部214を備える。   The control unit 210A has a function of controlling the entire operation of the moving object region detection device 20A, and may be configured by dedicated hardware, or a CPU built in the moving object region detection device 20A is stored in the ROM. The program may be realized by developing the program in a RAM and executing the program. In addition to providing such a program, a storage medium storing such a program may also be provided. The control unit 210A includes a moving area detection unit 211A, an evaluation unit 212, a determination unit 213, and an output control unit 214.

通信部230は、カメラ10との間で各種情報を送受信するための通信インタフェースである。例えば、通信部220は、カメラ10から映像を受信することが可能である。また、例えば、通信部230は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に対して、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方を送信してもよい。   The communication unit 230 is a communication interface for transmitting and receiving various information to and from the camera 10. For example, the communication unit 220 can receive video from the camera 10. Further, for example, the communication unit 230 sends at least one of information related to the moving object region and information related to the shape data to another device (not shown) (eg, a recording device not shown) or the camera 10). You may send it.

記憶部240は、制御部210Aを動作させるためのプログラムやデータを記憶することができる。また、記憶部240は、制御部210Aの動作の過程で必要となる各種データを一時的に記憶することもできる。本発明の第1の実施形態では、記憶部240は、形状データを記憶することができる。   The storage unit 240 can store a program and data for operating the control unit 210A. In addition, the storage unit 240 can temporarily store various data necessary in the course of the operation of the control unit 210A. In the first embodiment of the present invention, the storage unit 240 can store shape data.

(1−3.移動物体領域検出装置の機能詳細)
続いて、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能詳細について説明する。図5は、本発明の第1の実施形態に係る移動物体領域検出装置20Aの動作例を示すフローチャートである。図5に示したように、本発明の第1の実施形態に係る移動物体領域検出装置20Aにおいて、制御部210Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られたか否かを判定する(S11)。
(1-3. Detailed Function of Moving Object Area Detection Device)
Subsequently, functional details of the moving object region detection device 20A according to the first embodiment of the present invention will be described. FIG. 5 is a flowchart showing an operation example of the moving object region detection device 20A according to the first embodiment of the present invention. As shown in FIG. 5, in the moving object region detection device 20A according to the first embodiment of the present invention, the control unit 210A receives the latest video frame (image) captured by the camera 10 by the communication unit 230. It is determined whether it has been done (S11).

制御部210Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られなかった場合(S11において「No」)、動作を終了する。一方、移動領域検出部211Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られた場合(S11において「Yes」)、映像から移動領域を検出する(S12)。例えば、移動領域検出部211Aは、背景差分法またはオプティカルフローに基づいて、移動領域を検出する。   When the latest video frame (image) captured by the camera 10 is not received by the communication unit 230 (“No” in S11), the control unit 210A ends the operation. On the other hand, when the latest video frame (image) captured by the camera 10 is received by the communication unit 230 (“Yes” in S11), the moving area detection unit 211A detects the moving area from the video (S12). For example, the moving area detection unit 211A detects the moving area based on the background difference method or the optical flow.

図6は、移動領域検出部211Aによって検出される移動領域の例を示す図である。図6に示すように、移動領域検出部211Aによって、移動領域G21−4および移動領域G21−5が検出される(移動領域G21−4および移動領域G21−5を含む移動領域検出結果データG20−4が示されている)。図6に示された例では、移動領域G21が2つ検出されているが、検出される移動領域G21の数は、2つに限定されず、3つ以上であってもよいし、1つであってもよい。   FIG. 6 is a diagram illustrating an example of a moving area detected by the moving area detection unit 211A. As shown in FIG. 6, the moving region detection unit 211A detects the moving region G21-4 and the moving region G21-5 (moving region detection result data G20- including the moving region G21-4 and the moving region G21-5). 4 is shown). In the example shown in FIG. 6, two moving areas G21 are detected. However, the number of detected moving areas G21 is not limited to two, and may be three or more. It may be.

ここで、図1A〜図1Cを参照しながら説明した例と同様に、移動物体G11−4(図3)の中央領域は移動領域G21−4として検出されない(移動領域G21−4が移動物体G11−4(図3)の移動方向に分離してしまう)。同様に、移動物体G11−5(図3)の中央領域は移動領域G21−5として検出されない(移動領域G21−5が移動物体G11−5(図3)の移動方向に分離してしまう)。   Here, as in the example described with reference to FIGS. 1A to 1C, the central region of the moving object G11-4 (FIG. 3) is not detected as the moving region G21-4 (the moving region G21-4 is the moving object G11). -4 (FIG. 3). Similarly, the central area of the moving object G11-5 (FIG. 3) is not detected as the moving area G21-5 (the moving area G21-5 is separated in the moving direction of the moving object G11-5 (FIG. 3)).

移動領域検出部211Aは、移動領域G21−4および移動領域G21−5とそれ以外の領域とが、区別されるように移動領域検出結果データを生成する。以下の説明においては、移動領域検出結果データG20−4において、移動領域G21−4および移動領域G21−5の各画素に「1」が設定され、それ以外の領域の各画素に「0」が設定される場合を主に想定する。しかし、移動領域G21−4および移動領域G21−5に設定される画素値は、「1」以外であってもよい。   The movement area detection unit 211A generates movement area detection result data so that the movement area G21-4 and the movement area G21-5 are distinguished from other areas. In the following description, in the moving area detection result data G20-4, “1” is set for each pixel in the moving area G21-4 and the moving area G21-5, and “0” is set for each pixel in the other areas. Mainly assumed to be set. However, the pixel values set in the moving area G21-4 and the moving area G21-5 may be other than “1”.

続いて、評価部212は、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(以下、「移動画素群」とも言う。)と形状データとのあてはまり度合いを評価する。   Subsequently, the evaluation unit 212 includes a pixel group constituting the moving region G21-4 and the moving region G21-5 (hereinafter, also referred to as “moving pixel group”) for each of a plurality of regions in the moving region detection result data G20-4. And the degree of fit between the shape data.

図7は、形状データの例を示す図である。図7を参照すると、形状データH10−1〜H10−5が示されている。本明細書においては、形状データH10−1〜H10−5があらかじめ用意され、記憶部240によって記憶されている場合を想定する。ただし、形状データの数は5種類に限定されず、1種類であってもよいし、5種類以外の複数種類であってもよい。   FIG. 7 is a diagram illustrating an example of shape data. Referring to FIG. 7, shape data H10-1 to H10-5 are shown. In this specification, it is assumed that the shape data H10-1 to H10-5 are prepared in advance and stored in the storage unit 240. However, the number of shape data is not limited to five types, and may be one type or a plurality of types other than the five types.

また、図7に示した例では、形状データH10−1は、移動物体(例えば、航空機)を所定方向から見た2次元モデルの全部に相当する第1の領域(以下、「見え方モデル領域」とも言う。)H11−1、および、第1の領域H11−1以外の第2の領域(以下、「背景領域」とも言う。)が、区別されるように生成されている(見え方モデル領域H11−1の各画素と背景領域の各画素とに異なる画素値が設定されている)。   In the example shown in FIG. 7, the shape data H <b> 10-1 is a first area (hereinafter referred to as “appearance model area”) corresponding to the entire two-dimensional model of a moving object (for example, an aircraft) viewed from a predetermined direction. H11-1 and a second region other than the first region H11-1 (hereinafter, also referred to as “background region”) are generated so as to be distinguished (appearance model). Different pixel values are set for each pixel in the region H11-1 and each pixel in the background region).

以下の説明においては、形状データH10−1において、見え方モデル領域H11−1の各画素に「1」が設定され、背景領域の各画素に「0」が設定されている場合を主に想定する。しかし、後にも説明するように、見え方モデル領域H11−1に設定される画素値は、「1」以外であってもよい。同様に、形状データH10−2〜H10−5も、見え方モデル領域H11−2〜H11−5と各背景領域とが区別されるように生成されている(異なる画素値が設定されている)。   In the following description, it is mainly assumed that in the shape data H10-1, “1” is set for each pixel in the appearance model region H11-1 and “0” is set for each pixel in the background region. To do. However, as will be described later, the pixel value set in the appearance model region H11-1 may be other than “1”. Similarly, the shape data H10-2 to H10-5 are generated so that the appearance model regions H11-2 to H11-5 and the background regions are distinguished (different pixel values are set). .

なお、形状データH10−1〜H10−5は、手動で生成されてもよいし、コンピュータによって自動的に生成されてもよい。例えば、形状データH10−1〜H10−5が手動で生成される場合、データ生成者は、各方向から見た移動物体(例えば、航空機)の概形を、見え方モデル領域H11−1〜H11−5の輪郭として描き、これらの輪郭に基づいて、形状データH10−1〜H10−5を生成すればよい。   The shape data H10-1 to H10-5 may be manually generated or automatically generated by a computer. For example, when the shape data H10-1 to H10-5 are manually generated, the data generator displays the rough shape of the moving object (for example, an aircraft) viewed from each direction as the appearance model regions H11-1 to H11. What is necessary is just to draw as outline of -5 and generate shape data H10-1 to H10-5 based on these outlines.

あてはまり度合いの評価に利用される複数の領域はどのように設定されてもよい。以下の説明においては、形状データH10−1〜H10−5を縦方向または横方向に1画素ずつずらしながら移動領域検出結果データG20−4の上に重ね合わせたときに、形状データH10−1〜H10−5が移動領域検出結果データG20−4に重なる各領域をあてはまり度合いの評価に利用する。しかし、形状データH10−1〜H10−5のずらし量は、1画素ずつに限定されず、複数画素ずつであってもよい。   A plurality of areas used for evaluation of the degree of fit may be set in any way. In the following description, when the shape data H10-1 to H10-5 are superimposed on the moving area detection result data G20-4 while shifting one pixel at a time in the vertical direction or the horizontal direction, the shape data H10-1 to H10-1 are superimposed. Each region where H10-5 overlaps the moving region detection result data G20-4 is used for the evaluation of the degree of fit. However, the shift amount of the shape data H10-1 to H10-5 is not limited to one pixel, but may be a plurality of pixels.

このとき、評価部212は、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(移動画素群)と見え方モデル領域(例えば、見え方モデル領域H11−1)との間において重なり合う画素数に基づいて、あてはまり度合いを評価してよい。以下の説明においては、重なり合う画素数自体があてはまり度合いとして扱われる場合を主に想定する。しかし、以下に説明するように、あてはまり度合いは、重なり合う画素数自体に限定されない。   At this time, the evaluation unit 212 includes the pixel group (moving pixel group) and the appearance model region (for example, the moving region G21-4 and the moving region G21-5) for each of the plurality of regions in the moving region detection result data G20-4. The degree of fit may be evaluated based on the number of pixels overlapping with the appearance model region H11-1). In the following description, it is assumed that the number of overlapping pixels is treated as the degree of fit. However, as will be described below, the degree of fit is not limited to the number of overlapping pixels.

あてはまり度合いの評価のより具体的な例を説明する。以下の説明において、T(x,y)は、移動領域検出結果データG20−4における任意の座標位置(x,y)において使用可能な形状データの集合を示す。ここでは、形状データの集合として、形状データH10−1〜H10−5を想定する。Tnは、形状データの集合T(x,y)から抽出されるn個目の形状データを示す。   A more specific example of the evaluation of the degree of fit will be described. In the following description, T (x, y) indicates a set of shape data that can be used at an arbitrary coordinate position (x, y) in the moving region detection result data G20-4. Here, shape data H10-1 to H10-5 are assumed as a set of shape data. Tn indicates the nth shape data extracted from the shape data set T (x, y).

Tn(i,j)には、n個目の形状データにおける任意の座標位置(i,j)が見え方モデル領域の内部であれば「1」が設定されている。例えば、n個目の形状データが形状データH10−1である場合、Tn(i,j)には、形状データH10−1における任意の座標位置(i,j)が見え方モデル領域H11−1の内部であれば「1」が設定されている。一方、Tn(i,j)には、n個目の形状データにおける任意の座標位置(i,j)が見え方モデル領域の外部であれば「0」が設定されている。   Tn (i, j) is set to “1” if an arbitrary coordinate position (i, j) in the nth shape data is inside the appearance model area. For example, when the nth shape data is the shape data H10-1, an arbitrary coordinate position (i, j) in the shape data H10-1 can be seen in Tn (i, j). Is set to “1”. On the other hand, Tn (i, j) is set to “0” if an arbitrary coordinate position (i, j) in the nth shape data is outside the appearance model region.

D(x+i,y+j)には、移動領域検出結果データG20−4における座標位置(x+i,y+j)が移動領域G21−4または移動領域G21−5の内部であれば「1」が設定されている。一方、D(x+i,y+j)には、座標位置(x+i,y+j)が移動領域G21−4または移動領域G21−5の外部であれば「0」が設定されている。ここで、移動領域の内部とは必ずしも検出された移動領域そのものではなく、移動領域で囲まれた範囲の内側としてもよい。   D (x + i, y + j) is set to “1” if the coordinate position (x + i, y + j) in the movement area detection result data G20-4 is inside the movement area G21-4 or movement area G21-5. . On the other hand, D (x + i, y + j) is set to “0” if the coordinate position (x + i, y + j) is outside the moving region G21-4 or the moving region G21-5. Here, the inside of the moving area is not necessarily the detected moving area itself, but may be inside the range surrounded by the moving area.

このとき、移動領域検出結果データG20−4における任意の座標位置(x,y)におけるあてはまり度合いが形状データの集合T(x,y)から抽出されるすべての形状データについて評価された場合、それらのあてはまり度合いの最大値S(x,y)は、以下の(数式1)によって表現される。   At this time, when the degree of fit at an arbitrary coordinate position (x, y) in the moving region detection result data G20-4 is evaluated for all the shape data extracted from the shape data set T (x, y), The maximum value S (x, y) of the degree of fit is expressed by the following (Formula 1).

Figure 2018055521
・・・(数式1)
Figure 2018055521
... (Formula 1)

なお、(数式1)においては、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(移動画素群)と見え方モデル領域(例えば、見え方モデル領域H11−1)との間において重なり合う画素数自体が、あてはまり度合いとして扱われる場合を想定している。しかし、上記したように、あてはまり度合いは、重なり合う画素数自体に限定されない。具体的な例について説明する。   In (Formula 1), the pixel group (moving pixel group) and the appearance model region (moving pixel group) constituting the moving region G21-4 and the moving region G21-5 for each of a plurality of regions in the moving region detection result data G20-4. For example, it is assumed that the number of pixels that overlap with the appearance model region H11-1) is treated as the degree of fit. However, as described above, the degree of fit is not limited to the number of overlapping pixels. A specific example will be described.

図8は、あてはまり度合いの評価の変形例を説明するための図である。図8を参照すると、移動領域検出結果データG20−4に移動領域G21−4および移動領域G21−5が含まれている。ここで、映像に地面が写る場合、映像に写る地面の上側よりも下側のほうがカメラに近いため、移動物体が大きく写ると考えられる。そこで、図8に示すように、形状データを大きくしながら下に移動させる場合もあり得る(見え方モデル領域H11−1、見え方モデル領域H11−1A、および、見え方モデル領域H11−1B)。   FIG. 8 is a diagram for explaining a modified example of the evaluation of the degree of fit. Referring to FIG. 8, the movement area detection result data G20-4 includes a movement area G21-4 and a movement area G21-5. Here, when the ground is shown in the video, it is considered that the moving object is shown large because the lower side of the ground shown in the video is closer to the camera. Therefore, as shown in FIG. 8, the shape data may be moved downward while being enlarged (the appearance model region H11-1, the appearance model region H11-1A, and the appearance model region H11-1B). .

このような場合には、形状データの大きさ自体が変化してしまうため、形状データが大きくなるほど重なり合う画素数自体も大きくなってしまう。そこで、このような場合には、形状データの全体の画素数に対して重なり合う画素数の割合があてはまり度合いとして扱われてもよい。あるいは、形状データを構成する画素数が形状データすべてにおいて同じであるとは限らない。このような場合にも、形状データの全体の画素数に対して重なり合う画素数の割合があてはまり度合いとして扱われてもよい。   In such a case, since the size of the shape data itself changes, the larger the shape data, the larger the number of overlapping pixels itself. Therefore, in such a case, the ratio of the number of overlapping pixels to the total number of pixels in the shape data may be treated as the degree of fit. Alternatively, the number of pixels constituting the shape data is not necessarily the same in all the shape data. Even in such a case, the ratio of the number of overlapping pixels to the total number of pixels in the shape data may be treated as the degree of fit.

図5に戻って説明を続ける。判定部213は、移動領域検出結果データG20−4における複数の領域の中に、あてはまり度合いが閾値を超える領域が存在するか否かを判定する。すなわち、判定部213によって、あてはまり度合いが閾値を超える領域が、見え方モデルのあてはまる位置として探索される(S13)。例えば、判定部213は、あてはまり度合いの最大値S(x,y)が閾値を超える座標位置(x,y)が存在するか否かを判定する。ここでは、移動領域G21−4および移動領域G21−5それぞれに対応するように、S(x,y)が閾値を超える座標位置(x,y)が2つ存在すると判定された場合を想定する。   Returning to FIG. The determination unit 213 determines whether or not there is a region whose degree of fit exceeds a threshold value among the plurality of regions in the moving region detection result data G20-4. In other words, the determination unit 213 searches for an area where the degree of fit exceeds the threshold as a place where the appearance model fits (S13). For example, the determination unit 213 determines whether there is a coordinate position (x, y) where the maximum value S (x, y) of the degree of fit exceeds a threshold value. Here, it is assumed that it is determined that there are two coordinate positions (x, y) where S (x, y) exceeds the threshold value so as to correspond to each of the movement region G21-4 and the movement region G21-5. .

図9は、あてはまり度合いの最大値S(x,y)が閾値を超える2つの座標位置それぞれに対して、あてはまり度合いを最大とした見え方モデルを重ね合わせた場合を示す図である。図9を参照すると、移動領域検出結果データG20−4に移動領域G21−4および移動領域G21−5が含まれている。移動領域G21−4には、見え方モデル領域H11−1Aが重ね合わされている。また、移動領域G21−5には、見え方モデル領域H11−5Cが重ね合わされている。   FIG. 9 is a diagram illustrating a case where the appearance model with the maximum degree of fit is superimposed on each of two coordinate positions where the maximum value S (x, y) of the degree of fit exceeds the threshold value. Referring to FIG. 9, the movement area detection result data G20-4 includes a movement area G21-4 and a movement area G21-5. An appearance model region H11-1A is superimposed on the movement region G21-4. Further, the appearance model region H11-5C is superimposed on the movement region G21-5.

図5に戻って説明を続ける。出力制御部214は、あてはまり度合いが閾値を超える領域(移動物体領域)が存在した場合に、移動物体領域に関する情報の出力を制御する(S14)。そして、制御部210は、S11に移行する。ここで、移動物体領域に関する情報は特に限定されないが、移動物体領域の所定位置(例えば、中心位置)の座標を含んでもよい。さらに、移動物体領域に関する情報は、移動物体領域の大きさ(例えば、移動物体領域の縦横の長さ)を含んでもよい。   Returning to FIG. The output control unit 214 controls the output of information regarding the moving object region when there is a region (moving object region) whose degree of fit exceeds the threshold (S14). And the control part 210 transfers to S11. Here, the information regarding the moving object region is not particularly limited, but may include coordinates of a predetermined position (for example, a center position) of the moving object region. Further, the information related to the moving object area may include the size of the moving object area (for example, the vertical and horizontal lengths of the moving object area).

あるいは、出力制御部214は、移動物体領域に対するあてはまり度合いが閾値を超えた形状データに関する情報の出力を制御してもよい。形状データに関する情報は特に限定されないが、形状データ自体を含んでもよい。あるいは、形状データに関する情報は、形状データの大きさ(例えば、形状データの矩形領域の縦横の長さ)を含んでもよい。あるいは、形状データに関する情報は、形状データに含まれる見え方モデルの輪郭を含んでもよい。   Alternatively, the output control unit 214 may control the output of information related to shape data whose degree of fit with respect to the moving object region exceeds a threshold value. Information related to shape data is not particularly limited, but may include shape data itself. Alternatively, the information on the shape data may include the size of the shape data (for example, the vertical and horizontal lengths of the rectangular area of the shape data). Alternatively, the information related to the shape data may include the outline of the appearance model included in the shape data.

出力制御部214によって、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方(以下、「出力情報」とも言う。)の出力が制御された場合、出力情報は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力される。当該他の装置は、出力情報を記録する。当該他の装置に記録された出力情報は、後に読み出されて利用され得る。   When the output control unit 214 controls the output of at least one of the information related to the moving object region and the information related to the shape data (hereinafter also referred to as “output information”), the output information is not illustrated. The data is output to another device (for example, a recording device (not shown), the camera 10, etc.). The other device records output information. The output information recorded in the other device can be read and used later.

以上においては、形状データH10−1が、移動物体を所定方向から見た2次元モデルの全部に相当する見え方モデル領域(第1の領域)H11−1を有する例を示した(例えば、図7)。しかし、移動物体を所定方向から見た2次元モデルの全部が利用されなくてもよい。すなわち、形状データH10−1は、移動物体を所定方向から見た2次元モデルの一部に相当する領域を見え方モデル領域(第1の領域)として有していてもよい。かかる例について具体的に説明する。   In the above, an example in which the shape data H10-1 has the appearance model region (first region) H11-1 corresponding to the entire two-dimensional model of the moving object viewed from a predetermined direction has been shown (for example, FIG. 7). However, the entire two-dimensional model of the moving object viewed from a predetermined direction may not be used. That is, the shape data H10-1 may have an area corresponding to a part of the two-dimensional model when the moving object is viewed from a predetermined direction as the appearance model area (first area). Such an example will be specifically described.

図10は、見え方モデル領域の変形例を示す図である。図10を参照すると、形状データH10−6が示されている。また、形状データH10−6は、移動物体(例えば、航空機)を所定方向から見た2次元モデルの一部に相当する領域を見え方モデル領域H11−6として有している。評価部212は、移動画素群と見え方モデル領域H11−6との間において重なり合う画素数に基づいて、あてはまり度合いを評価してよい。あてはまり度合いの評価については、既に述べた評価が適用され得る。   FIG. 10 is a diagram illustrating a modified example of the appearance model region. Referring to FIG. 10, shape data H10-6 is shown. Further, the shape data H10-6 includes a region corresponding to a part of a two-dimensional model when a moving object (for example, an aircraft) is viewed from a predetermined direction as a view model region H11-6. The evaluation unit 212 may evaluate the degree of fit based on the number of pixels overlapping between the moving pixel group and the appearance model region H11-6. For the evaluation of the degree of fit, the evaluation described above can be applied.

なお、見え方モデル領域H11−6には、画素ごとに値(画素値)が設定されていてよい。そして、評価部212は、移動画素群と見え方モデル領域H11−6との間において重なり合う各画素の値(画素値)の合計値に基づいて、あてはまり度合いを評価してもよい。例えば、合計値自体があてはまり度合いとして扱われてよいし、形状データの全体の画素数に対する合計値の割合があてはまり度合いとして扱われてもよい。このように、見え方モデル領域H11−6の画素ごとに値が設定されていれば、より高精度に移動物体領域が検出され得る。   It should be noted that a value (pixel value) may be set for each pixel in the appearance model region H11-6. Then, the evaluation unit 212 may evaluate the degree of fit based on the total value of the values (pixel values) of the pixels that overlap between the moving pixel group and the appearance model region H11-6. For example, the total value itself may be treated as the degree of fit, or the ratio of the total value to the total number of pixels of the shape data may be treated as the degree of fit. In this way, if a value is set for each pixel in the appearance model region H11-6, the moving object region can be detected with higher accuracy.

図10を参照すると、見え方モデル領域H11−6は、部位P1および部位P2を含んでいる。部位P2は、移動物体の移動方向の端部領域であり、部位P1は、部位P2に隣接する内側領域である。このとき、部位P2の各画素に対してより高い値(例えば、「2」など)が設定され、部位P1の各画素に対して次に高い値(例えば、「1」など)が設定され、他の領域(部位P0および背景領域)の各画素に対して「0」が設定されていてもよい。このように、移動領域として検出されやすい移動方向の端部に近い画素ほど高い値が設定されていてもよい。   Referring to FIG. 10, the appearance model region H11-6 includes a part P1 and a part P2. The site P2 is an end region in the moving direction of the moving object, and the site P1 is an inner region adjacent to the site P2. At this time, a higher value (for example, “2”, etc.) is set for each pixel in the part P2, and a next higher value (for example, “1”, etc.) is set for each pixel in the part P1, “0” may be set for each pixel in other regions (part P0 and background region). Thus, a higher value may be set for pixels closer to the end in the movement direction that are easily detected as the movement region.

上記では、評価部212が、複数の形状データについてあてはまり度合いを評価し、それらの最大値を評価し、判定部213が、最大値が閾値を超える領域が存在するか否かを判定する手法を例として説明した。しかし、複数の形状データについてあてはまり度合いを評価するために要する処理量が大きくなってしまう場合も想定される。   In the above, the evaluation unit 212 evaluates the degree of fit for a plurality of shape data, evaluates the maximum value thereof, and the determination unit 213 determines whether there is a region where the maximum value exceeds the threshold value. Described as an example. However, it may be assumed that the amount of processing required to evaluate the degree of fit for a plurality of shape data becomes large.

したがって、評価部212は、複数の形状データの中から1の形状データを選択データとして選択し、移動領域検出結果データにおける複数の領域それぞれについて移動画素群と選択データとのあてはまり度合いを評価してもよい。複数の形状データの中から1の形状データを選択データとして選択する手法としては、幾つかの手法が想定される。第1の手法について、図11を参照しながら説明する。   Therefore, the evaluation unit 212 selects one shape data from among a plurality of shape data as selection data, and evaluates the degree of fit between the moving pixel group and the selection data for each of the plurality of regions in the moving region detection result data. Also good. As a method for selecting one shape data as a selection data from a plurality of shape data, several methods are assumed. The first method will be described with reference to FIG.

図11は、形状データを選択するための第1の手法を説明するための図である。図11に示すように、時刻T0における移動物体の見え方が、見え方モデル領域H11−1に近いと予測された場合を想定する。かかる場合には、時刻T0に対して、見え方モデル領域H11−1を含む形状データH10−1があらかじめ対応付けられているとよい。同様な予測がされた場合、時刻T1〜T4それぞれに対して、形状データH10−4,H10−3,H10−2,H10−5が対応付けられてよい。   FIG. 11 is a diagram for explaining a first method for selecting shape data. As shown in FIG. 11, it is assumed that the appearance of the moving object at time T0 is predicted to be close to the appearance model region H11-1. In such a case, the shape data H10-1 including the appearance model region H11-1 may be associated with the time T0 in advance. When the same prediction is made, the shape data H10-4, H10-3, H10-2, and H10-5 may be associated with each of the times T1 to T4.

そして、評価部212は、複数の形状データの中から、現時点に対応する形状データを選択データとして選択すればよい。例えば、評価部212は、現時点として時刻T3を取得した場合には、時刻T3に対応付けられている形状データH10−2を選択データとして選択すればよい。このように、時刻の経過に伴った移動物体の見え方モデルの変化の情報があらかじめ登録されていれば、かかる変化の情報に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。   And the evaluation part 212 should just select the shape data corresponding to the present time from several shape data as selection data. For example, when the time T3 is acquired as the current time, the evaluation unit 212 may select the shape data H10-2 associated with the time T3 as selection data. As described above, if the information on the change in the appearance model of the moving object with the passage of time is registered in advance, the shape data is selected on the basis of the information on the change, so that it is necessary to evaluate the degree of fit. The throughput can be suppressed.

図12は、形状データを選択するための第2の手法を説明するための図である。図12を参照すると、移動領域検出結果データG20−4において、範囲R1には、右向きへの移動物体の移動領域G21−4が含まれ、範囲R2には、左向きへの移動物体の移動領域G21−5が含まれている。このように、滑走路ごとの進行方向等により、領域ごとに移動物体の向きが決まる場合、移動物体の向きに対応する形状データが各領域に対応付けられているとよい。例えば、範囲R1には、移動物体の向き「右向き」に対応する形状データH10−1が対応付けられ、範囲R2には、移動物体の向き「左向き」に対応する形状データH10−5が対応付けられているとよい。   FIG. 12 is a diagram for explaining a second method for selecting shape data. Referring to FIG. 12, in the moving region detection result data G20-4, the range R1 includes a moving region G21-4 of the moving object to the right, and the range R2 includes the moving region G21 of the moving object to the left. -5 is included. As described above, when the direction of the moving object is determined for each region based on the traveling direction of each runway, shape data corresponding to the direction of the moving object may be associated with each region. For example, the shape data H10-1 corresponding to the moving object orientation “right” is associated with the range R1, and the shape data H10-5 corresponding to the moving object orientation “left” is associated with the range R2. It is good to have been.

そして、評価部212は、複数の形状データの中から、あてはまり度合いが評価される領域に対応する形状データを選択データとして選択すればよい。例えば、評価部212は、範囲R1に属する領域のあてはまり度合いを評価しようとする場合には、範囲R1に対応付けられている形状データH10−1を選択データとして選択すればよい。このように、領域ごとに形状データが対応付けられていれば、領域と形状データとの対応関係に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。   And the evaluation part 212 should just select the shape data corresponding to the area | region where the degree of fit is evaluated from several shape data as selection data. For example, the evaluation unit 212 may select the shape data H10-1 associated with the range R1 as selection data when evaluating the degree of fit of the region belonging to the range R1. In this way, if the shape data is associated with each region, the shape data is selected based on the correspondence between the region and the shape data, so that the processing amount required for evaluating the degree of fit can be suppressed.

図13は、形状データを選択するための第3の手法を説明するための図である。図13を参照すると、移動物体の向き「右向き」に対して、右向きの移動物体の見え方モデル領域H11−1を含む形状データH10−1が対応付けられている。同様に、移動物体の向き「左下向き」に対して、左下向きの見え方モデル領域H11−2を含む形状データH10−2が対応付けられ、移動物体の向き「下向き」に対して、下向きの見え方モデル領域H11−3を含む形状データH10−3が対応付けられている。   FIG. 13 is a diagram for explaining a third method for selecting shape data. Referring to FIG. 13, shape data H <b> 10-1 including a moving object appearance model region H <b> 11-1 is associated with the moving object direction “right”. Similarly, the shape data H10-2 including the downward-left appearance model region H11-2 is associated with the moving object orientation “downwardly left”, and the moving object orientation “downward” is downwardly directed. Shape data H10-3 including the appearance model region H11-3 is associated.

また、移動物体の向き「右下向き」に対して、右向きの見え方モデル領域H11−4を含む形状データH10−4が対応付けられ、移動物体の向き「左向き」に対して、左向きの見え方モデル領域H11−5を含む形状データH10−5が対応付けられている。ここで、移動領域検出部211Aによって、映像からオプティカルフローが検出される場合を想定する。このとき、評価部212は、オプティカルフローに基づいて、移動物体の向きを検出することが可能である。例えば、評価部212は、オプティカルフローと一致または類似する向きを移動物体の向きとして検出することが可能である。   Further, the shape data H10-4 including the right-looking appearance model region H11-4 is associated with the moving object orientation “downwardly right”, and the left-looking appearance with respect to the moving object orientation “leftward” is associated. Shape data H10-5 including the model region H11-5 is associated. Here, it is assumed that the optical flow is detected from the video by the moving region detection unit 211A. At this time, the evaluation unit 212 can detect the direction of the moving object based on the optical flow. For example, the evaluation unit 212 can detect a direction that matches or is similar to the optical flow as the direction of the moving object.

そして、評価部212は、複数の形状データの中から、移動物体の向きに対応する形状データを選択データとして選択すればよい。例えば、評価部212は、オプティカルフローが「右向き」である場合、オプティカルフローの向き「右向き」と一致する向き「右向き」を、移動物体の向きとして検出する。そして、評価部212は、移動物体の向き「右向き」に対応付けられている形状データH10−1を選択データとして選択すればよい。このように、移動物体の向きごとに形状データが対応付けられていれば、移動物体の向きと形状データとの対応関係に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。   And the evaluation part 212 should just select the shape data corresponding to the direction of a moving object as selection data from several shape data. For example, when the optical flow is “rightward”, the evaluation unit 212 detects the direction “rightward” that matches the direction “rightward” of the optical flow as the direction of the moving object. And the evaluation part 212 should just select the shape data H10-1 matched with the direction "right direction" of a moving object as selection data. In this way, if shape data is associated with each direction of the moving object, the shape data is selected based on the correspondence between the direction of the moving object and the shape data, so the process required for evaluating the degree of fit The amount can be suppressed.

(1−4.効果)
本発明の第1の実施形態によれば、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部211Aと、移動領域検出結果データにおける複数の領域それぞれについて移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部212と、複数の領域の中に、あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部213と、を備える、移動物体領域検出装置20Aが提供される。
(1-4. Effects)
According to the first embodiment of the present invention, the moving region detection unit 211A that detects the moving region from the video and obtains the moving region detection result data, and configures the moving region for each of the plurality of regions in the moving region detection result data. An evaluation unit 212 that evaluates the degree of fit between the moving pixel group and the shape data prepared in advance; a determination unit 213 that determines whether or not there is a region where the degree of fit exceeds a threshold value among the plurality of regions; A moving object region detection device 20A is provided.

かかる構成によれば、形状が既知である移動物体をより高精度に検出することが可能となる。したがって、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行った場合に、移動物体の全体に対して所定の処理がなされるようになるという効果が享受される。   According to this configuration, it is possible to detect a moving object whose shape is known with higher accuracy. Therefore, when a predetermined process (for example, storage or high-quality transmission) is performed on the moving object region, an effect that the predetermined process is performed on the entire moving object is enjoyed.

以上、本発明の第1の実施形態について説明した。   The first embodiment of the present invention has been described above.

(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。本発明の第2の実施形態においては、カメラ10が何らかの理由で動きを有する場合を想定する。例えば、揺れによって、カメラ10が動きを有する場合もあり得る。あるいは、カメラ10がPTZカメラである場合には、パン操作またはチルト操作によって、カメラ10が動きを有する場合もあり得る。
(2. Second Embodiment)
Subsequently, a second embodiment of the present invention will be described. In the second embodiment of the present invention, it is assumed that the camera 10 has a movement for some reason. For example, the camera 10 may move due to shaking. Alternatively, when the camera 10 is a PTZ camera, the camera 10 may have a movement by a pan operation or a tilt operation.

ここで、カメラ10の動きには、カメラ10の回転が含まれ得る。また、カメラ10の動きには、カメラ10の並進が含まれ得る。例えば、カメラ10の並進は、カメラ10の回転軸と撮像位置との間にずれがある状態においてカメラ10が回転した場合に生じ得る。   Here, the movement of the camera 10 may include rotation of the camera 10. Further, the movement of the camera 10 may include translation of the camera 10. For example, translation of the camera 10 can occur when the camera 10 rotates in a state where there is a deviation between the rotation axis of the camera 10 and the imaging position.

このように、カメラ10が何らかの理由で動きを有する場合には、移動物体の移動によってだけではなく、カメラ10の動きによっても映像が変化し得る。したがって、本発明の第2の実施形態においては、移動物体の移動による移動領域の検出精度を向上させるために、映像の変化からカメラ10の動きによる変化を除去し、カメラ10の動きによる変化が除去された後の映像の変化に基づいて、移動領域を検出する技術について主に説明する。   As described above, when the camera 10 has a movement for some reason, the video can be changed not only by the movement of the moving object but also by the movement of the camera 10. Therefore, in the second embodiment of the present invention, in order to improve the detection accuracy of the moving area due to the movement of the moving object, the change due to the movement of the camera 10 is removed from the change in the image, and the change due to the movement of the camera 10 is detected. A technique for detecting a moving area based on a change in video after removal will be mainly described.

(2−1.検出システムの構成)
まず、図2を参照しながら、本発明の第2の実施形態に係る検出システム1B(図2)の構成例について説明する。図2に示したように、本発明の第2の実施形態に係る検出システム1Bは、本発明の第1の実施形態に係る検出システム1Aと比較して、移動物体領域検出装置20Bの構成が移動物体領域検出装置20Aの構成と異なっている。そこで、本発明の第2の実施形態においては、移動物体領域検出装置20Bの構成例を主に説明する。
(2-1. Configuration of detection system)
First, a configuration example of a detection system 1B (FIG. 2) according to the second embodiment of the present invention will be described with reference to FIG. As shown in FIG. 2, the detection system 1B according to the second embodiment of the present invention has a configuration of the moving object region detection device 20B as compared with the detection system 1A according to the first embodiment of the present invention. This is different from the configuration of the moving object region detection device 20A. Therefore, in the second embodiment of the present invention, a configuration example of the moving object region detection device 20B will be mainly described.

(2−2.移動物体領域検出装置の機能構成)
続いて、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能構成例について説明する。図14は、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能構成例を示すブロック図である。図14に示したように、本発明の第2の実施形態に係る移動物体領域検出装置20Bは、本発明の第1の実施形態に係る移動物体領域検出装置20Aと比較して、制御部210Bの移動領域検出部211Bの構成が制御部210Aの移動領域検出部211Aの構成と異なる。そこで、本発明の第2の実施形態においては、移動領域検出部211Bの構成を主に説明する。
(2-2. Functional Configuration of Moving Object Area Detection Device)
Next, a functional configuration example of the moving object region detection device 20B according to the second embodiment of the present invention will be described. FIG. 14 is a block diagram illustrating a functional configuration example of the moving object region detection device 20B according to the second embodiment of the present invention. As shown in FIG. 14, the moving object region detection device 20B according to the second embodiment of the present invention is compared with the moving object region detection device 20A according to the first embodiment of the present invention, as a control unit 210B. The configuration of the moving area detection unit 211B is different from the configuration of the moving area detection unit 211A of the control unit 210A. Therefore, in the second embodiment of the present invention, the configuration of the moving region detection unit 211B will be mainly described.

(2−3.移動物体領域検出装置の機能詳細)
続いて、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能詳細について説明する。図15は、本発明の第2の実施形態に係る移動物体領域検出装置20Bの動作例を示すフローチャートである。図15に示したように、本発明の第2の実施形態に係る移動物体領域検出装置20Bにおいて、制御部210Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られたか否かを判定する(S11)。
(2-3. Detailed functions of moving object area detection device)
Subsequently, functional details of the moving object region detection device 20B according to the second embodiment of the present invention will be described. FIG. 15 is a flowchart showing an operation example of the moving object region detection device 20B according to the second embodiment of the present invention. As shown in FIG. 15, in the moving object region detection device 20B according to the second embodiment of the present invention, the control unit 210B receives the latest video frame (image) captured by the camera 10 by the communication unit 230. It is determined whether it has been done (S11).

制御部210Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られなかった場合(S11において「No」)、動作を終了する。一方、移動領域検出部211Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られた場合(S11において「Yes」)、映像からオプティカルフローを検出する(S21)。   When the latest video frame (image) captured by the camera 10 is not received by the communication unit 230 (“No” in S11), the control unit 210B ends the operation. On the other hand, when the latest video frame (image) captured by the camera 10 is received by the communication unit 230 (“Yes” in S11), the moving region detection unit 211B detects an optical flow from the video (S21).

図16は、カメラ10が動きを有する場合に検出されるオプティカルフローの例を示す図である。図16に示すように、オプティカルフローF10には、カメラ10が動きを有する場合には、移動物体の移動によるオプティカルフローだけではなく、カメラ10の動きによるオプティカルフローも含まれる。特に、オプティカルフローF10は、カメラ10が右向きに回転するとともに、カメラの視点が左向きに並進した場合に検出されるオプティカルフローを示している。この並進はカメラが視点より前方の軸を中心に回転したために生じたものである。ただし、カメラ10の回転および並進それぞれの向きは特に限定されない。   FIG. 16 is a diagram illustrating an example of an optical flow detected when the camera 10 has a motion. As shown in FIG. 16, the optical flow F <b> 10 includes not only an optical flow due to movement of a moving object but also an optical flow due to movement of the camera 10 when the camera 10 has movement. In particular, the optical flow F10 indicates an optical flow detected when the camera 10 rotates to the right and the viewpoint of the camera translates to the left. This translation occurs because the camera rotates around an axis in front of the viewpoint. However, the rotation and translation directions of the camera 10 are not particularly limited.

図16に示すように、カメラ10が右向きに回転している場合、画面全体にはカメラ10の回転とは逆向き(左向き)のオプティカルフローが現れる。ただし、回転に伴いカメラ10の視点が左向きに並進することで、画面全体にはカメラ10の並進とは逆向き(右向き)のオプティカルフローが現れる。これによって、左向きのオプティカルフローが僅かに抑制される。カメラ10の並進による左向きのオプティカルフローの抑制度合いは、カメラ10からの距離が近いほど強くなる。   As shown in FIG. 16, when the camera 10 is rotated rightward, an optical flow in the opposite direction (leftward) to the rotation of the camera 10 appears on the entire screen. However, as the viewpoint of the camera 10 translates to the left along with the rotation, an optical flow in the opposite direction (rightward) to the translation of the camera 10 appears on the entire screen. As a result, the leftward optical flow is slightly suppressed. The degree of suppression of the leftward optical flow due to translation of the camera 10 increases as the distance from the camera 10 decreases.

すなわち、オプティカルフローF10に示すように、地面が写る地面の上側よりも下側のほうがカメラ10に近いため、左向きのオプティカルフローの抑制度合いは、映像に写る地面の上側よりも下側のほうが強くなる。また、空よりも地面のほうがカメラ10に近いため、左向きのオプティカルフローの抑制度合いは、映像に写る空よりも映像に写る地面のほうが強くなる。このように、画面全体にはカメラ10の動きによる左向きのオプティカルフローが現れる。   That is, as shown in the optical flow F10, the lower side of the upper side of the ground where the ground appears is closer to the camera 10, so the degree of suppression of the leftward optical flow is stronger at the lower side than the upper side of the ground shown in the video. Become. Further, since the ground is closer to the camera 10 than the sky, the degree of suppression of the leftward optical flow is stronger on the ground in the video than in the sky in the video. Thus, a leftward optical flow due to the movement of the camera 10 appears on the entire screen.

一方、オプティカルフローF10に示すように、(移動領域F11−1に対応する)移動物体は右向きに移動している。そのため、(移動領域F11−1に対応する)移動物体の移動方向(左右方向)における端部には、右向きのオプティカルフローが現れる。これによって、(移動領域F11−1に対応する)移動物体の移動方向(左右方向)における端部においては、カメラ10の動きによる左向きのオプティカルフローが僅かに抑制されている。   On the other hand, as shown in the optical flow F10, the moving object (corresponding to the moving area F11-1) is moving rightward. Therefore, a rightward optical flow appears at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving region F11-1). As a result, the leftward optical flow due to the movement of the camera 10 is slightly suppressed at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving area F11-1).

また、オプティカルフローF10に示すように、(移動領域F11−2に対応する)移動物体は左向きに移動している。そのため、(移動領域F11−2に対応する)移動物体の移動方向(左右方向)における端部には、左向きのオプティカルフローが現れる。これによって、(移動領域F11−2に対応する)移動物体の移動方向(左右方向)における端部においては、カメラ10の動きによる左向きのオプティカルフローが強調されている。   Further, as shown in the optical flow F10, the moving object (corresponding to the moving area F11-2) is moving leftward. Therefore, a leftward optical flow appears at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving region F11-2). As a result, the leftward optical flow due to the movement of the camera 10 is emphasized at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving region F11-2).

図15に戻って説明を続ける。続いて、移動領域検出部211Bは、カメラ10の動き成分(カメラ10の動きによるオプティカルフロー)を生成する(S22)。カメラ10の動き成分には、カメラ10の回転による成分(カメラ10の回転によるオプティカルフロー)が考慮されてもよいし、カメラ10の回転に伴う視点の並進による成分(カメラ10の並進によるオプティカルフロー)がさらに考慮されてもよい。以下では、カメラ10の動き成分に、カメラ10の回転による成分とカメラ10の並進による成分との双方が考慮される例について説明する。   Returning to FIG. 15, the description will be continued. Subsequently, the moving region detection unit 211B generates a motion component of the camera 10 (optical flow due to the motion of the camera 10) (S22). The movement component of the camera 10 may include a component due to rotation of the camera 10 (optical flow due to rotation of the camera 10), or a component due to translation of the viewpoint accompanying rotation of the camera 10 (optical flow due to translation of the camera 10). ) May be further considered. In the following, an example will be described in which both the component due to the rotation of the camera 10 and the component due to the translation of the camera 10 are considered in the motion component of the camera 10.

カメラ10の回転による成分は、カメラ10の単位角度(例えば、1度など)あたりの回転とその回転によって生じるオプティカルフローとの対応関係があらかじめ測定されていれば、移動領域検出部211Bによって、カメラ10の回転角度とその対応関係とに基づいて生成され得る。このとき、カメラ10の回転角度は、カメラ10の制御信号などから得られる。また、以下の説明では、カメラ10の回転角度として、カメラ10のパン・チルトを例に挙げて説明する。   If the correspondence between the rotation per unit angle (for example, 1 degree) of the camera 10 and the optical flow generated by the rotation is measured in advance, the component due to the rotation of the camera 10 is measured by the moving region detection unit 211B. It can be generated based on the ten rotation angles and their corresponding relationships. At this time, the rotation angle of the camera 10 is obtained from a control signal of the camera 10 or the like. In the following description, the pan / tilt of the camera 10 will be described as an example of the rotation angle of the camera 10.

また、カメラ10の回転に伴う視点の並進による成分は、カメラ10から映像に写る物体までの距離(すなわち、映像に写る地面の角度、および、映像に写る地面と地面以外との境界位置)に依存し得る。そこで、カメラ10の向きと地面とのなす角度、および、カメラ10の地面からの高さなどのパラメータが決まれば、移動領域検出部211Bによって、そのパラメータに対応して画面上の座標位置(x,y)におけるカメラ10の並進による成分が決まる。これらのパラメータも、カメラ10の制御信号などから得られる。   Further, the component due to the translation of the viewpoint accompanying the rotation of the camera 10 is the distance from the camera 10 to the object shown in the video (that is, the angle of the ground shown in the video and the boundary position between the ground and the ground shown in the video). Can depend. Therefore, if parameters such as the angle between the direction of the camera 10 and the ground and the height of the camera 10 from the ground are determined, the moving area detection unit 211B corresponds to the coordinate position (x , Y), the component due to translation of the camera 10 is determined. These parameters are also obtained from the control signal of the camera 10 and the like.

カメラ10の回転による成分とカメラ10の並進による成分とのより具体的な生成例を説明する。いま、カメラ10による単位角度φあたりのパンによって画面上の座標位置(x,y)に無限遠点が写っている場合に生じるオプティカルフローを(X(φ),Y(φ))とする。また、カメラ10による単位角度ψあたりのチルトによって画面上の座標位置(x,y)に無限遠点が写っている場合に生じるオプティカルフローを(X(ψ),Y(ψ))とする。   A more specific example of generating the component due to the rotation of the camera 10 and the component due to the translation of the camera 10 will be described. Now, let us say that the optical flow that occurs when an infinite point appears at the coordinate position (x, y) on the screen due to panning per unit angle φ by the camera 10 is (X (φ), Y (φ)). The optical flow that occurs when an infinite point is reflected at the coordinate position (x, y) on the screen due to the tilt per unit angle ψ by the camera 10 is defined as (X (ψ), Y (ψ)).

そして、カメラ10の実際のパン角度をΦとし、カメラ10の実際のチルト角度をΨとする。また、画面上の座標位置(x,y)におけるカメラ10の並進による成分をD(x,y)とする。このとき、画面上の座標位置(x,y)に実際に生じるオプティカルフローを(X(Φ,Ψ,x,y),Y(Φ,Ψ,x,y))とすると、(X(Φ,Ψ,x,y),Y(Φ,Ψ,x,y))は、以下の(数式2)および(数式3)によって表現される(カメラ10の回転による成分とカメラ10の並進による成分との乗算によって得られる)。   The actual pan angle of the camera 10 is Φ, and the actual tilt angle of the camera 10 is ψ. Also, let D (x, y) be a component due to translation of the camera 10 at the coordinate position (x, y) on the screen. At this time, assuming that the optical flow actually generated at the coordinate position (x, y) on the screen is (X (Φ, Ψ, x, y), Y (Φ, Ψ, x, y)), (X (Φ , Ψ, x, y), Y (Φ, Ψ, x, y)) are expressed by the following (Equation 2) and (Equation 3) (the component due to the rotation of the camera 10 and the component due to the translation of the camera 10). Obtained by multiplication with).

Figure 2018055521
・・・(数式2)
Figure 2018055521
... (Formula 2)

Figure 2018055521
・・・(数式3)
Figure 2018055521
... (Formula 3)

続いて、移動領域検出部211Bは、このように生成したカメラ10の動き成分(カメラ10の動きによるオプティカルフロー)を、映像から検出されたオプティカルフローから除去する。そして、移動領域検出部211Bは、映像から検出されたオプティカルフローから、カメラの動きによる成分が除去された後のオプティカルフローに基づいて、移動領域を検出する(S12)。移動領域の検出については、本発明の第1の実施形態における移動領域の検出と同様になされ得る。また、S13およびS14も、本発明の第1の実施形態において説明したようになされ得る。   Subsequently, the moving region detection unit 211B removes the motion component of the camera 10 generated in this way (optical flow due to the motion of the camera 10) from the optical flow detected from the video. Then, the moving region detection unit 211B detects the moving region based on the optical flow after the component due to the camera motion is removed from the optical flow detected from the video (S12). The detection of the moving area can be performed in the same manner as the detection of the moving area in the first embodiment of the present invention. S13 and S14 can also be performed as described in the first embodiment of the present invention.

(2−4.効果)
本発明の第2の実施形態によれば、映像から検出されるオプティカルフローから、映像を撮像するカメラ10の動きによる成分を除去した後のオプティカルフローに基づいて、移動領域を検出する移動領域検出部211Bを備えるとともに、本発明の第1の実施形態と同様に、評価部212および判定部213を備える、移動物体領域検出装置20Bが提供される。
(2-4. Effect)
According to the second embodiment of the present invention, the moving region detection for detecting the moving region based on the optical flow after removing the component due to the movement of the camera 10 that captures the image from the optical flow detected from the image. A moving object region detection device 20B is provided that includes a unit 211B and includes an evaluation unit 212 and a determination unit 213, as in the first embodiment of the present invention.

かかる構成によれば、第1の実施形態と同様に、形状が既知である移動物体をより高精度に検出することが可能となる。したがって、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行った場合に、移動物体の全体に対して所定の処理がなされるようになるという効果が享受される。   According to such a configuration, it is possible to detect a moving object having a known shape with higher accuracy, as in the first embodiment. Therefore, when a predetermined process (for example, storage or high-quality transmission) is performed on the moving object region, an effect that the predetermined process is performed on the entire moving object is enjoyed.

さらに、かかる構成によれば、カメラ10の動きによる成分を除外し、移動物体の移動による移動領域の検出精度を向上させるとともに、移動物体をより高精度に検出することが可能となる。一例として、カメラ10がPTZカメラであり、パン操作またはチルト操作によって、カメラ10が動きを有する場合であっても、移動物体をより高精度に検出することが可能となる。   Furthermore, according to such a configuration, it is possible to exclude a component due to the movement of the camera 10, improve the detection accuracy of the moving region due to the movement of the moving object, and detect the moving object with higher accuracy. As an example, even when the camera 10 is a PTZ camera and the camera 10 has a movement by a pan operation or a tilt operation, it is possible to detect a moving object with higher accuracy.

以上、本発明の第2の実施形態について説明した。   The second embodiment of the present invention has been described above.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記においては、出力制御部214によって、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方(出力情報)の出力が制御される場合について説明した。そして、出力情報は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力される場合について説明した。しかし、出力情報の出力先は、図示しない記録装置およびカメラ10に限定されない。   For example, in the above description, the case where the output control unit 214 controls the output of at least one of the information related to the moving object region and the information related to the shape data (output information) has been described. In the above description, the output information is output to another device (not shown) (for example, a recording device (not shown), the camera 10, etc.). However, the output destination of the output information is not limited to the recording device and the camera 10 (not shown).

例えば、移動物体領域検出装置20Aが図示しないコンピュータと接続されている場合、出力情報は、コンピュータに送信されてもよい。このとき、コンピュータは、受信した出力情報に基づく所定の表示を行ってもよい。例えば、コンピュータは、映像を表示するとともに、受信した移動物体領域に関する情報に基づいて、映像における移動物体領域に所定の表示(例えば、赤い矩形枠の表示など)を行ってもよい。そうすれば、コンピュータが管制室に設置されている場合などに、管制官が移動物体の監視を行いやすくなる。   For example, when the moving object region detection device 20A is connected to a computer (not shown), the output information may be transmitted to the computer. At this time, the computer may perform a predetermined display based on the received output information. For example, the computer may display a video and may perform a predetermined display (for example, display of a red rectangular frame) on the moving object area in the video based on the received information regarding the moving object area. This makes it easier for the controller to monitor moving objects, such as when a computer is installed in the control room.

また、例えば、カメラ10は、PTZカメラである場合、受信した移動物体領域に関する情報に基づいて、移動物体領域が映像の所定位置(例えば、中心位置)に写るようにパン・チルトを行ってもよい。このとき、カメラ10は、移動物体が拡大されて映像に写るようにズームを行ってもよい。そうすれば、移動物体が映像の見やすい位置に見やすいサイズで写るように自動的に移動物体が追尾される。あるいは、移動物体領域検出装置20Aがカメラ10とは異なるPTZカメラと接続されており、そのPTZカメラによって同様の動作がなされてもよい。   Further, for example, when the camera 10 is a PTZ camera, panning / tilting may be performed so that the moving object region is reflected at a predetermined position (for example, the center position) of the video based on the received information on the moving object region. Good. At this time, the camera 10 may perform zooming so that the moving object is enlarged and shown in the video. Then, the moving object is automatically tracked so that the moving object is captured in a position that is easy to see at a position where the image is easy to see. Alternatively, the moving object area detection device 20A may be connected to a PTZ camera different from the camera 10, and the same operation may be performed by the PTZ camera.

あるいは、移動領域が検出された場合、かつ、あらかじめ用意された1または複数の形状データとのあてはまり度合いが閾値を超える領域が存在しない場合も想定される。このときは、検出された移動物体は、未知の移動物体である可能性がある。そこで、かかる場合、出力制御部214は、未知の移動物体の検出を知らせるための所定の出力(例えば、所定の視覚情報、所定の音声情報など)を制御してもよい。また、未知の移動物体は、不審物体や侵入者である可能性もあるため、未知の移動物体の検出を知らせるための所定の出力は、異常状態を知らせるための所定の出力であってもよい。   Alternatively, a case where a moving region is detected and a region where the degree of fit with one or a plurality of shape data prepared in advance exceeds a threshold value is also assumed. At this time, the detected moving object may be an unknown moving object. Therefore, in such a case, the output control unit 214 may control a predetermined output (for example, predetermined visual information, predetermined audio information, etc.) for notifying the detection of an unknown moving object. In addition, since the unknown moving object may be a suspicious object or an intruder, the predetermined output for informing the detection of the unknown moving object may be a predetermined output for informing the abnormal state. .

1(1A,1B) 検出システム
10 カメラ
20(20A,20B) 移動物体領域検出装置(検出装置)
210(210A,210B) 制御部
211(211A,211B) 移動領域検出部
212 評価部
213 判定部
214 出力制御部
220 通信部
230 通信部
240 記憶部
F10 オプティカルフロー
F11 移動領域
G11 移動物体
G20 移動領域検出結果データ
G21 移動領域
H10 形状データ
1 (1A, 1B) Detection system 10 Camera 20 (20A, 20B) Moving object area detection device (detection device)
210 (210A, 210B) Control unit 211 (211A, 211B) Moving region detection unit 212 Evaluation unit 213 Determination unit 214 Output control unit 220 Communication unit 230 Communication unit 240 Storage unit F10 Optical flow F11 Moving region G11 Moving object G20 Moving region detection Result data G21 Moving area H10 Shape data

Claims (15)

映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、
を備える、検出装置。
A moving area detection unit that detects a moving area from video and obtains moving area detection result data;
An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving region and shape data prepared in advance for each of a plurality of regions in the moving region detection result data;
A determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value among the plurality of regions;
A detection device comprising:
前記検出装置は、
前記あてはまり度合いが前記閾値を超える領域が存在した場合に、当該領域に関する情報、および、前記形状データに関する情報のうち、少なくともいずれか一方の出力を制御する出力制御部を備える、
請求項1に記載の検出装置。
The detection device includes:
An output control unit that controls the output of at least one of the information on the region and the information on the shape data when there is a region where the degree of fit exceeds the threshold;
The detection device according to claim 1.
前記形状データは、所定の移動物体を所定方向から見た2次元モデルの全部または一部に相当する第1の領域と、前記第1の領域以外の第2の領域とが区別されるように生成された、
請求項1に記載の検出装置。
In the shape data, a first area corresponding to all or part of a two-dimensional model of a predetermined moving object viewed from a predetermined direction and a second area other than the first area are distinguished. Generated,
The detection device according to claim 1.
前記評価部は、前記移動画素群と前記第1の領域との間において重なり合う画素数に基づいて、前記あてはまり度合いを評価する、
請求項3に記載の検出装置。
The evaluation unit evaluates the degree of fit based on the number of pixels overlapping between the moving pixel group and the first region;
The detection device according to claim 3.
前記第1の領域には、画素ごとに値が設定されており、
前記評価部は、前記移動画素群と前記第1の領域との間において重なり合う各画素の値の合計値に基づいて、前記あてはまり度合いを評価する、
請求項4に記載の検出装置。
In the first area, a value is set for each pixel,
The evaluation unit evaluates the degree of fit based on a total value of values of pixels that overlap between the moving pixel group and the first region.
The detection device according to claim 4.
前記評価部は、前記複数の領域それぞれについて前記移動画素群と複数の形状データとのあてはまり度合いの最大値を評価し、
前記判定部は、前記最大値が前記閾値を超える領域が存在するか否かを判定する、
請求項1に記載の検出装置。
The evaluation unit evaluates the maximum value of the degree of fit between the moving pixel group and the plurality of shape data for each of the plurality of regions.
The determination unit determines whether or not there is a region where the maximum value exceeds the threshold;
The detection device according to claim 1.
前記評価部は、複数の形状データの中から1の形状データを選択データとして選択し、前記複数の領域それぞれについて前記移動画素群と前記選択データとのあてはまり度合いを評価する、
請求項1に記載の検出装置。
The evaluation unit selects one shape data from a plurality of shape data as selection data, and evaluates the degree of fit between the moving pixel group and the selection data for each of the plurality of regions.
The detection device according to claim 1.
前記評価部は、前記複数の形状データの中から、現時点に対応する形状データを前記選択データとして選択する、
請求項7に記載の検出装置。
The evaluation unit selects, as the selection data, shape data corresponding to the current time from the plurality of shape data.
The detection device according to claim 7.
前記評価部は、前記複数の形状データの中から、前記複数の領域が属する範囲に対応する形状データを前記選択データとして選択する、
請求項7に記載の検出装置。
The evaluation unit selects, as the selection data, shape data corresponding to a range to which the plurality of regions belong from the plurality of shape data.
The detection device according to claim 7.
前記評価部は、前記映像から検出されるオプティカルフローに基づいて、前記複数の形状データの中から前記選択データを選択する、
請求項7に記載の検出装置。
The evaluation unit selects the selection data from the plurality of shape data based on an optical flow detected from the video.
The detection device according to claim 7.
前記検出装置は、
前記移動領域が検出された場合、かつ、前記あてはまり度合いが前記閾値を超える領域が存在しない場合に、未知の移動物体の検出を知らせるための所定の出力を制御する出力制御部を備える、
請求項1に記載の検出装置。
The detection device includes:
An output control unit that controls a predetermined output for notifying detection of an unknown moving object when the moving region is detected and there is no region in which the degree of fit exceeds the threshold;
The detection device according to claim 1.
前記移動領域検出部は、背景差分法またはオプティカルフローに基づいて、前記移動領域を検出する、
請求項1に記載の検出装置。
The moving area detection unit detects the moving area based on a background difference method or an optical flow.
The detection device according to claim 1.
前記移動領域検出部は、前記映像から検出されるオプティカルフローから、前記映像を撮像するカメラの動きによる成分を除去した後のオプティカルフローに基づいて、前記移動領域を検出する、
請求項1に記載の検出装置。
The moving area detection unit detects the moving area based on an optical flow after removing a component due to a movement of a camera that captures the video from an optical flow detected from the video.
The detection device according to claim 1.
映像から移動領域を検出して移動領域検出結果データを得ることと、
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価することと、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定することと、
を備える、検出方法。
To detect the moving area from the video and obtain the moving area detection result data;
Evaluating a degree of fit between a moving pixel group constituting the moving area and shape data prepared in advance for each of a plurality of areas in the moving area detection result data;
Determining whether there is an area in which the degree of fit exceeds a threshold among the plurality of areas;
A detection method comprising:
映像を撮像するカメラと検出装置とを有する検出システムであって、
前記検出装置は、
映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、
を備える、検出システム。

A detection system having a camera for capturing video and a detection device,
The detection device includes:
A moving area detection unit that detects a moving area from video and obtains moving area detection result data;
An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving region and shape data prepared in advance for each of a plurality of regions in the moving region detection result data;
A determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value among the plurality of regions;
A detection system comprising:

JP2016192639A 2016-09-30 2016-09-30 Detector, detection method and detection system Pending JP2018055521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016192639A JP2018055521A (en) 2016-09-30 2016-09-30 Detector, detection method and detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016192639A JP2018055521A (en) 2016-09-30 2016-09-30 Detector, detection method and detection system

Publications (1)

Publication Number Publication Date
JP2018055521A true JP2018055521A (en) 2018-04-05

Family

ID=61835849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016192639A Pending JP2018055521A (en) 2016-09-30 2016-09-30 Detector, detection method and detection system

Country Status (1)

Country Link
JP (1) JP2018055521A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307876A (en) * 1996-05-20 1997-11-28 Meidensha Corp Remote supervisory system
JP2002279582A (en) * 2001-03-22 2002-09-27 Toshiba Corp Vehicle type discriminating device and its method
JP2005078445A (en) * 2003-09-01 2005-03-24 Matsushita Electric Works Ltd Image processing system
JP2013050924A (en) * 2011-08-31 2013-03-14 Toshiba Tec Corp Store system and program
JP2014135039A (en) * 2012-12-13 2014-07-24 Denso Corp Moving object detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307876A (en) * 1996-05-20 1997-11-28 Meidensha Corp Remote supervisory system
JP2002279582A (en) * 2001-03-22 2002-09-27 Toshiba Corp Vehicle type discriminating device and its method
JP2005078445A (en) * 2003-09-01 2005-03-24 Matsushita Electric Works Ltd Image processing system
JP2013050924A (en) * 2011-08-31 2013-03-14 Toshiba Tec Corp Store system and program
JP2014135039A (en) * 2012-12-13 2014-07-24 Denso Corp Moving object detection device

Similar Documents

Publication Publication Date Title
US10878584B2 (en) System for tracking object, and camera assembly therefor
US7385626B2 (en) Method and system for performing surveillance
EP3419283B1 (en) System and method for tracking moving objects in a scene
JP4568009B2 (en) Monitoring device with camera cooperation
EP3606032B1 (en) Method and camera system combining views from plurality of cameras
US20100013917A1 (en) Method and system for performing surveillance
KR101530255B1 (en) Cctv system having auto tracking function of moving target
GB2593335A (en) Method and apparatus for 3-D auto tagging
KR101695249B1 (en) Method and system for presenting security image
KR101496390B1 (en) System for Vehicle Number Detection
KR101916467B1 (en) Apparatus and method for detecting obstacle for Around View Monitoring system
EP2830028B1 (en) Controlling movement of a camera to autonomously track a mobile object
JP2016127571A (en) Camera system, display control device, display control method, and program
US20170264877A1 (en) Pan/tilt/zoom camera based video playing method and apparatus
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
JP2005142683A (en) Apparatus and method for camera control
JPWO2020174916A1 (en) Shooting system
JP6032283B2 (en) Surveillance camera management device, surveillance camera management method, and program
JP2001245284A (en) Method and system for supervising intruding object
KR102285078B1 (en) Remote detection and tracking of objects
KR101686797B1 (en) Method for analyzing a visible area of a closed circuit television considering the three dimensional features
JP2009301175A (en) Monitoring method
JP2005057743A (en) Object tracking method and object tracking apparatus
JP2018055521A (en) Detector, detection method and detection system
JP5132705B2 (en) Image processing device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105