JP7176719B2 - DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM - Google Patents

DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM Download PDF

Info

Publication number
JP7176719B2
JP7176719B2 JP2018110930A JP2018110930A JP7176719B2 JP 7176719 B2 JP7176719 B2 JP 7176719B2 JP 2018110930 A JP2018110930 A JP 2018110930A JP 2018110930 A JP2018110930 A JP 2018110930A JP 7176719 B2 JP7176719 B2 JP 7176719B2
Authority
JP
Japan
Prior art keywords
detection
child
captured image
prediction model
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110930A
Other languages
Japanese (ja)
Other versions
JP2019215605A (en
Inventor
大輝 横田
真則 高岡
教之 青木
善彦 斉藤
正泰 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2018110930A priority Critical patent/JP7176719B2/en
Publication of JP2019215605A publication Critical patent/JP2019215605A/en
Application granted granted Critical
Publication of JP7176719B2 publication Critical patent/JP7176719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、検出装置、検出システム、検出方法及びプログラムに関する。 The present invention relates to a detection device, detection system, detection method and program.

ベルトコンベア等、搬送装置を使用して搬送を行う場合、搬送中に搬送物が落下して堆積することがある。その場合、人が目視で、堆積物を発見して清掃することがある。しかし、作業の効率化を図るためには、自動的に堆積物を検出することが望ましい。堆積物を自動的に検出する方法の一つとして、カメラで監視し、撮影画像から、検出対象物(即ち、堆積物)を検出する方法が考えられる。特許文献1、2においては、撮影画像から検出対象物を検出する技術が記載されている。 When transporting using a transport device such as a belt conveyor, transported objects may fall and accumulate during transport. In that case, a person may find the sediment by visual inspection and clean it. However, in order to improve work efficiency, it is desirable to detect deposits automatically. As one of methods for automatically detecting deposits, a method of monitoring with a camera and detecting an object to be detected (that is, deposits) from a photographed image is conceivable. Patent Documents 1 and 2 describe techniques for detecting a detection target from a captured image.

特許文献1に記載された技術においては、検出対象物(即ち、人)の特徴を示す、複数の辞書情報を記憶し、撮像された画像と、複数の辞書情報とに基づいて、人を検出する技術が記載されている。 In the technique described in Patent Document 1, a plurality of dictionary information indicating characteristics of a detection target (that is, a person) is stored, and a person is detected based on a captured image and the plurality of dictionary information. technology is described.

特許文献2においては、1つの検出対象物を複数のテンプレートに分割してテンプレートマッチングを行うことで、検出対象物を検出する技術が記載されている。具体的には、特許文献2に記載された技術においては、歩行者を検出対象物とする場合、歩行者の上部(頭部と肩部を含む)に対応するテンプレートと、歩行者の中部(腰部を含む)に対応するテンプレートと、歩行者の下部(脚部を含む)に対応するテンプレートとを予め用意する。そして、特許文献2に記載された技術においては、各テンプレートのマッチング率に基づいて、検出対象物(即ち、歩行者)を検出する。 Patent Literature 2 describes a technique for detecting a detection target by dividing one detection target into a plurality of templates and performing template matching. Specifically, in the technique described in Patent Document 2, when a pedestrian is a detection target, a template corresponding to the upper part of the pedestrian (including the head and shoulders) and a middle part of the pedestrian ( A template corresponding to the lower part of the pedestrian (including the waist) and a template corresponding to the lower part of the pedestrian (including the leg) are prepared in advance. Then, in the technique described in Patent Document 2, a detection target (that is, a pedestrian) is detected based on the matching rate of each template.

特開2016-171526号公報JP 2016-171526 A 特開2010-128919号公報JP 2010-128919 A

なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。 It should be noted that the disclosure of the prior art document mentioned above is incorporated herein by reference. The following analysis is made in light of the present invention.

上記の通り、作業の効率化を図るためには、自動的に堆積物を検出することが望ましい。ここで、特許文献1に記載された技術では、検出対象物(即ち、人)の状態のパターンを、予め想定できることが求められる。また、特許文献2に記載された技術では、検出対象物の高さと幅の比率が、所定の範囲内であることが必要である。しかし、搬送中に搬送物が落下した場合、堆積物の形状、大きさを、予め想定することは困難である。そのため、特許文献1、2に記載された技術を利用して、撮影画像から堆積物を検出することは困難である。 As described above, it is desirable to automatically detect deposits in order to improve work efficiency. Here, in the technique described in Patent Document 1, it is required to be able to presume the pattern of the state of the object to be detected (that is, the person). Further, in the technique described in Patent Document 2, it is necessary that the ratio of the height and width of the object to be detected is within a predetermined range. However, it is difficult to predict in advance the shape and size of the deposit if the object to be transported falls during transportation. Therefore, it is difficult to detect deposits from captured images using the techniques described in Patent Documents 1 and 2.

そこで、本発明は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置、検出システム、検出方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a detection apparatus, a detection system, a detection method, and a program that contribute to easy detection of a detection target while flexibly coping with changes in the shape of the detection target.

第1の視点によれば、検出装置が提供される。前記検出装置は、検出対象物のテクスチャのうち局所領域の特徴量を、予測モデルとして記憶する、モデル記憶部を備える。
さらに、前記検出装置は、撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する、検出制御部を備える。
According to a first aspect, a detection device is provided. The detection device includes a model storage unit that stores, as a prediction model, a feature amount of a local region of the texture of the detection target.
Further, the detection device acquires a captured image, cuts out a child region of a predetermined window size from the captured image, and determines the presence or absence of the detection target based on the child region and the prediction model. A detection control unit is provided.

第2の視点によれば、検出システムが提供される。前記検出システムは、パン、チルト可能なカメラを備える監視装置と、検出対象物の有無を判断する検出装置と、を含んで構成される。
前記検出装置は、前記検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部を備える。
さらに、前記検出装置は、前記監視装置から前記撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する、検出制御部を備える。
According to a second aspect, a detection system is provided. The detection system includes a monitoring device having a camera that can pan and tilt, and a detection device that determines the presence or absence of an object to be detected.
The detection device includes a model storage unit that stores, as a prediction model, a feature amount of a texture of a local area among the textures of the detection object.
Further, the detection device acquires the photographed image from the monitoring device, cuts out a child region of a predetermined window size from the photographed image, and determines the detection target object based on the child region and the prediction model. A detection control unit is provided to determine the presence or absence of the device.

第3の視点によれば、検出方法が提供される。前記検出方法は、記憶部を備えるコンピュータが、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する工程を含む。
さらに、前記検出方法は、前記コンピュータが、撮影画像を取得する工程を含む。
さらに、前記検出方法は、前記コンピュータが、前記撮影画像から、所定のウィンドウサイズの子領域を切り出す工程を含む。
さらに、前記検出方法は、前記コンピュータが、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する工程を含む。
なお、本方法は、検出対象物の有無を判断する検出装置という、特定の機械に結び付けられている。
According to a third aspect, a detection method is provided. The detection method includes a step of storing, by a computer having a storage unit, a feature amount of texture of a local region among textures of a detection target in the storage unit as a prediction model.
Furthermore, the detection method includes a step of acquiring a photographed image by the computer.
Further, the detection method includes a step of cutting out a child area of a predetermined window size from the captured image by the computer.
Further, the detection method includes the step of determining the presence or absence of the detection target based on the child region and the prediction model.
It should be noted that this method is tied to a specific machine, a detection device that determines the presence or absence of an object to be detected.

第4の視点によれば、プログラムが提供される。前記プログラムは、記憶部を備えるコンピュータに、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、撮影画像を取得する処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、前記撮影画像から、所定のウィンドウサイズの子領域を切り出す処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する処理を実行させる。
なお、これらのプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
A fourth aspect provides a program. The program causes a computer having a storage unit to execute a process of storing, in the storage unit, the feature amount of the texture of the local region among the textures of the detection object as a prediction model.
Furthermore, the program causes the computer to execute a process of acquiring a captured image.
Furthermore, the program causes the computer to execute a process of cutting out a child area of a predetermined window size from the captured image.
Furthermore, the program causes the computer to execute a process of determining the presence or absence of the detection target based on the child region and the prediction model.
These programs can be recorded in a computer-readable storage medium. The storage medium can be non-transient such as semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The invention can also be embodied as a computer program product.

本発明によれば、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置、検出システム、検出方法及びプログラムが提供される。 ADVANTAGE OF THE INVENTION According to this invention, the detection apparatus, the detection system, the detection method, and the program which contribute to detecting a detection target easily, while responding flexibly to the shape change of a detection target are provided.

一実施形態の概要を説明するための図である。1 is a diagram for explaining an overview of an embodiment; FIG. 検出システム100の全体構成の一例を示すブロック図である。1 is a block diagram showing an example of the overall configuration of a detection system 100; FIG. カメラ401~403を回転させない場合に、カメラ401~403が撮影可能な領域の一例を示す図である。FIG. 4 is a diagram showing an example of an area that can be photographed by the cameras 401 to 403 when the cameras 401 to 403 are not rotated; カメラ11を回転させる場合に、カメラ11が撮影可能な領域の一例を示す図である。FIG. 4 is a diagram showing an example of an area that can be photographed by the camera 11 when the camera 11 is rotated; 検出システム100の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the detection system 100; 局所領域のテクスチャ及び検出結果の一例を示す図である。It is a figure which shows an example of the texture of a local area|region, and a detection result. 背景差分法の問題点の一例を示す図である。It is a figure which shows an example of the problem of the background subtraction method. 検出装置20のハードウェアの一例を示すブロック図である。3 is a block diagram showing an example of hardware of the detection device 20. FIG.

初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、各ブロック図のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インターフェイスも同様である。 First, an overview of one embodiment will be described with reference to FIG. It should be noted that the drawing reference numerals added to this outline are added to each element for convenience as an example to aid understanding, and the description of this outline does not intend any limitation. Also, connecting lines between blocks in each block diagram include both bi-directional and uni-directional. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Furthermore, in the circuit diagrams, block diagrams, internal configuration diagrams, connection diagrams, etc. disclosed in the present application, an input port and an output port exist at the input end and the output end of each connection line, respectively, although not explicitly shown. Input/output interfaces are similar.

上記の通り、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置が望まれる。 As described above, there is a demand for a detection device that contributes to easy detection of a detection target while flexibly coping with changes in the shape of the detection target.

そこで、一例として、図1に示す検出装置1000が提供される。検出装置1000は、モデル記憶部1001と、検出制御部1002とを備える。モデル記憶部1001は、検出対象物のテクスチャのうち局所領域の特徴量を、予測モデルとして記憶する。検出制御部1002は、撮影画像を取得し、撮影画像から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部1002は、撮影画像から切り出した子領域と予測モデルとを照合し、検出対象物の有無を判断する。 Therefore, as an example, a detection device 1000 shown in FIG. 1 is provided. The detection device 1000 includes a model storage section 1001 and a detection control section 1002 . A model storage unit 1001 stores, as a prediction model, a feature amount of a local region of the texture of the detection target. The detection control unit 1002 acquires a captured image and cuts out a child area of a predetermined window size from the captured image. Then, the detection control unit 1002 compares the child region extracted from the captured image with the prediction model, and determines the presence or absence of the detection target.

そのため、検出装置1000は、検出対象物の形状、大きさに関する情報を利用せずに、検出対象物の有無を判断する。従って、検出装置1000は、検出対象物の形状、大きさを、予め想定できない場合であっても、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、検出対象物の有無を容易に判断できる。よって、検出装置1000は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する。 Therefore, the detection apparatus 1000 determines the presence or absence of the detection target without using information regarding the shape and size of the detection target. Therefore, even if the shape and size of the detection target cannot be assumed in advance, the detection apparatus 1000 can detect the presence or absence of the detection target by using the texture of the local area among the textures of the detection target. Easy to judge. Therefore, the detection apparatus 1000 contributes to easy detection of a detection target while flexibly coping with changes in the shape of the detection target.

[第1の実施形態]
第1の実施形態について、図面を用いて詳細に説明する。なお、以下の説明では、検出対象物として、堆積物を例示して説明する。ただし、これは、本実施形態に係る検出システム100において、検出対象物を、堆積物に限定する趣旨ではない。
[First Embodiment]
A first embodiment will be described in detail with reference to the drawings. In the following description, deposits will be exemplified as detection targets. However, this does not mean that the object to be detected in the detection system 100 according to the present embodiment is limited to deposits.

図2は、本実施形態に係る検出システム100の全体構成の一例を示すブロック図である。検出システム100は、監視装置10と、検出装置20と、端末30とを含んで構成される。なお、図2においては、監視装置10、端末30を、それぞれ、一つ示す。しかし、これは、検出システム100が、監視装置10、端末30を、それぞれ、一つ含むことに限定する趣旨ではない。また、図2は、監視装置10、検出装置20、端末30の構成の一例である。また、図2は、監視装置10、検出装置20、端末30の構成を、図2に示す構成に限定する趣旨ではない。 FIG. 2 is a block diagram showing an example of the overall configuration of the detection system 100 according to this embodiment. The detection system 100 includes a monitoring device 10 , a detection device 20 and a terminal 30 . 2, one monitoring device 10 and one terminal 30 are shown. However, this does not mean that the detection system 100 is limited to including one monitoring device 10 and one terminal 30, respectively. 2 is an example of the configuration of the monitoring device 10, the detection device 20, and the terminal 30. As shown in FIG. Moreover, FIG. 2 is not meant to limit the configurations of the monitoring device 10, the detection device 20, and the terminal 30 to the configurations shown in FIG.

監視装置10は、監視対象エリアを撮影し、撮影画像を検出装置20に送信する情報処理装置(コンピュータ)である。監視装置10は、パン(横振り)、チルト(縦振り)、ズーム可能なカメラ11を備えるものとする。監視装置10は、カメラ11を可動範囲内で回転させて、カメラ11が撮影した複数の撮影画像を、検出装置20に送信する。また、監視装置10は、カメラ11を可動範囲内でズーム率を変更させて、カメラ11が撮影した複数の撮影画像を、検出装置20に送信する。 The monitoring device 10 is an information processing device (computer) that captures an image of a monitored area and transmits the captured image to the detection device 20 . The monitoring device 10 is provided with a camera 11 capable of panning (horizontal swing), tilting (vertical swing), and zooming. The monitoring device 10 rotates the camera 11 within the movable range and transmits a plurality of captured images captured by the camera 11 to the detecting device 20 . In addition, the monitoring device 10 changes the zoom ratio of the camera 11 within the movable range, and transmits a plurality of captured images captured by the camera 11 to the detection device 20 .

検出装置20は、撮影画像から、検出対象物(例えば、堆積物)の有無を判断する情報処理装置(コンピュータ)である。検出装置20は、ネットワークを介して監視装置10、端末30に接続する。 The detection device 20 is an information processing device (computer) that determines the presence or absence of a detection target (for example, deposits) from a captured image. The detection device 20 connects to the monitoring device 10 and the terminal 30 via a network.

端末30は、堆積物の有無、堆積物の位置、撮影画像等を、検出装置20から受信し、出力する情報処理装置(コンピュータ)である。 The terminal 30 is an information processing device (computer) that receives and outputs the presence or absence of deposits, the position of deposits, captured images, and the like from the detection device 20 .

[監視装置の構成]
次に、監視装置10について詳細に説明する。監視装置10は、カメラ11と、監視装置通信部12と、監視制御部13とを含んで構成される。
[Configuration of monitoring device]
Next, the monitoring device 10 will be described in detail. The monitoring device 10 includes a camera 11 , a monitoring device communication section 12 and a monitoring control section 13 .

カメラ11は、画像を撮影する。上記の通り、カメラ11は、所謂、パン、チルトすることが可能であるものとする。さらに、カメラ11は、ズーム率を変更することが可能であるものとする。 Camera 11 takes an image. As described above, the camera 11 is assumed to be capable of so-called panning and tilting. Furthermore, it is assumed that the camera 11 can change the zoom ratio.

図3は、垂直軸周り、水平軸周りにカメラ401~403を回転しない場合に、カメラ401~403が撮影可能な領域の一例を示す図である。破線で囲まれた領域R11、R12、R13内に、堆積物B11、B12、B13が存在するとする。そして、カメラ401、402、403が撮影可能な領域が、それぞれ、領域R11、R12、R13であるとする。その場合、堆積物B11、B12、B13を撮影するためには、複数のカメラ(カメラ401~403)を設置する必要がある。 FIG. 3 is a diagram showing an example of an area that can be photographed by the cameras 401 to 403 when the cameras 401 to 403 are not rotated around the vertical axis and around the horizontal axis. Assume that deposits B11, B12, and B13 are present in regions R11, R12, and R13 surrounded by dashed lines. Suppose that areas R11, R12, and R13 are areas that can be photographed by the cameras 401, 402, and 403, respectively. In that case, it is necessary to install a plurality of cameras (cameras 401 to 403) in order to photograph the deposits B11, B12, and B13.

一方、図4は、垂直軸周り、水平軸周りにカメラ11が回転可能(所謂、パン、チルトが可能)である場合に、カメラ11が撮影可能な領域の一例を示す図である。破線で囲まれた領域R21内に、堆積物B21、B22、B23が存在するとする。その場合、一つのカメラ11を設置することで、堆積物B21、B22、B23を撮影可能である。そのため、カメラ11を回転させることで、カメラ401~403を回転しない場合(図3)に比べ、広い範囲を撮影することが可能になる。 On the other hand, FIG. 4 is a diagram showing an example of an area that can be photographed by the camera 11 when the camera 11 is rotatable (so-called panning and tilting is possible) around the vertical axis and around the horizontal axis. Assume that deposits B21, B22, and B23 are present in a region R21 surrounded by a dashed line. In that case, by installing one camera 11, the deposits B21, B22, and B23 can be photographed. Therefore, by rotating the camera 11, it is possible to photograph a wider range than when the cameras 401 to 403 are not rotated (FIG. 3).

監視装置通信部12は、検出装置20との通信を制御する。 The monitoring device communication unit 12 controls communication with the detection device 20 .

監視制御部13は、カメラ11を制御する。例えば、監視制御部13は、カメラ11の回転角、ズーム率を制御し、撮影領域を制御する。 The monitoring control unit 13 controls the camera 11 . For example, the monitoring control unit 13 controls the rotation angle and zoom ratio of the camera 11 to control the imaging area.

監視制御部13は、垂直軸周りに、カメラ11を回転させることが可能である。同様に、監視制御部13は、水平軸周りに、カメラ11を回転させることが可能である。監視制御部13は、カメラ11の角度を変更するたびに(つまり、撮影領域を変更するたびに)、カメラ11に撮影画像を生成させる。さらに、監視制御部13は、カメラ11のズーム率を変更してもよい。監視制御部13は、カメラ11のズーム率を変更するたびに、カメラ11に撮影画像を生成してもよい。監視制御部13は、撮影画像を生成すると、生成した撮影画像を、監視装置通信部12を介して、検出装置20に送信する。 The monitoring control unit 13 can rotate the camera 11 around the vertical axis. Similarly, the monitoring control unit 13 can rotate the camera 11 around the horizontal axis. The monitoring control unit 13 causes the camera 11 to generate a photographed image each time the angle of the camera 11 is changed (that is, each time the photographing area is changed). Furthermore, the monitoring control unit 13 may change the zoom ratio of the camera 11 . The monitoring control unit 13 may generate a captured image on the camera 11 each time the zoom ratio of the camera 11 is changed. After generating the captured image, the monitoring control unit 13 transmits the generated captured image to the detection device 20 via the monitoring device communication unit 12 .

そのため、監視装置10は、カメラ11の可動範囲内の空間に関して、撮影画像を生成し、生成した撮影画像を検出装置20に送信することになる。これにより、検出装置20は、カメラ11を回転しない場合に比べ、広い範囲に関して、撮影画像を取得することが可能になる。 Therefore, the monitoring device 10 generates a captured image of the space within the movable range of the camera 11 and transmits the generated captured image to the detection device 20 . As a result, the detection device 20 can acquire captured images over a wider range than when the camera 11 is not rotated.

監視制御部13は、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させる。そして、監視制御部13は、生成された複数(2以上)の撮影画像を検出装置20に送信する。監視制御部13は、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させ、生成された複数(2以上)の撮影画像を検出装置20に送信する処理を、所定の時間毎に繰り返す。以下の説明では、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させる、一連の処理を、「一回の撮影処理」と呼ぶ。 The monitoring control unit 13 swings the camera 11 up, down, left, and right (that is, pans and tilts the camera 11), and causes the camera 11 to generate a photographed image of the space within the movable range of the camera 11. FIG. Then, the monitoring control unit 13 transmits the generated multiple (two or more) captured images to the detection device 20 . The monitoring control unit 13 causes the camera 11 to generate captured images regarding the space within the movable range of the camera 11, and performs a process of transmitting a plurality of (two or more) generated captured images to the detection device 20 at predetermined time intervals. repeat to In the following description, a series of processing for swinging the camera 11 up, down, left, and right (that is, panning and tilting the camera 11) and causing the camera 11 to generate a photographed image with respect to the space within the movable range of the camera 11 is referred to as "one This is referred to as a single shooting process.

[検出装置の構成]
次に、検出装置20について詳細に説明する。検出装置20は、検出装置通信部21と、画像記憶部22と、モデル記憶部23と、検出制御部24とを含んで構成される。
[Configuration of detection device]
Next, the detection device 20 will be described in detail. The detection device 20 includes a detection device communication section 21 , an image storage section 22 , a model storage section 23 and a detection control section 24 .

検出装置通信部21は、監視装置10及び端末30との通信を制御する。検出装置通信部21が監視装置10から撮影画像を受信した場合、検出制御部24は、検出装置通信部21が受信した撮影画像を、画像記憶部22に保存する。 The detection device communication unit 21 controls communication with the monitoring device 10 and the terminal 30 . When the detection device communication unit 21 receives the captured image from the monitoring device 10 , the detection control unit 24 stores the captured image received by the detection device communication unit 21 in the image storage unit 22 .

画像記憶部22は、カメラ11が生成(撮影)した、撮影画像を記憶する。 The image storage unit 22 stores captured images generated (captured) by the camera 11 .

モデル記憶部23は、堆積物のテクスチャのうち、局所領域の特徴量を、予測モデルとして記憶する。局所領域のテクスチャは、周期的なパターンのテクスチャであってもよい。特徴量とは、テクスチャの色、明るさ、模様等に関する情報であってもよい。 The model storage unit 23 stores, as a prediction model, the feature amount of the local area among the deposit textures. The local area texture may be a periodic pattern texture. The feature amount may be information related to texture color, brightness, pattern, and the like.

ここで、予測モデルは、堆積物のテクスチャのうち、局所領域のテクスチャに関して、機械学習を用いて生成された特徴量を含むものとする。例えば、予測モデルは、ニューラルネット等、深層学習(Deep Learning)を用いて学習された、局所領域のテクスチャの特徴量であってもよい。 Here, it is assumed that the prediction model includes a feature amount generated using machine learning with respect to the texture of the local region among the textures of the deposits. For example, the prediction model may be a local region texture feature learned using deep learning such as a neural network.

検出制御部24は、撮影画像を取得し、撮影画像から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部24は、切り出した子領域と、モデル記憶部23に予め記憶された予測モデルとに基づいて、堆積物の有無を判断する。具体的には、検出制御部24は、堆積物のテクスチャに対応する子領域が、撮影画像に存在するか否かに基づいて、堆積物の有無を判断する。 The detection control unit 24 acquires a captured image, and cuts out a child area having a predetermined window size from the captured image. Then, the detection control unit 24 determines the presence or absence of deposits based on the extracted child region and the prediction model stored in advance in the model storage unit 23 . Specifically, the detection control unit 24 determines the presence or absence of deposits based on whether a child region corresponding to the texture of the deposits exists in the captured image.

そして、検出制御部24は、撮影画像の所定の範囲に対して、複数の子領域を切り出し、複数の子領域に関して、予測モデルとの照合(マッチング)を行い、予測モデルとのマッチングの結果を出力する。検出制御部24は、切り出した子領域と予測モデルとのマッチングの結果を、ユーザが使用する端末30に送信してもよい。 Then, the detection control unit 24 extracts a plurality of child regions from a predetermined range of the captured image, performs collation (matching) with respect to the plurality of child regions with the prediction model, and outputs the result of matching with the prediction model. Output. The detection control unit 24 may transmit the result of matching between the clipped child region and the prediction model to the terminal 30 used by the user.

撮影環境、カメラの台数(監視箇所の数)、検出対象物(堆積物)等に応じて、適切な局所領域のテクスチャは異なる。ここで、「適切な局所領域のテクスチャ」とは、堆積物の有無を判断するために、必要十分な特徴量を含む、テクスチャを意味する。 Appropriate local region textures differ depending on the shooting environment, the number of cameras (the number of monitored locations), detection targets (deposits), and the like. Here, the “appropriate local area texture” means a texture including necessary and sufficient feature amounts for determining the presence or absence of deposits.

そこで、本実施形態に係る検出システム100においては、ユーザの操作に基づいて、ウィンドウサイズが決定されてもよい。ユーザは、検出装置20の出力(予測モデルとのマッチングの結果)を見ながら、ウィンドウサイズを調整してもよい。例えば、撮影画像における堆積物の領域全体に対して、所定の割合(例えば1%)のウィンドウサイズを基準として、ユーザがウィンドウサイズを調整することで、ウィンドウサイズが決定されてもよい。換言すると、検出制御部24は、ユーザの操作に基づいて、ウィンドウサイズを更新してもよい。 Therefore, in the detection system 100 according to this embodiment, the window size may be determined based on the user's operation. The user may adjust the window size while viewing the output of the detection device 20 (result of matching with the prediction model). For example, the window size may be determined by the user adjusting the window size based on a predetermined percentage (for example, 1%) of the window size with respect to the entire deposition area in the captured image. In other words, the detection control unit 24 may update the window size based on the user's operation.

また、フェンスや柱等がカメラ11の前方に設置されており、フェンスや柱等の奥に、堆積物が存在する場合、堆積物の一部が、フェンスや柱等により隠される(即ち、オクルージョンが発生する)可能性がある。しかし、本実施形態に係る検出システム100においては、フェンスや柱等の隙間から見える堆積物よりも、ウィンドウサイズが小さくなるように、ユーザがウィンドウサイズを調整することで、オクルージョンの影響を回避して、堆積物の有無を判断できる。 In addition, if a fence, a pillar, or the like is installed in front of the camera 11, and deposits exist behind the fence, the pillar, or the like, part of the deposit is hidden by the fence, the pillar, or the like (that is, occlusion may occur). However, in the detection system 100 according to the present embodiment, the user can adjust the window size so that the window size is smaller than the deposits that can be seen through gaps between fences, pillars, and the like, thereby avoiding the effects of occlusion. can be used to determine the presence or absence of deposits.

[端末の構成]
次に、端末30について詳細に説明する。端末30は、端末通信部31と、端末制御部32と、出力部33とを含んで構成される。
[Terminal configuration]
Next, the terminal 30 will be described in detail. The terminal 30 includes a terminal communication section 31 , a terminal control section 32 and an output section 33 .

端末通信部31は、検出装置20との通信を制御する。端末通信部31が検出結果(堆積物の有無、検出された堆積物の位置)、撮影画像等を、検出装置20から受信した場合、端末制御部32は、受信した検出結果、撮影画像等を、出力部33に出力させる。出力部33は、検出結果(堆積物の有無、検出された堆積物の位置)、撮影画像等を、ファイルや画面に出力する。 The terminal communication unit 31 controls communication with the detection device 20 . When the terminal communication unit 31 receives detection results (presence or absence of deposits, positions of detected deposits), photographed images, etc. from the detection device 20, the terminal control unit 32 receives the received detection results, photographed images, etc. , to the output unit 33 . The output unit 33 outputs detection results (presence or absence of deposits, positions of detected deposits), photographed images, and the like to a file or screen.

[検出システムの動作]
次に、検出システム100の動作について詳細に説明する。
[Detection system operation]
The operation of detection system 100 will now be described in detail.

図5は、本実施形態に係る検出システム100の動作の一例を示すフローチャートである。 FIG. 5 is a flow chart showing an example of the operation of the detection system 100 according to this embodiment.

ステップS1において、検出制御部24は、モデル記憶部23から予測モデルを読み出す。 In step S<b>1 , the detection control unit 24 reads a prediction model from the model storage unit 23 .

検出制御部24は、撮影画像を取得すると(ステップS2)、取得した撮影画像から、所定のウィンドウサイズの子領域を切り出す(ステップS3)。そして、切り出した子領域に、堆積物のテクスチャが含まれるか否かを、検出制御部24は判断する(ステップS4)。 When the captured image is acquired (step S2), the detection control unit 24 cuts out a child area having a predetermined window size from the acquired captured image (step S3). Then, the detection control unit 24 determines whether or not the extracted sub-region includes the texture of the deposit (step S4).

切り出した子領域に堆積物のテクスチャが含まれない場合(ステップS4のNo分岐)には、ステップS6に遷移する。一方、切り出した子領域に堆積物のテクスチャが含まれる場合(ステップS4のYes分岐)には、検出制御部24は、検出結果を保存する(ステップS5)。 If the extracted child region does not include the texture of the deposit (No branch of step S4), the process transitions to step S6. On the other hand, when the texture of the deposit is included in the extracted child region (Yes branch of step S4), the detection control unit 24 saves the detection result (step S5).

図6は、局所領域のテクスチャ及び検出結果の一例を示す図である。図6(a)は、局所領域のテクスチャの一例を示す図である。図6(a)に示す矩形領域w1~w3は、予測モデルに対応する局所領域の一例である。図6(b)は、検出結果の一例を示す図である。 FIG. 6 is a diagram illustrating an example of textures of local regions and detection results. FIG. 6(a) is a diagram showing an example of the texture of the local area. Rectangular regions w1 to w3 shown in FIG. 6(a) are examples of local regions corresponding to prediction models. FIG.6(b) is a figure which shows an example of a detection result.

例えば、モデル記憶部23には、矩形領域w1~w3のテクスチャに関する特徴量が、予め、予測モデルとして格納されるものとする。その場合、検出装置20は、判断対象の撮影画像を取得した場合、当該撮影画像から切り出した子領域と、予測モデル(矩形領域w1~w3のテクスチャに関する特徴量)とを比較し、切り出した子領域に予測モデルのテクスチャが含まれるか否かを判断する。そして、検出装置20は、検出結果(例えば、図6(b)に示す画像)を、端末30に送信する。 For example, it is assumed that the model storage unit 23 stores in advance feature amounts relating to the textures of the rectangular regions w1 to w3 as prediction models. In that case, when the detection device 20 acquires the captured image to be determined, the detection device 20 compares the child regions cut out from the captured image with the prediction model (features related to the texture of the rectangular regions w1 to w3), and compares the extracted child regions. Determine whether the region contains the texture of the predictive model. Then, the detection device 20 transmits the detection result (for example, the image shown in FIG. 6B) to the terminal 30 .

ステップS6において、撮影画像の全体を走査したか否かを、検出制御部24は判断する。つまり、撮影画像の全体に関して、子領域を切り出し、堆積物のテクスチャの有無を判断したか否かを、検出制御部24は判断する。 In step S6, the detection control unit 24 determines whether or not the entire captured image has been scanned. That is, the detection control unit 24 determines whether or not a child region is cut out from the entire photographed image and the presence or absence of deposit texture is determined.

撮影画像の全体を走査していない場合(ステップS6のNo分岐)には、ステップS3に戻り、処理を継続する。つまり、検出制御部24は、撮影画像のうち、走査していない領域から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部24は、新たに切り出した子領域に、堆積物のテクスチャが含まれるか否かを判断する処理を行う。このようにして、撮影画像に、堆積物のテクスチャが含まれるか否かを判断する。 If the entire captured image has not been scanned (No branch in step S6), the process returns to step S3 to continue the process. In other words, the detection control unit 24 cuts out a child area of a predetermined window size from the unscanned area of the captured image. Then, the detection control unit 24 performs a process of determining whether or not the texture of the deposit is included in the newly cut child area. In this manner, it is determined whether or not the photographed image contains the texture of the deposit.

撮影画像の全体を走査した場合(ステップS6のYes分岐)には、検出制御部24は、検出結果を端末30に通知する(ステップS7)。 When the entire captured image is scanned (Yes branch of step S6), the detection control unit 24 notifies the terminal 30 of the detection result (step S7).

端末30は、検出結果をディスプレイに表示する処理等を行い、ユーザに検出結果を提示する。ユーザは、提示された検出結果を見て、ウィンドウサイズを調整(変更)してもよい。具体的には、ユーザは、新たなウィンドウサイズを端末30又は検出装置20に入力してもよい。なお、ユーザが、新たなウィンドウサイズを端末30に入力した場合、端末30は、入力されたウィンドウサイズを、検出装置20に通知することは勿論である。 The terminal 30 performs processing such as displaying the detection result on the display, and presents the detection result to the user. The user may adjust (change) the window size by viewing the presented detection results. Specifically, the user may input a new window size to terminal 30 or detection device 20 . When the user inputs a new window size to the terminal 30, the terminal 30 naturally notifies the detection device 20 of the input window size.

次に、図7を参照しながら、背景差分法を用いて堆積物を検出する場合と、本実施形態に係る検出システム100との相違点について説明する。例えば、図7(a)に示す画像BG31を、予め背景画像として用意しておくとする。図7(a)に示す、破線で囲まれた領域R31には、植物を含むとする。 Next, with reference to FIG. 7, differences between the case of detecting deposits using the background subtraction method and the detection system 100 according to the present embodiment will be described. For example, assume that an image BG31 shown in FIG. 7A is prepared in advance as a background image. It is assumed that a region R31 surrounded by a dashed line shown in FIG. 7(a) includes a plant.

仮に、カメラ11が、画像BG31を撮影後に、図7(b)に示す画像IMG32を撮影したとする。その場合、画像処理を実行可能な装置(コンピュータ)が、画像BG31と、画像IMG32との差分をとることで、画像IMG32に含まれる堆積物B31を検出可能である。 Assume that the camera 11 captures the image IMG32 shown in FIG. 7B after capturing the image BG31. In that case, a device (computer) capable of executing image processing can detect the deposit B31 included in the image IMG32 by taking the difference between the image BG31 and the image IMG32.

しかし、カメラ11が、画像BG31を撮影後に、図7(c)に示す画像IMG33を撮影したとする。ここで、画像IMG33内において、破線で囲まれた領域R32には、BG31の撮影時から成長した植物を含むとする。つまり、植物が成長することで、BG31の撮影時とは異なる外観(形状、大きさ、色等)になっているとする。その場合、画像処理を実行可能な装置(コンピュータ)が、画像BG31と、画像IMG33との差分をとることで、領域R32に含まれる植物と、堆積物B32とを検出することになる。そのため、検出対象物とは異なる物体が、背景画像の撮影時とは異なる外観になる可能性がある場合には、背景差分法を用いると、検出対象物とは異なる物体も検出してしまう可能性がある。 However, suppose that the camera 11 captures the image IMG33 shown in FIG. 7C after capturing the image BG31. Here, in image IMG33, it is assumed that a region R32 surrounded by a dashed line includes a plant that has grown since BG31 was captured. In other words, as the plant grows, the appearance (shape, size, color, etc.) is different from when the BG 31 was photographed. In that case, a device (computer) capable of executing image processing detects the plant and deposit B32 included in region R32 by taking the difference between image BG31 and image IMG33. Therefore, if there is a possibility that an object different from the object to be detected has a different appearance than when the background image was captured, using the background subtraction method may result in detecting the object that is different from the object to be detected. have a nature.

一方、本実施形態に係る検出システム100においては、検出装置20は、検出対象物のテクスチャのうち、局所領域のテクスチャに基づいて、撮影画像内における検出対象物の有無を判断する。そのため、本実施形態に係る検出システム100においては、検出対象物とは異なる物体の外観が変化した場合であっても、検出対象物を適切に検出できる。 On the other hand, in the detection system 100 according to the present embodiment, the detection device 20 determines the presence/absence of the detection target in the captured image based on the texture of the local area among the textures of the detection target. Therefore, in the detection system 100 according to the present embodiment, even when the appearance of an object different from the detection target changes, the detection target can be detected appropriately.

以上のように、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用する。それにより、本実施形態に係る検出システム100においては、撮影画像内における検出対象物の形状、大きさ等が変化した場合であっても、検出装置20は、検出対象物を適切に検出できる。従って、本実施形態に係る検出システム100は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する。 As described above, the detection system 100 according to the present embodiment uses the texture of the local area among the textures of the detection target. Accordingly, in the detection system 100 according to the present embodiment, the detection device 20 can appropriately detect the detection target even when the shape, size, etc. of the detection target in the captured image change. Therefore, the detection system 100 according to the present embodiment contributes to easy detection of a detection target while flexibly coping with changes in the shape of the detection target.

本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、カメラ11を動かしながら、検出対象物を検出することができる。従って、本実施形態に係る検出システム100においては、カメラの数を低減しつつ、適切かつ容易に検出対象物を検出することに貢献する。 In the detection system 100 according to this embodiment, by using the texture of the local area among the textures of the detection target, the detection target can be detected while moving the camera 11 . Therefore, the detection system 100 according to this embodiment contributes to appropriately and easily detecting a detection target while reducing the number of cameras.

また、本実施形態に係る検出システム100は、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、周辺環境(植物の成長、天候による明るさの変化等)の影響を抑制することに貢献する。 In addition, the detection system 100 according to the present embodiment uses the texture of the local area among the textures of the detection target to suppress the influence of the surrounding environment (growing of plants, changes in brightness due to weather, etc.). contribute to

また、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、検出装置20は、撮影画像中の検出対象物の位置に依存せず、検出対象物を検出できる。従って、本実施形態に係る検出システム100は、監視位置(カメラ11の設置位置)の自由度を向上させつつ、適切に検出対象物を検出することに貢献する。 Further, in the detection system 100 according to the present embodiment, by using the texture of the local region among the textures of the detection target, the detection device 20 can detect the Detection target can be detected. Therefore, the detection system 100 according to this embodiment contributes to appropriately detecting the detection target while improving the degree of freedom of the monitoring position (installation position of the camera 11).

また、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を利用することで、モデル(予測モデル)を生成するために必要な画像の数を低減することに貢献する。 Further, in the detection system 100 according to the present embodiment, the number of images required to generate a model (prediction model) is reduced by using the feature amount of the texture of the local region among the textures of the detection target. contribute to reducing

次に、検出装置20のハードウェアについて説明する。 Next, hardware of the detection device 20 will be described.

図8は、検出装置20のハードウェアの一例を示すブロック図である。検出装置20は、コンピュータにより構成可能であり、図8に例示する構成を備える。例えば、検出装置20は、内部バスにより相互に接続される、CPU(Central Processing Unit)1、通信インターフェイス2、メモリ3、補助記憶装置4等を備える。 FIG. 8 is a block diagram showing an example of hardware of the detection device 20. As shown in FIG. The detection device 20 can be configured by a computer and has the configuration illustrated in FIG. For example, the detection device 20 includes a CPU (Central Processing Unit) 1, a communication interface 2, a memory 3, an auxiliary storage device 4, etc., which are interconnected by an internal bus.

検出装置20の機能は、CPU1が、補助記憶装置4に記憶された撮影画像及び予測モデルを読み出し、メモリ3に格納されたプログラムを実行することで実現される。なお、監視装置10、端末30の構成も図8に示す検出装置20のハードウェア構成と同様とすることができるので、詳細な説明を省略する。なお、監視装置10は、さらに、カメラ11を備えることで実現できる。また、端末30は、さらに、ディスプレイを備えることで実現できる。 The functions of the detection device 20 are realized by the CPU 1 reading the captured images and prediction models stored in the auxiliary storage device 4 and executing the programs stored in the memory 3 . Note that the configuration of the monitoring device 10 and the terminal 30 can be the same as the hardware configuration of the detection device 20 shown in FIG. 8, so detailed description thereof will be omitted. Note that the monitoring device 10 can be realized by further including a camera 11 . Moreover, the terminal 30 can be realized by further including a display.

なお、上記においては、監視装置10、検出装置20、端末30を、それぞれ、異なる装置として説明した。しかし、検出装置20が、監視装置10と端末30との機能を含んで構成されてもよいことは勿論である。 In the above description, the monitoring device 10, the detection device 20, and the terminal 30 are described as different devices. However, it goes without saying that the detecting device 20 may be configured to include the functions of the monitoring device 10 and the terminal 30 .

また、上記においては、予測モデルが、機械学習を用いて生成された特徴量を含むことを例示して説明した。しかし、これは、予測モデルを限定する趣旨ではない。予測モデルは、機械学習とは異なる方法で生成された特徴量を含んでもよいことは勿論である。 Moreover, in the above description, the prediction model has been illustrated and described including the feature amount generated using machine learning. However, this is not intended to limit the prediction model. It goes without saying that the prediction model may include features generated by a method other than machine learning.

また、カメラ11は、可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を撮影してもよい。その場合、監視装置10は、カメラ11が撮影した動画像を、検出装置20に送信する。例えば、監視制御部13は、所定の時間間隔で、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に動画像を生成(撮影)させてもよい。その場合、検出制御部24は、カメラ11を可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を取得し、取得した動画像から静止画像を、撮影画像として抽出する。そして、検出制御部24は、動画像から抽出された複数の撮影画像に関して、堆積物の有無を判断する。 In addition, the camera 11 may capture a moving image captured by rotating within the movable range or by changing the zoom ratio. In that case, the monitoring device 10 transmits the moving image captured by the camera 11 to the detecting device 20 . For example, the monitoring control unit 13 shakes the camera 11 up, down, left, and right (that is, pans and tilts the camera 11) at predetermined time intervals, and generates a moving image on the camera 11 regarding the space within the movable range of the camera 11. You can let me (take a picture). In this case, the detection control unit 24 acquires moving images captured by rotating the camera 11 within the movable range or changing the zoom ratio, and extracts still images from the acquired moving images as captured images. Then, the detection control unit 24 determines the presence or absence of deposits with respect to the plurality of photographed images extracted from the moving image.

また、上記においては、カメラ11を回転させることで、撮影領域を変更する形態について説明した。しかし、これは、カメラ11を回転させることで、撮影領域を変更することで限定する趣旨ではない。 Moreover, in the above description, a form in which the photographing area is changed by rotating the camera 11 has been described. However, this does not mean that the imaging area is limited by rotating the camera 11 .

また、移動体(車両、移動可能なロボット等)に監視装置10を搭載してもよい。その場合、監視装置10は、当該移動体が移動している際に、カメラ11が撮影した画像を、撮影画像として、検出装置20に送信してもよい。つまり、当該移動体が移動することで、検出装置20は、堆積物の検出範囲を変更してもよい。 Also, the monitoring device 10 may be mounted on a moving body (vehicle, movable robot, etc.). In that case, the monitoring device 10 may transmit the image captured by the camera 11 to the detection device 20 as the captured image while the mobile object is moving. In other words, the detection device 20 may change the deposit detection range by moving the moving object.

また、例えば、搬送装置(ベルトコンベア等)から、搬送物が落下して生成された堆積物を検出する場合、搬送装置の側面を撮影できる位置にカメラ11を設置してもよい。その場合、検出装置20は、撮影画像内の搬送装置の位置と、検出した堆積物の最上部の位置とを比較することで、搬送装置に対する堆積物の高さを判断してもよい。撮影画像内の搬送装置の位置については、例えば、予め、端末30のユーザ等が、検出装置20に入力しておいてもよい。 Further, for example, in the case of detecting a deposit generated by a transported object falling from a conveying device (such as a belt conveyor), the camera 11 may be installed at a position where the side of the conveying device can be photographed. In that case, the detection device 20 may determine the height of the deposit relative to the transport device by comparing the position of the transport device in the captured image with the position of the top of the detected deposit. For example, the user of the terminal 30 or the like may input the position of the transport device in the captured image to the detection device 20 in advance.

また、監視装置10は、距離画像センサを備えてもよい。距離画像センサは、ステレオカメラ、ToF(Time of Flight)カメラ、Lidar(Light Detection and Ranging)であってもよい。そして、監視装置10は、距離画像センサが生成した情報(画像)と、カメラ11が生成した撮影画像とを、検出装置20に送信してもよい。その場合、検出制御部24は、カメラ11が生成した撮影画像に基づいて、堆積物の有無を判断する。検出制御部24は、堆積物のテクスチャに対応する子領域が、撮影画像に存在する場合、距離画像センサの出力に基づいて、検出対象物の高さを計測する。例えば、検出装置20は、撮影画像中に、堆積物のテクスチャを検出した場合、距離画像センサが生成した情報(画像)に基づいて、検出した堆積物の最上部の位置を、堆積物の高さとして推定してもよい。 The monitoring device 10 may also include a range image sensor. The range image sensor may be a stereo camera, a ToF (Time of Flight) camera, or a Lidar (Light Detection and Ranging). Then, the monitoring device 10 may transmit the information (image) generated by the distance image sensor and the captured image generated by the camera 11 to the detection device 20 . In that case, the detection control unit 24 determines the presence or absence of deposits based on the captured image generated by the camera 11 . The detection control unit 24 measures the height of the object to be detected based on the output of the distance image sensor when the child area corresponding to the texture of the deposit exists in the captured image. For example, when the detection device 20 detects the texture of the deposit in the photographed image, based on the information (image) generated by the distance image sensor, the position of the top of the detected deposit is determined as the height of the deposit. can be estimated as

なお、上記の特許文献の開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。本発明で、アルゴリズム、ソフトウエア、ないしフローチャート或いは自動化されたプロセスステップが示された場合、コンピュータが用いられることは自明であり、またコンピュータにはプロセッサ及びメモリないし記憶装置が付設されることも自明である。よってその明示を欠く場合にも、本願には、これらの要素が当然記載されているものと解される。 It should be noted that the disclosure of the above-mentioned patent document is incorporated herein by reference. Within the framework of the full disclosure of the present invention (including the scope of claims), modifications and adjustments of the embodiments are possible based on the basic technical concept thereof. Also, within the framework of the full disclosure of the present invention, various combinations or selections (partial (including deletion) is possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including claims and technical ideas. In particular, any numerical range recited herein should be construed as specifically recited for any numerical value or subrange within that range, even if not otherwise stated. Where the present invention presents algorithms, software, or flow charts or automated process steps, it is obvious that computers are used and that computers are associated with processors and memory or storage devices. is. Therefore, even in the absence of explicit indication, it is to be understood that these elements are described herein.

1 CPU
2 通信インターフェイス
3 メモリ
4 補助記憶装置
10 監視装置
11、401~403 カメラ
12 監視装置通信部
13 監視制御部
20、1000 検出装置
21 検出装置通信部
22 画像記憶部
23、1001 モデル記憶部
24、1002 検出制御部
30 端末
31 端末通信部
32 端末制御部
33 出力部
100 検出システム
1 CPU
2 Communication interface 3 Memory 4 Auxiliary storage device 10 Monitoring device 11, 401 to 403 Camera 12 Monitoring device communication unit 13 Monitoring control unit 20, 1000 Detecting device 21 Detecting device communication unit 22 Image storage unit 23, 1001 Model storage unit 24, 1002 Detection control unit 30 Terminal 31 Terminal communication unit 32 Terminal control unit 33 Output unit 100 Detection system

Claims (9)

検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部と、
撮影画像を取得し、
前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとを照合し、当該子領域に前記予測モデルのテクスチャが含まれる場合、前記検出対象物ありと判別する検出を行い、検出結果を当該子領域に対応づけて保存することを、前記撮影画像の全領域について繰り返す検出制御部と、を備え、
前記検出制御部は、前記検出対象物ありと判別された前記子領域を他の前記子領域と識別可能な態様とした前記検出結果を、ユーザが使用する端末に送信し、当該ユーザの操作に基づいて、前記ウィンドウサイズを更新する、検出装置。
a model storage unit that stores, as a prediction model, the feature amount of the texture of the local area among the textures of the detection target;
Acquire the captured image,
Detection for extracting a child region of a predetermined window size from the captured image, comparing the child region with the prediction model, and determining that the detection target object exists when the child region includes the texture of the prediction model. and a detection control unit that repeats for the entire area of the captured image, storing the detection result in association with the child area,
The detection control unit transmits to a terminal used by a user, the detection result in which the child area determined to contain the detection target is identifiable from the other child areas, and responds to the user's operation. and updating the window size based on .
前記予測モデルは、前記検出対象物のテクスチャのうち、前記局所領域のテクスチャに関して、機械学習を用いて生成された特徴量を含む、請求項1に記載の検出装置。 2. The detection device according to claim 1, wherein said prediction model includes a feature quantity generated using machine learning with respect to the texture of said local area among the textures of said detection object. 前記検出制御部は、カメラを可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を取得し、前記動画像から静止画像を、前記撮影画像として抽出する、請求項1又は2に記載の検出装置。 2. The detection control unit obtains a moving image captured by rotating the camera within a movable range or changing a zoom ratio, and extracts a still image from the moving image as the captured image. 3. The detection device according to 2 . パン、チルト可能なカメラを備える監視装置と、
検出対象物の有無を判断する検出装置と、
を含んで構成され、
前記検出装置は、
前記検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部と、
前記監視装置から撮影画像を取得し、
前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとを照合し、当該子領域に前記予測モデルのテクスチャが含まれる場合、前記検出対象物ありと判別する検出を行い、検出結果を当該子領域に対応づけて保存することを、前記撮影画像の全領域について繰り返す検出制御部と、を備え、
前記検出制御部は、前記検出対象物ありと判別された前記子領域を他の前記子領域と識別可能な態様とした前記検出結果を、ユーザが使用する端末に送信し、当該ユーザの操作に基づいて、前記ウィンドウサイズを更新する、検出システム。
a surveillance device comprising a camera that can be panned and tilted;
a detection device for determining the presence or absence of an object to be detected;
consists of
The detection device is
a model storage unit that stores, as a prediction model, a feature amount of a texture of a local area among the textures of the detection target;
Acquiring a captured image from the monitoring device,
Detection for extracting a child region of a predetermined window size from the captured image, comparing the child region with the prediction model, and determining that the detection target object exists when the child region includes the texture of the prediction model. and a detection control unit that repeats for the entire area of the captured image, storing the detection result in association with the child area,
The detection control unit transmits to a terminal used by a user the detection result in which the child area determined to contain the detection target is identifiable from other child areas, A detection system that updates the window size based on .
前記監視装置は、前記カメラを可動範囲内で回転させて、前記カメラが撮影した複数の前記撮影画像を、前記検出装置に送信する、請求項4に記載の検出システム。 5. The detection system according to claim 4, wherein the monitoring device rotates the camera within a movable range and transmits the plurality of captured images captured by the camera to the detection device. 移動体に前記監視装置を搭載し、
前記監視装置は、前記移動体が移動している際に、前記カメラが撮影した画像を、前記撮影画像として、前記検出装置に送信する、請求項4又は5に記載の検出システム。
Mounting the monitoring device on a moving body,
6. The detection system according to claim 4, wherein said monitoring device transmits an image captured by said camera as said captured image to said detection device while said mobile body is moving.
前記監視装置は、距離画像センサをさらに備え、
前記検出制御部は、前記検出対象物のテクスチャに対応する前記子領域が、前記撮影画像に存在する場合、前記距離画像センサの出力に基づいて、前記検出対象物の高さを計測する、請求項4乃至6のいずれか一に記載の検出システム。
The monitoring device further comprises a range image sensor,
The detection control unit measures the height of the detection target based on the output of the distance image sensor when the child region corresponding to the texture of the detection target exists in the captured image . Item 7. A detection system according to any one of Items 4 to 6 .
記憶部を備えるコンピュータが、
検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する工程と、
撮影画像を取得する工程と、
前記撮影画像から、所定のウィンドウサイズの子領域を切り出す工程と、
前記子領域と前記予測モデルとを照合し、当該子領域に前記予測モデルのテクスチャが含まれる場合、前記検出対象物ありと判別する検出を行い、検出結果を当該子領域に対応づけて保存することを、前記撮影画像の全領域について繰り返す工程と、
前記検出対象物ありと判別された前記子領域を他の前記子領域と識別可能な態様とした前記検出結果を、ユーザが使用する端末に送信する工程と、
当該ユーザの操作に基づいて、前記ウィンドウサイズを更新する工程と、
を含む検出方法。
A computer having a storage unit
a step of storing, as a prediction model, a feature amount of a texture of a local area among the textures of the object to be detected in the storage unit;
a step of acquiring a photographed image;
a step of cutting out a child region of a predetermined window size from the captured image;
The child region and the prediction model are collated, and if the child region includes the texture of the prediction model, detection is performed to determine that the detection object exists, and the detection result is stored in association with the child region. a step of repeating this for the entire area of the captured image;
a step of transmitting to a terminal used by a user the detection result in which the child area determined to contain the detection target is identifiable from the other child areas;
updating the window size based on the user's operation ;
detection methods, including
記憶部を備えるコンピュータに、
検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する処理と、
撮影画像を取得する処理と、
前記撮影画像から、所定のウィンドウサイズの子領域を切り出す処理と、
前記子領域と前記予測モデルとを照合し、当該子領域に前記予測モデルのテクスチャが含まれる場合、前記検出対象物ありと判別する検出を行い、検出結果を当該子領域に対応づけて保存することを、前記撮影画像の全領域について繰り返す処理と、
前記検出対象物ありと判別された前記子領域を他の前記子領域と識別可能な態様とした前記検出結果を、ユーザが使用する端末に送信する工程と、
当該ユーザの操作に基づいて、前記ウィンドウサイズを更新する処理と、
を実行させるプログラム。
A computer having a storage unit,
A process of storing, as a prediction model, the feature amount of the texture of the local area among the textures of the detection target in the storage unit;
a process of acquiring a photographed image;
A process of cutting out a child area of a predetermined window size from the captured image;
The child region and the prediction model are collated, and if the child region includes the texture of the prediction model, detection is performed to determine that the detection object exists, and the detection result is stored in association with the child region. A process of repeating this for the entire area of the captured image;
a step of transmitting to a terminal used by a user the detection result in which the child area determined to contain the detection target is identifiable from the other child areas;
a process of updating the window size based on the user's operation ;
program to run.
JP2018110930A 2018-06-11 2018-06-11 DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM Active JP7176719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018110930A JP7176719B2 (en) 2018-06-11 2018-06-11 DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110930A JP7176719B2 (en) 2018-06-11 2018-06-11 DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019215605A JP2019215605A (en) 2019-12-19
JP7176719B2 true JP7176719B2 (en) 2022-11-22

Family

ID=68918685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110930A Active JP7176719B2 (en) 2018-06-11 2018-06-11 DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7176719B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022442A (en) 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for object detection and position measurement, execution program for the same method, and its recording medium
JP2006252504A (en) 2005-02-14 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition device, pattern recognition method, pattern recognition program, and recording medium of pattern recognition program
JP2011055270A (en) 2009-09-02 2011-03-17 Canon Inc Information transmission apparatus and information transmission method
JP2012059196A (en) 2010-09-13 2012-03-22 Canon Inc Display control device and display control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022442A (en) 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for object detection and position measurement, execution program for the same method, and its recording medium
JP2006252504A (en) 2005-02-14 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition device, pattern recognition method, pattern recognition program, and recording medium of pattern recognition program
JP2011055270A (en) 2009-09-02 2011-03-17 Canon Inc Information transmission apparatus and information transmission method
JP2012059196A (en) 2010-09-13 2012-03-22 Canon Inc Display control device and display control method

Also Published As

Publication number Publication date
JP2019215605A (en) 2019-12-19

Similar Documents

Publication Publication Date Title
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
CN109104561B (en) System and method for tracking moving objects in a scene
US11887318B2 (en) Object tracking
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP5885398B2 (en) Image processing apparatus and image processing method
CN109299703B (en) Method and device for carrying out statistics on mouse conditions and image acquisition equipment
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
JP5263694B2 (en) Object position estimation information creation apparatus, object position estimation information creation method, and program
CN104052963A (en) Image processing device, image processing method, and program
JP6584123B2 (en) Image processing apparatus, image processing method, and program
KR20110023472A (en) Apparatus and method for tracking object based on ptz camera using coordinate map
JP2009117956A (en) Video processor
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP5183152B2 (en) Image processing device
JP2014222825A (en) Video processing apparatus and video processing method
JP2019054369A (en) Imaging device, control method of imaging device, and program
CN113688820A (en) Stroboscopic stripe information identification method and device and electronic equipment
TWI556651B (en) 3d video surveillance system capable of automatic camera dispatching function, and surveillance method for using the same
JP2022027804A (en) Information processing apparatus, information processing system, information processing method, and program
JP7176719B2 (en) DETECTION DEVICE, DETECTION SYSTEM, DETECTION METHOD AND PROGRAM
WO2021168804A1 (en) Image processing method, image processing apparatus and image processing system
JP6325643B2 (en) Methods for increasing reliability in monitoring systems
US20110090340A1 (en) Image processing apparatus and image processing method
JP6452738B2 (en) Image processing apparatus, image processing method, and program
JP6448457B2 (en) Imaging direction variation detection apparatus and imaging direction variation detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R151 Written notification of patent or utility model registration

Ref document number: 7176719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151