JP7004786B1 - Detection device and detection method - Google Patents
Detection device and detection method Download PDFInfo
- Publication number
- JP7004786B1 JP7004786B1 JP2020181786A JP2020181786A JP7004786B1 JP 7004786 B1 JP7004786 B1 JP 7004786B1 JP 2020181786 A JP2020181786 A JP 2020181786A JP 2020181786 A JP2020181786 A JP 2020181786A JP 7004786 B1 JP7004786 B1 JP 7004786B1
- Authority
- JP
- Japan
- Prior art keywords
- detection device
- captured image
- points
- unit
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 105
- 230000007717 exclusion Effects 0.000 claims abstract description 36
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 238000010586 diagram Methods 0.000 abstract description 8
- 238000000034 method Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Abstract
【課題】誤検出の発生を抑えながら進入禁止区域内の侵入者を検出する。【解決手段】検出装置は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、撮像画像から、対象物に対応する矩形領域を特定する特定部と、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、複数の注目点の全てが対応領域に含まれると判定された場合に、警報を出力する出力部と、を有する。【選択図】図1PROBLEM TO BE SOLVED: To detect an intruder in an exclusion zone while suppressing the occurrence of erroneous detection. A detection device is a detection device that detects an object that has invaded the inside of a predetermined exclusion zone, and has an acquisition unit that acquires an image generated by imaging a space including the exclusion zone. , Judgment from the captured image whether or not the specific portion that identifies the rectangular region corresponding to the object and all of the plurality of points of interest in the rectangular region are included in the corresponding region corresponding to the exclusion zone in the captured image. It has a unit and an output unit that outputs an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area. [Selection diagram] Fig. 1
Description
本発明は、検出装置及び検出方法に関する。 The present invention relates to a detection device and a detection method.
従来、監視カメラ等の撮像装置によって生成された撮像画像を解析することにより、所定の進入禁止区域への侵入者を検知することがなされている。例えば、特許文献1には、
監視カメラによって撮像されたカメラ画像に基づいて、進入禁止区域内に存在する侵入者を検知する侵入者検知装置が記載されている。
Conventionally, it has been performed to detect an intruder into a predetermined restricted area by analyzing an image captured by an image pickup device such as a surveillance camera. For example, in
An intruder detection device that detects an intruder existing in an exclusion zone based on a camera image captured by a surveillance camera is described.
特許文献1に記載の侵入者検知装置は、カメラ画像を複数の矩形の小領域に分割し、各小領域について算出された特徴量の時間変化に基づいて、移動物体が存在する小領域を検出する。そして、侵入者検知装置は、検出された小領域の少なくとも一部がカメラ画像にあらかじめ設定された進入禁止区域の内部に位置する場合、移動物体を侵入者として検知する。
The intruder detection device described in
特許文献1に記載の侵入者検知装置では、移動物体を包含する小領域と進入禁止区域との位置関係に基づいて侵入者を検知する。したがって、移動物体が進入禁止区域の内部に位置しない場合であっても、小領域の一部が進入禁止区域の内部に位置する場合には移動物体が侵入者として誤検出されてしまうという問題があった。そこで、このような侵入者検知装置において誤検出を減らすことが求められていた。
The intruder detection device described in
本発明は上述の課題を解決するためになされたものであり、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする検出装置及び検出方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a detection device and a detection method capable of suppressing erroneous detection when detecting an intruder in an exclusion zone. do.
本発明に係る検出装置は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、撮像画像から、対象物に対応する矩形領域を特定する特定部と、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、複数の注目点の全てが対応領域に含まれると判定された場合に、警報を出力する出力部と、を有することを特徴とする。 The detection device according to the present invention is a detection device that detects an object that has invaded the inside of a predetermined no-entry area, and has an acquisition unit that acquires an image generated by imaging a space including the no-entry area. , Judgment from the captured image whether or not the specific portion that identifies the rectangular region corresponding to the object and all of the plurality of points of interest in the rectangular region are included in the corresponding region corresponding to the inaccessible prohibited area in the captured image. It is characterized by having a unit and an output unit that outputs an alarm when it is determined that all of a plurality of points of interest are included in the corresponding area.
また、本発明に係る検出装置において、複数の注目点は、矩形領域の下辺の両端点である、ことが好ましい。 Further, in the detection device according to the present invention, it is preferable that a plurality of points of interest are both end points of the lower side of the rectangular region.
また、本発明に係る検出装置において、複数の注目点は、ユーザの操作に応じて選択される、ことが好ましい。 Further, in the detection device according to the present invention, it is preferable that a plurality of points of interest are selected according to the operation of the user.
また、本発明に係る検出装置において、取得部は、撮像時刻の異なる複数の撮像画像を取得し、特定部は、複数の撮像画像の間の差分情報に基づいて、矩形領域を特定する、ことが好ましい。 Further, in the detection device according to the present invention, the acquisition unit acquires a plurality of captured images having different imaging times, and the specific unit identifies a rectangular region based on the difference information between the plurality of captured images. Is preferable.
本発明に係る検出方法は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置によって実行される検出方法であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得し、撮像画像から、対象物に対応する矩形領域を特定し、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定し、複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する、ことを含むことを特徴とする。 The detection method according to the present invention is a detection method executed by a detection device that detects an object that has invaded the inside of a predetermined exclusion zone, and is an image captured by imaging a space including the exclusion zone. Is obtained, a rectangular area corresponding to the object is specified from the captured image, and it is determined whether or not all of the plurality of points of interest in the rectangular area are included in the corresponding area corresponding to the exclusion zone in the captured image. It is characterized by including outputting an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.
本発明に係る検出装置及び検出方法は、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする。 The detection device and the detection method according to the present invention make it possible to suppress erroneous detection when detecting an intruder in an exclusion zone.
以下、図面を参照しつつ本発明の様々な実施形態について説明する。本発明の技術的範囲はこれらの実施形態に限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶことに留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. It should be noted that the technical scope of the present invention is not limited to these embodiments but extends to the inventions described in the claims and their equivalents.
図1は、本発明に係る検出システム1の概略構成の一例を示す図である。検出システム
1は、施設において、所定の進入禁止区域の内部に侵入した対象物を検出するためのシステムである。検出システム1は、撮像装置2、検出装置3及びユーザ端末4を有する。
FIG. 1 is a diagram showing an example of a schematic configuration of the
撮像装置2は、進入禁止区域を含む空間を撮像して撮像画像を生成する装置であり、例えば監視カメラである。撮像装置2は、所定の時間間隔(例えば、30分の1秒)ごとに進入禁止区域を含む空間を撮像することにより、撮像画像を生成する。図1に示す例では、撮像画像は、フェンスFによって囲まれた施設の敷地内に設定された進入禁止区域Aと、進入禁止区域Aの外部の道路Rとを含む。撮像装置2は、生成した撮像画像を検出装置3に対して順次送信する。
The
検出装置3は、撮像画像に基づいて侵入者を検出する装置である。検出装置3は、侵入者が検出された場合、ユーザ端末4に警報を出力する。ユーザ端末4は、施設を監視するユーザが利用する、PC(Personal Computer)、タブレット端末又は多機能携帯電話(スマートフォン)等の情報処理端末である。ユーザ端末4は、検出装置3から出力された警報を表示し、又は音声として出力する。
The
図2は、検出装置3の概略構成の一例を示す図である。検出装置3は、記憶部31、映像受信部32、映像送信部33、通信部34及び処理部35を有する。
FIG. 2 is a diagram showing an example of a schematic configuration of the
記憶部31は、プログラム及びデータを記憶するための構成であり、例えば、半導体メモリを備える。記憶部31は、処理部35による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、CD(Compact Disc)-ROM(Read Only Memory)等のコンピュータ読み取り可能且つ非一時的な可搬型記憶媒体から、セットアッププログラム等を用いて記憶部31にインストールされる。
The
映像受信部32は、検出装置3が撮像装置2から画像データを受信するための構成であり、インタフェース回路を備える。映像受信部32が備えるインタフェース回路は、例えばHD-TVI(High Definition Transport Video Interface)等の映像伝送インタフェースの回路である。映像受信部32は、撮像装置2から受信したデータを処理部35に供給する。
The
映像送信部33は、検出装置3がユーザ端末4に画像データを送信するための構成であり、インタフェース回路を備える。映像送信部33が備えるインタフェース回路は、NTSC(National Television System Committee)等の映像伝送インタフェースの回路である。映像送信部33は、処理部35から供給されたデータをユーザ端末4に送信する。
The
通信部34は、検出装置3がユーザ端末4と通信するための構成であり、通信インタフェース回路を備える。通信部34が備える通信インタフェース回路は、有線LAN(Local Area Network)又は無線LAN等の通信インタフェース回路である。通信部34は、処理部35から供給されたデータをユーザ端末4に送信するとともに、ユーザ端末4から受信したデータを処理部35に供給する。
The communication unit 34 is configured for the
なお、撮像装置2が所謂ネットワークカメラである場合、通信部34は映像受信部32の機能を兼ねてもよい。また、通信部34は映像送信部33の機能を兼ねてもよい。
When the
処理部35は、検出装置3の動作を統括的に制御するデバイスであり、一又は複数個のプロセッサ及びその周辺回路を備える。処理部35は、例えばCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)を備える。処理部35は、DSP(Digital Signal Processor)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を備えてもよい。処理部35は、記憶部31に記憶されているプログラムに基づいて検出装置3の各部の動作を制御するとともに様々な処理を実行する。
The
処理部35は、取得部351、特定部352、判定部353及び出力部354をその機能ブロックとして備える。これらの各部は、処理部35が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして検出装置3に実装されてもよい。
The
図3は、記憶部31に記憶される撮像画像テーブルT1のデータ構造の一例を示す図である。撮像画像テーブルT1は、画像ID、画像ファイル、撮像時刻、背景画像及び矩形領域の情報を相互に関連付けて記憶する。
FIG. 3 is a diagram showing an example of the data structure of the captured image table T1 stored in the
画像IDは、撮像装置2から送信された撮像画像の識別情報である。画像ファイルは、撮像時刻の画像データの識別情報であり、ファイル名、ファイルパス等を含む。撮像時刻は、撮像画像が生成された時刻を示す情報である。背景画像は、後述する検出処理において、撮像画像を、人物や動物、自動車等の対象物が含まれない背景画像として用いるか否かを示す情報である。矩形領域の情報は、後述する検出処理において特定される、撮像画像において対象物に対応する領域を示す情報である。図3に示す例では、矩形領域の情報は、撮像画像を構成する画素のうち、矩形領域の4つの頂点に対応する画素の座標である。
The image ID is identification information of the captured image transmitted from the
撮像画像テーブルT1の各データのうち、背景画像を除くデータは、後述する検出処理において、検出装置3によって生成される。背景画像のデータは、撮像画像を確認したユーザによって設定される。
Of the data in the captured image table T1, the data excluding the background image is generated by the
図4は、検出装置3によって実行される検出処理の流れの一例を示すフロー図である。検出処理は、撮像画像が撮像装置2から検出装置3に送信されるたびに、各撮像画像について実行される。検出処理は、記憶部31に記憶されたプログラムを実行する処理部35が、検出装置3の各構成と協働することにより実現される。
FIG. 4 is a flow chart showing an example of the flow of the detection process executed by the
まず、取得部351は、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する(S11)。取得部351は、映像受信部32を介して、撮像装置2から送信された映像を受信し、受信した映像に含まれるフレーム画像を撮像画像として取得する。また、取得部351は、受信した映像から、各フレーム画像の撮像時刻を取得する。取得部351は、取得した撮像画像に画像ID及び撮像時刻を関連付けて撮像画像テーブルT1に記憶する。
First, the
続いて、特定部352は、撮像画像から、対象物に対応する矩形領域を特定する(S12)。対象物に対応する矩形領域は、撮像画像において対象物に外接する矩形領域である。特定部352は、例えば、撮像時刻の異なる複数の撮像画像の間の差分情報に基づいて、矩形領域を特定する。
Subsequently, the specifying
この場合、特定部352は、撮像画像テーブルT1を参照して、対象物がない時刻に所定の空間を撮像することにより生成された撮像画像である背景画像を取得する。特定部352は、背景画像の各画素と、取得した撮像画像の各画素との間の輝度値の差分を示す差分情報を算出する。特定部352は、差分情報に基づいて、撮像画像の各画素のうちから差分の絶対値が所定値以上である画素を抽出する。画素が抽出された場合、特定部352は、抽出された画素に外接する矩形領域を対象物に対応する矩形領域として特定する。画素が抽出されなかった場合、特定部352は、対象物に対応する矩形領域を特定しない。
In this case, the
矩形領域が特定された場合、特定部352は、特定した矩形領域の情報を撮像画像に関連付けて撮像画像テーブルT1に記憶する。
When the rectangular region is specified, the
特定部352は、抽出された画素を相互の位置関係に基づいて複数のグループに分類し、各グループに属する画素に外接する複数の矩形領域を設定してもよい。画素の分類は、例えば階層型クラスタリングを用い、相互に異なるグループに属する画素の間の最短距離が所定距離未満である場合にこれらのグループを併合することによりなされる。これにより、撮像画像に複数の対象物が含まれる場合にも、各対象物が適切に検出される。
The
図5(a)は対象画像を含まない背景画像Bの一例を示す図であり、図5(b)は対象物を含む撮像画像Pの一例を示す図である。図5(b)に示す例では、撮像画像Pは進入禁止区域Aの内部に位置する人物S1と、進入禁止区域Aの外部の道路Rを走行する自動車S2とを含む。特定部352は、背景画像Bと撮像画像Pとの差分情報に基づいて、人物S1に対応する矩形領域K1と自動車S2に対応する矩形領域K2とを特定する。
FIG. 5A is a diagram showing an example of a background image B not including an object image, and FIG. 5B is a diagram showing an example of a captured image P including an object. In the example shown in FIG. 5B, the captured image P includes a person S1 located inside the exclusion zone A and a vehicle S2 traveling on a road R outside the exclusion zone A. The specifying
図4に戻り、矩形領域が特定された場合(S13-Yes)、判定部353は、矩形領域における複数の注目点の全てが、撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する(S14)。複数の注目点は、例えば、矩形領域の下辺の両端点である。この場合、判定部353は、下辺の両端点の両方が対応領域に含まれるか、又は、下辺の両端点の少なくとも一方が対応領域に含まれないかを判定する。
Returning to FIG. 4, when the rectangular area is specified (S13-Yes), the
図5(b)に示すように、人物S1に対応する矩形領域K1の下辺の両端点C1及びC2は、進入禁止区域Aに対応する対応領域(斜線の網掛けにて図示)に含まれる。したがって、判定部353は、矩形領域K1における複数の注目点の全てが対応領域に含まれると判定する。また、自動車S2に対応する矩形領域K2の下辺の両端点C3及びC4のうち、右側の端点C4は対応領域に含まれるが、左側の端点C3は対応領域に含まれない。したがって、判定部353は、矩形領域K2における複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定する。
As shown in FIG. 5B, both end points C1 and C2 of the lower side of the rectangular region K1 corresponding to the person S1 are included in the corresponding region (shown by shaded shades) corresponding to the exclusion zone A. Therefore, the
図4に戻り、複数の注目点の全てが対応領域に含まれると判定された場合(S15-Yes)、出力部354は、警報を出力する(S16)。例えば、出力部354は、通信部34を介して所定の警報音を出力させるための音声情報をユーザ端末4に送信することにより、警報を出力する。出力部354は、通信部34を介して対象物が進入禁止区域に侵入したことを示すメッセージの表示データをユーザ端末4に送信することにより、警報を出力してもよい。複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定された場合(S15-No)、出力部354は警報を出力しない。
Returning to FIG. 4, when it is determined that all of the plurality of points of interest are included in the corresponding area (S15-Yes), the
続いて、出力部354は、矩形領域が重畳された撮像画像を出力し(S17)、検出処理を終了する。出力部354は、撮像画像テーブルT1の矩形領域の情報を参照して、図5(b)に示したような、矩形領域が重畳された撮像画像の表示データを生成する。出力部354は、映像送信部33を介して、生成した表示データをユーザ端末4に送信する。出力部354は、生成した表示データを、矩形領域が重畳された撮像画像をフレーム画像とする映像データとして送信する。ユーザ端末4は、受信した映像データを記憶するとともに表示する。
Subsequently, the
S13において対象物に対応する矩形領域が特定されなかった場合(S13-No)、出力部354は、撮像画像を出力し(S18)、検出処理を終了する。出力部354は、映像送信部33を介して、撮像画像をフレーム画像とする映像データをユーザ端末4に送信する。ユーザ端末4は、受信した映像データを記憶するとともに表示する。
When the rectangular region corresponding to the object is not specified in S13 (S13-No), the
以上説明したように、検出装置3は、撮像画像において対象物に対応する矩形領域の複数の注目点の全てが進入禁止区域に対応する対応領域に含まれる場合に、警報を出力する。これにより、検出装置3は、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする。
As described above, the
すなわち、図5(b)に示したように、対象物が進入禁止区域の外部に位置する場合でも、対象物に対応する矩形領域の一部が進入禁止区域に対応する対応領域に含まれ、対象物が侵入者として誤検出されるおそれがある。これに対し、検出装置3は、矩形領域の複数の注目点の全てが対応領域に含まれる場合にのみ対象物を侵入者として検出するため、誤検出の発生を抑えることができる。
That is, as shown in FIG. 5B, even when the object is located outside the restricted area, a part of the rectangular area corresponding to the object is included in the corresponding area corresponding to the restricted area. The object may be falsely detected as an intruder. On the other hand, since the
また、検出装置3は、複数の注目点として、矩形領域の下辺の両端点を用いる。これにより、検出装置3は、誤検出の発生をより抑えながら進入禁止区域内の侵入者を検出することを可能とする。例えば、図5(b)に示したように、自動車S2は進入禁止区域Aの外部に位置するにもかかわらず、自動車S2に対応する矩形領域K2の下辺の中心点C5
は進入禁止区域Aの対応領域に含まれる。したがって、矩形領域の下辺の中心点のみを注目点として用いた場合には、誤検出が発生する。他方で、矩形領域K2の下辺の両端点C3及びC4のうちの左側の端点C3は対応領域に含まれないため、矩形領域の下辺の両端点を注目点として用いた場合には、誤検出が発生しない。
Further, the
Is included in the corresponding area of the exclusion zone A. Therefore, if only the center point of the lower side of the rectangular region is used as the point of interest, erroneous detection will occur. On the other hand, since the left end points C3 of the lower end points C3 and C4 of the rectangular area K2 are not included in the corresponding area, erroneous detection occurs when the lower end points of the rectangular area are used as points of interest. Does not occur.
すなわち、矩形領域の下辺の両端点が対応領域に含まれる場合の多くは、対象物の下端部(対象物が人物である場合は、足元)が進入禁止区域の内部に位置する場合である。したがって、矩形領域の下辺の両端点の両方が対応領域に含まれる場合に対象物を侵入者として検出することにより、検出装置3は高精度に侵入者を検出することを可能とする。
That is, in most cases where both end points of the lower side of the rectangular area are included in the corresponding area, the lower end of the object (or the foot when the object is a person) is located inside the exclusion zone. Therefore, by detecting the object as an intruder when both the end points of the lower end of the rectangular area are included in the corresponding area, the
また、検出装置3は、あらかじめ撮像された背景画像と取得した撮像画像との差分情報に基づいて矩形領域を特定する。これにより、検出装置3は、小さい演算負荷により侵入者を検出することを可能とする。
Further, the
すなわち、背景画像と撮像画像との差分情報の算出は加減演算によってなされる。また、撮像画像の各画素のうちから差分の絶対値が所定値以上である画素を抽出する処理は、比較演算によってなされる。また、抽出された画素に外接する矩形領域を設定する処理は、抽出された画素のうち、画素の座標値(X座標及びY座標)の最大値及び最小値を算出する処理であるから、比較演算によってなされる。矩形領域の特定がこれらの演算負荷が小さい演算によってのみ実現されるため、検出装置3の演算負荷が抑えられる。
That is, the calculation of the difference information between the background image and the captured image is performed by an addition / subtraction operation. Further, the process of extracting the pixels whose absolute value of the difference is equal to or higher than the predetermined value from each pixel of the captured image is performed by a comparison operation. Further, since the process of setting the rectangular area circumscribing the extracted pixels is the process of calculating the maximum and minimum values of the pixel coordinate values (X coordinate and Y coordinate) of the extracted pixels, comparison is performed. It is done by calculation. Since the rectangular region is specified only by these operations with a small calculation load, the calculation load of the
上述した説明では、特定部352は背景画像と撮像画像との差分情報に基づいて矩形領域を特定するものとしたが、このような例に限られない。例えば、特定部352は撮像画像と、かかる撮像画像の直前に取得した撮像画像である比較対象画像との差分情報に基づいて矩形領域を特定してもよい。また、特定部352は、差分情報を用いずに矩形領域を特定してもよい。例えば、特定部352は、画像が入力された場合に人物や動物等の対象物に対応する矩形領域を特定するように学習された学習済みモデルを用いて矩形領域を特定してもよい。学習済みモデルは、例えばR-CNN(Region with Convolutional Neural Network)又はSSD(Single Shot Detector)等である。
In the above description, the
上述した説明では、複数の注目点は矩形領域の下辺の両端点であるものとしたが、このような例に限られない。複数の注目点は、矩形領域の頂点でもよい。また、複数の注目点は、矩形領域の下辺の両端点と中心点との組合せでもよく、矩形領域の両端点と矩形領域の重心点との組合せでもよい。複数の注目点は、矩形領域の下辺の中心点と矩形領域の重心点との組合せでもよい。また、注目点は、矩形領域の周上及び内部の任意の点でもよい。例えば、注目点は、矩形領域の重心から上下左右の何れかに所定距離だけ離隔した点でもよい。所定距離は、矩形領域の大きさに応じて定まる距離(例えば、矩形領域の幅又は高さの5パーセントに相当する距離)でもよい。 In the above description, it is assumed that the plurality of points of interest are both end points of the lower side of the rectangular area, but the present invention is not limited to such an example. The plurality of points of interest may be the vertices of a rectangular area. Further, the plurality of points of interest may be a combination of both end points of the lower side of the rectangular area and the center point, or may be a combination of the end points of the rectangular area and the center of gravity point of the rectangular area. The plurality of points of interest may be a combination of the center point of the lower side of the rectangular area and the center of gravity point of the rectangular area. Further, the point of interest may be any point on or inside the rectangular region. For example, the point of interest may be a point separated by a predetermined distance from the center of gravity of the rectangular region to either the top, bottom, left, or right. The predetermined distance may be a distance determined according to the size of the rectangular area (for example, a distance corresponding to 5% of the width or height of the rectangular area).
また、注目点は、矩形領域の周上及び内部の点から、ユーザの操作に応じて選択されてもよい。この場合、ユーザは、あらかじめユーザ端末4を操作して、注目点を選択する。例えば、ユーザ端末4は、注目点に関する複数の選択肢をユーザに提示し、ユーザからの選択を受け付ける。選択肢は、例えば、矩形領域の下辺の中心点、矩形領域の重心点、矩形領域の下辺の両端点、及び、矩形領域の各頂点等である。ユーザ端末4は、ユーザが選択した選択肢を示す選択情報を生成し、検出装置3に送信する。検出装置3は、受信した選択情報を記憶部31に記憶する。
Further, the points of interest may be selected from points on and inside the rectangular area according to the user's operation. In this case, the user operates the user terminal 4 in advance to select a point of interest. For example, the user terminal 4 presents a plurality of options regarding a point of interest to the user and accepts the selection from the user. The options are, for example, the center point of the lower side of the rectangular area, the center point of the rectangular area, the end points of the lower side of the rectangular area, and the vertices of the rectangular area. The user terminal 4 generates selection information indicating the options selected by the user and transmits the selection information to the
判定部363は、検出処理のS14において、記憶部31に記憶された選択情報に基づいて注目点を設定し、注目点の全てが対応領域に含まれるか否かを判定する。これにより、検出装置3は、ユーザが誤検出の程度に応じて適切な検出精度を選択することを可能とする。なお、複数の選択肢には、注目点の数が一つである選択肢(上述した例では、矩形領域の下辺の中心点の選択肢及び矩形領域の重心点の選択肢)が含まれてもよい。
In S14 of the detection process, the determination unit 363 sets the points of interest based on the selection information stored in the
また、注目点は、検出装置3によって自動的に選択されてもよい。この場合、判定部363は、検出処理のS14において注目点の全てが対応領域に含まれると判定した場合に、その判定がされた判定時刻を記憶部31に記憶する。判定部363は、所定頻度(例えば、一日に数十回)以上の頻度で判定時刻が記憶された場合に、誤検出が頻発していると判定し、記憶部31に記憶された選択情報を変更することにより注目点を変更する。この場合、判定部363は、例えば所定の優先順位に従って注目点を変更する。これにより、検出装置3は、ユーザによる操作を待つことなく誤検出を抑えることを可能とする。
Further, the point of interest may be automatically selected by the
上述した説明では、検出装置3は、対象物に対応する矩形領域が特定された場合、矩形領域が重畳された撮像画像を出力するものとしたが、このような例に限られない。検出処理において、複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定された場合(S15-No)、出力部354は矩形領域が重畳されない撮像画像を出力してもよい(S18)。これにより、対象物が進入禁止区域の内部に位置する場合にのみユーザ端末4が矩形領域を表示するようになるため、検出装置3は、侵入者が検出されたことをユーザが視覚的に認識することを容易にする。また、出力部354は、S17及びS18を実行せず、警報のみを出力してもよい。
In the above description, when the rectangular region corresponding to the object is specified, the
上述した説明では、検出装置3は、矩形領域が特定された場合に矩形領域が重畳された撮像画像を出力するものとしたが、このような例に限られない。検出装置3は、ユーザの選択に応じて矩形領域が重畳された撮像画像を出力するか否かを判定してもよい。この場合、ユーザは、あらかじめユーザ端末4を操作して、矩形領域を表示するか否かを選択する。ユーザ端末4は、ユーザが選択した選択肢を示す選択情報を生成し、検出装置3に送信する。検出装置3は、受信した選択情報を記憶部31に記憶する。出力部354は、S17において、選択情報が矩形領域を表示することを示す場合に、矩形領域が重畳された撮像画像を出力し、選択情報が矩形領域を表示することを示す場合に、矩形領域が重畳されていない撮像画像を出力する。これにより、検出装置3は、矩形領域により映像の視認性が低下することを防ぐことを可能とする。また、検出装置3は、矩形領域が重畳された撮像画像と矩形領域が重畳されていない撮像画像との両方を出力してもよい。この場合、ユーザは、ユーザ端末4の操作に応じて何れの撮像画像を表示するかを選択する。
In the above description, the
上述した説明では、検出システム1は検出装置3及びユーザ端末4を備えるものとしたが、検出装置3及びユーザ端末4の機能が一つの装置により実現されてもよい。例えば、検出装置3の機能はユーザ端末4によって実現されてもよい。また、検出装置3の機能の一部のみがユーザ端末4によって実現されてもよい。
In the above description, the
当業者は、本発明の精神および範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention. For example, the processes of the above-mentioned parts may be executed in different orders as appropriate within the scope of the present invention. Further, the above-described embodiments and modifications may be carried out in appropriate combinations within the scope of the present invention.
3 検出装置
31 記憶部
32 映像受信部
33 映像送信部
34 通信部
35 処理部
351 取得部
352 特定部
353 判定部
354 出力部
3
Claims (4)
前記進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、
前記撮像画像から、前記対象物に対応する矩形領域を特定する特定部と、
前記矩形領域の下辺の両端点である複数の注目点の全てが前記撮像画像において前記進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、
前記複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する出力部と、を有することを特徴とする検出装置。 It is a detection device that detects an object that has invaded the inside of a predetermined exclusion zone.
An acquisition unit that acquires a captured image generated by imaging a space including the exclusion zone, and
From the captured image, a specific portion that identifies a rectangular region corresponding to the object, and a specific portion.
A determination unit for determining whether or not all of the plurality of points of interest, which are both end points of the lower side of the rectangular region, are included in the corresponding region corresponding to the exclusion zone in the captured image.
A detection device including an output unit that outputs an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.
請求項1に記載の検出装置。 The plurality of points of interest are selected from points on and inside the rectangular area according to the user's operation.
The detection device according to claim 1 .
前記特定部は、前記複数の撮像画像の間の差分情報に基づいて、前記矩形領域を特定する、
請求項1または2に記載の検出装置。 The acquisition unit acquires a plurality of captured images having different imaging times, and obtains them.
The specific unit identifies the rectangular region based on the difference information between the plurality of captured images.
The detection device according to claim 1 or 2 .
前記進入禁止区域を含む空間を撮像して生成された撮像画像を取得し、
前記撮像画像から、前記対象物に対応する矩形領域を特定し、
前記矩形領域の下辺の両端点である複数の注目点の全てが前記撮像画像において前記進入禁止区域に対応する対応領域に含まれるか否かを判定し、
前記複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する、ことを含むことを特徴とする検出方法。 A detection method performed by a detection device that detects an object that has invaded the inside of a predetermined exclusion zone.
The captured image generated by imaging the space including the exclusion zone is acquired.
From the captured image, a rectangular area corresponding to the object is identified.
It is determined whether or not all of the plurality of points of interest, which are both end points of the lower side of the rectangular region, are included in the corresponding region corresponding to the exclusion zone in the captured image.
A detection method comprising outputting an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181786A JP7004786B1 (en) | 2020-10-29 | 2020-10-29 | Detection device and detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181786A JP7004786B1 (en) | 2020-10-29 | 2020-10-29 | Detection device and detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7004786B1 true JP7004786B1 (en) | 2022-01-21 |
JP2022072389A JP2022072389A (en) | 2022-05-17 |
Family
ID=80621043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020181786A Active JP7004786B1 (en) | 2020-10-29 | 2020-10-29 | Detection device and detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7004786B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338611A (en) | 2005-06-06 | 2006-12-14 | Matsushita Electric Ind Co Ltd | Moving object detection device |
JP2007015814A (en) | 2005-07-07 | 2007-01-25 | Mitsubishi Electric Corp | Equipment carrying-in-and-out system |
JP2007274656A (en) | 2006-03-31 | 2007-10-18 | Saxa Inc | Video monitoring device and method therefor |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10283584A (en) * | 1997-04-08 | 1998-10-23 | Mitsubishi Heavy Ind Ltd | Ship traffic supervisory device and method |
-
2020
- 2020-10-29 JP JP2020181786A patent/JP7004786B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338611A (en) | 2005-06-06 | 2006-12-14 | Matsushita Electric Ind Co Ltd | Moving object detection device |
JP2007015814A (en) | 2005-07-07 | 2007-01-25 | Mitsubishi Electric Corp | Equipment carrying-in-and-out system |
JP2007274656A (en) | 2006-03-31 | 2007-10-18 | Saxa Inc | Video monitoring device and method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2022072389A (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450114B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
KR101687530B1 (en) | Control method in image capture system, control apparatus and a computer-readable storage medium | |
US10474918B2 (en) | Image processing apparatus, image processing method, and storage medium | |
EP3024227B1 (en) | Image processing apparatus and image processing method | |
JP6674584B2 (en) | Video surveillance system | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
US9105104B2 (en) | Image processing apparatus,image processing method, and program | |
WO2017163955A1 (en) | Monitoring system, image processing device, image processing method and program recording medium | |
US9904865B2 (en) | Setting apparatus which sets a detection region for a detection process | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
JP2009117956A (en) | Video processor | |
JP5264457B2 (en) | Object detection device | |
JP2019052889A (en) | Image processor | |
JP2005129003A (en) | Device for detecting change | |
JP2015228626A (en) | Image output device, image management system, image processing method and program | |
JP4140126B2 (en) | Region segmentation and object extraction device | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
JP7004786B1 (en) | Detection device and detection method | |
JP2008165595A (en) | Obstacle detection method, obstacle detection device, and obstacle detection system | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
JP2007164375A (en) | Three-dimensional object detection device and method, computer readable medium and three-dimensional object management system | |
CN110610178A (en) | Image recognition method, device, terminal and computer readable storage medium | |
US10979675B2 (en) | Video monitoring apparatus for displaying event information | |
JP2019211923A (en) | Information processing apparatus, system, information processing apparatus control method, and program | |
JP7136222B2 (en) | Object tracking device, object tracking method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7004786 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |