JP7004786B1 - Detection device and detection method - Google Patents

Detection device and detection method Download PDF

Info

Publication number
JP7004786B1
JP7004786B1 JP2020181786A JP2020181786A JP7004786B1 JP 7004786 B1 JP7004786 B1 JP 7004786B1 JP 2020181786 A JP2020181786 A JP 2020181786A JP 2020181786 A JP2020181786 A JP 2020181786A JP 7004786 B1 JP7004786 B1 JP 7004786B1
Authority
JP
Japan
Prior art keywords
detection device
captured image
points
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020181786A
Other languages
Japanese (ja)
Other versions
JP2022072389A (en
Inventor
直也 ▲高▼橋
Original Assignee
日本原子力防護システム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本原子力防護システム株式会社 filed Critical 日本原子力防護システム株式会社
Priority to JP2020181786A priority Critical patent/JP7004786B1/en
Application granted granted Critical
Publication of JP7004786B1 publication Critical patent/JP7004786B1/en
Publication of JP2022072389A publication Critical patent/JP2022072389A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】誤検出の発生を抑えながら進入禁止区域内の侵入者を検出する。【解決手段】検出装置は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、撮像画像から、対象物に対応する矩形領域を特定する特定部と、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、複数の注目点の全てが対応領域に含まれると判定された場合に、警報を出力する出力部と、を有する。【選択図】図1PROBLEM TO BE SOLVED: To detect an intruder in an exclusion zone while suppressing the occurrence of erroneous detection. A detection device is a detection device that detects an object that has invaded the inside of a predetermined exclusion zone, and has an acquisition unit that acquires an image generated by imaging a space including the exclusion zone. , Judgment from the captured image whether or not the specific portion that identifies the rectangular region corresponding to the object and all of the plurality of points of interest in the rectangular region are included in the corresponding region corresponding to the exclusion zone in the captured image. It has a unit and an output unit that outputs an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area. [Selection diagram] Fig. 1

Description

本発明は、検出装置及び検出方法に関する。 The present invention relates to a detection device and a detection method.

従来、監視カメラ等の撮像装置によって生成された撮像画像を解析することにより、所定の進入禁止区域への侵入者を検知することがなされている。例えば、特許文献1には、
監視カメラによって撮像されたカメラ画像に基づいて、進入禁止区域内に存在する侵入者を検知する侵入者検知装置が記載されている。
Conventionally, it has been performed to detect an intruder into a predetermined restricted area by analyzing an image captured by an image pickup device such as a surveillance camera. For example, in Patent Document 1,
An intruder detection device that detects an intruder existing in an exclusion zone based on a camera image captured by a surveillance camera is described.

特許文献1に記載の侵入者検知装置は、カメラ画像を複数の矩形の小領域に分割し、各小領域について算出された特徴量の時間変化に基づいて、移動物体が存在する小領域を検出する。そして、侵入者検知装置は、検出された小領域の少なくとも一部がカメラ画像にあらかじめ設定された進入禁止区域の内部に位置する場合、移動物体を侵入者として検知する。 The intruder detection device described in Patent Document 1 divides a camera image into a plurality of rectangular small areas, and detects a small area in which a moving object exists based on a time change of a feature amount calculated for each small area. do. Then, the intruder detection device detects a moving object as an intruder when at least a part of the detected small area is located inside the intrusion prohibited area preset in the camera image.

特開2007-233919号公報Japanese Unexamined Patent Publication No. 2007-23319

特許文献1に記載の侵入者検知装置では、移動物体を包含する小領域と進入禁止区域との位置関係に基づいて侵入者を検知する。したがって、移動物体が進入禁止区域の内部に位置しない場合であっても、小領域の一部が進入禁止区域の内部に位置する場合には移動物体が侵入者として誤検出されてしまうという問題があった。そこで、このような侵入者検知装置において誤検出を減らすことが求められていた。 The intruder detection device described in Patent Document 1 detects an intruder based on the positional relationship between a small area including a moving object and an exclusion zone. Therefore, even if the moving object is not located inside the exclusion zone, if a part of the small area is located inside the exclusion zone, the moving object will be erroneously detected as an intruder. there were. Therefore, it has been required to reduce erroneous detection in such an intruder detection device.

本発明は上述の課題を解決するためになされたものであり、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする検出装置及び検出方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a detection device and a detection method capable of suppressing erroneous detection when detecting an intruder in an exclusion zone. do.

本発明に係る検出装置は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、撮像画像から、対象物に対応する矩形領域を特定する特定部と、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、複数の注目点の全てが対応領域に含まれると判定された場合に、警報を出力する出力部と、を有することを特徴とする。 The detection device according to the present invention is a detection device that detects an object that has invaded the inside of a predetermined no-entry area, and has an acquisition unit that acquires an image generated by imaging a space including the no-entry area. , Judgment from the captured image whether or not the specific portion that identifies the rectangular region corresponding to the object and all of the plurality of points of interest in the rectangular region are included in the corresponding region corresponding to the inaccessible prohibited area in the captured image. It is characterized by having a unit and an output unit that outputs an alarm when it is determined that all of a plurality of points of interest are included in the corresponding area.

また、本発明に係る検出装置において、複数の注目点は、矩形領域の下辺の両端点である、ことが好ましい。 Further, in the detection device according to the present invention, it is preferable that a plurality of points of interest are both end points of the lower side of the rectangular region.

また、本発明に係る検出装置において、複数の注目点は、ユーザの操作に応じて選択される、ことが好ましい。 Further, in the detection device according to the present invention, it is preferable that a plurality of points of interest are selected according to the operation of the user.

また、本発明に係る検出装置において、取得部は、撮像時刻の異なる複数の撮像画像を取得し、特定部は、複数の撮像画像の間の差分情報に基づいて、矩形領域を特定する、ことが好ましい。 Further, in the detection device according to the present invention, the acquisition unit acquires a plurality of captured images having different imaging times, and the specific unit identifies a rectangular region based on the difference information between the plurality of captured images. Is preferable.

本発明に係る検出方法は、所定の進入禁止区域の内部に侵入した対象物を検出する検出装置によって実行される検出方法であって、進入禁止区域を含む空間を撮像して生成された撮像画像を取得し、撮像画像から、対象物に対応する矩形領域を特定し、矩形領域における複数の注目点の全てが撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定し、複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する、ことを含むことを特徴とする。 The detection method according to the present invention is a detection method executed by a detection device that detects an object that has invaded the inside of a predetermined exclusion zone, and is an image captured by imaging a space including the exclusion zone. Is obtained, a rectangular area corresponding to the object is specified from the captured image, and it is determined whether or not all of the plurality of points of interest in the rectangular area are included in the corresponding area corresponding to the exclusion zone in the captured image. It is characterized by including outputting an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.

本発明に係る検出装置及び検出方法は、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする。 The detection device and the detection method according to the present invention make it possible to suppress erroneous detection when detecting an intruder in an exclusion zone.

検出システム1の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the detection system 1. 検出装置2の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the detection device 2. 撮像画像テーブルT1のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the captured image table T1. 検出処理の流れの一例を示すフロー図である。It is a flow chart which shows an example of the flow of a detection process. (a)は背景画像の一例を示す図であり、(b)は撮像画像の一例を示す図である。(A) is a diagram showing an example of a background image, and (b) is a diagram showing an example of a captured image.

以下、図面を参照しつつ本発明の様々な実施形態について説明する。本発明の技術的範囲はこれらの実施形態に限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶことに留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. It should be noted that the technical scope of the present invention is not limited to these embodiments but extends to the inventions described in the claims and their equivalents.

図1は、本発明に係る検出システム1の概略構成の一例を示す図である。検出システム
1は、施設において、所定の進入禁止区域の内部に侵入した対象物を検出するためのシステムである。検出システム1は、撮像装置2、検出装置3及びユーザ端末4を有する。
FIG. 1 is a diagram showing an example of a schematic configuration of the detection system 1 according to the present invention. The detection system 1 is a system for detecting an object that has invaded the inside of a predetermined exclusion zone in a facility. The detection system 1 includes an image pickup device 2, a detection device 3, and a user terminal 4.

撮像装置2は、進入禁止区域を含む空間を撮像して撮像画像を生成する装置であり、例えば監視カメラである。撮像装置2は、所定の時間間隔(例えば、30分の1秒)ごとに進入禁止区域を含む空間を撮像することにより、撮像画像を生成する。図1に示す例では、撮像画像は、フェンスFによって囲まれた施設の敷地内に設定された進入禁止区域Aと、進入禁止区域Aの外部の道路Rとを含む。撮像装置2は、生成した撮像画像を検出装置3に対して順次送信する。 The image pickup device 2 is a device that captures an image of a space including an exclusion zone and generates an captured image, and is, for example, a surveillance camera. The image pickup apparatus 2 generates an image to be captured by taking an image of a space including an exclusion zone at predetermined time intervals (for example, 1/30 second). In the example shown in FIG. 1, the captured image includes an exclusion zone A set in the site of the facility surrounded by the fence F and a road R outside the exclusion zone A. The image pickup device 2 sequentially transmits the generated captured image to the detection device 3.

検出装置3は、撮像画像に基づいて侵入者を検出する装置である。検出装置3は、侵入者が検出された場合、ユーザ端末4に警報を出力する。ユーザ端末4は、施設を監視するユーザが利用する、PC(Personal Computer)、タブレット端末又は多機能携帯電話(スマートフォン)等の情報処理端末である。ユーザ端末4は、検出装置3から出力された警報を表示し、又は音声として出力する。 The detection device 3 is a device that detects an intruder based on an captured image. When an intruder is detected, the detection device 3 outputs an alarm to the user terminal 4. The user terminal 4 is an information processing terminal such as a PC (Personal Computer), a tablet terminal, or a multifunctional mobile phone (smartphone) used by a user who monitors a facility. The user terminal 4 displays the alarm output from the detection device 3 or outputs it as voice.

図2は、検出装置3の概略構成の一例を示す図である。検出装置3は、記憶部31、映像受信部32、映像送信部33、通信部34及び処理部35を有する。 FIG. 2 is a diagram showing an example of a schematic configuration of the detection device 3. The detection device 3 has a storage unit 31, a video receiving unit 32, a video transmitting unit 33, a communication unit 34, and a processing unit 35.

記憶部31は、プログラム及びデータを記憶するための構成であり、例えば、半導体メモリを備える。記憶部31は、処理部35による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、CD(Compact Disc)-ROM(Read Only Memory)等のコンピュータ読み取り可能且つ非一時的な可搬型記憶媒体から、セットアッププログラム等を用いて記憶部31にインストールされる。 The storage unit 31 is configured to store programs and data, and includes, for example, a semiconductor memory. The storage unit 31 stores an operating system program, a driver program, an application program, data, and the like used for processing by the processing unit 35. The program is installed in the storage unit 31 from a computer-readable and non-temporary portable storage medium such as a CD (Compact Disc) -ROM (Read Only Memory) using a setup program or the like.

映像受信部32は、検出装置3が撮像装置2から画像データを受信するための構成であり、インタフェース回路を備える。映像受信部32が備えるインタフェース回路は、例えばHD-TVI(High Definition Transport Video Interface)等の映像伝送インタフェースの回路である。映像受信部32は、撮像装置2から受信したデータを処理部35に供給する。 The image receiving unit 32 is configured for the detection device 3 to receive image data from the image pickup device 2, and includes an interface circuit. The interface circuit included in the video receiving unit 32 is, for example, a circuit of a video transmission interface such as HD-TVI (High Definition Transport Video Interface). The image receiving unit 32 supplies the data received from the image pickup device 2 to the processing unit 35.

映像送信部33は、検出装置3がユーザ端末4に画像データを送信するための構成であり、インタフェース回路を備える。映像送信部33が備えるインタフェース回路は、NTSC(National Television System Committee)等の映像伝送インタフェースの回路である。映像送信部33は、処理部35から供給されたデータをユーザ端末4に送信する。 The video transmission unit 33 is configured for the detection device 3 to transmit image data to the user terminal 4, and includes an interface circuit. The interface circuit included in the video transmission unit 33 is a circuit of a video transmission interface such as NTSC (National Television System Committee). The video transmission unit 33 transmits the data supplied from the processing unit 35 to the user terminal 4.

通信部34は、検出装置3がユーザ端末4と通信するための構成であり、通信インタフェース回路を備える。通信部34が備える通信インタフェース回路は、有線LAN(Local Area Network)又は無線LAN等の通信インタフェース回路である。通信部34は、処理部35から供給されたデータをユーザ端末4に送信するとともに、ユーザ端末4から受信したデータを処理部35に供給する。 The communication unit 34 is configured for the detection device 3 to communicate with the user terminal 4, and includes a communication interface circuit. The communication interface circuit included in the communication unit 34 is a communication interface circuit such as a wired LAN (Local Area Network) or a wireless LAN. The communication unit 34 transmits the data supplied from the processing unit 35 to the user terminal 4, and supplies the data received from the user terminal 4 to the processing unit 35.

なお、撮像装置2が所謂ネットワークカメラである場合、通信部34は映像受信部32の機能を兼ねてもよい。また、通信部34は映像送信部33の機能を兼ねてもよい。 When the image pickup device 2 is a so-called network camera, the communication unit 34 may also have the function of the video reception unit 32. Further, the communication unit 34 may also serve as the function of the video transmission unit 33.

処理部35は、検出装置3の動作を統括的に制御するデバイスであり、一又は複数個のプロセッサ及びその周辺回路を備える。処理部35は、例えばCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)を備える。処理部35は、DSP(Digital Signal Processor)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を備えてもよい。処理部35は、記憶部31に記憶されているプログラムに基づいて検出装置3の各部の動作を制御するとともに様々な処理を実行する。 The processing unit 35 is a device that comprehensively controls the operation of the detection device 3, and includes one or a plurality of processors and peripheral circuits thereof. The processing unit 35 includes, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The processing unit 35 may include a DSP (Digital Signal Processor), an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and the like. The processing unit 35 controls the operation of each unit of the detection device 3 based on the program stored in the storage unit 31, and executes various processes.

処理部35は、取得部351、特定部352、判定部353及び出力部354をその機能ブロックとして備える。これらの各部は、処理部35が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして検出装置3に実装されてもよい。 The processing unit 35 includes an acquisition unit 351, a specific unit 352, a determination unit 353, and an output unit 354 as its functional blocks. Each of these parts is a functional module realized by a program executed by the processing unit 35. Each of these parts may be mounted on the detection device 3 as firmware.

図3は、記憶部31に記憶される撮像画像テーブルT1のデータ構造の一例を示す図である。撮像画像テーブルT1は、画像ID、画像ファイル、撮像時刻、背景画像及び矩形領域の情報を相互に関連付けて記憶する。 FIG. 3 is a diagram showing an example of the data structure of the captured image table T1 stored in the storage unit 31. The captured image table T1 stores information of an image ID, an image file, a captured time, a background image, and a rectangular area in association with each other.

画像IDは、撮像装置2から送信された撮像画像の識別情報である。画像ファイルは、撮像時刻の画像データの識別情報であり、ファイル名、ファイルパス等を含む。撮像時刻は、撮像画像が生成された時刻を示す情報である。背景画像は、後述する検出処理において、撮像画像を、人物や動物、自動車等の対象物が含まれない背景画像として用いるか否かを示す情報である。矩形領域の情報は、後述する検出処理において特定される、撮像画像において対象物に対応する領域を示す情報である。図3に示す例では、矩形領域の情報は、撮像画像を構成する画素のうち、矩形領域の4つの頂点に対応する画素の座標である。 The image ID is identification information of the captured image transmitted from the imaging device 2. The image file is identification information of image data at the time of imaging, and includes a file name, a file path, and the like. The imaging time is information indicating the time when the captured image was generated. The background image is information indicating whether or not the captured image is used as a background image that does not include an object such as a person, an animal, or an automobile in the detection process described later. The information of the rectangular region is the information indicating the region corresponding to the object in the captured image, which is specified in the detection process described later. In the example shown in FIG. 3, the information in the rectangular region is the coordinates of the pixels corresponding to the four vertices of the rectangular region among the pixels constituting the captured image.

撮像画像テーブルT1の各データのうち、背景画像を除くデータは、後述する検出処理において、検出装置3によって生成される。背景画像のデータは、撮像画像を確認したユーザによって設定される。 Of the data in the captured image table T1, the data excluding the background image is generated by the detection device 3 in the detection process described later. The background image data is set by the user who confirmed the captured image.

図4は、検出装置3によって実行される検出処理の流れの一例を示すフロー図である。検出処理は、撮像画像が撮像装置2から検出装置3に送信されるたびに、各撮像画像について実行される。検出処理は、記憶部31に記憶されたプログラムを実行する処理部35が、検出装置3の各構成と協働することにより実現される。 FIG. 4 is a flow chart showing an example of the flow of the detection process executed by the detection device 3. The detection process is executed for each captured image each time the captured image is transmitted from the image pickup device 2 to the detection device 3. The detection process is realized by the processing unit 35 that executes the program stored in the storage unit 31 in cooperation with each configuration of the detection device 3.

まず、取得部351は、進入禁止区域を含む空間を撮像して生成された撮像画像を取得する(S11)。取得部351は、映像受信部32を介して、撮像装置2から送信された映像を受信し、受信した映像に含まれるフレーム画像を撮像画像として取得する。また、取得部351は、受信した映像から、各フレーム画像の撮像時刻を取得する。取得部351は、取得した撮像画像に画像ID及び撮像時刻を関連付けて撮像画像テーブルT1に記憶する。 First, the acquisition unit 351 acquires an captured image generated by imaging a space including an exclusion zone (S11). The acquisition unit 351 receives the image transmitted from the image pickup device 2 via the image reception unit 32, and acquires a frame image included in the received image as an image to be captured. Further, the acquisition unit 351 acquires the imaging time of each frame image from the received video. The acquisition unit 351 associates the acquired image with the image ID and the image capture time and stores the image in the image table T1.

続いて、特定部352は、撮像画像から、対象物に対応する矩形領域を特定する(S12)。対象物に対応する矩形領域は、撮像画像において対象物に外接する矩形領域である。特定部352は、例えば、撮像時刻の異なる複数の撮像画像の間の差分情報に基づいて、矩形領域を特定する。 Subsequently, the specifying unit 352 specifies a rectangular region corresponding to the object from the captured image (S12). The rectangular area corresponding to the object is a rectangular area circumscribing the object in the captured image. The specifying unit 352 specifies a rectangular region, for example, based on the difference information between a plurality of captured images having different imaging times.

この場合、特定部352は、撮像画像テーブルT1を参照して、対象物がない時刻に所定の空間を撮像することにより生成された撮像画像である背景画像を取得する。特定部352は、背景画像の各画素と、取得した撮像画像の各画素との間の輝度値の差分を示す差分情報を算出する。特定部352は、差分情報に基づいて、撮像画像の各画素のうちから差分の絶対値が所定値以上である画素を抽出する。画素が抽出された場合、特定部352は、抽出された画素に外接する矩形領域を対象物に対応する矩形領域として特定する。画素が抽出されなかった場合、特定部352は、対象物に対応する矩形領域を特定しない。 In this case, the specific unit 352 refers to the captured image table T1 and acquires a background image which is an captured image generated by imaging a predetermined space at a time when there is no object. The specific unit 352 calculates the difference information indicating the difference in the luminance value between each pixel of the background image and each pixel of the acquired captured image. Based on the difference information, the specific unit 352 extracts pixels whose absolute value of the difference is equal to or greater than a predetermined value from each pixel of the captured image. When a pixel is extracted, the specifying unit 352 specifies a rectangular region circumscribing the extracted pixel as a rectangular region corresponding to the object. If the pixels are not extracted, the specific unit 352 does not specify the rectangular area corresponding to the object.

矩形領域が特定された場合、特定部352は、特定した矩形領域の情報を撮像画像に関連付けて撮像画像テーブルT1に記憶する。 When the rectangular region is specified, the specific unit 352 stores the information of the specified rectangular region in the captured image table T1 in association with the captured image.

特定部352は、抽出された画素を相互の位置関係に基づいて複数のグループに分類し、各グループに属する画素に外接する複数の矩形領域を設定してもよい。画素の分類は、例えば階層型クラスタリングを用い、相互に異なるグループに属する画素の間の最短距離が所定距離未満である場合にこれらのグループを併合することによりなされる。これにより、撮像画像に複数の対象物が含まれる場合にも、各対象物が適切に検出される。 The specific unit 352 may classify the extracted pixels into a plurality of groups based on the mutual positional relationship, and set a plurality of rectangular areas circumscribing the pixels belonging to each group. Pixel classification is performed, for example, by using hierarchical clustering and merging these groups when the shortest distance between pixels belonging to different groups is less than a predetermined distance. As a result, even when a plurality of objects are included in the captured image, each object is appropriately detected.

図5(a)は対象画像を含まない背景画像Bの一例を示す図であり、図5(b)は対象物を含む撮像画像Pの一例を示す図である。図5(b)に示す例では、撮像画像Pは進入禁止区域Aの内部に位置する人物S1と、進入禁止区域Aの外部の道路Rを走行する自動車S2とを含む。特定部352は、背景画像Bと撮像画像Pとの差分情報に基づいて、人物S1に対応する矩形領域K1と自動車S2に対応する矩形領域K2とを特定する。 FIG. 5A is a diagram showing an example of a background image B not including an object image, and FIG. 5B is a diagram showing an example of a captured image P including an object. In the example shown in FIG. 5B, the captured image P includes a person S1 located inside the exclusion zone A and a vehicle S2 traveling on a road R outside the exclusion zone A. The specifying unit 352 identifies the rectangular region K1 corresponding to the person S1 and the rectangular region K2 corresponding to the automobile S2 based on the difference information between the background image B and the captured image P.

図4に戻り、矩形領域が特定された場合(S13-Yes)、判定部353は、矩形領域における複数の注目点の全てが、撮像画像において進入禁止区域に対応する対応領域に含まれるか否かを判定する(S14)。複数の注目点は、例えば、矩形領域の下辺の両端点である。この場合、判定部353は、下辺の両端点の両方が対応領域に含まれるか、又は、下辺の両端点の少なくとも一方が対応領域に含まれないかを判定する。 Returning to FIG. 4, when the rectangular area is specified (S13-Yes), the determination unit 353 determines whether or not all of the plurality of points of interest in the rectangular area are included in the corresponding area corresponding to the exclusion zone in the captured image. (S14). The plurality of points of interest are, for example, both end points of the lower edge of the rectangular area. In this case, the determination unit 353 determines whether both of the lower end points are included in the corresponding area, or whether at least one of the lower end points is not included in the corresponding area.

図5(b)に示すように、人物S1に対応する矩形領域K1の下辺の両端点C1及びC2は、進入禁止区域Aに対応する対応領域(斜線の網掛けにて図示)に含まれる。したがって、判定部353は、矩形領域K1における複数の注目点の全てが対応領域に含まれると判定する。また、自動車S2に対応する矩形領域K2の下辺の両端点C3及びC4のうち、右側の端点C4は対応領域に含まれるが、左側の端点C3は対応領域に含まれない。したがって、判定部353は、矩形領域K2における複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定する。 As shown in FIG. 5B, both end points C1 and C2 of the lower side of the rectangular region K1 corresponding to the person S1 are included in the corresponding region (shown by shaded shades) corresponding to the exclusion zone A. Therefore, the determination unit 353 determines that all of the plurality of points of interest in the rectangular region K1 are included in the corresponding region. Further, of the end points C3 and C4 on the lower side of the rectangular region K2 corresponding to the automobile S2, the right end point C4 is included in the corresponding area, but the left end point C3 is not included in the corresponding area. Therefore, the determination unit 353 determines that at least one of the plurality of points of interest in the rectangular area K2 is not included in the corresponding area.

図4に戻り、複数の注目点の全てが対応領域に含まれると判定された場合(S15-Yes)、出力部354は、警報を出力する(S16)。例えば、出力部354は、通信部34を介して所定の警報音を出力させるための音声情報をユーザ端末4に送信することにより、警報を出力する。出力部354は、通信部34を介して対象物が進入禁止区域に侵入したことを示すメッセージの表示データをユーザ端末4に送信することにより、警報を出力してもよい。複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定された場合(S15-No)、出力部354は警報を出力しない。 Returning to FIG. 4, when it is determined that all of the plurality of points of interest are included in the corresponding area (S15-Yes), the output unit 354 outputs an alarm (S16). For example, the output unit 354 outputs an alarm by transmitting voice information for outputting a predetermined alarm sound to the user terminal 4 via the communication unit 34. The output unit 354 may output an alarm by transmitting display data of a message indicating that the object has entered the restricted area to the user terminal 4 via the communication unit 34. When it is determined that at least one of the plurality of points of interest is not included in the corresponding area (S15-No), the output unit 354 does not output an alarm.

続いて、出力部354は、矩形領域が重畳された撮像画像を出力し(S17)、検出処理を終了する。出力部354は、撮像画像テーブルT1の矩形領域の情報を参照して、図5(b)に示したような、矩形領域が重畳された撮像画像の表示データを生成する。出力部354は、映像送信部33を介して、生成した表示データをユーザ端末4に送信する。出力部354は、生成した表示データを、矩形領域が重畳された撮像画像をフレーム画像とする映像データとして送信する。ユーザ端末4は、受信した映像データを記憶するとともに表示する。 Subsequently, the output unit 354 outputs the captured image on which the rectangular region is superimposed (S17), and ends the detection process. The output unit 354 refers to the information of the rectangular region of the captured image table T1 and generates the display data of the captured image on which the rectangular region is superimposed as shown in FIG. 5 (b). The output unit 354 transmits the generated display data to the user terminal 4 via the video transmission unit 33. The output unit 354 transmits the generated display data as video data in which the captured image on which the rectangular region is superimposed is used as the frame image. The user terminal 4 stores and displays the received video data.

S13において対象物に対応する矩形領域が特定されなかった場合(S13-No)、出力部354は、撮像画像を出力し(S18)、検出処理を終了する。出力部354は、映像送信部33を介して、撮像画像をフレーム画像とする映像データをユーザ端末4に送信する。ユーザ端末4は、受信した映像データを記憶するとともに表示する。 When the rectangular region corresponding to the object is not specified in S13 (S13-No), the output unit 354 outputs the captured image (S18) and ends the detection process. The output unit 354 transmits video data using the captured image as a frame image to the user terminal 4 via the video transmission unit 33. The user terminal 4 stores and displays the received video data.

以上説明したように、検出装置3は、撮像画像において対象物に対応する矩形領域の複数の注目点の全てが進入禁止区域に対応する対応領域に含まれる場合に、警報を出力する。これにより、検出装置3は、進入禁止区域内の侵入者を検出する際の誤検出を抑えることを可能とする。 As described above, the detection device 3 outputs an alarm when all of the plurality of points of interest in the rectangular region corresponding to the object in the captured image are included in the corresponding region corresponding to the exclusion zone. This makes it possible for the detection device 3 to suppress erroneous detection when detecting an intruder in the exclusion zone.

すなわち、図5(b)に示したように、対象物が進入禁止区域の外部に位置する場合でも、対象物に対応する矩形領域の一部が進入禁止区域に対応する対応領域に含まれ、対象物が侵入者として誤検出されるおそれがある。これに対し、検出装置3は、矩形領域の複数の注目点の全てが対応領域に含まれる場合にのみ対象物を侵入者として検出するため、誤検出の発生を抑えることができる。 That is, as shown in FIG. 5B, even when the object is located outside the restricted area, a part of the rectangular area corresponding to the object is included in the corresponding area corresponding to the restricted area. The object may be falsely detected as an intruder. On the other hand, since the detection device 3 detects the object as an intruder only when all of the plurality of points of interest in the rectangular region are included in the corresponding region, the occurrence of erroneous detection can be suppressed.

また、検出装置3は、複数の注目点として、矩形領域の下辺の両端点を用いる。これにより、検出装置3は、誤検出の発生をより抑えながら進入禁止区域内の侵入者を検出することを可能とする。例えば、図5(b)に示したように、自動車S2は進入禁止区域Aの外部に位置するにもかかわらず、自動車S2に対応する矩形領域K2の下辺の中心点C5
は進入禁止区域Aの対応領域に含まれる。したがって、矩形領域の下辺の中心点のみを注目点として用いた場合には、誤検出が発生する。他方で、矩形領域K2の下辺の両端点C3及びC4のうちの左側の端点C3は対応領域に含まれないため、矩形領域の下辺の両端点を注目点として用いた場合には、誤検出が発生しない。
Further, the detection device 3 uses both end points of the lower side of the rectangular region as a plurality of points of interest. This makes it possible for the detection device 3 to detect an intruder in the exclusion zone while further suppressing the occurrence of erroneous detection. For example, as shown in FIG. 5B, although the automobile S2 is located outside the exclusion zone A, the center point C5 of the lower side of the rectangular region K2 corresponding to the automobile S2.
Is included in the corresponding area of the exclusion zone A. Therefore, if only the center point of the lower side of the rectangular region is used as the point of interest, erroneous detection will occur. On the other hand, since the left end points C3 of the lower end points C3 and C4 of the rectangular area K2 are not included in the corresponding area, erroneous detection occurs when the lower end points of the rectangular area are used as points of interest. Does not occur.

すなわち、矩形領域の下辺の両端点が対応領域に含まれる場合の多くは、対象物の下端部(対象物が人物である場合は、足元)が進入禁止区域の内部に位置する場合である。したがって、矩形領域の下辺の両端点の両方が対応領域に含まれる場合に対象物を侵入者として検出することにより、検出装置3は高精度に侵入者を検出することを可能とする。 That is, in most cases where both end points of the lower side of the rectangular area are included in the corresponding area, the lower end of the object (or the foot when the object is a person) is located inside the exclusion zone. Therefore, by detecting the object as an intruder when both the end points of the lower end of the rectangular area are included in the corresponding area, the detection device 3 can detect the intruder with high accuracy.

また、検出装置3は、あらかじめ撮像された背景画像と取得した撮像画像との差分情報に基づいて矩形領域を特定する。これにより、検出装置3は、小さい演算負荷により侵入者を検出することを可能とする。 Further, the detection device 3 specifies a rectangular region based on the difference information between the background image captured in advance and the acquired captured image. This allows the detection device 3 to detect an intruder with a small computational load.

すなわち、背景画像と撮像画像との差分情報の算出は加減演算によってなされる。また、撮像画像の各画素のうちから差分の絶対値が所定値以上である画素を抽出する処理は、比較演算によってなされる。また、抽出された画素に外接する矩形領域を設定する処理は、抽出された画素のうち、画素の座標値(X座標及びY座標)の最大値及び最小値を算出する処理であるから、比較演算によってなされる。矩形領域の特定がこれらの演算負荷が小さい演算によってのみ実現されるため、検出装置3の演算負荷が抑えられる。 That is, the calculation of the difference information between the background image and the captured image is performed by an addition / subtraction operation. Further, the process of extracting the pixels whose absolute value of the difference is equal to or higher than the predetermined value from each pixel of the captured image is performed by a comparison operation. Further, since the process of setting the rectangular area circumscribing the extracted pixels is the process of calculating the maximum and minimum values of the pixel coordinate values (X coordinate and Y coordinate) of the extracted pixels, comparison is performed. It is done by calculation. Since the rectangular region is specified only by these operations with a small calculation load, the calculation load of the detection device 3 can be suppressed.

上述した説明では、特定部352は背景画像と撮像画像との差分情報に基づいて矩形領域を特定するものとしたが、このような例に限られない。例えば、特定部352は撮像画像と、かかる撮像画像の直前に取得した撮像画像である比較対象画像との差分情報に基づいて矩形領域を特定してもよい。また、特定部352は、差分情報を用いずに矩形領域を特定してもよい。例えば、特定部352は、画像が入力された場合に人物や動物等の対象物に対応する矩形領域を特定するように学習された学習済みモデルを用いて矩形領域を特定してもよい。学習済みモデルは、例えばR-CNN(Region with Convolutional Neural Network)又はSSD(Single Shot Detector)等である。 In the above description, the specific unit 352 specifies the rectangular region based on the difference information between the background image and the captured image, but the present invention is not limited to such an example. For example, the specifying unit 352 may specify a rectangular region based on the difference information between the captured image and the comparison target image which is the captured image acquired immediately before the captured image. Further, the specifying unit 352 may specify the rectangular area without using the difference information. For example, the specifying unit 352 may specify a rectangular area using a trained model trained to specify a rectangular area corresponding to an object such as a person or an animal when an image is input. The trained model is, for example, R-CNN (Region with Convolutional Neural Network) or SSD (Single Shot Detector).

上述した説明では、複数の注目点は矩形領域の下辺の両端点であるものとしたが、このような例に限られない。複数の注目点は、矩形領域の頂点でもよい。また、複数の注目点は、矩形領域の下辺の両端点と中心点との組合せでもよく、矩形領域の両端点と矩形領域の重心点との組合せでもよい。複数の注目点は、矩形領域の下辺の中心点と矩形領域の重心点との組合せでもよい。また、注目点は、矩形領域の周上及び内部の任意の点でもよい。例えば、注目点は、矩形領域の重心から上下左右の何れかに所定距離だけ離隔した点でもよい。所定距離は、矩形領域の大きさに応じて定まる距離(例えば、矩形領域の幅又は高さの5パーセントに相当する距離)でもよい。 In the above description, it is assumed that the plurality of points of interest are both end points of the lower side of the rectangular area, but the present invention is not limited to such an example. The plurality of points of interest may be the vertices of a rectangular area. Further, the plurality of points of interest may be a combination of both end points of the lower side of the rectangular area and the center point, or may be a combination of the end points of the rectangular area and the center of gravity point of the rectangular area. The plurality of points of interest may be a combination of the center point of the lower side of the rectangular area and the center of gravity point of the rectangular area. Further, the point of interest may be any point on or inside the rectangular region. For example, the point of interest may be a point separated by a predetermined distance from the center of gravity of the rectangular region to either the top, bottom, left, or right. The predetermined distance may be a distance determined according to the size of the rectangular area (for example, a distance corresponding to 5% of the width or height of the rectangular area).

また、注目点は、矩形領域の周上及び内部の点から、ユーザの操作に応じて選択されてもよい。この場合、ユーザは、あらかじめユーザ端末4を操作して、注目点を選択する。例えば、ユーザ端末4は、注目点に関する複数の選択肢をユーザに提示し、ユーザからの選択を受け付ける。選択肢は、例えば、矩形領域の下辺の中心点、矩形領域の重心点、矩形領域の下辺の両端点、及び、矩形領域の各頂点等である。ユーザ端末4は、ユーザが選択した選択肢を示す選択情報を生成し、検出装置3に送信する。検出装置3は、受信した選択情報を記憶部31に記憶する。 Further, the points of interest may be selected from points on and inside the rectangular area according to the user's operation. In this case, the user operates the user terminal 4 in advance to select a point of interest. For example, the user terminal 4 presents a plurality of options regarding a point of interest to the user and accepts the selection from the user. The options are, for example, the center point of the lower side of the rectangular area, the center point of the rectangular area, the end points of the lower side of the rectangular area, and the vertices of the rectangular area. The user terminal 4 generates selection information indicating the options selected by the user and transmits the selection information to the detection device 3. The detection device 3 stores the received selection information in the storage unit 31.

判定部363は、検出処理のS14において、記憶部31に記憶された選択情報に基づいて注目点を設定し、注目点の全てが対応領域に含まれるか否かを判定する。これにより、検出装置3は、ユーザが誤検出の程度に応じて適切な検出精度を選択することを可能とする。なお、複数の選択肢には、注目点の数が一つである選択肢(上述した例では、矩形領域の下辺の中心点の選択肢及び矩形領域の重心点の選択肢)が含まれてもよい。 In S14 of the detection process, the determination unit 363 sets the points of interest based on the selection information stored in the storage unit 31, and determines whether or not all of the points of interest are included in the corresponding area. This allows the detection device 3 to allow the user to select an appropriate detection accuracy according to the degree of erroneous detection. The plurality of options may include an option in which the number of points of interest is one (in the above example, the option of the center point of the lower side of the rectangular area and the option of the center of gravity point of the rectangular area).

また、注目点は、検出装置3によって自動的に選択されてもよい。この場合、判定部363は、検出処理のS14において注目点の全てが対応領域に含まれると判定した場合に、その判定がされた判定時刻を記憶部31に記憶する。判定部363は、所定頻度(例えば、一日に数十回)以上の頻度で判定時刻が記憶された場合に、誤検出が頻発していると判定し、記憶部31に記憶された選択情報を変更することにより注目点を変更する。この場合、判定部363は、例えば所定の優先順位に従って注目点を変更する。これにより、検出装置3は、ユーザによる操作を待つことなく誤検出を抑えることを可能とする。 Further, the point of interest may be automatically selected by the detection device 3. In this case, when the determination unit 363 determines in S14 of the detection process that all of the points of interest are included in the corresponding area, the determination unit 363 stores the determination time at which the determination is made in the storage unit 31. When the determination time is stored at a predetermined frequency (for example, several tens of times a day) or more, the determination unit 363 determines that erroneous detection occurs frequently, and the selection information stored in the storage unit 31. Change the point of interest by changing. In this case, the determination unit 363 changes the point of interest according to, for example, a predetermined priority. This makes it possible for the detection device 3 to suppress erroneous detection without waiting for an operation by the user.

上述した説明では、検出装置3は、対象物に対応する矩形領域が特定された場合、矩形領域が重畳された撮像画像を出力するものとしたが、このような例に限られない。検出処理において、複数の注目点のうちの少なくとも一つの注目点が対応領域に含まれないと判定された場合(S15-No)、出力部354は矩形領域が重畳されない撮像画像を出力してもよい(S18)。これにより、対象物が進入禁止区域の内部に位置する場合にのみユーザ端末4が矩形領域を表示するようになるため、検出装置3は、侵入者が検出されたことをユーザが視覚的に認識することを容易にする。また、出力部354は、S17及びS18を実行せず、警報のみを出力してもよい。 In the above description, when the rectangular region corresponding to the object is specified, the detection device 3 outputs the captured image in which the rectangular region is superimposed, but the present invention is not limited to such an example. When it is determined in the detection process that at least one of the plurality of points of interest is not included in the corresponding area (S15-No), the output unit 354 outputs an captured image in which the rectangular area is not superimposed. Good (S18). As a result, the user terminal 4 displays the rectangular area only when the object is located inside the exclusion zone, so that the detection device 3 visually recognizes that the intruder has been detected. Make it easy to do. Further, the output unit 354 may output only an alarm without executing S17 and S18.

上述した説明では、検出装置3は、矩形領域が特定された場合に矩形領域が重畳された撮像画像を出力するものとしたが、このような例に限られない。検出装置3は、ユーザの選択に応じて矩形領域が重畳された撮像画像を出力するか否かを判定してもよい。この場合、ユーザは、あらかじめユーザ端末4を操作して、矩形領域を表示するか否かを選択する。ユーザ端末4は、ユーザが選択した選択肢を示す選択情報を生成し、検出装置3に送信する。検出装置3は、受信した選択情報を記憶部31に記憶する。出力部354は、S17において、選択情報が矩形領域を表示することを示す場合に、矩形領域が重畳された撮像画像を出力し、選択情報が矩形領域を表示することを示す場合に、矩形領域が重畳されていない撮像画像を出力する。これにより、検出装置3は、矩形領域により映像の視認性が低下することを防ぐことを可能とする。また、検出装置3は、矩形領域が重畳された撮像画像と矩形領域が重畳されていない撮像画像との両方を出力してもよい。この場合、ユーザは、ユーザ端末4の操作に応じて何れの撮像画像を表示するかを選択する。 In the above description, the detection device 3 is supposed to output the captured image in which the rectangular region is superimposed when the rectangular region is specified, but the present invention is not limited to such an example. The detection device 3 may determine whether or not to output the captured image in which the rectangular region is superimposed according to the user's selection. In this case, the user operates the user terminal 4 in advance to select whether or not to display the rectangular area. The user terminal 4 generates selection information indicating the options selected by the user and transmits the selection information to the detection device 3. The detection device 3 stores the received selection information in the storage unit 31. In S17, the output unit 354 outputs a captured image in which the rectangular area is superimposed when the selection information indicates that the rectangular area is displayed, and when the selection information indicates that the rectangular area is displayed, the rectangular area is displayed. Outputs a captured image in which is not superimposed. This makes it possible for the detection device 3 to prevent the visibility of the image from being lowered due to the rectangular area. Further, the detection device 3 may output both the captured image in which the rectangular region is superimposed and the captured image in which the rectangular region is not superimposed. In this case, the user selects which captured image is to be displayed according to the operation of the user terminal 4.

上述した説明では、検出システム1は検出装置3及びユーザ端末4を備えるものとしたが、検出装置3及びユーザ端末4の機能が一つの装置により実現されてもよい。例えば、検出装置3の機能はユーザ端末4によって実現されてもよい。また、検出装置3の機能の一部のみがユーザ端末4によって実現されてもよい。 In the above description, the detection system 1 includes the detection device 3 and the user terminal 4, but the functions of the detection device 3 and the user terminal 4 may be realized by one device. For example, the function of the detection device 3 may be realized by the user terminal 4. Further, only a part of the functions of the detection device 3 may be realized by the user terminal 4.

当業者は、本発明の精神および範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention. For example, the processes of the above-mentioned parts may be executed in different orders as appropriate within the scope of the present invention. Further, the above-described embodiments and modifications may be carried out in appropriate combinations within the scope of the present invention.

3 検出装置
31 記憶部
32 映像受信部
33 映像送信部
34 通信部
35 処理部
351 取得部
352 特定部
353 判定部
354 出力部
3 Detection device 31 Storage unit 32 Video reception unit 33 Video transmission unit 34 Communication unit 35 Processing unit 351 Acquisition unit 352 Specific unit 353 Judgment unit 354 Output unit

Claims (4)

所定の進入禁止区域の内部に侵入した対象物を検出する検出装置であって、
前記進入禁止区域を含む空間を撮像して生成された撮像画像を取得する取得部と、
前記撮像画像から、前記対象物に対応する矩形領域を特定する特定部と、
前記矩形領域の下辺の両端点である複数の注目点の全てが前記撮像画像において前記進入禁止区域に対応する対応領域に含まれるか否かを判定する判定部と、
前記複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する出力部と、を有することを特徴とする検出装置。
It is a detection device that detects an object that has invaded the inside of a predetermined exclusion zone.
An acquisition unit that acquires a captured image generated by imaging a space including the exclusion zone, and
From the captured image, a specific portion that identifies a rectangular region corresponding to the object, and a specific portion.
A determination unit for determining whether or not all of the plurality of points of interest, which are both end points of the lower side of the rectangular region, are included in the corresponding region corresponding to the exclusion zone in the captured image.
A detection device including an output unit that outputs an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.
前記複数の注目点は、前記矩形領域の周上及び内部の点から、ユーザの操作に応じて選択される、
請求項に記載の検出装置。
The plurality of points of interest are selected from points on and inside the rectangular area according to the user's operation.
The detection device according to claim 1 .
前記取得部は、撮像時刻の異なる複数の撮像画像を取得し、
前記特定部は、前記複数の撮像画像の間の差分情報に基づいて、前記矩形領域を特定する、
請求項1または2に記載の検出装置。
The acquisition unit acquires a plurality of captured images having different imaging times, and obtains them.
The specific unit identifies the rectangular region based on the difference information between the plurality of captured images.
The detection device according to claim 1 or 2 .
所定の進入禁止区域の内部に侵入した対象物を検出する検出装置によって実行される検出方法であって、
前記進入禁止区域を含む空間を撮像して生成された撮像画像を取得し、
前記撮像画像から、前記対象物に対応する矩形領域を特定し、
前記矩形領域の下辺の両端点である複数の注目点の全てが前記撮像画像において前記進入禁止区域に対応する対応領域に含まれるか否かを判定し、
前記複数の注目点の全てが前記対応領域に含まれると判定された場合に、警報を出力する、ことを含むことを特徴とする検出方法。
A detection method performed by a detection device that detects an object that has invaded the inside of a predetermined exclusion zone.
The captured image generated by imaging the space including the exclusion zone is acquired.
From the captured image, a rectangular area corresponding to the object is identified.
It is determined whether or not all of the plurality of points of interest, which are both end points of the lower side of the rectangular region, are included in the corresponding region corresponding to the exclusion zone in the captured image.
A detection method comprising outputting an alarm when it is determined that all of the plurality of points of interest are included in the corresponding area.
JP2020181786A 2020-10-29 2020-10-29 Detection device and detection method Active JP7004786B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020181786A JP7004786B1 (en) 2020-10-29 2020-10-29 Detection device and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020181786A JP7004786B1 (en) 2020-10-29 2020-10-29 Detection device and detection method

Publications (2)

Publication Number Publication Date
JP7004786B1 true JP7004786B1 (en) 2022-01-21
JP2022072389A JP2022072389A (en) 2022-05-17

Family

ID=80621043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020181786A Active JP7004786B1 (en) 2020-10-29 2020-10-29 Detection device and detection method

Country Status (1)

Country Link
JP (1) JP7004786B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338611A (en) 2005-06-06 2006-12-14 Matsushita Electric Ind Co Ltd Moving object detection device
JP2007015814A (en) 2005-07-07 2007-01-25 Mitsubishi Electric Corp Equipment carrying-in-and-out system
JP2007274656A (en) 2006-03-31 2007-10-18 Saxa Inc Video monitoring device and method therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283584A (en) * 1997-04-08 1998-10-23 Mitsubishi Heavy Ind Ltd Ship traffic supervisory device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338611A (en) 2005-06-06 2006-12-14 Matsushita Electric Ind Co Ltd Moving object detection device
JP2007015814A (en) 2005-07-07 2007-01-25 Mitsubishi Electric Corp Equipment carrying-in-and-out system
JP2007274656A (en) 2006-03-31 2007-10-18 Saxa Inc Video monitoring device and method therefor

Also Published As

Publication number Publication date
JP2022072389A (en) 2022-05-17

Similar Documents

Publication Publication Date Title
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
KR101687530B1 (en) Control method in image capture system, control apparatus and a computer-readable storage medium
US10474918B2 (en) Image processing apparatus, image processing method, and storage medium
EP3024227B1 (en) Image processing apparatus and image processing method
JP6674584B2 (en) Video surveillance system
WO2016199244A1 (en) Object recognition device and object recognition system
US9105104B2 (en) Image processing apparatus,image processing method, and program
WO2017163955A1 (en) Monitoring system, image processing device, image processing method and program recording medium
US9904865B2 (en) Setting apparatus which sets a detection region for a detection process
US10762372B2 (en) Image processing apparatus and control method therefor
JP2009117956A (en) Video processor
JP5264457B2 (en) Object detection device
JP2019052889A (en) Image processor
JP2005129003A (en) Device for detecting change
JP2015228626A (en) Image output device, image management system, image processing method and program
JP4140126B2 (en) Region segmentation and object extraction device
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP7004786B1 (en) Detection device and detection method
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
JP2007164375A (en) Three-dimensional object detection device and method, computer readable medium and three-dimensional object management system
CN110610178A (en) Image recognition method, device, terminal and computer readable storage medium
US10979675B2 (en) Video monitoring apparatus for displaying event information
JP2019211923A (en) Information processing apparatus, system, information processing apparatus control method, and program
JP7136222B2 (en) Object tracking device, object tracking method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220104

R150 Certificate of patent or registration of utility model

Ref document number: 7004786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150