JP2020024669A - Detection device and control method thereof - Google Patents

Detection device and control method thereof Download PDF

Info

Publication number
JP2020024669A
JP2020024669A JP2019084436A JP2019084436A JP2020024669A JP 2020024669 A JP2020024669 A JP 2020024669A JP 2019084436 A JP2019084436 A JP 2019084436A JP 2019084436 A JP2019084436 A JP 2019084436A JP 2020024669 A JP2020024669 A JP 2020024669A
Authority
JP
Japan
Prior art keywords
detection
human body
unit
intrusion
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019084436A
Other languages
Japanese (ja)
Other versions
JP7378223B2 (en
Inventor
大矢 崇
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/531,539 priority Critical patent/US11514703B2/en
Priority to CN201910720555.6A priority patent/CN110826387B/en
Publication of JP2020024669A publication Critical patent/JP2020024669A/en
Priority to US17/974,660 priority patent/US20230044673A1/en
Application granted granted Critical
Publication of JP7378223B2 publication Critical patent/JP7378223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To make it possible to distinguish and detect an object according to a state of the object.SOLUTION: A detection device comprises: detecting means for detecting a plurality of parts of an object included in a frame image of a moving image to detect the object included in a video image; intrusion determining means for determining that the object has invaded a preset region with respect to the frame image; and deciding means for deciding to notify a determination result depending on whether a predetermined part is included in the detected part.SELECTED DRAWING: Figure 5

Description

本発明は、映像に含まれる物体の検知技術に関するものである。   The present invention relates to a technology for detecting an object included in an image.

マンション、ビル、校舎、駅舎、空港等の施設の安全確保を目的として、監視カメラを設置し当該監視カメラにより得られた映像を解析することにより、人物が施設内に侵入したことを検知するシステムが導入されてきている。特許文献1は、映像中の人体領域検出に関して、部位を検出する強判別器をカスケード接続して人体を検出する技術を開示している。また、特許文献2は、人物が画像上の禁止領域に対して侵入したかどうかを判定する侵入者監視装置を開示している。   A system that detects a person entering a facility by installing a surveillance camera and analyzing images obtained by the surveillance camera for the purpose of ensuring the safety of facilities such as condominiums, buildings, school buildings, station buildings, and airports. Has been introduced. Patent Literature 1 discloses a technique for detecting a human body by cascade-connecting strong classifiers for detecting parts in detecting a human body region in an image. Patent Document 2 discloses an intruder monitoring device that determines whether a person has entered a prohibited area on an image.

米国特許出願公開第2007/237387号US Patent Application Publication No. 2007/237378 特開平9−50585号公報JP-A-9-50585

ところで、上述の従来技術においては、映像に含まれる人体に関して当該人体の状態を区別せずに検出を行う構成となっている。そのため、図1に示すような映像がカメラにより取得されていた場合、車両に搭乗している人体(運転手102)と、道路上を歩行している人体(歩行者103)と、を検知することになる。例えば、破線矩形104及び破線矩形105において人体が検知されたと判定し追尾を開始する。そして、例えば、追尾中の人体が侵入検知線110を通過したことをトリガに、侵入者が検知されたという警報を出力する。つまり、車両の進入は検知対象から除外したい(=車両に搭乗した人体は検知対象から除外したい)というようなユースケースに対応することが出来ない。   By the way, in the above-mentioned conventional technology, the detection is performed without distinguishing the state of the human body included in the video. Therefore, when an image as shown in FIG. 1 is acquired by the camera, a human body (driver 102) riding on the vehicle and a human body (pedestrian 103) walking on the road are detected. Will be. For example, it is determined that a human body has been detected in the dashed rectangle 104 and the dashed rectangle 105, and tracking is started. Then, for example, when a tracking human body passes through the intrusion detection line 110, a warning is output that an intruder has been detected. That is, it is not possible to cope with a use case in which entry of a vehicle is desired to be excluded from the detection target (= a human body in the vehicle is desired to be excluded from the detection target).

本発明は、このような問題に鑑みてなされたものであり、物体の状態に応じて物体を区別して検知可能とする技術を提供することを目的としている。   The present invention has been made in view of such a problem, and it is an object of the present invention to provide a technique that allows an object to be distinguished and detected according to the state of the object.

上述の問題点を解決するため、本発明に係る検知装置は以下の構成を備える。すなわち、検知装置は、動画のフレーム画像に含まれる物体の複数の部位を検出する検出手段と、前記物体が、前記フレーム画像に対して予め設定された領域へ侵入したことを判定する侵入判定手段と、前記検出手段により検出された部位に所定の部位を含むかによって、前記侵入判定手段による判定結果を通知するかを決定する決定手段と、を有する。又は、検知装置は、動画のフレーム画像に含まれる物体の複数の部位を検出する検出手段と、前記検出手段により検出された部位に所定の部位を含むかによって、前記物体が歩行者であるか車両の搭乗者であるかを判定する判定手段と、を有する。   In order to solve the above-mentioned problems, a detection device according to the present invention has the following configuration. That is, the detection device includes: a detection unit configured to detect a plurality of portions of an object included in a frame image of a moving image; and an intrusion determination unit configured to determine that the object has entered a predetermined region of the frame image. And determining means for determining whether to notify the determination result by the intrusion determining means depending on whether a predetermined part is included in the part detected by the detecting means. Alternatively, the detection device may include a detection unit that detects a plurality of parts of the object included in the frame image of the moving image, and whether the object is a pedestrian depending on whether the part detected by the detection unit includes a predetermined part. Determining means for determining whether the vehicle is a passenger.

本発明によれば、物体の状態に応じて物体を区別して検知可能とする技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which makes an object distinguishable and detectable according to the state of an object can be provided.

侵入検知の例を説明する図である。It is a figure explaining the example of intrusion detection. 第1実施形態における侵入検知の原理を説明する図である。FIG. 3 is a diagram illustrating the principle of intrusion detection in the first embodiment. 複数の部位検出に基づく人体の状態判定ロジックを説明する図である。FIG. 4 is a diagram illustrating a human body state determination logic based on detection of a plurality of parts. 検知システムのハードウェア構成を例示的に示す図である。FIG. 2 is a diagram exemplarily illustrating a hardware configuration of a detection system. 検知装置の機能構成を例示的に示す図である。It is a figure which shows the functional structure of a detection apparatus exemplarily. 侵入検知の条件を設定する画面の例を示す図である。It is a figure showing the example of the screen which sets up the condition of intrusion detection. 第1実施形態における侵入検知処理のフローチャートである。It is a flowchart of intrusion detection processing in the first embodiment. 第2実施形態における侵入検知処理のフローチャートである。It is a flow chart of intrusion detection processing in a 2nd embodiment.

以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る検知装置の第1実施形態として、所定の監視領域を撮像するカメラと、当該カメラにより取得された動画像から物体を検出する検知装置と、を含む検知システムを例に挙げて以下に説明する。以下の説明では、検知対象の物体として人体を想定するが、他の物体でもよい。
(1st Embodiment)
As a first embodiment of a detection device according to the present invention, a detection system that includes a camera that captures an image of a predetermined monitoring area and a detection device that detects an object from a moving image acquired by the camera will be described below as an example. Will be described. In the following description, a human body is assumed as an object to be detected, but another object may be used.

<システム構成>
図4は、検知システムのハードウェア構成を例示的に示す図である。上述したように、検知システムは、検知装置400とカメラ450とを含む。なお、ここでは、検知装置400は、ネットワーク430を介して1つのカメラ450から映像を受信する構成を示しているが、複数のカメラから映像を受信するよう構成してもよい。また、検知装置400自体にカメラを搭載し、ネットワーク430を介さず直接映像を取得する構成としてもよい。
<System configuration>
FIG. 4 is a diagram exemplarily illustrating a hardware configuration of the detection system. As described above, the detection system includes the detection device 400 and the camera 450. Note that here, the configuration in which the detection device 400 receives an image from one camera 450 via the network 430 is shown, but the detection device 400 may be configured to receive images from a plurality of cameras. Alternatively, a configuration may be adopted in which a camera is mounted on the detection device 400 itself, and an image is directly acquired without passing through the network 430.

検知装置400は、CPU401、ROM402、RAM403、外部記憶I/F404、入出力I/F405、ネットワークI/F406を含む。ROM402は、CPU401が実行するプログラムや各種の設定データを記憶する。CPU401は、ROM402に記憶されたプログラムをRAM403に読み込み実行することにより、図5を参照して後述する各機能部を実現する。   The detection device 400 includes a CPU 401, a ROM 402, a RAM 403, an external storage I / F 404, an input / output I / F 405, and a network I / F 406. The ROM 402 stores programs executed by the CPU 401 and various setting data. The CPU 401 reads the program stored in the ROM 402 into the RAM 403 and executes the program, thereby realizing each functional unit described later with reference to FIG.

外部記憶I/F404は、ハードディスクドライブ(HDD)などの外部記憶装置407を接続するためのインタフェースである。入出力I/F405は、キーボード421、マウス422、不図示のタッチパネル等の入力デバイス、ディスプレイ423等の出力デバイスと接続するためのインタフェースである。ネットワークI/F406は、ネットワーク430と接続し、カメラ450等の外部装置と通信するためのインタフェースである。検知装置400は、例えば、汎用のPC(パーソナルコンピューター)、スマートフォン、タブレット、で実現可能であり、特定のデバイス形態に依存するものではない。   The external storage I / F 404 is an interface for connecting an external storage device 407 such as a hard disk drive (HDD). The input / output I / F 405 is an interface for connecting to an input device such as a keyboard 421, a mouse 422, a touch panel (not shown), and an output device such as a display 423. The network I / F 406 is an interface for connecting to the network 430 and communicating with an external device such as the camera 450. The detection device 400 can be realized by, for example, a general-purpose PC (personal computer), smartphone, or tablet, and does not depend on a specific device form.

カメラ450は、CPU451、ROM452、RAM453、撮像部454,ネットワークI/F455を含む。ROM452は、CPU451が実行するプログラムや各種の設定データを記憶する。CPU451は、ROM452に記憶されたプログラムをRAM453に読み込み実行することにより、撮像部454による撮像処理やネットワークI/F455を介した通信処理を実現する。撮像部454は、撮像光学系及びCCDやCMOSなどの撮像素子を含み、撮像により動画像(複数のフレーム画像)の生成を行う。圧縮符号化等も併せて行う構成でもよい。   The camera 450 includes a CPU 451, a ROM 452, a RAM 453, an imaging unit 454, and a network I / F 455. The ROM 452 stores programs executed by the CPU 451 and various setting data. The CPU 451 reads the program stored in the ROM 452 into the RAM 453 and executes the program, thereby realizing an imaging process by the imaging unit 454 and a communication process via the network I / F 455. The imaging unit 454 includes an imaging optical system and an imaging device such as a CCD or a CMOS, and generates a moving image (a plurality of frame images) by imaging. A configuration in which compression encoding and the like are also performed may be performed.

図5は、検知装置の機能構成を例示的に示す図である。検知装置400は、機能部として、通信部501、画像取得部502、前処理部503、人体検出部510、人体追尾部504、状態判定部505、侵入判定部506、結果生成部508、領域設定部507を含む。また、人体検出部510は、それぞれが異なる対象部位を検出する複数の検出部(頭部検出部511、顔検出部512、上半身検出部513、全身検出部514)と、結果統合部515とを含む。   FIG. 5 is a diagram exemplarily showing a functional configuration of the detection device. The detection device 400 includes, as functional units, a communication unit 501, an image acquisition unit 502, a preprocessing unit 503, a human body detection unit 510, a human body tracking unit 504, a state determination unit 505, an intrusion determination unit 506, a result generation unit 508, and an area setting. Unit 507. The human body detection unit 510 includes a plurality of detection units (a head detection unit 511, a face detection unit 512, an upper body detection unit 513, and a whole body detection unit 514) each detecting a different target part, and a result integration unit 515. Including.

通信部501は、ネットワーク530と介して外部装置との間で通信を実行する。例えば、カメラ450から圧縮符号化された動画像を受信する。画像取得部502は、取得した動画像を復号化し、例えば複数のフレーム画像として外部記憶装置407に記憶する。前処理部503は、特徴量が抽出しやすいようにフレーム画像を補正する。   The communication unit 501 performs communication with an external device via the network 530. For example, a compression-encoded moving image is received from the camera 450. The image acquiring unit 502 decodes the acquired moving image and stores the decoded moving image in the external storage device 407 as, for example, a plurality of frame images. The preprocessing unit 503 corrects the frame image so that the feature amount can be easily extracted.

人体検出部510は、フレーム画像に含まれる人体を検出する。具体的には、頭部検出部511、顔検出部512、上半身検出部513、全身検出部514それぞれにおいて検出処理を実行し、結果統合部515で検出結果を統合することにより人体を検出する。検出処理の詳細については、図2及び図3を参照して後述する。   The human body detection unit 510 detects a human body included in the frame image. More specifically, the head detection unit 511, the face detection unit 512, the upper body detection unit 513, and the whole body detection unit 514 each execute a detection process, and the result integration unit 515 integrates the detection results to detect a human body. Details of the detection processing will be described later with reference to FIGS.

人体追尾部504は、人体検出部510で検出した人体を複数のフレーム画像間で対応付けを行い、当該人体を追尾する。状態判定部505は、人体検出部510で検出した人体の状態を判定する。ここでは、運転手であるか歩行者であるか識別する。領域設定部507は、侵入検知の判定を行う所定領域である画像領域を設定する。ここでは、図2に示すように、動画像が示す撮像領域に対して、直線(線分)形状の侵入検知線として境界線を設定することを想定するが、折れ線又は曲線やそれらの組み合わせとして侵入検知線を設定してもよい。また、任意形状の侵入検知領域として設定してもよい。領域として設定する場合、例えば、対象の人体が当該領域の内側に所定時間以上存在することを条件に侵入検知の判定がなされる。   The human body tracking unit 504 associates the human body detected by the human body detection unit 510 among a plurality of frame images, and tracks the human body. The state determination unit 505 determines the state of the human body detected by the human body detection unit 510. Here, a driver or a pedestrian is identified. The area setting unit 507 sets an image area that is a predetermined area for performing intrusion detection determination. Here, as shown in FIG. 2, it is assumed that a boundary line is set as an intrusion detection line in a straight line (segment) shape with respect to an imaging region indicated by a moving image. An intrusion detection line may be set. Further, it may be set as an intrusion detection area of an arbitrary shape. When setting as an area, for example, intrusion detection is determined on the condition that a target human body exists inside the area for a predetermined time or longer.

侵入判定部506は、領域設定部507による設定に従って、検知対象とする人体の侵入を判定する。結果生成部508は、侵入判定部506による検知結果の情報を生成し、警報通知を行う。例えば、表示部522への警告表示、あるいは、ネットワーク530を介した不図示の外部装置への警告通知を行う。   The intrusion determination unit 506 determines the intrusion of a human body to be detected according to the setting by the area setting unit 507. The result generation unit 508 generates information of the detection result by the intrusion determination unit 506, and issues an alarm notification. For example, a warning is displayed on the display unit 522, or a warning is notified to an external device (not shown) via the network 530.

<侵入検知の原理>
図2は、第1実施形態における侵入検知の原理を説明する図である。図2は、図1と同様に、車両201に搭乗している人体(運転手202)と、道路上を歩行している人体(歩行者203)と、を含む映像がカメラにより取得されていた状態を示している。
<Principle of intrusion detection>
FIG. 2 is a diagram illustrating the principle of intrusion detection in the first embodiment. In FIG. 2, as in FIG. 1, an image including a human body (driver 202) riding on a vehicle 201 and a human body (pedestrian 203) walking on a road is acquired by a camera. The state is shown.

映像に対して侵入検知線210が設定されており、検知装置は、人物が侵入検知線210を通過した場合に侵入検知判定を行う。また、部位検出情報204,205は、検知装置に含まれる4つの判別器により検知された4つの部位の検出結果を示す情報を例示的に示している。   An intrusion detection line 210 is set for an image, and the detection device performs intrusion detection determination when a person passes through the intrusion detection line 210. Further, the part detection information 204 and 205 exemplarily show information indicating detection results of four parts detected by four discriminators included in the detection device.

第1実施形態では、検知装置は、侵入検知線210を通過した人体202、203に対して、部位検出情報204,205に基づき当該人体の状態を判定する。具体的には、人体が運転手であるか歩行者であるかを判定する。そして、運転手である人体202に対して侵入者ではないと判定し警報通知を行わない。一方、歩行者である人体203(運転手ではない人体)に対しては侵入者と判定し警報通知を行う。なお、ここでは、車両に搭乗している人体を便宜上「運転手」と表現するが、他の車両搭乗者(助手席や後部座席にいる人体)に対しても同様に適用可能である。   In the first embodiment, the detection device determines the state of the human bodies 202 and 203 that have passed the intrusion detection line 210 based on the part detection information 204 and 205. Specifically, it is determined whether the human body is a driver or a pedestrian. Then, it is determined that the driver is not an intruder with respect to the human body 202, and no alarm notification is made. On the other hand, a human body 203 (a human body that is not a driver), which is a pedestrian, is determined to be an intruder and an alarm is issued. Here, a human body riding in the vehicle is referred to as a "driver" for convenience, but the present invention can be similarly applied to other vehicle occupants (a human body in a passenger seat or a rear seat).

図3は、複数の部位検出に基づく人体の状態判定ロジックを説明する図である。図3(a)は、人体の状態判定処理の流れを示しており、図3(b)は、部位検出結果の組み合わせパターンに基づく判定結果を示すテーブルを示している。   FIG. 3 is a diagram illustrating a human body state determination logic based on detection of a plurality of parts. FIG. 3A shows a flow of the human body state determination process, and FIG. 3B shows a table showing a determination result based on a combination pattern of the part detection results.

判別器302,304、306、308は、フレーム画像に対して、それぞれ人体の異なる部位(身体領域)に対応する検出処理を行う。判別器302,304、306、308は、図5の頭部検出部511、顔検出部512、上半身検出部513、全身検出部514に対応する。すなわち、第1実施形態では、「部位」として、「顔301」「頭部303」「上半身305」「全身307」を想定する。   The discriminators 302, 304, 306, and 308 each perform a detection process on the frame image corresponding to a different part (body region) of the human body. The discriminators 302, 304, 306, and 308 correspond to the head detection unit 511, the face detection unit 512, the upper body detection unit 513, and the whole body detection unit 514 in FIG. In other words, in the first embodiment, “face 301”, “head 303”, “upper body 305”, and “whole body 307” are assumed as “parts”.

それぞれの判別器(強判別器)は、例えば複数の弱判別器のカスケード接続によって構成される。弱判別器はエッジや色などの画像特徴のパターンを検出する。なお、画像特徴の最適な検出パターンは機械学習によって取得するとよい。   Each discriminator (strong discriminator) is configured by, for example, cascade connection of a plurality of weak discriminators. The weak classifier detects a pattern of an image feature such as an edge or a color. Note that the optimal detection pattern of the image feature may be obtained by machine learning.

人体検出処理309では、それぞれの判別器(強判別器)による部位検出結果に基づいて人体を検出する。人体検出309は、図5の結果統合部515に対応する。なお、検出結果の統合には、例えば、各部位の重み付き和による評価関数を用いることが出来る。   In the human body detection process 309, a human body is detected based on the result of the part detection by each of the classifiers (strong classifiers). The human body detection 309 corresponds to the result integration unit 515 in FIG. For integration of the detection results, for example, an evaluation function based on a weighted sum of each part can be used.

状態判定処理310では、それぞれの判別器(強判別器)による部位検出結果に基づいて、検出した人体の状態を判定する。ここでは、部位検出結果の組み合わせパターンに基づいて、検出された人体が、「運転手」、「歩行者」、あるいはそれら以外であることを示す「不明」を判定する。   In the state determination process 310, the detected state of the human body is determined based on the result of the part detection by each of the classifiers (strong classifiers). Here, based on the combination pattern of the part detection results, the detected human body is determined to be “driver”, “pedestrian”, or “unknown” indicating that it is other than these.

例えば、図3(b)に示されるように、フレーム画像において顔または頭部の少なくとも一方が検出され、その他の部位が検出されない場合は、当該人体を運転手と判定する。また、フレーム画像において全身が検出された場合は、当該人体を歩行者と判定する。すなわち、フレーム画像において全身が検出された場合とは、運転手等の車両搭乗者の場合には検出される可能性が低い人体の下半身を含む人体全体を検出している場合であるため、歩行者と判定する。一方で、フレーム画像において全身が検出されない場合は、下半身を含む人体全体を検出していない場合であるため、運転手等の車両搭乗者と判定する。なお、図3(b)のテーブルにおいて、「〇」は検出されたことを示し、「×」は検出されなかったことを示す。また、「−」は、検出有無によらない(状態判定には用いない)ことを示している。なお、図3(b)のテーブルは単なる例であり、他の人体部位の組み合わせを用いてもよいし、他の状態を判定するよう構成してもよい。また、例えば、人体検出部510が含む複数の検出部として、上述の4つのうち2以上の検出器を有する構成としてもよい。例えば、頭部検出部511と全身検出部514の2つを備えるよう構成し、当該2つの検出器による検出結果に基づいて状態を判定する。また、本実施形態では、上述の4つの検出器を有する構成としたが、さらに人体の下半身を検出する検出器を有する構成でもよい。運転手等の車両搭乗者の場合には、フレーム画像において、人体の下半身が検出される可能性は低いため、検出器により下半身が検出された場合には、歩行者と判定する。一方で、検出器により下半身が検出されない場合には、運転手等の車両搭乗者と判定する。下半身を検出する検出器としては、腰から下の下半身全体を検出する検出器、足首から下の部位を検出する検出器、脚を検出する検出器等が考えられる。   For example, as shown in FIG. 3B, when at least one of the face and the head is detected in the frame image and no other part is detected, the human body is determined to be a driver. When the whole body is detected in the frame image, the human body is determined to be a pedestrian. That is, the case where the whole body is detected in the frame image is a case where the whole human body including the lower body of the human body which is unlikely to be detected in the case of a vehicle occupant such as a driver is detected, Person. On the other hand, when the whole body is not detected in the frame image, it means that the entire human body including the lower body has not been detected, and therefore, it is determined that the driver is a vehicle occupant. Note that, in the table of FIG. 3B, “〇” indicates that detection has been performed, and “×” indicates that detection has not been performed. Further, "-" indicates that detection is not performed (not used for state determination). Note that the table in FIG. 3B is merely an example, and other combinations of human body parts may be used, or another state may be determined. Further, for example, the plurality of detection units included in the human body detection unit 510 may be configured to include two or more detectors among the above-described four. For example, it is configured to include two parts, a head detection part 511 and a whole body detection part 514, and determines the state based on the detection results by the two detectors. Further, in the present embodiment, the configuration including the above-described four detectors is employed, but a configuration further including a detector that detects the lower body of a human body may be employed. In the case of a vehicle occupant such as a driver, the possibility that the lower body of the human body is detected in the frame image is low. Therefore, when the lower body is detected by the detector, the pedestrian is determined. On the other hand, if the lower body is not detected by the detector, it is determined that the driver is a vehicle occupant. Examples of the detector that detects the lower body include a detector that detects the entire lower body from the waist, a detector that detects a part below the ankle, and a detector that detects the legs.

図6は、侵入検知の条件を設定する画面の例を示す図である。ここでは、ディスプレイ423上に表示されるダイアログ600を介して、検知対象、検知領域、検知判定点の設定を受け付けることを想定する。もちろん、更に他の条件を受け付けるよう構成してもよい。ここでは、ダイアログ600には、検知対象を選択するラジオボタン601、領域設定を行う設定ボタン602、検知判定点を表示する表示603が配置される。また、設定を確定するためのOKボタン604、及び設定を破棄するキャンセルボタン605がさらに配置される。   FIG. 6 is a diagram illustrating an example of a screen for setting conditions for intrusion detection. Here, it is assumed that the setting of the detection target, the detection area, and the detection determination point is received via the dialog 600 displayed on the display 423. Of course, it may be configured to receive other conditions. Here, in the dialog 600, a radio button 601 for selecting a detection target, a setting button 602 for setting an area, and a display 603 for displaying a detection determination point are arranged. Further, an OK button 604 for confirming the setting and a cancel button 605 for canceling the setting are further arranged.

検知対象を選択するラジオボタン601は、侵入検知対象を限定するにあたって複数のオプションからマウス422によるクリック操作により1つの選択を受け付ける。例えば、「運転手を除外する」は、「運転手」と判定された人体を侵入検知対象から除外する。すなわち、「歩行者」又は「不明」と判定された人体が侵入検知対象となる。また、「歩行者のみを検知する」は、「運転手」と判定された人体に加え「不明」と判定された人体も侵入検知対象から除外する。   The radio button 601 for selecting a detection target receives one selection from a plurality of options by a click operation with the mouse 422 in limiting the intrusion detection target. For example, “exclude a driver” excludes a human body determined as a “driver” from intrusion detection targets. That is, a human body determined to be “pedestrian” or “unknown” is an intrusion detection target. “Detect only pedestrians” excludes the human body determined as “unknown” in addition to the human body determined as “driver” from the intrusion detection targets.

設定ボタン602は、侵入検知を判定する領域の設定を受け付ける。例えば、マウス422によるクリック操作により設定ボタン602を押下すると、図2に示すシーンが表示され、侵入検知線210の変更を受け付けるユーザインタフェース(UI)が表示される。当該UIは図5の領域設定部507に相当するものである。上述したように、侵入検知線(ライン)として設定することが可能な他、侵入検知領域(エリア)として設定することも可能である。また、検知判定点の表示603は、侵入検知を判定する領域における検知ポイントを示す表示である。検知ポイントとして、例えば、足元、中央、右、左等が表示される。   The setting button 602 accepts setting of an area for determining intrusion detection. For example, when the setting button 602 is pressed by a click operation with the mouse 422, the scene shown in FIG. 2 is displayed, and a user interface (UI) for receiving a change of the intrusion detection line 210 is displayed. The UI corresponds to the area setting unit 507 in FIG. As described above, in addition to being set as an intrusion detection line (line), it is also possible to set as an intrusion detection area (area). The display 603 of the detection determination point is a display indicating the detection point in the area for determining the intrusion detection. For example, the feet, the center, the right, the left, and the like are displayed as the detection points.

<装置の動作>
図7は、第1実施形態における侵入検知処理のフローチャートである。上述したように、図5に示す各機能部は、CPU401が、ROM402に記憶されたプログラムをRAM403に読み込み実行することにより実現される。
<Operation of the device>
FIG. 7 is a flowchart of the intrusion detection processing in the first embodiment. As described above, each functional unit illustrated in FIG. 5 is realized by the CPU 401 reading the program stored in the ROM 402 into the RAM 403 and executing the program.

S701では、画像取得部502は、ネットワーク530を介してカメラ450から動画像を取得する。そして、取得した動画像を復号化し、例えば複数のフレーム画像として外部記憶装置407に記憶する。   In step S701, the image acquisition unit 502 acquires a moving image from the camera 450 via the network 530. Then, the obtained moving image is decoded and stored in the external storage device 407 as, for example, a plurality of frame images.

S702では、前処理部503は、特徴量が抽出しやすいようにフレーム画像を補正し、人体検出部510は、フレーム画像に含まれる人体を検出する。ここでは、上述したように、4つの検出部511〜514それぞれは、人体の4つの部位(頭部、顔、上半身、全身)それぞれを検出する処理を行う。そして、結果統合部515で4つの検出部による検出結果を統合することにより人体を検出する。   In step S702, the preprocessing unit 503 corrects the frame image so that the feature amount can be easily extracted, and the human body detection unit 510 detects a human body included in the frame image. Here, as described above, each of the four detection units 511 to 514 performs a process of detecting each of the four parts of the human body (head, face, upper body, and whole body). Then, the result integrating unit 515 integrates the detection results of the four detection units to detect a human body.

S703では、人体追尾部504は、人体検出部510で検出した人体を複数のフレーム画像にわたって追尾する。例えば、先行する(=過去の)フレーム画像における人体の検出結果を紐づけて履歴保持するものである。なお、第1実施形態では、人体検出部510で検出した全ての人体を追尾する。   In S703, the human body tracking unit 504 tracks the human body detected by the human body detection unit 510 over a plurality of frame images. For example, the detection result of the human body in the preceding (= past) frame image is linked and held as a history. In the first embodiment, all the human bodies detected by the human body detection unit 510 are tracked.

S704では、侵入判定部506は、領域設定部507による設定に従って、検知対象とする人体の侵入を判定する。例えば、侵入検知線210に対して人体の移動ベクトルが所定の方向に交差したことを判定する。   In step S704, the intrusion determination unit 506 determines the intrusion of a human body to be detected according to the setting of the area setting unit 507. For example, it is determined that the movement vector of the human body crosses the intrusion detection line 210 in a predetermined direction.

S705では、状態判定部505は、侵入検知線210に対して交差した人体の状態を判定する。具体的には、図3を参照して説明した方法により運転手、歩行者、不明の何れであるかを判定する。そして、運転手である場合はS707に進み、運転手でない場合(すなわち歩行者又は不明の場合)はS706に進む。また、S706では、歩行者である場合はS708に進み、歩行者でない場合(すなわち不明の場合)はS709に進む。   In S705, the state determination unit 505 determines the state of the human body crossing the intrusion detection line 210. Specifically, it is determined whether it is a driver, a pedestrian, or unknown by the method described with reference to FIG. If the driver is a driver, the process proceeds to S707. If the driver is not a driver (ie, a pedestrian or unknown), the process proceeds to S706. In S706, if it is a pedestrian, the process proceeds to S708, and if it is not a pedestrian (that is, if it is unknown), the process proceeds to S709.

S707では、侵入判定部506は、対象の人体は正常な入構者であるとして記録する。一方、S708では、侵入判定部506は、対象の人体は異常入構者(歩行者)であるとして記録する。また、S709では、侵入判定部506は、対象の人体は異常入構者(不明)であるとして記録する。そして、侵入判定部506は、S708又はS709において異常入構者の記録を行った後、侵入検知イベントを発行する。   In step S707, the intrusion determination unit 506 records that the target human body is a normal entrant. On the other hand, in S708, the intrusion determination unit 506 records that the target human body is an abnormally entrant (pedestrian). In step S709, the intrusion determination unit 506 records that the target human body is an abnormally entered person (unknown). Then, the intrusion determination unit 506 issues an intrusion detection event after recording the abnormal entrance person in S708 or S709.

S711では、侵入判定部506は、S702で検出されS703で追尾されている全ての人体に対してS704の侵入検知判定を行ったか否かを判定する。判定を行っていない人体がある場合はS704に戻り、残りの人体について判定を行う。全ての人体に対する判定が完了した場合はS712に進む。   In step S711, the intrusion determination unit 506 determines whether the intrusion detection determination in step S704 has been performed for all the human bodies detected in step S702 and tracked in step S703. If there is a human body for which no determination has been made, the process returns to S704, and the determination is made for the remaining human body. If the determination has been completed for all human bodies, the process proceeds to S712.

S712では、結果生成部508は、侵入検知イベントが発行された場合、異常入構者が検知された旨をユーザに認識させるべく警報通知する。例えば、表示部522への警告表示、あるいは、ネットワーク530を介した不図示の外部装置への警告通知を行う。   In step S712, when the intrusion detection event is issued, the result generation unit 508 issues an alarm notification to make the user recognize that the abnormal entrance has been detected. For example, a warning is displayed on the display unit 522, or a warning is notified to an external device (not shown) via the network 530.

S713では、検知装置400は、終了判定を行う。例えば、ユーザにより終了指示があった場合は処理を終了する。指示がない場合はS701に戻って処理を継続する。   In S713, the detection device 400 makes an end determination. For example, when there is a termination instruction from the user, the processing is terminated. If there is no instruction, the process returns to S701 to continue the process.

以上説明したとおり第1実施形態によれば、複数の検出器の検出結果に基づいて人体を検出すると共に、当該人体の状態(運転手、歩行者、不明)を判定する。そして、判定された状態に基づいて侵入検知イベントの発行を制御する。例えば、人体が運転手と判定された場合は、侵入検知イベントの発行を抑止する。これにより、例えば、車両の侵入(車両に搭乗した人体の侵入)についての警報通知を抑止することが可能となる。すなわち、車両の進入は検知対象から除外したいというようなユースケースに対応することが可能となる。   As described above, according to the first embodiment, a human body is detected based on the detection results of the plurality of detectors, and the state of the human body (driver, pedestrian, unknown) is determined. Then, issuance of an intrusion detection event is controlled based on the determined state. For example, when the human body is determined to be a driver, the issuance of an intrusion detection event is suppressed. Thereby, for example, it is possible to suppress a warning notification about the intrusion of the vehicle (the intrusion of the human body in the vehicle). That is, it is possible to cope with a use case in which entry of a vehicle is desired to be excluded from detection targets.

なお、上述の説明においては、検知対象の物体として人体を想定したが、様々な物体を検知対象の物体として指定可能である。すなわち、複数の判別器による検知結果に基づいて複数の状態をとり得る物体であればよい。   In the above description, a human body is assumed as the detection target object, but various objects can be designated as the detection target object. That is, any object that can take a plurality of states based on the detection results of the plurality of classifiers may be used.

(第2実施形態)
第2実施形態では、追尾及び侵入検知の対象とする人体数を減らし、処理負荷を軽減する形態について説明する。具体的には、検出された人体に対して状態判定を行い、特定の状態にある人体(運転手)を除外した人体(歩行者及び不明)を追尾し侵入検知判定を行う形態について説明する。侵入検知の原理、状態判定ロジック、ハードウェア構成については第1実施形態(図2〜図4)と同様であるため説明は省略する。
(2nd Embodiment)
In the second embodiment, a mode in which the number of human bodies targeted for tracking and intrusion detection is reduced to reduce the processing load will be described. Specifically, an embodiment will be described in which a state determination is performed on a detected human body, and a human body (pedestrian and unknown) excluding a human body (driver) in a specific state is tracked to perform intrusion detection determination. The principle of intrusion detection, the state determination logic, and the hardware configuration are the same as those in the first embodiment (FIGS. 2 to 4), and thus description thereof is omitted.

また、第2実施形態における機能構成は第1実施形態(図5)とほぼ同様であるが、処理順序が第1形態とは異なる。具体的には、第2実施形態では、図5における人体追尾部504と状態判定部505とが入れ替わり、状態判定を行った後に人体追尾を行う構成となる。以下では、主に第1実施形態と異なる部分について説明する。   The functional configuration of the second embodiment is almost the same as that of the first embodiment (FIG. 5), but the processing order is different from that of the first embodiment. Specifically, in the second embodiment, the human body tracking unit 504 and the state determination unit 505 in FIG. 5 are switched, and the human body tracking is performed after performing the state determination. Hereinafter, parts different from the first embodiment will be mainly described.

<装置の動作>
図8は、第2実施形態における侵入検知処理のフローチャートである。第1実施形態と同様に、図5に示す各機能部は、CPU401が、ROM402に記憶されたプログラムをRAM403に読み込み実行することにより実現される。
<Operation of the device>
FIG. 8 is a flowchart of the intrusion detection processing in the second embodiment. As in the first embodiment, each functional unit illustrated in FIG. 5 is realized by the CPU 401 reading a program stored in the ROM 402 into the RAM 403 and executing the program.

S801及びS802は、第1実施形態のS701及びS702と同様である。S803では、状態判定部505は、S802で検出された人体の状態を判定する。具体的には、図3を参照して説明した方法により運転手、歩行者、不明の何れであるかを判定する。そして、運転手である場合はS805に進み、運転手でない場合(すなわち歩行者又は不明の場合)はS804に進む。また、S804では、歩行者である場合はS806に進み、歩行者でない場合(すなわち不明の場合)はS807に進む。   Steps S801 and S802 are the same as steps S701 and S702 of the first embodiment. In S803, the state determination unit 505 determines the state of the human body detected in S802. Specifically, it is determined whether it is a driver, a pedestrian, or unknown by the method described with reference to FIG. If the driver is a driver, the process proceeds to S805. If the driver is not a driver (ie, a pedestrian or unknown), the process proceeds to S804. In step S804, if the user is a pedestrian, the process proceeds to step S806. If the user is not a pedestrian (ie, unknown), the process proceeds to step S807.

S805では、状態判定部505は、対象の人体は正常な入構者候補であると判定する。すなわち、当該人体は、侵入検知線210を通過したとしても正常な入構者として記録されるためである。一方、S806では、侵入判定部506は、対象の人体は異常入構者候補(歩行者)であると判定する。また、S807では、侵入判定部506は、対象の人体は異常入構者候補(不明)であると判定する。そして、S808では、侵入判定部506は、S806又はS807において異常入構者候補として記録した人体を追尾の対象として設定する。   In step S805, the state determination unit 505 determines that the target human body is a normal candidate for the entrance. That is, even if the human body passes through the intrusion detection line 210, it is recorded as a normal entrant. On the other hand, in S806, the intrusion determination unit 506 determines that the target human body is an abnormal entry candidate (pedestrian). In step S807, the intrusion determination unit 506 determines that the target human body is an abnormal entry candidate (unknown). Then, in step S808, the intrusion determination unit 506 sets the human body recorded as the abnormal entry candidate in step S806 or S807 as a tracking target.

S809では、侵入判定部506は、S802で検出された全ての人体に対してS803〜S808の状態判定を行ったか否かを判定する。判定を行っていない人体がある場合はS803に戻り、残りの人体について判定を行う。全ての人体に対する判定が完了した場合はS810に進む。   In step S809, the intrusion determination unit 506 determines whether the state determination in steps S803 to S808 has been performed for all the human bodies detected in step S802. If there is a human body for which no determination has been made, the process returns to S803, and the determination is made for the remaining human body. If the determination has been completed for all the human bodies, the process proceeds to S810.

S810では、人体追尾部504は、S808で追尾対象として設定された人体を複数のフレーム画像にわたって追尾する。そして、S811では、侵入判定部506は、領域設定部507による設定に従って、検知対象とする人体の侵入を判定し、S812では、侵入判定部506は、侵入検知イベントを発行する。すなわち、S808において追尾の対象として設定された人体は、全て、侵入検知線210を通過した場合に異常な入構者として記録される人体(異常入構者候補)であるためである。   In S810, the human body tracking unit 504 tracks the human body set as the tracking target in S808 over a plurality of frame images. Then, in S811, the intrusion determination unit 506 determines the intrusion of a human body to be detected according to the setting by the area setting unit 507, and in S812, the intrusion determination unit 506 issues an intrusion detection event. That is, this is because all the human bodies set as tracking targets in S808 are human bodies recorded as abnormal entrance persons (abnormal entrance candidate candidates) when passing through the intrusion detection line 210.

S813では、侵入判定部506は、S808において追尾の対象として設定された全ての人体に対してS811の状態判定を行ったか否かを判定する。判定を行っていない人体がある場合はS811に戻り、残りの人体について判定を行う。S808において追尾の対象として設定された全ての人体に対する判定が完了した場合はS814に進む。なお、S814及びS815は、第1実施形態のS712及びS713と同様である。   In step S813, the intrusion determination unit 506 determines whether the state determination in step S811 has been performed for all the human bodies set as tracking targets in step S808. If there is a human body for which no determination has been made, the process returns to S811, and the determination is made for the remaining human body. If the determination has been completed for all the human bodies set as tracking targets in S808, the process proceeds to S814. Steps S814 and S815 are the same as steps S712 and S713 of the first embodiment.

以上説明したとおり第2実施形態によれば、検出した人体の状態(運転手、歩行者、不明)の判定結果に基づいて、追尾及び侵入検知の対象とする人体を決定する。すなわち、第2実施形態においては、第1実施形態に比較し、追尾及び侵入検知判定を行う人体の数を低減することが可能となる。そのため、処理負荷を抑制することが可能となる。なお、図3(b)における判定結果に基づいて、結果生成部508が侵入検知の対象と決定した人体を計数してその計数結果を生成して出力するようにしてもよい。   As described above, according to the second embodiment, a target human body for tracking and intrusion detection is determined based on the detected result of the detected human body state (driver, pedestrian, unknown). That is, in the second embodiment, it is possible to reduce the number of human bodies for performing tracking and intrusion detection determination as compared to the first embodiment. Therefore, the processing load can be reduced. In addition, based on the determination result in FIG. 3B, the result generation unit 508 may count the human body determined to be the target of intrusion detection, generate the count result, and output the result.

(変形例)
上述の実施形態では、それぞれ人体の異なる部位を検出する複数の検出器(判定器)による検出結果を統合することにより、当該人体の状態(運転手、歩行、不明)を判定した。一方、人体の各部位を検出する1以上の検出器と車両の各部位を検出する1以上の検出器を設け、これらの検出器による検出結果を統合し、当該人体の状態を判定するよう構成してもよい。
(Modification)
In the above-described embodiment, the state (driver, walking, unknown) of the human body is determined by integrating the detection results obtained by the plurality of detectors (determiners) that detect different parts of the human body. On the other hand, one or more detectors for detecting each part of the human body and one or more detectors for detecting each part of the vehicle are provided, and the detection results of these detectors are integrated to determine the state of the human body. May be.

例えば、動画像に含まれる横長の動体領域を車両と判定する。そして、例えば、人体が侵入検知線210を通過した時点で、人体領域が車両領域の前方(進行方向)の中部に位置する場合に、当該人体が運転手であると判定する。すなわち、人体の状態判定を、当該人体以外の物体の検出結果を統合することに行ってもよい。   For example, a horizontally long moving body region included in a moving image is determined to be a vehicle. Then, for example, when the human body passes through the intrusion detection line 210 and the human body region is located in the middle (forward direction) of the vehicle region, the human body is determined to be the driver. That is, the determination of the state of the human body may be performed by integrating the detection results of objects other than the human body.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

400 検知装置; 401 CPU; 402 ROM; 403 RAM; 430 ネットワーク; 450 カメラ; 501 通信部; 502 画像取得部; 510 人体検出部; 504 人体追尾部; 505 状態判定部; 506 侵入判定部; 508 結果生成部   400 detection device; 401 CPU; 402 ROM; 403 RAM; 430 network; 450 camera; 501 communication unit; 502 image acquisition unit; 510 human body detection unit; 504 human body tracking unit; 505 state determination unit; 506 intrusion determination unit; Generator

Claims (11)

動画のフレーム画像に含まれる物体の複数の部位を検出する検出手段と、
前記物体が、前記フレーム画像に対して予め設定された領域へ侵入したことを判定する侵入判定手段と、
前記検出手段により検出された部位に所定の部位を含むかによって、前記侵入判定手段による判定結果を通知するかを決定する決定手段と、
を有することを特徴とする検知装置。
Detecting means for detecting a plurality of parts of the object included in the frame image of the moving image;
Intrusion determination means for determining that the object has entered a region set in advance with respect to the frame image,
Determining means for determining whether to notify a determination result by the intrusion determining means, depending on whether a predetermined part is included in the part detected by the detecting means,
A detection device comprising:
前記判定結果を通知する通知手段を更に有する
ことを特徴とする請求項1に記載の検知装置。
The detection device according to claim 1, further comprising a notification unit configured to notify the determination result.
前記領域の設定を受け付ける設定手段を更に有し、
前記設定手段は、前記領域の設定を、該領域の境界線を示す直線、曲線またはそれらの組み合わせとして受け付ける
ことを特徴とする請求項1又は2に記載の検知装置。
Further comprising a setting means for receiving the setting of the area,
The detection device according to claim 1, wherein the setting unit receives the setting of the area as a straight line, a curve, or a combination thereof indicating a boundary line of the area.
前記決定手段は、前記検出手段により検出された部位に所定の部位を含む場合に、前記侵入判定手段による判定結果を通知すると決定する
ことを特徴とする請求項1乃至3のいずれか1項に記載の検知装置。
4. The method according to claim 1, wherein the determining unit determines to notify a determination result by the intrusion determining unit when a part detected by the detecting unit includes a predetermined part. 5. The detecting device according to the above.
前記物体は人体であり、前記所定の部位とは、人体の全身、または人体の下半身である
ことを特徴とする請求項1乃至4のいずれか1項に記載の検知装置。
The detection device according to any one of claims 1 to 4, wherein the object is a human body, and the predetermined part is a whole body of the human body or a lower body of the human body.
前記決定手段は、前記検出手段により検出された部位に所定の部位を含む場合に、歩行者が侵入したことをユーザに認識させるべく前記判定結果を通知すると決定する
ことを特徴とする請求項1乃至5のいずれか1項に記載の検知装置。
2. The method according to claim 1, wherein the determining unit determines that the determination result is notified to the user to recognize that the pedestrian has entered when a predetermined part is included in the part detected by the detecting unit. The detection device according to any one of claims 1 to 5.
前記検出手段は、複数の検出器によって前記物体の複数の部位を検出する
ことを特徴とする請求項1乃至6のいずれか1項に記載の検知装置。
The detection device according to claim 1, wherein the detection unit detects a plurality of parts of the object using a plurality of detectors.
動画のフレーム画像に含まれる物体の複数の部位を検出する検出手段と、
前記検出手段により検出された部位に所定の部位を含むかによって、前記物体が歩行者であるか車両の搭乗者であるかを判定する判定手段と、
を有することを特徴とする検知装置。
Detecting means for detecting a plurality of parts of the object included in the frame image of the moving image;
A determination unit that determines whether the object is a pedestrian or a vehicle occupant, by including a predetermined region in the region detected by the detection unit;
A detection device comprising:
動画のフレーム画像に含まれる物体の複数の部位を検出する検出工程と、
前記物体が、前記フレーム画像に対して予め設定された領域へ侵入したことを判定する侵入判定工程と、
前記検出工程で検出された部位に所定の部位を含むかによって、前記侵入判定工程における判定結果を通知するかを決定する決定工程と、
を含むことを特徴とする検知装置の制御方法。
A detection step of detecting a plurality of parts of the object included in the frame image of the video,
An intrusion determination step of determining that the object has invaded a preset region with respect to the frame image;
A determination step of determining whether to notify a determination result in the intrusion determination step, depending on whether a predetermined part is included in the part detected in the detection step,
A method for controlling a detection device, comprising:
動画のフレーム画像に含まれる物体の複数の部位を検出する検出工程と、
前記検出工程で検出された部位に所定の部位を含むかによって、前記物体が歩行者であるか車両の搭乗者であるかを判定する判定工程と、
を含むことを特徴とする検知装置の制御方法。
A detection step of detecting a plurality of parts of the object included in the frame image of the moving image;
A determination step of determining whether the object is a pedestrian or a vehicle occupant by including a predetermined part in the part detected in the detection step,
A method for controlling a detection device, comprising:
コンピュータを、請求項1乃至8の何れか1項に記載の検知装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the detection device according to claim 1.
JP2019084436A 2018-08-07 2019-04-25 Detection device and its control method Active JP7378223B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/531,539 US11514703B2 (en) 2018-08-07 2019-08-05 Detection device and control method of the same
CN201910720555.6A CN110826387B (en) 2018-08-07 2019-08-06 Detection apparatus, control method thereof, and computer-readable recording medium
US17/974,660 US20230044673A1 (en) 2018-08-07 2022-10-27 Detection device and control method of the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148854 2018-08-07
JP2018148854 2018-08-07

Publications (2)

Publication Number Publication Date
JP2020024669A true JP2020024669A (en) 2020-02-13
JP7378223B2 JP7378223B2 (en) 2023-11-13

Family

ID=69618774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084436A Active JP7378223B2 (en) 2018-08-07 2019-04-25 Detection device and its control method

Country Status (1)

Country Link
JP (1) JP7378223B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3942606B2 (en) 2003-06-09 2007-07-11 株式会社日立国際電気 Change detection device
JP2006027481A (en) 2004-07-16 2006-02-02 Toyota Motor Corp Object warning device and its method
JP2008021034A (en) 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2008181347A (en) 2007-01-25 2008-08-07 Meidensha Corp Intrusion monitoring system
JP2008181423A (en) 2007-01-25 2008-08-07 Fujitsu Ten Ltd Pedestrian recognition device and pedestrian recognition method
WO2010024281A1 (en) 2008-08-28 2010-03-04 有限会社ラムロック映像技術研究所 Monitoring system
JP2010128727A (en) 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc Image processor
JP2015219868A (en) 2014-05-21 2015-12-07 キヤノン株式会社 Information processor, information processing method and program
JP2016021200A (en) 2014-07-15 2016-02-04 パナソニックIpマネジメント株式会社 Determination method, determination system and determination device
CN108431876B (en) 2015-12-16 2021-03-12 日本电气株式会社 Setting assistance apparatus, setting assistance method, and program recording medium

Also Published As

Publication number Publication date
JP7378223B2 (en) 2023-11-13

Similar Documents

Publication Publication Date Title
JP5121258B2 (en) Suspicious behavior detection system and method
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
EP2467805B1 (en) Method and system for image analysis
CN110268440B (en) Image analysis device, image analysis method, and storage medium
JP6436077B2 (en) Image processing system, image processing method, and program
JP6233624B2 (en) Information processing system, information processing method, and program
JP6629139B2 (en) Control device, control method, and program
US20150146006A1 (en) Display control apparatus and display control method
JP2018156586A (en) Monitoring system
US20200311440A1 (en) Image processing apparatus and image processing method for image analysis process
US20230044673A1 (en) Detection device and control method of the same
US20220189038A1 (en) Object tracking apparatus, control method, and program
JP5025292B2 (en) Suspicious person detection system and method
JP7204421B2 (en) Detecting device and its control method
US20220165092A1 (en) Accident detection device and accident detection method
JP7378223B2 (en) Detection device and its control method
KR20160068281A (en) Method of object recognition
JP5188840B2 (en) Security device and update method
US10740623B2 (en) Representative image generation device and representative image generation method
JP7120590B2 (en) Information processing device, information processing method, and program
CN106355137B (en) Method for detecting repetitive walk around and repetitive walk around detecting device
JP4888707B2 (en) Suspicious person detection device
US20230252753A1 (en) Image processing apparatus, image processing method, and storage medium
JP2019128824A (en) Image processing apparatus and image processing method
JP6112346B2 (en) Information collection system, program, and information collection method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231031

R151 Written notification of patent or utility model registration

Ref document number: 7378223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151