JP2019200718A - Monitoring device, monitoring method, and program - Google Patents

Monitoring device, monitoring method, and program Download PDF

Info

Publication number
JP2019200718A
JP2019200718A JP2018096395A JP2018096395A JP2019200718A JP 2019200718 A JP2019200718 A JP 2019200718A JP 2018096395 A JP2018096395 A JP 2018096395A JP 2018096395 A JP2018096395 A JP 2018096395A JP 2019200718 A JP2019200718 A JP 2019200718A
Authority
JP
Japan
Prior art keywords
group
attribute
person
output
belonging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018096395A
Other languages
Japanese (ja)
Inventor
小林 正幸
Masayuki Kobayashi
正幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018096395A priority Critical patent/JP2019200718A/en
Publication of JP2019200718A publication Critical patent/JP2019200718A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To provide a monitoring device a monitoring method, and a program that are capable of appropriately notifying a monitoring person of any possibility of danger in person monitoring.SOLUTION: An attribute group detection device as a monitoring device includes: a person detection unit 201 as detection means for detecting a person in a captured image; an attribute estimation unit 202 as attribute estimation means for estimating an attribute of the person detected by the detection means on the basis of the captured image; a group determination unit 203 as classification means for classifying a plurality of persons detected by the detection means attribute groups on the basis of a result of estimation by the attribute estimation means; and an external notification unit 204 as output processing means for performing control to output a warning in accordance with the number of persons belonging to each of the attribute groups.SELECTED DRAWING: Figure 2

Description

本発明は、監視装置、監視方法及びプログラムに関する。   The present invention relates to a monitoring device, a monitoring method, and a program.

従来、監視カメラの撮影映像に基づいて、人物を監視する監視システムが知られている。例えば、特許文献1には、撮影画像に含まれる人物の特徴から監視対象者を特定し、その人物の滞在時間が一定時間以上になった場合に通知する技術が開示されている。また、特許文献2には、マーケティング等の観点から、不特定多数の人物が集まる場所で取得した動画像から人物と人物位置を検出し、位置関係から人物をグループ分けする技術が開示されている。   2. Description of the Related Art Conventionally, a monitoring system that monitors a person based on an image captured by a monitoring camera is known. For example, Patent Literature 1 discloses a technique for specifying a monitoring target person from the characteristics of a person included in a captured image and notifying the person when the stay time of the person exceeds a certain time. Patent Document 2 discloses a technique for detecting a person and a person position from a moving image acquired at a place where an unspecified number of persons gather from a viewpoint of marketing or the like, and grouping the persons from the positional relationship. .

特開2007−74330号公報JP 2007-74330 A 特開2006−92396号公報JP 2006-92396 A

しかしながら、従来技術の監視システムにおいては、危険が生じる可能性のある状況を検知するのが難しいという問題があった。   However, the conventional monitoring system has a problem that it is difficult to detect a situation where there is a possibility of danger.

本発明はこのような問題点に鑑みなされたもので、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to appropriately notify a monitoring person or the like when there is a possibility of danger in person monitoring.

そこで、本発明は、監視装置であって、撮影画像において人物を検出する検出手段と、前記撮影画像に基づいて、前記検出手段により検出された人物の属性を推定する属性推定手段と、前記属性推定手段による推定結果に基づいて、前記検出手段により検出された複数の人物を属性グループに分類する分類手段と、前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理手段とを有することを特徴とする。   Therefore, the present invention is a monitoring device, a detection unit that detects a person in a captured image, an attribute estimation unit that estimates an attribute of the person detected by the detection unit based on the captured image, and the attribute Classification means for classifying a plurality of persons detected by the detection means into an attribute group based on an estimation result by the estimation means, and output processing for controlling to output a warning according to the number of persons belonging to the attribute group Means.

本発明によれば、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することができる。   According to the present invention, when there is a possibility of danger in person monitoring, it is possible to appropriately notify a monitor or the like.

監視装置のハードウェア構成図である。It is a hardware block diagram of a monitoring apparatus. 監視装置の機能構成図である。It is a functional block diagram of a monitoring apparatus. 監視処理を示すフローチャートである。It is a flowchart which shows the monitoring process. 属性グループの説明図である。It is explanatory drawing of an attribute group. 表示画面例を示す図である。It is a figure which shows the example of a display screen. 第2の実施形態に係る監視装置の機能構成図である。It is a functional block diagram of the monitoring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る監視処理を示すフローチャートである。It is a flowchart which shows the monitoring process which concerns on 2nd Embodiment. グループ間距離の説明図である。It is explanatory drawing of the distance between groups. 第3の実施形態に係る監視処理を示すフローチャートである。It is a flowchart which shows the monitoring process which concerns on 3rd Embodiment. 変形例に説明図である。It is explanatory drawing in a modification.

以下、本発明の実施形態について図面に基づいて説明する。
図1は、監視装置100のハードウェア構成図である。情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して外部装置との通信処理を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a hardware configuration diagram of the monitoring apparatus 100. The information processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a display unit 105, an input unit 106, and a communication unit 107. The CPU 101 reads the control program stored in the ROM 102 and executes various processes. The RAM 103 is used as a temporary storage area such as a main memory and a work area for the CPU 101. The HDD 104 stores various data, various programs, and the like. The display unit 105 displays various information. The input unit 106 includes a keyboard and a mouse, and accepts various operations by the user. The communication unit 107 performs communication processing with an external device via a network.

なお、後述する情報処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、CPU101は、ROM102等に替えて、SDカード等の記録媒体に格納されているプログラムを読み出してもよい。   Note that the functions and processing of the information processing apparatus 100 to be described later are realized by the CPU 101 reading a program stored in the ROM 102 or the HDD 104 and executing this program. As another example, the CPU 101 may read a program stored in a recording medium such as an SD card instead of the ROM 102 or the like.

図2は、監視装置100の機能構成図である。監視装置100は、人体検出部201と、属性推定部202と、グループ判定部203と、外部通知部204と、設定部205と、を有している。人体検出部201は、外部から供給された撮影画像としての動画像や静止画像を取得する。なお、供給元は特に限定するものではなく、撮像装置や有線または無線を介して撮影画像を供給するサーバ装置であってもよい。また、供給元は外部に限るものではなく、人体検出部201は、自装置のメモリから撮影画像を取得してもよい。人体検出部201は、設定部205から、人体検出処理を行う領域の設定値を取得し、取得した撮影画像の設定領域に対して人体検出処理を行う。人体検出処理の具体的な処理方法は、取得した撮影画像に対して人体及び人体の位置を所定時間経過毎に検出するものであれば、いかなる形態のものであってもよい。   FIG. 2 is a functional configuration diagram of the monitoring device 100. The monitoring apparatus 100 includes a human body detection unit 201, an attribute estimation unit 202, a group determination unit 203, an external notification unit 204, and a setting unit 205. The human body detection unit 201 acquires a moving image or a still image as a captured image supplied from the outside. The supply source is not particularly limited, and may be an imaging device or a server device that supplies a captured image via a wired or wireless connection. Further, the supply source is not limited to the outside, and the human body detection unit 201 may acquire a captured image from the memory of its own device. The human body detection unit 201 acquires the setting value of the area where the human body detection process is performed from the setting unit 205, and performs the human body detection process on the acquired setting area of the captured image. A specific processing method of the human body detection process may be any form as long as the human body and the position of the human body are detected every predetermined time with respect to the acquired captured image.

属性推定部202は、人体検出部201で検出された人体に対して、属性の推定を行う。推定を行う属性の種類は設定部205より設定される。本実施例では推定を行う属性情報として、年齢、性別を挙げるが、個人から得られる属性の情報であれば、特に限定するものではない。グループ判定部203は、属性推定部202より送出された属性情報より、設定部205より設定されたグループ分け属性に対して少数・多数の属性グループが存在するか否かの判定を行う。判定には設定部205より設定されたグループ分け閾値(人数又は割合)を用いる。グループ判定部203による判定結果は、外部通知部204へ送出される。   The attribute estimation unit 202 performs attribute estimation on the human body detected by the human body detection unit 201. The type of attribute to be estimated is set by the setting unit 205. In this embodiment, age and sex are given as attribute information to be estimated. However, the attribute information is not particularly limited as long as it is attribute information obtained from an individual. The group determination unit 203 determines, based on the attribute information transmitted from the attribute estimation unit 202, whether or not there are a small number and a large number of attribute groups for the grouping attribute set by the setting unit 205. For the determination, a grouping threshold (number of persons or ratio) set by the setting unit 205 is used. The determination result by the group determination unit 203 is sent to the external notification unit 204.

外部通知部204は、グループ判定部203の判定結果に応じて、アラート通知の出力を行うよう制御する。なお、アラート通知の出力先は、設定部205より選択される。アラート通知の出力先は、自装置が備える表示部105等の出力機器でもよく、他装置の出力機器であってもよい。アラート通知の出力先としての出力機器はスピーカであってもよい。出力先が表示部や外部の表示装置の場合には、出力するアラート通知をそのまま出力してもよく、アラート通知に対応したグラフィックスを出力してもよい。   The external notification unit 204 controls to output an alert notification according to the determination result of the group determination unit 203. The alert notification output destination is selected by the setting unit 205. The output destination of the alert notification may be an output device such as the display unit 105 provided in the own device, or may be an output device of another device. The output device as the output destination of the alert notification may be a speaker. When the output destination is a display unit or an external display device, the alert notification to be output may be output as it is, or graphics corresponding to the alert notification may be output.

なお、監視装置100の機能や処理の少なくとも一部は、例えば複数のCPU、RAM、ROM、及びストレージを協働させることにより実現してもよい。また、他の例としては、監視装置100の機能や処理の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、監視装置100は、例えば監視カメラ等の撮影装置内に組み込まれた画像処理回路であってもよい。   Note that at least a part of the functions and processes of the monitoring apparatus 100 may be realized by, for example, cooperating a plurality of CPUs, RAMs, ROMs, and storages. As another example, at least a part of the functions and processing of the monitoring apparatus 100 may be realized using a hardware circuit. Moreover, the monitoring apparatus 100 may be an image processing circuit incorporated in a photographing apparatus such as a monitoring camera.

図3は、監視装置100による監視処理を示すフローチャートである。まず、S301において、設定部205は、属性グループの検知を行う際の各種パラメータの設定を行う。次に、S302において、人体検出部201は、人体検出を開始する。人体検出部201は、撮影画像を取得し、取得した撮影画像において、人体の検出を行う。人体検出部201は、人体の検出処理において、設定部205よりS301で設定された設定領域のパラメータを用いる。設定部205より設定されるパラメータは、人体検出に用いられるものであれば、特に限定されない。次に、S303において、CPU101は、終了判定を行う。CPU101は、撮影画像の入力がない場合に終了と判定する。CPU101はまた、外部からのトリガーに応じて終了と判定する。CPU101は、終了と判定すると(S303でYES)、監視処理を終了する。CPU101は、終了と判定しない場合には(S303でNO)、処理をS304へ進める。   FIG. 3 is a flowchart showing monitoring processing by the monitoring apparatus 100. First, in step S301, the setting unit 205 sets various parameters when detecting an attribute group. Next, in S302, the human body detection unit 201 starts human body detection. The human body detection unit 201 acquires a captured image and detects a human body in the acquired captured image. The human body detection unit 201 uses the parameters of the setting area set in S301 by the setting unit 205 in the human body detection process. The parameter set by the setting unit 205 is not particularly limited as long as it is used for human body detection. Next, in S303, the CPU 101 performs end determination. The CPU 101 determines to end when there is no input of a captured image. The CPU 101 also determines that the process has ended in response to an external trigger. When the CPU 101 determines that the process is finished (YES in S303), the monitoring process is finished. If the CPU 101 does not determine the end (NO in S303), the process proceeds to S304.

S304において、属性推定部202は、S302で検出された人体に対して、属性の推定を行う。属性推定部202は、属性の推定処理には、設定部205よりS301で設定されたパラメータを用いる。設定部205より設定されるパラメータは、属性推定に用いられるものであれば、特に限定されない。推定を行った各個人の属性情報はグループ判定部203へ送出される。S304の処理は、属性推定処理の一例である。   In step S304, the attribute estimation unit 202 performs attribute estimation on the human body detected in step S302. The attribute estimation unit 202 uses the parameters set in S301 by the setting unit 205 for attribute estimation processing. The parameter set by the setting unit 205 is not particularly limited as long as it is used for attribute estimation. The attribute information of each individual that has been estimated is sent to the group determination unit 203. The process of S304 is an example of an attribute estimation process.

次に、S305において、グループ判定部203は、S304で推定された属性情報を用いて、S302において検出された複数の人物を複数のグループに分類する。なお、グループに分類するための条件は予め設定されているものとする。本実施形態のグループ判定部203は、大人と子供の属性グループに分類する。そして、グループ判定部203は、属性グループに属する人物の数が第1の人数閾値未満の場合に、この属性グループが少数の属性グループであると判定する。グループ判定部203はまた、属性グループに属する人物の数が第2の人数閾値以上の場合に、この属性グループが多数の属性グループであると判定する。そして、グループ判定部203は、少数の属性グループ及び多数の属性グループがそれぞれ1つ以上存在する場合には(S305でYES)、処理をS306へ進める。グループ判定部203は、少数の属性グループ及び多数の属性グループの少なくとも一方が存在しない場合には(S305でNO)、処理をS303へ進める。   Next, in S305, the group determination unit 203 classifies the plurality of persons detected in S302 into a plurality of groups using the attribute information estimated in S304. Note that the conditions for classifying into groups are set in advance. The group determination unit 203 of the present embodiment classifies the attribute groups into adult and child attribute groups. Then, the group determination unit 203 determines that this attribute group is a small number of attribute groups when the number of persons belonging to the attribute group is less than the first number of people threshold. The group determination unit 203 also determines that this attribute group is a large number of attribute groups when the number of persons belonging to the attribute group is equal to or greater than the second number of people threshold. If there are a small number of attribute groups and one or more attribute groups (YES in S305), the group determination unit 203 advances the process to S306. If at least one of the small number of attribute groups and the large number of attribute groups does not exist (NO in S305), the group determination unit 203 advances the process to S303.

S306において、外部通知部204は、警告を出力するよう制御する。外部通知部204は、例えば、表示部105に警告を示す警告情報を表示するよう制御する。なお、他の例としては、外部通知部204は、所定の通知先に対し警告を出力するよう制御してもよい。CPU101は、S306の処理の後、処理をS303へ進める。ここで、S306の処理は、属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理の一例である。   In S306, the external notification unit 204 controls to output a warning. For example, the external notification unit 204 controls the display unit 105 to display warning information indicating a warning. As another example, the external notification unit 204 may be controlled to output a warning to a predetermined notification destination. After the process of S306, the CPU 101 advances the process to S303. Here, the process of S306 is an example of an output process for controlling to output a warning according to the number of persons belonging to the attribute group.

例えば、図4に示すように、子の属性グループが多数の属性グループと判定され、大人の属性グループが少数の属性グループと判定されたとする。この場合には、S306において、警告が出力される。図4に示すように大勢の子供の中に大人がいるような場合には、大人が子供に近付き危険が生じる場合がある。大勢の男性の中に少数の女性がいる場合や、大勢の成人の中に少数の高齢者がいる場合にも同様である。   For example, as shown in FIG. 4, it is assumed that a child attribute group is determined to be a large number of attribute groups, and an adult attribute group is determined to be a small number of attribute groups. In this case, a warning is output in S306. As shown in FIG. 4, when there are adults among many children, there is a risk that the adults may approach the children. The same is true if there are a few women in a large number of men or a small number of elderly people in a large number of adults.

次に、監視処理に係るUIについて説明する。図5は、監視処理に係る表示画面例を示す図である。人体検出・属性推定設定に関し、ユーザは、領域設定ボタン501を押下し、監視映像510上に、検出領域511の設定を行うことができる。設定を行った検出領域511に対して、人体の検出と、属性の推定が行われると、その結果がテーブル502に表示される。   Next, a UI related to the monitoring process will be described. FIG. 5 is a diagram illustrating an example of a display screen related to the monitoring process. Regarding the human body detection / attribute estimation setting, the user can set the detection area 511 on the monitoring video 510 by pressing the area setting button 501. When human body detection and attribute estimation are performed on the set detection area 511, the result is displayed in the table 502.

グループ分け設定に関し、ユーザは、プルダウンメニュー503からグループ分けを行う属性を選択し、分割を行う閾値を504にて設定する。プルダウンメニューでは、上述のとおり(子供,大人)、(男性,女性)、(成人,高齢者)など、年齢あるいは性別など様々な組み合わせを指定することが可能である。属性推定結果は、円グラフ505によりリアルタイムで表示される。属性グループ分け結果は、監視映像510上の検出された人体に対して色付けシルエット化された状態で表示され、リアルタイムに更新される。本処理は、第1のグループに属する人物と、第2のグループに属する人物とを識別可能に表示するよう制御する表示処理の一例である。このような表示をすることで、ユーザは一目で映像上のどこに少数・多数属性グループが存在するかが確認できる。アラート設定に関し、506の検知ランプがグループ分け判定された場合に点灯する。アラートの通知先は507のプルダウンメニューによって選択することができる。以上説明したように、UI上で適切な設定を行うことで、少数・多数属性グループの存在を効果的に把握することができる。   Regarding the grouping setting, the user selects an attribute for grouping from the pull-down menu 503, and sets a threshold for division at 504. In the pull-down menu, it is possible to specify various combinations such as age or sex as described above (child, adult), (male, female), (adult, elderly), and the like. The attribute estimation result is displayed in real time by a pie chart 505. The attribute grouping result is displayed in a colored silhouette state on the detected human body on the monitoring video 510 and is updated in real time. This process is an example of a display process for controlling the person belonging to the first group and the person belonging to the second group to be displayed in a distinguishable manner. By performing such display, the user can confirm at a glance where the minority / majority attribute group exists on the video. Regarding the alert setting, the detection lamp 506 lights up when the grouping determination is made. The alert notification destination can be selected from a pull-down menu 507. As described above, it is possible to effectively grasp the presence of the minority / majority attribute group by performing appropriate settings on the UI.

このように、危険が発生する可能性がある状況において、本実施形態に係る監視装置100は、警告を出力することができる。すなわち、監視装置100は、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することができる。   Thus, in a situation where there is a possibility of danger, the monitoring apparatus 100 according to the present embodiment can output a warning. In other words, the monitoring device 100 can appropriately notify a monitoring person or the like when there is a possibility of danger in person monitoring.

第1の実施形態の第1の変形例としては、監視装置100は、複数の人物をグループに分類する際に、特定の人物を除外してもよい。特定人物について、検知設定部205により登録が行われているものとし、グループ判定部203は、登録された情報に従い、特定人物の判定を行う。そして、グループ判定部203は、特定人物と判定された人物については、グループの分類対象から除外する。すなわち、グループ判定部203は、予め登録された人物以外の人物を対象に分類を行う。これにより、例えば、警備員等除外したい人物をグループから除外することができる。したがって、危険が生じる可能性をより適切に判定することができる。   As a first modification of the first embodiment, the monitoring apparatus 100 may exclude a specific person when classifying a plurality of persons into a group. It is assumed that the specific person has been registered by the detection setting unit 205, and the group determination unit 203 determines the specific person according to the registered information. Then, the group determination unit 203 excludes the person determined as the specific person from the group classification target. That is, the group determination unit 203 performs classification on a person other than a person registered in advance. Thereby, for example, a person who wants to be excluded such as a security guard can be excluded from the group. Therefore, it is possible to more appropriately determine the possibility of danger.

第2の変形例としては、監視装置100は、監視カメラ等の撮像装置に組み込まれる画像処理回路であってもよい。この場合において、監視装置100は、少数の属性グループと多数の属性グループとが存在すると判定された場合に、その後の処理を行うのに替えて、少数の属性グループの人物を、PTZ駆動により、追跡してもよい。少数の属性グループが複数人で構成される場合、監視装置100は、構成員の重心位置が撮像範囲の中心にあたるようにPTZ駆動を行う。こうすることで、属性グループが判定された後に、そのグループの動きの追跡を行うことができる。   As a second modification, the monitoring device 100 may be an image processing circuit incorporated in an imaging device such as a monitoring camera. In this case, when it is determined that there are a small number of attribute groups and a large number of attribute groups, the monitoring apparatus 100 replaces the subsequent processing with a small number of attribute groups by performing PTZ driving. May be tracked. When a small number of attribute groups are composed of a plurality of persons, the monitoring apparatus 100 performs PTZ driving so that the center of gravity of the member is in the center of the imaging range. In this way, after the attribute group is determined, the movement of the group can be tracked.

第3の変形例としては、監視装置100は、属性グループに属する人物の数に応じて、警告を出力するよう制御すればよく、そのための具体的な処理は実施形態に限定されるものではない。例えば、監視装置100は、一の属性グループの人物の数と他の属性グループの人物の数の割合に応じて、出力を制限してもよい。   As a third modified example, the monitoring apparatus 100 may be controlled to output a warning according to the number of persons belonging to the attribute group, and specific processing for that purpose is not limited to the embodiment. . For example, the monitoring apparatus 100 may limit the output according to the ratio between the number of persons in one attribute group and the number of persons in another attribute group.

(第2の実施形態)
次に、第2の実施形態に係る監視装置100について、第1の実施形態に係る監視装置100と異なる点を主に説明する。図6は、第2の実施形態に係る監視装置100の機能構成図である。第2の実施形態に係る監視装置100は、第1の実施形態に係る監視装置100の機能構成に加えて、距離判定部601をさらに有している。距離判定部501は、少数グループと多数グループの間の距離が距離閾値未満か否かを判定する。距離判定部601は、判定には、設定部205で設定された異なるグループの構成員同士の距離を使用する。
(Second Embodiment)
Next, the monitoring device 100 according to the second embodiment will be described mainly with respect to differences from the monitoring device 100 according to the first embodiment. FIG. 6 is a functional configuration diagram of the monitoring apparatus 100 according to the second embodiment. The monitoring apparatus 100 according to the second embodiment further includes a distance determination unit 601 in addition to the functional configuration of the monitoring apparatus 100 according to the first embodiment. The distance determination unit 501 determines whether the distance between the minority group and the majority group is less than a distance threshold. The distance determination unit 601 uses the distance between members of different groups set by the setting unit 205 for the determination.

図7は、第2の実施形態に係る監視装置100による監視処理を示すフローチャートである。なお、図6に示す監視処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係る監視処理の各処理と同一の処理には、同一の番号を付している。第1の実施形態において説明したように、S306において、外部通知部204は、警告を出力するよう制御する。なお、ここでは、後述の警告と区別するために、S306における警告を第1の警告と称する。S306の処理の後、S701において、距離判定部601は、グループ間距離を求める。ここで、グループ間距離は、図8に示すように、少数の属性グループに属する人物と、多数属性グループに属する人物の間の距離である。   FIG. 7 is a flowchart showing monitoring processing by the monitoring apparatus 100 according to the second embodiment. Among the processes of the monitoring process shown in FIG. 6, the same processes as the processes of the monitoring process according to the first embodiment described with reference to FIG. As described in the first embodiment, in S306, the external notification unit 204 controls to output a warning. Here, in order to distinguish from a warning described later, the warning in S306 is referred to as a first warning. After the process of S306, in S701, the distance determination unit 601 obtains an intergroup distance. Here, the inter-group distance is a distance between a person belonging to a small number of attribute groups and a person belonging to a large number of attribute groups, as shown in FIG.

本実施形態においては、距離判定部601は、少数グループに属する人物と多数属性グループに属する人物の間の距離のうち最小値をグループ間距離として求めるものとする。なお、他の例としては、グループ判定部203は、少数の属性グループに属する人物と多数の属性グループに属する人物の間の距離のうち最大値をグループ間距離として求めてもよい。また、グループ判定部203は、少数の属性グループに属する人物と多数の属性グループに属する人物の間の距離の平均値をグループ間距離として求めてもよい。   In the present embodiment, the distance determination unit 601 obtains the minimum value as the inter-group distance among the distances between persons belonging to the minority group and persons belonging to the multiple attribute group. As another example, the group determination unit 203 may obtain the maximum value as the inter-group distance among the distances between persons belonging to a small number of attribute groups and persons belonging to a large number of attribute groups. Further, the group determination unit 203 may obtain an average value of distances between persons belonging to a small number of attribute groups and persons belonging to a large number of attribute groups as an inter-group distance.

図7に戻り、S701において、距離判定部601は、さらに、グループ間距離が予め設定された距離閾値未満か否かを判定する。距離判定部601は、グループ間距離が距離閾値未満の場合には(S701でYES)、処理をS702へ進める。距離判定部601は、グループ間距離が距離閾値以上の場合には(S701でNO)、処理をS303へ進める。   Returning to FIG. 7, in S701, the distance determination unit 601 further determines whether or not the inter-group distance is less than a preset distance threshold. If the distance between groups is less than the distance threshold (YES in S701), the distance determination unit 601 advances the process to S702. If the distance between groups is equal to or greater than the distance threshold (NO in S701), the distance determination unit 601 advances the process to S303.

S702において、外部通知部204は、警告を出力するよう制御する。本警告を第2の警告と称する。なお、第1の警告と第2の警告とは、互いに異なる警告であることをユーザが認識し得る情報であってもよい。CPU101は、S702の処理の後、処理をS303へ進める。なお、第2の実施形態に係る監視装置100のこれ以外の構成及び処理は、第1の実施形態に係る監視装置100の構成及び処理と同様である。   In step S702, the external notification unit 204 controls to output a warning. This warning is referred to as a second warning. Note that the first warning and the second warning may be information that allows the user to recognize that they are different warnings. After the process of S702, the CPU 101 advances the process to S303. The remaining configuration and processing of the monitoring device 100 according to the second embodiment are the same as the configuration and processing of the monitoring device 100 according to the first embodiment.

少数の属性グループと多数の属性グループの間のグループ間距離が小さくなる程、危険が発生する可能性が高くなると考えられる。そこで、第2の実施形態に係る監視装置100は、グループ間距離が距離閾値未満になった場合に、警告を出力するよう制御することとした。これにより、適切に監視員等に通知することができる。   It is considered that the possibility of danger increases as the inter-group distance between a small number of attribute groups and a large number of attribute groups decreases. Therefore, the monitoring device 100 according to the second embodiment controls to output a warning when the inter-group distance becomes less than the distance threshold. As a result, it is possible to appropriately notify the supervisor or the like.

(第3の実施形態)
次に、第3の実施形態に係る監視装置100について、他の実施形態に係る監視装置100と異なる点を主に説明する。第3の実施形態に係る監視装置100は、グループ間距離に応じて、2段階で警告の出力を行うよう制御する。図9は、第3の実施形態に係る監視装置100による監視処理を示すフローチャートである。なお、図6に示す監視処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係る監視処理の各処理と同一の処理には、同一の番号を付している。
(Third embodiment)
Next, the monitoring device 100 according to the third embodiment will be described mainly with respect to differences from the monitoring device 100 according to another embodiment. The monitoring apparatus 100 according to the third embodiment controls to output a warning in two stages according to the distance between groups. FIG. 9 is a flowchart illustrating the monitoring process performed by the monitoring apparatus 100 according to the third embodiment. Among the processes of the monitoring process shown in FIG. 6, the same processes as the processes of the monitoring process according to the first embodiment described with reference to FIG.

第2の実施形態において説明したように、S306において、外部通知部204は、第1の警告を出力するよう制御する。そして、S306の処理の後、S901において、グループ判定部203は、グループ間距離を求め、グループ間距離が距離閾値未満か否かを判定する。なお、ここでは、後述の距離閾値と区別するために、S901において利用される距離閾値を第1の距離閾値と称する。グループ判定部203は、グループ間距離が第1の距離閾値未満の場合には(S901でYES)、処理をS902へ進める。グループ判定部203は、グループ間距離が第1の距離閾値以上の場合には(S901でNO)、処理をS303へ進める。S902において、外部通知部204は、第2の警告を出力するよう制御する。なお、S901及びS902の処理は、図6を参照しつつ説明したS701及びS702の処理と同様である。   As described in the second embodiment, in S306, the external notification unit 204 controls to output the first warning. Then, after the processing of S306, in S901, the group determination unit 203 obtains an intergroup distance and determines whether the intergroup distance is less than the distance threshold. Here, in order to distinguish from the distance threshold described later, the distance threshold used in S901 is referred to as a first distance threshold. If the inter-group distance is less than the first distance threshold (YES in S901), the group determination unit 203 advances the process to S902. When the inter-group distance is equal to or greater than the first distance threshold (NO in S901), the group determination unit 203 advances the process to S303. In step S902, the external notification unit 204 performs control to output a second warning. Note that the processing in S901 and S902 is the same as the processing in S701 and S702 described with reference to FIG.

S902の処理の後、S903において、グループ判定部203は、グループ間距離が第2の距離閾値未満か否かを判定する。ここで、第2の距離閾値は、第1の距離閾値に比べて小さい距離である。グループ判定部203は、グループ間距離が第2の距離閾値未満の場合には(S903でYES)、処理をS904へ進める。グループ判定部203は、グループ間距離が第2の距離閾値以上の場合には(S903でNO)、処理をS303へ進める。S904において、外部通知部204は、第3の警告を出力するよう制御し、その後処理をS303へ進める。第3の実施形態に係る監視装置100のこれ以外の構成及び処理は、他の実施形態に係る監視装置100の構成及び処理と同様である。   After the process of S902, in S903, the group determination unit 203 determines whether the inter-group distance is less than the second distance threshold. Here, the second distance threshold is a distance smaller than the first distance threshold. If the inter-group distance is less than the second distance threshold (YES in S903), the group determination unit 203 advances the process to S904. If the inter-group distance is equal to or greater than the second distance threshold (NO in S903), the group determination unit 203 advances the process to S303. In step S904, the external notification unit 204 controls to output a third warning, and then proceeds to step S303. Other configurations and processes of the monitoring apparatus 100 according to the third embodiment are the same as the configurations and processes of the monitoring apparatus 100 according to the other embodiments.

例えば、図8に示すように、少数の大人が子供に近付いていき、追いかける動作が発生する場合がある。このような場合に、第3の実施形態に係る監視装置100によれば、第2の警告を出力した後で、追いかける動作により子供と大人の距離がさらに小さくなった場合に第3の警告を出力することができる。   For example, as shown in FIG. 8, there are cases where a small number of adults approach a child and follow up. In such a case, according to the monitoring device 100 according to the third embodiment, after the second warning is output, the third warning is issued when the distance between the child and the adult is further reduced by the chasing operation. Can be output.

第3の実施形態の第1の変形例としては、本実施形態においては、追いかける動作を検知するために、グループ間距離を参照したが、S903においては、追いかける動作を検知できればよく、そのための具体的な処理は実施形態に限定されるものではない。他の例としては、少数の属性グループの人物の移動速度に基づいて、追いかける動作の有無を検知してもよい。   As a first modification of the third embodiment, in the present embodiment, the inter-group distance is referred to detect the chasing operation. However, in S903, it is only necessary to detect the chasing operation. The general process is not limited to the embodiment. As another example, the presence / absence of a chasing operation may be detected based on the moving speeds of persons in a small number of attribute groups.

第2の変形例としては、監視装置100は、属性情報として感情を取得し、属性グループ判定の後に、さらなるアラートを行ってもよい。感情の取得としては、顔より表情を取得する方法が一般的に知られている。本例では怒り、恐れを扱う。監視装置100は、グループ判定後に各グループの人物の感情を推定する。本処理は、感情推定処理の一例である。そして、監視装置100は、怒り、恐れの割合が一定閾値以上の場合に、警告を出力するよう制御する。なお、割合の閾値は設定部205により予め設定されるものとする。このように、少数、多数の属性グループの存在だけでなく、グループの人物の感情を考慮することで、危険が生じる可能性をより適切に判定することができる。   As a second modified example, the monitoring apparatus 100 may acquire emotion as attribute information and may perform further alerting after attribute group determination. As the acquisition of emotion, a method of acquiring an expression from a face is generally known. This example deals with anger and fear. The monitoring apparatus 100 estimates the emotions of the persons in each group after the group determination. This process is an example of the emotion estimation process. And the monitoring apparatus 100 is controlled to output a warning when the ratio of anger and fear is equal to or greater than a certain threshold value. Note that the threshold value of the ratio is set in advance by the setting unit 205. In this way, by considering not only the presence of a small number and a large number of attribute groups but also the emotions of the persons in the group, the possibility of danger can be determined more appropriately.

さらに、上記の実施形態において、人体検出された人物の密度に応じて、処理を行うか否かを制御してもよい。人の密度が高い場合に、少数・多数属性グループの存在がより危険になり得ると予想される。そこで、本変形例に係る監視装置100は、人体検出部201より検出された人体の大きさや画角などから、人の密度を算出する。   Furthermore, in the above-described embodiment, whether or not to perform the process may be controlled according to the density of the human body detected. It is expected that the presence of minority / majority attribute groups can be more dangerous when the density of people is high. Therefore, the monitoring apparatus 100 according to the present modification calculates the human density based on the size and angle of view of the human body detected by the human body detection unit 201.

例えば、顔を確認するため監視カメラ映像では、斜めから撮影されることが多い。この場合、監視カメラに対し手前側の人は大きく、奥側の人は小さく映像上に表示される(例えば、図10(a))。取得した映像を解析することで、検出された人の位置と大きさを得ることができる。監視装置100は、この人の位置と大きさを用いて、一つ一つの領域の実地面積が同じになるように映像に対して領域を範囲指定し(例えば、図10(b))、範囲指定された領域毎の人数をカウントし、密度を算出する。本実施例では、領域内の人数をカウントして密度を算出するが、検出した人と人との距離を用いて密度を算出する方法や、複数の映像を学習し、学習を用いた密度を算出する方法を用いてもよい。そして、監視装置100は、人の密度が一定以上の場合にのみ、属性推定処理以降の処理を行う。これにより、より危険度が高いと予想される場合にのみ、グループ判定を行うことができる。本処理は、人物の密度に応じて警告の出力を制限する出力処理の一例である。   For example, in order to confirm a face, surveillance camera images are often taken from an oblique direction. In this case, the person on the near side with respect to the monitoring camera is large and the person on the far side is small and displayed on the video (for example, FIG. 10A). By analyzing the acquired image, the position and size of the detected person can be obtained. Using the position and size of the person, the monitoring apparatus 100 designates a region for the image so that the actual area of each region is the same (for example, FIG. 10B). Count the number of people in each specified area and calculate the density. In this embodiment, the density is calculated by counting the number of people in the area, but the method of calculating the density using the distance between the detected person and the person, learning a plurality of images, and calculating the density using learning. A calculation method may be used. And the monitoring apparatus 100 performs the process after an attribute estimation process, only when a person's density is more than fixed. Thereby, the group determination can be performed only when the risk level is expected to be higher. This process is an example of an output process that limits the output of a warning according to the density of a person.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 監視装置
201 人体検出部
202 属性推定部
203 グループ判定部
204 外部通知部
205 設定部
DESCRIPTION OF SYMBOLS 100 Monitoring apparatus 201 Human body detection part 202 Attribute estimation part 203 Group determination part 204 External notification part 205 Setting part

Claims (12)

撮影画像において人物を検出する検出手段と、
前記撮影画像に基づいて、前記検出手段により検出された人物の属性を推定する属性推定手段と、
前記属性推定手段による推定結果に基づいて、前記検出手段により検出された複数の人物を属性グループに分類する分類手段と、
前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理手段と
を有することを特徴とする監視装置。
Detecting means for detecting a person in the captured image;
Attribute estimation means for estimating an attribute of a person detected by the detection means based on the captured image;
Classification means for classifying a plurality of persons detected by the detection means into attribute groups based on the estimation result by the attribute estimation means;
An output processing means for controlling to output a warning according to the number of persons belonging to the attribute group.
前記出力処理手段は、属性グループに属する人物の数が第1の人数閾値未満の第1のグループと、属性グループに属する人物の数が第1の人数閾値よりも大きい第2の人数閾値以上の第2のグループがそれぞれ1つ以上存在する場合に、警告を出力するよう制御することを特徴とする請求項1に記載の監視装置。   The output processing means includes a first group in which the number of persons belonging to the attribute group is less than a first number threshold, and a number of persons in the attribute group that is greater than or equal to a second number threshold greater than the first number threshold. The monitoring apparatus according to claim 1, wherein control is performed to output a warning when one or more second groups exist. 前記出力処理手段は、前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離に応じて、警告を出力するよう制御することを特徴とする請求項2に記載の監視装置。   The monitoring according to claim 2, wherein the output processing means controls to output a warning according to a distance between a person belonging to the first group and a person belonging to the second group. apparatus. 前記出力処理手段は、前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離が距離閾値未満の場合に、警告を出力するよう制御することを特徴とする請求項3に記載の監視装置。   The output processing means controls to output a warning when a distance between a person belonging to the first group and a person belonging to the second group is less than a distance threshold. The monitoring device described in 1. 前記出力処理手段は、
属性グループに属する人物の数が第1の人数閾値未満の第1のグループと、属性グループに属する人物の数が第1の人数閾値よりも大きい第2の人数閾値以上の第2のグループがそれぞれ1つ以上存在する場合に、第1の警告を出力するよう制御し、
前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離が第1の距離閾値未満になった場合に、第2の警告を出力するよう制御し、
前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離が第1の距離閾値よりも小さい第2の距離閾値未満になった場合に、第3の警告を出力するよう制御することを特徴とする請求項1に記載の監視装置。
The output processing means includes
A first group in which the number of persons belonging to the attribute group is less than the first number threshold and a second group in which the number of persons belonging to the attribute group is greater than the first number threshold and greater than or equal to the second number threshold are respectively Control to output the first warning if one or more exist,
Control to output a second warning when the distance between the person belonging to the first group and the person belonging to the second group is less than a first distance threshold;
A third warning is output when the distance between the person belonging to the first group and the person belonging to the second group is less than a second distance threshold smaller than the first distance threshold. The monitoring device according to claim 1, wherein the monitoring device is controlled.
前記第1のグループに属する人物と前記第2のグループに属する人物を識別可能に表示するよう制御する表示処理手段をさらに有することを特徴とする請求項2に記載の監視装置。   The monitoring apparatus according to claim 2, further comprising display processing means for controlling the persons belonging to the first group and the persons belonging to the second group to be displayed in a distinguishable manner. 前記撮影画像に基づいて、前記第1のグループに属する人物及び前記第2のグループに属する人物のうち少なくとも一方の人物の感情を推定する感情推定手段をさらに有し、
前記出力処理手段は、さらに人物の感情に応じて警告を出力するよう制御することを特徴とする請求項2乃至6の何れか1項に記載の監視装置。
Further comprising emotion estimation means for estimating the emotion of at least one of the persons belonging to the first group and the persons belonging to the second group based on the captured image;
The monitoring apparatus according to claim 2, wherein the output processing unit further controls to output a warning according to a person's emotion.
前記第1のグループに属する人物及び前記第2のグループに属する人物のうち少なくとも一方の人物を追跡する追跡手段をさらに有することを特徴とする請求項2に記載の監視装置。   The monitoring apparatus according to claim 2, further comprising a tracking unit that tracks at least one of the person belonging to the first group and the person belonging to the second group. 前記分類手段は、予め登録された人物以外の人物を対象に、分類を行うことを特徴とする請求項1乃至8の何れか1項に記載の監視装置。   The monitoring device according to claim 1, wherein the classification unit performs classification on a person other than a person registered in advance. 前記出力処理手段は、前記検出手段により検出された人物の密度に応じて、前記警告の出力を制限することを特徴とする請求項1乃至9の何れか1項に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the output processing unit limits the output of the warning according to the density of the person detected by the detection unit. 監視装置が実行する監視方法であって、
撮影画像において人物を検出する検出ステップと、
前記撮影画像に基づいて、前記検出ステップにおいて検出された人物の属性を推定する属性推定ステップと、
前記属性推定ステップの推定結果に基づいて、前記検出ステップにおいて検出された複数の人物を属性グループに分類する分類ステップと、
前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理ステップと
を含むことを特徴とする監視方法。
A monitoring method executed by a monitoring device,
A detection step of detecting a person in the captured image;
An attribute estimation step for estimating an attribute of the person detected in the detection step based on the captured image;
A classification step of classifying a plurality of persons detected in the detection step into attribute groups based on the estimation result of the attribute estimation step;
And an output processing step of controlling to output a warning according to the number of persons belonging to the attribute group.
コンピュータを、請求項1乃至10の何れか1項に記載の監視装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the monitoring apparatus of any one of Claims 1 thru | or 10.
JP2018096395A 2018-05-18 2018-05-18 Monitoring device, monitoring method, and program Pending JP2019200718A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018096395A JP2019200718A (en) 2018-05-18 2018-05-18 Monitoring device, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096395A JP2019200718A (en) 2018-05-18 2018-05-18 Monitoring device, monitoring method, and program

Publications (1)

Publication Number Publication Date
JP2019200718A true JP2019200718A (en) 2019-11-21

Family

ID=68612189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096395A Pending JP2019200718A (en) 2018-05-18 2018-05-18 Monitoring device, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP2019200718A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021181550A1 (en) * 2020-03-11 2021-09-16
WO2022050217A1 (en) * 2020-09-01 2022-03-10 キヤノン株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021181550A1 (en) * 2020-03-11 2021-09-16
WO2021181550A1 (en) * 2020-03-11 2021-09-16 日本電気株式会社 Emotion estimation device, emotion estimation method, and program
JP7491365B2 (en) 2020-03-11 2024-05-28 日本電気株式会社 Emotion estimation device, emotion estimation method, and program
WO2022050217A1 (en) * 2020-09-01 2022-03-10 キヤノン株式会社 Information processing device, information processing method, and program
JP7476038B2 (en) 2020-09-01 2024-04-30 キヤノン株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP6708218B2 (en) Information processing device, intrusion detection method, and computer program
JP6717235B2 (en) Monitoring support system and control method thereof
JP6159179B2 (en) Image processing apparatus and image processing method
JP6712778B2 (en) Object detection device, object detection system, and object detection method
JP2012108785A (en) Person counting device, person counting method, and person counting program
JP6381313B2 (en) Control device, control method, and program
JP2019200715A (en) Image processing apparatus, image processing method, and program
JP2019052889A (en) Image processor
US20210090611A1 (en) Information processing apparatus, control method, and program
JP6119938B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP2018151834A (en) Lost child detection apparatus and lost child detection method
JP2019200718A (en) Monitoring device, monitoring method, and program
JP2018142173A (en) Image monitoring device
JP2011053005A (en) Monitoring system
JP6469139B2 (en) Information processing apparatus, information processing method, and program
US12046078B2 (en) Accident detection device and accident detection method
JP7214437B2 (en) Information processing device, information processing method and program
JP2019008515A (en) Watching support system and method for controlling the same
JP2020194227A (en) Face hiding determination device, face hiding determination method, face hiding determination program, and occupant monitoring system
KR101704471B1 (en) Fall detection apparatus and method thereof
JP5864231B2 (en) Moving direction identification device
JP2020091622A (en) Group estimation device and group estimation method
US20200184797A1 (en) Information processing apparatus, control method, and program
JP2020077319A (en) Image monitoring system