JP2019200718A - Monitoring device, monitoring method, and program - Google Patents
Monitoring device, monitoring method, and program Download PDFInfo
- Publication number
- JP2019200718A JP2019200718A JP2018096395A JP2018096395A JP2019200718A JP 2019200718 A JP2019200718 A JP 2019200718A JP 2018096395 A JP2018096395 A JP 2018096395A JP 2018096395 A JP2018096395 A JP 2018096395A JP 2019200718 A JP2019200718 A JP 2019200718A
- Authority
- JP
- Japan
- Prior art keywords
- group
- attribute
- person
- output
- belonging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、監視装置、監視方法及びプログラムに関する。 The present invention relates to a monitoring device, a monitoring method, and a program.
従来、監視カメラの撮影映像に基づいて、人物を監視する監視システムが知られている。例えば、特許文献1には、撮影画像に含まれる人物の特徴から監視対象者を特定し、その人物の滞在時間が一定時間以上になった場合に通知する技術が開示されている。また、特許文献2には、マーケティング等の観点から、不特定多数の人物が集まる場所で取得した動画像から人物と人物位置を検出し、位置関係から人物をグループ分けする技術が開示されている。
2. Description of the Related Art Conventionally, a monitoring system that monitors a person based on an image captured by a monitoring camera is known. For example,
しかしながら、従来技術の監視システムにおいては、危険が生じる可能性のある状況を検知するのが難しいという問題があった。 However, the conventional monitoring system has a problem that it is difficult to detect a situation where there is a possibility of danger.
本発明はこのような問題点に鑑みなされたもので、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to appropriately notify a monitoring person or the like when there is a possibility of danger in person monitoring.
そこで、本発明は、監視装置であって、撮影画像において人物を検出する検出手段と、前記撮影画像に基づいて、前記検出手段により検出された人物の属性を推定する属性推定手段と、前記属性推定手段による推定結果に基づいて、前記検出手段により検出された複数の人物を属性グループに分類する分類手段と、前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理手段とを有することを特徴とする。 Therefore, the present invention is a monitoring device, a detection unit that detects a person in a captured image, an attribute estimation unit that estimates an attribute of the person detected by the detection unit based on the captured image, and the attribute Classification means for classifying a plurality of persons detected by the detection means into an attribute group based on an estimation result by the estimation means, and output processing for controlling to output a warning according to the number of persons belonging to the attribute group Means.
本発明によれば、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することができる。 According to the present invention, when there is a possibility of danger in person monitoring, it is possible to appropriately notify a monitor or the like.
以下、本発明の実施形態について図面に基づいて説明する。
図1は、監視装置100のハードウェア構成図である。情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して外部装置との通信処理を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a hardware configuration diagram of the monitoring apparatus 100. The information processing apparatus 100 includes a
なお、後述する情報処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、CPU101は、ROM102等に替えて、SDカード等の記録媒体に格納されているプログラムを読み出してもよい。
Note that the functions and processing of the information processing apparatus 100 to be described later are realized by the
図2は、監視装置100の機能構成図である。監視装置100は、人体検出部201と、属性推定部202と、グループ判定部203と、外部通知部204と、設定部205と、を有している。人体検出部201は、外部から供給された撮影画像としての動画像や静止画像を取得する。なお、供給元は特に限定するものではなく、撮像装置や有線または無線を介して撮影画像を供給するサーバ装置であってもよい。また、供給元は外部に限るものではなく、人体検出部201は、自装置のメモリから撮影画像を取得してもよい。人体検出部201は、設定部205から、人体検出処理を行う領域の設定値を取得し、取得した撮影画像の設定領域に対して人体検出処理を行う。人体検出処理の具体的な処理方法は、取得した撮影画像に対して人体及び人体の位置を所定時間経過毎に検出するものであれば、いかなる形態のものであってもよい。
FIG. 2 is a functional configuration diagram of the monitoring device 100. The monitoring apparatus 100 includes a human
属性推定部202は、人体検出部201で検出された人体に対して、属性の推定を行う。推定を行う属性の種類は設定部205より設定される。本実施例では推定を行う属性情報として、年齢、性別を挙げるが、個人から得られる属性の情報であれば、特に限定するものではない。グループ判定部203は、属性推定部202より送出された属性情報より、設定部205より設定されたグループ分け属性に対して少数・多数の属性グループが存在するか否かの判定を行う。判定には設定部205より設定されたグループ分け閾値(人数又は割合)を用いる。グループ判定部203による判定結果は、外部通知部204へ送出される。
The
外部通知部204は、グループ判定部203の判定結果に応じて、アラート通知の出力を行うよう制御する。なお、アラート通知の出力先は、設定部205より選択される。アラート通知の出力先は、自装置が備える表示部105等の出力機器でもよく、他装置の出力機器であってもよい。アラート通知の出力先としての出力機器はスピーカであってもよい。出力先が表示部や外部の表示装置の場合には、出力するアラート通知をそのまま出力してもよく、アラート通知に対応したグラフィックスを出力してもよい。
The
なお、監視装置100の機能や処理の少なくとも一部は、例えば複数のCPU、RAM、ROM、及びストレージを協働させることにより実現してもよい。また、他の例としては、監視装置100の機能や処理の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、監視装置100は、例えば監視カメラ等の撮影装置内に組み込まれた画像処理回路であってもよい。 Note that at least a part of the functions and processes of the monitoring apparatus 100 may be realized by, for example, cooperating a plurality of CPUs, RAMs, ROMs, and storages. As another example, at least a part of the functions and processing of the monitoring apparatus 100 may be realized using a hardware circuit. Moreover, the monitoring apparatus 100 may be an image processing circuit incorporated in a photographing apparatus such as a monitoring camera.
図3は、監視装置100による監視処理を示すフローチャートである。まず、S301において、設定部205は、属性グループの検知を行う際の各種パラメータの設定を行う。次に、S302において、人体検出部201は、人体検出を開始する。人体検出部201は、撮影画像を取得し、取得した撮影画像において、人体の検出を行う。人体検出部201は、人体の検出処理において、設定部205よりS301で設定された設定領域のパラメータを用いる。設定部205より設定されるパラメータは、人体検出に用いられるものであれば、特に限定されない。次に、S303において、CPU101は、終了判定を行う。CPU101は、撮影画像の入力がない場合に終了と判定する。CPU101はまた、外部からのトリガーに応じて終了と判定する。CPU101は、終了と判定すると(S303でYES)、監視処理を終了する。CPU101は、終了と判定しない場合には(S303でNO)、処理をS304へ進める。
FIG. 3 is a flowchart showing monitoring processing by the monitoring apparatus 100. First, in step S301, the
S304において、属性推定部202は、S302で検出された人体に対して、属性の推定を行う。属性推定部202は、属性の推定処理には、設定部205よりS301で設定されたパラメータを用いる。設定部205より設定されるパラメータは、属性推定に用いられるものであれば、特に限定されない。推定を行った各個人の属性情報はグループ判定部203へ送出される。S304の処理は、属性推定処理の一例である。
In step S304, the
次に、S305において、グループ判定部203は、S304で推定された属性情報を用いて、S302において検出された複数の人物を複数のグループに分類する。なお、グループに分類するための条件は予め設定されているものとする。本実施形態のグループ判定部203は、大人と子供の属性グループに分類する。そして、グループ判定部203は、属性グループに属する人物の数が第1の人数閾値未満の場合に、この属性グループが少数の属性グループであると判定する。グループ判定部203はまた、属性グループに属する人物の数が第2の人数閾値以上の場合に、この属性グループが多数の属性グループであると判定する。そして、グループ判定部203は、少数の属性グループ及び多数の属性グループがそれぞれ1つ以上存在する場合には(S305でYES)、処理をS306へ進める。グループ判定部203は、少数の属性グループ及び多数の属性グループの少なくとも一方が存在しない場合には(S305でNO)、処理をS303へ進める。
Next, in S305, the
S306において、外部通知部204は、警告を出力するよう制御する。外部通知部204は、例えば、表示部105に警告を示す警告情報を表示するよう制御する。なお、他の例としては、外部通知部204は、所定の通知先に対し警告を出力するよう制御してもよい。CPU101は、S306の処理の後、処理をS303へ進める。ここで、S306の処理は、属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理の一例である。
In S306, the
例えば、図4に示すように、子の属性グループが多数の属性グループと判定され、大人の属性グループが少数の属性グループと判定されたとする。この場合には、S306において、警告が出力される。図4に示すように大勢の子供の中に大人がいるような場合には、大人が子供に近付き危険が生じる場合がある。大勢の男性の中に少数の女性がいる場合や、大勢の成人の中に少数の高齢者がいる場合にも同様である。 For example, as shown in FIG. 4, it is assumed that a child attribute group is determined to be a large number of attribute groups, and an adult attribute group is determined to be a small number of attribute groups. In this case, a warning is output in S306. As shown in FIG. 4, when there are adults among many children, there is a risk that the adults may approach the children. The same is true if there are a few women in a large number of men or a small number of elderly people in a large number of adults.
次に、監視処理に係るUIについて説明する。図5は、監視処理に係る表示画面例を示す図である。人体検出・属性推定設定に関し、ユーザは、領域設定ボタン501を押下し、監視映像510上に、検出領域511の設定を行うことができる。設定を行った検出領域511に対して、人体の検出と、属性の推定が行われると、その結果がテーブル502に表示される。
Next, a UI related to the monitoring process will be described. FIG. 5 is a diagram illustrating an example of a display screen related to the monitoring process. Regarding the human body detection / attribute estimation setting, the user can set the
グループ分け設定に関し、ユーザは、プルダウンメニュー503からグループ分けを行う属性を選択し、分割を行う閾値を504にて設定する。プルダウンメニューでは、上述のとおり(子供,大人)、(男性,女性)、(成人,高齢者)など、年齢あるいは性別など様々な組み合わせを指定することが可能である。属性推定結果は、円グラフ505によりリアルタイムで表示される。属性グループ分け結果は、監視映像510上の検出された人体に対して色付けシルエット化された状態で表示され、リアルタイムに更新される。本処理は、第1のグループに属する人物と、第2のグループに属する人物とを識別可能に表示するよう制御する表示処理の一例である。このような表示をすることで、ユーザは一目で映像上のどこに少数・多数属性グループが存在するかが確認できる。アラート設定に関し、506の検知ランプがグループ分け判定された場合に点灯する。アラートの通知先は507のプルダウンメニューによって選択することができる。以上説明したように、UI上で適切な設定を行うことで、少数・多数属性グループの存在を効果的に把握することができる。
Regarding the grouping setting, the user selects an attribute for grouping from the pull-
このように、危険が発生する可能性がある状況において、本実施形態に係る監視装置100は、警告を出力することができる。すなわち、監視装置100は、人物監視において、危険が生じる可能性がある場合に、適切に監視員等に通知することができる。 Thus, in a situation where there is a possibility of danger, the monitoring apparatus 100 according to the present embodiment can output a warning. In other words, the monitoring device 100 can appropriately notify a monitoring person or the like when there is a possibility of danger in person monitoring.
第1の実施形態の第1の変形例としては、監視装置100は、複数の人物をグループに分類する際に、特定の人物を除外してもよい。特定人物について、検知設定部205により登録が行われているものとし、グループ判定部203は、登録された情報に従い、特定人物の判定を行う。そして、グループ判定部203は、特定人物と判定された人物については、グループの分類対象から除外する。すなわち、グループ判定部203は、予め登録された人物以外の人物を対象に分類を行う。これにより、例えば、警備員等除外したい人物をグループから除外することができる。したがって、危険が生じる可能性をより適切に判定することができる。
As a first modification of the first embodiment, the monitoring apparatus 100 may exclude a specific person when classifying a plurality of persons into a group. It is assumed that the specific person has been registered by the
第2の変形例としては、監視装置100は、監視カメラ等の撮像装置に組み込まれる画像処理回路であってもよい。この場合において、監視装置100は、少数の属性グループと多数の属性グループとが存在すると判定された場合に、その後の処理を行うのに替えて、少数の属性グループの人物を、PTZ駆動により、追跡してもよい。少数の属性グループが複数人で構成される場合、監視装置100は、構成員の重心位置が撮像範囲の中心にあたるようにPTZ駆動を行う。こうすることで、属性グループが判定された後に、そのグループの動きの追跡を行うことができる。 As a second modification, the monitoring device 100 may be an image processing circuit incorporated in an imaging device such as a monitoring camera. In this case, when it is determined that there are a small number of attribute groups and a large number of attribute groups, the monitoring apparatus 100 replaces the subsequent processing with a small number of attribute groups by performing PTZ driving. May be tracked. When a small number of attribute groups are composed of a plurality of persons, the monitoring apparatus 100 performs PTZ driving so that the center of gravity of the member is in the center of the imaging range. In this way, after the attribute group is determined, the movement of the group can be tracked.
第3の変形例としては、監視装置100は、属性グループに属する人物の数に応じて、警告を出力するよう制御すればよく、そのための具体的な処理は実施形態に限定されるものではない。例えば、監視装置100は、一の属性グループの人物の数と他の属性グループの人物の数の割合に応じて、出力を制限してもよい。 As a third modified example, the monitoring apparatus 100 may be controlled to output a warning according to the number of persons belonging to the attribute group, and specific processing for that purpose is not limited to the embodiment. . For example, the monitoring apparatus 100 may limit the output according to the ratio between the number of persons in one attribute group and the number of persons in another attribute group.
(第2の実施形態)
次に、第2の実施形態に係る監視装置100について、第1の実施形態に係る監視装置100と異なる点を主に説明する。図6は、第2の実施形態に係る監視装置100の機能構成図である。第2の実施形態に係る監視装置100は、第1の実施形態に係る監視装置100の機能構成に加えて、距離判定部601をさらに有している。距離判定部501は、少数グループと多数グループの間の距離が距離閾値未満か否かを判定する。距離判定部601は、判定には、設定部205で設定された異なるグループの構成員同士の距離を使用する。
(Second Embodiment)
Next, the monitoring device 100 according to the second embodiment will be described mainly with respect to differences from the monitoring device 100 according to the first embodiment. FIG. 6 is a functional configuration diagram of the monitoring apparatus 100 according to the second embodiment. The monitoring apparatus 100 according to the second embodiment further includes a
図7は、第2の実施形態に係る監視装置100による監視処理を示すフローチャートである。なお、図6に示す監視処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係る監視処理の各処理と同一の処理には、同一の番号を付している。第1の実施形態において説明したように、S306において、外部通知部204は、警告を出力するよう制御する。なお、ここでは、後述の警告と区別するために、S306における警告を第1の警告と称する。S306の処理の後、S701において、距離判定部601は、グループ間距離を求める。ここで、グループ間距離は、図8に示すように、少数の属性グループに属する人物と、多数属性グループに属する人物の間の距離である。
FIG. 7 is a flowchart showing monitoring processing by the monitoring apparatus 100 according to the second embodiment. Among the processes of the monitoring process shown in FIG. 6, the same processes as the processes of the monitoring process according to the first embodiment described with reference to FIG. As described in the first embodiment, in S306, the
本実施形態においては、距離判定部601は、少数グループに属する人物と多数属性グループに属する人物の間の距離のうち最小値をグループ間距離として求めるものとする。なお、他の例としては、グループ判定部203は、少数の属性グループに属する人物と多数の属性グループに属する人物の間の距離のうち最大値をグループ間距離として求めてもよい。また、グループ判定部203は、少数の属性グループに属する人物と多数の属性グループに属する人物の間の距離の平均値をグループ間距離として求めてもよい。
In the present embodiment, the
図7に戻り、S701において、距離判定部601は、さらに、グループ間距離が予め設定された距離閾値未満か否かを判定する。距離判定部601は、グループ間距離が距離閾値未満の場合には(S701でYES)、処理をS702へ進める。距離判定部601は、グループ間距離が距離閾値以上の場合には(S701でNO)、処理をS303へ進める。
Returning to FIG. 7, in S701, the
S702において、外部通知部204は、警告を出力するよう制御する。本警告を第2の警告と称する。なお、第1の警告と第2の警告とは、互いに異なる警告であることをユーザが認識し得る情報であってもよい。CPU101は、S702の処理の後、処理をS303へ進める。なお、第2の実施形態に係る監視装置100のこれ以外の構成及び処理は、第1の実施形態に係る監視装置100の構成及び処理と同様である。
In step S702, the
少数の属性グループと多数の属性グループの間のグループ間距離が小さくなる程、危険が発生する可能性が高くなると考えられる。そこで、第2の実施形態に係る監視装置100は、グループ間距離が距離閾値未満になった場合に、警告を出力するよう制御することとした。これにより、適切に監視員等に通知することができる。 It is considered that the possibility of danger increases as the inter-group distance between a small number of attribute groups and a large number of attribute groups decreases. Therefore, the monitoring device 100 according to the second embodiment controls to output a warning when the inter-group distance becomes less than the distance threshold. As a result, it is possible to appropriately notify the supervisor or the like.
(第3の実施形態)
次に、第3の実施形態に係る監視装置100について、他の実施形態に係る監視装置100と異なる点を主に説明する。第3の実施形態に係る監視装置100は、グループ間距離に応じて、2段階で警告の出力を行うよう制御する。図9は、第3の実施形態に係る監視装置100による監視処理を示すフローチャートである。なお、図6に示す監視処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係る監視処理の各処理と同一の処理には、同一の番号を付している。
(Third embodiment)
Next, the monitoring device 100 according to the third embodiment will be described mainly with respect to differences from the monitoring device 100 according to another embodiment. The monitoring apparatus 100 according to the third embodiment controls to output a warning in two stages according to the distance between groups. FIG. 9 is a flowchart illustrating the monitoring process performed by the monitoring apparatus 100 according to the third embodiment. Among the processes of the monitoring process shown in FIG. 6, the same processes as the processes of the monitoring process according to the first embodiment described with reference to FIG.
第2の実施形態において説明したように、S306において、外部通知部204は、第1の警告を出力するよう制御する。そして、S306の処理の後、S901において、グループ判定部203は、グループ間距離を求め、グループ間距離が距離閾値未満か否かを判定する。なお、ここでは、後述の距離閾値と区別するために、S901において利用される距離閾値を第1の距離閾値と称する。グループ判定部203は、グループ間距離が第1の距離閾値未満の場合には(S901でYES)、処理をS902へ進める。グループ判定部203は、グループ間距離が第1の距離閾値以上の場合には(S901でNO)、処理をS303へ進める。S902において、外部通知部204は、第2の警告を出力するよう制御する。なお、S901及びS902の処理は、図6を参照しつつ説明したS701及びS702の処理と同様である。
As described in the second embodiment, in S306, the
S902の処理の後、S903において、グループ判定部203は、グループ間距離が第2の距離閾値未満か否かを判定する。ここで、第2の距離閾値は、第1の距離閾値に比べて小さい距離である。グループ判定部203は、グループ間距離が第2の距離閾値未満の場合には(S903でYES)、処理をS904へ進める。グループ判定部203は、グループ間距離が第2の距離閾値以上の場合には(S903でNO)、処理をS303へ進める。S904において、外部通知部204は、第3の警告を出力するよう制御し、その後処理をS303へ進める。第3の実施形態に係る監視装置100のこれ以外の構成及び処理は、他の実施形態に係る監視装置100の構成及び処理と同様である。
After the process of S902, in S903, the
例えば、図8に示すように、少数の大人が子供に近付いていき、追いかける動作が発生する場合がある。このような場合に、第3の実施形態に係る監視装置100によれば、第2の警告を出力した後で、追いかける動作により子供と大人の距離がさらに小さくなった場合に第3の警告を出力することができる。 For example, as shown in FIG. 8, there are cases where a small number of adults approach a child and follow up. In such a case, according to the monitoring device 100 according to the third embodiment, after the second warning is output, the third warning is issued when the distance between the child and the adult is further reduced by the chasing operation. Can be output.
第3の実施形態の第1の変形例としては、本実施形態においては、追いかける動作を検知するために、グループ間距離を参照したが、S903においては、追いかける動作を検知できればよく、そのための具体的な処理は実施形態に限定されるものではない。他の例としては、少数の属性グループの人物の移動速度に基づいて、追いかける動作の有無を検知してもよい。 As a first modification of the third embodiment, in the present embodiment, the inter-group distance is referred to detect the chasing operation. However, in S903, it is only necessary to detect the chasing operation. The general process is not limited to the embodiment. As another example, the presence / absence of a chasing operation may be detected based on the moving speeds of persons in a small number of attribute groups.
第2の変形例としては、監視装置100は、属性情報として感情を取得し、属性グループ判定の後に、さらなるアラートを行ってもよい。感情の取得としては、顔より表情を取得する方法が一般的に知られている。本例では怒り、恐れを扱う。監視装置100は、グループ判定後に各グループの人物の感情を推定する。本処理は、感情推定処理の一例である。そして、監視装置100は、怒り、恐れの割合が一定閾値以上の場合に、警告を出力するよう制御する。なお、割合の閾値は設定部205により予め設定されるものとする。このように、少数、多数の属性グループの存在だけでなく、グループの人物の感情を考慮することで、危険が生じる可能性をより適切に判定することができる。
As a second modified example, the monitoring apparatus 100 may acquire emotion as attribute information and may perform further alerting after attribute group determination. As the acquisition of emotion, a method of acquiring an expression from a face is generally known. This example deals with anger and fear. The monitoring apparatus 100 estimates the emotions of the persons in each group after the group determination. This process is an example of the emotion estimation process. And the monitoring apparatus 100 is controlled to output a warning when the ratio of anger and fear is equal to or greater than a certain threshold value. Note that the threshold value of the ratio is set in advance by the
さらに、上記の実施形態において、人体検出された人物の密度に応じて、処理を行うか否かを制御してもよい。人の密度が高い場合に、少数・多数属性グループの存在がより危険になり得ると予想される。そこで、本変形例に係る監視装置100は、人体検出部201より検出された人体の大きさや画角などから、人の密度を算出する。
Furthermore, in the above-described embodiment, whether or not to perform the process may be controlled according to the density of the human body detected. It is expected that the presence of minority / majority attribute groups can be more dangerous when the density of people is high. Therefore, the monitoring apparatus 100 according to the present modification calculates the human density based on the size and angle of view of the human body detected by the human
例えば、顔を確認するため監視カメラ映像では、斜めから撮影されることが多い。この場合、監視カメラに対し手前側の人は大きく、奥側の人は小さく映像上に表示される(例えば、図10(a))。取得した映像を解析することで、検出された人の位置と大きさを得ることができる。監視装置100は、この人の位置と大きさを用いて、一つ一つの領域の実地面積が同じになるように映像に対して領域を範囲指定し(例えば、図10(b))、範囲指定された領域毎の人数をカウントし、密度を算出する。本実施例では、領域内の人数をカウントして密度を算出するが、検出した人と人との距離を用いて密度を算出する方法や、複数の映像を学習し、学習を用いた密度を算出する方法を用いてもよい。そして、監視装置100は、人の密度が一定以上の場合にのみ、属性推定処理以降の処理を行う。これにより、より危険度が高いと予想される場合にのみ、グループ判定を行うことができる。本処理は、人物の密度に応じて警告の出力を制限する出力処理の一例である。 For example, in order to confirm a face, surveillance camera images are often taken from an oblique direction. In this case, the person on the near side with respect to the monitoring camera is large and the person on the far side is small and displayed on the video (for example, FIG. 10A). By analyzing the acquired image, the position and size of the detected person can be obtained. Using the position and size of the person, the monitoring apparatus 100 designates a region for the image so that the actual area of each region is the same (for example, FIG. 10B). Count the number of people in each specified area and calculate the density. In this embodiment, the density is calculated by counting the number of people in the area, but the method of calculating the density using the distance between the detected person and the person, learning a plurality of images, and calculating the density using learning. A calculation method may be used. And the monitoring apparatus 100 performs the process after an attribute estimation process, only when a person's density is more than fixed. Thereby, the group determination can be performed only when the risk level is expected to be higher. This process is an example of an output process that limits the output of a warning according to the density of a person.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 監視装置
201 人体検出部
202 属性推定部
203 グループ判定部
204 外部通知部
205 設定部
DESCRIPTION OF SYMBOLS 100
Claims (12)
前記撮影画像に基づいて、前記検出手段により検出された人物の属性を推定する属性推定手段と、
前記属性推定手段による推定結果に基づいて、前記検出手段により検出された複数の人物を属性グループに分類する分類手段と、
前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理手段と
を有することを特徴とする監視装置。 Detecting means for detecting a person in the captured image;
Attribute estimation means for estimating an attribute of a person detected by the detection means based on the captured image;
Classification means for classifying a plurality of persons detected by the detection means into attribute groups based on the estimation result by the attribute estimation means;
An output processing means for controlling to output a warning according to the number of persons belonging to the attribute group.
属性グループに属する人物の数が第1の人数閾値未満の第1のグループと、属性グループに属する人物の数が第1の人数閾値よりも大きい第2の人数閾値以上の第2のグループがそれぞれ1つ以上存在する場合に、第1の警告を出力するよう制御し、
前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離が第1の距離閾値未満になった場合に、第2の警告を出力するよう制御し、
前記第1のグループに属する人物と前記第2のグループに属する人物の間の距離が第1の距離閾値よりも小さい第2の距離閾値未満になった場合に、第3の警告を出力するよう制御することを特徴とする請求項1に記載の監視装置。 The output processing means includes
A first group in which the number of persons belonging to the attribute group is less than the first number threshold and a second group in which the number of persons belonging to the attribute group is greater than the first number threshold and greater than or equal to the second number threshold are respectively Control to output the first warning if one or more exist,
Control to output a second warning when the distance between the person belonging to the first group and the person belonging to the second group is less than a first distance threshold;
A third warning is output when the distance between the person belonging to the first group and the person belonging to the second group is less than a second distance threshold smaller than the first distance threshold. The monitoring device according to claim 1, wherein the monitoring device is controlled.
前記出力処理手段は、さらに人物の感情に応じて警告を出力するよう制御することを特徴とする請求項2乃至6の何れか1項に記載の監視装置。 Further comprising emotion estimation means for estimating the emotion of at least one of the persons belonging to the first group and the persons belonging to the second group based on the captured image;
The monitoring apparatus according to claim 2, wherein the output processing unit further controls to output a warning according to a person's emotion.
撮影画像において人物を検出する検出ステップと、
前記撮影画像に基づいて、前記検出ステップにおいて検出された人物の属性を推定する属性推定ステップと、
前記属性推定ステップの推定結果に基づいて、前記検出ステップにおいて検出された複数の人物を属性グループに分類する分類ステップと、
前記属性グループに属する人物の数に応じて、警告を出力するよう制御する出力処理ステップと
を含むことを特徴とする監視方法。 A monitoring method executed by a monitoring device,
A detection step of detecting a person in the captured image;
An attribute estimation step for estimating an attribute of the person detected in the detection step based on the captured image;
A classification step of classifying a plurality of persons detected in the detection step into attribute groups based on the estimation result of the attribute estimation step;
And an output processing step of controlling to output a warning according to the number of persons belonging to the attribute group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018096395A JP2019200718A (en) | 2018-05-18 | 2018-05-18 | Monitoring device, monitoring method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018096395A JP2019200718A (en) | 2018-05-18 | 2018-05-18 | Monitoring device, monitoring method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019200718A true JP2019200718A (en) | 2019-11-21 |
Family
ID=68612189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018096395A Pending JP2019200718A (en) | 2018-05-18 | 2018-05-18 | Monitoring device, monitoring method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019200718A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021181550A1 (en) * | 2020-03-11 | 2021-09-16 | ||
WO2022050217A1 (en) * | 2020-09-01 | 2022-03-10 | キヤノン株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-05-18 JP JP2018096395A patent/JP2019200718A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021181550A1 (en) * | 2020-03-11 | 2021-09-16 | ||
WO2021181550A1 (en) * | 2020-03-11 | 2021-09-16 | 日本電気株式会社 | Emotion estimation device, emotion estimation method, and program |
JP7491365B2 (en) | 2020-03-11 | 2024-05-28 | 日本電気株式会社 | Emotion estimation device, emotion estimation method, and program |
WO2022050217A1 (en) * | 2020-09-01 | 2022-03-10 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP7476038B2 (en) | 2020-09-01 | 2024-04-30 | キヤノン株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6137425B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
JP6708218B2 (en) | Information processing device, intrusion detection method, and computer program | |
JP6717235B2 (en) | Monitoring support system and control method thereof | |
JP6159179B2 (en) | Image processing apparatus and image processing method | |
JP6712778B2 (en) | Object detection device, object detection system, and object detection method | |
JP2012108785A (en) | Person counting device, person counting method, and person counting program | |
JP6381313B2 (en) | Control device, control method, and program | |
JP2019200715A (en) | Image processing apparatus, image processing method, and program | |
JP2019052889A (en) | Image processor | |
US20210090611A1 (en) | Information processing apparatus, control method, and program | |
JP6119938B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
JP2018151834A (en) | Lost child detection apparatus and lost child detection method | |
JP2019200718A (en) | Monitoring device, monitoring method, and program | |
JP2018142173A (en) | Image monitoring device | |
JP2011053005A (en) | Monitoring system | |
JP6469139B2 (en) | Information processing apparatus, information processing method, and program | |
US12046078B2 (en) | Accident detection device and accident detection method | |
JP7214437B2 (en) | Information processing device, information processing method and program | |
JP2019008515A (en) | Watching support system and method for controlling the same | |
JP2020194227A (en) | Face hiding determination device, face hiding determination method, face hiding determination program, and occupant monitoring system | |
KR101704471B1 (en) | Fall detection apparatus and method thereof | |
JP5864231B2 (en) | Moving direction identification device | |
JP2020091622A (en) | Group estimation device and group estimation method | |
US20200184797A1 (en) | Information processing apparatus, control method, and program | |
JP2020077319A (en) | Image monitoring system |