JP7478630B2 - Video analysis system and video analysis method - Google Patents
Video analysis system and video analysis method Download PDFInfo
- Publication number
- JP7478630B2 JP7478630B2 JP2020154309A JP2020154309A JP7478630B2 JP 7478630 B2 JP7478630 B2 JP 7478630B2 JP 2020154309 A JP2020154309 A JP 2020154309A JP 2020154309 A JP2020154309 A JP 2020154309A JP 7478630 B2 JP7478630 B2 JP 7478630B2
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- person
- video
- monitoring
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 44
- 230000003993 interaction Effects 0.000 claims description 172
- 238000012544 monitoring process Methods 0.000 claims description 140
- 238000001514 detection method Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000000383 hazardous chemical Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- JTJMJGYZQZDUJJ-UHFFFAOYSA-N phencyclidine Chemical compound C1CCCCN1C1(C=2C=CC=CC=2)CCCCC1 JTJMJGYZQZDUJJ-UHFFFAOYSA-N 0.000 description 1
- 230000005195 poor health Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 231100000331 toxic Toxicity 0.000 description 1
- 230000002588 toxic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Description
本発明は、監視エリアを撮像した映像から、人物の状態や物体を検知し、検知結果に基づいて、監視対象を検出する映像解析システムおよび映像解析方法に関する。 The present invention relates to a video analysis system and a video analysis method that detects the state of people and objects from video captured in a surveillance area and detects the surveillance target based on the detection results.
近年、コンサート会場やアミューズメント施設などのイベント会場、駅や空港などの公共施設における映像監視の必要性が増大している。例えば、セキュリティエリア内外における荷物の受け渡し行為や物の置き去り行為等に対しては、爆発物や有害液体等の危険物を用いたテロ行為を防ぐために、人物の監視、行為の検出、または行為を行ったもしくは行う予兆のある人物への声掛けといった対応がなされることが保安上要請される。また、人物同士の揉み合い、撮像人物の転倒やうずくまる動作等の早期発見によって、施設管理者は施設内において発生した要救護対象者の迅速な保護を行うことができ、安全の確保に貢献することが可能になる。 In recent years, there has been an increasing need for video surveillance at event venues such as concert halls and amusement facilities, and at public facilities such as stations and airports. For example, in order to prevent terrorist acts using hazardous materials such as explosives or toxic liquids, security requires that actions such as monitoring people, detecting the act, and calling out to people who have committed or are about to commit an act, be taken against the handover of luggage or the abandonment of items inside and outside security areas. In addition, early detection of people struggling with each other, or of a person in the video falling or crouching, allows facility managers to quickly protect people in need of assistance within the facility, contributing to ensuring safety.
例えば、特許文献1に記載の画像監視装置においては、監視領域を撮影した画像から、人体の姿勢に関する情報を算出することで、監視領域における受け渡し行為を検出している。さらに、発生位置と受け渡された物品の種類を用いて監視重要度を算出し、前記監視重要度に応じて受け渡し行為の検出結果を出力している。また、受け渡し行為の検出結果の出力について、「監視センタの監視員」に対する画面表示、警報ランプ、警報音等による通知方法が記載されている。
For example, the image monitoring device described in
また、特許文献2に記載の画像処理装置においては、映像を監視する負担を軽減すると共に物事が起こった瞬間を捉え易くすることを目的として、複数の映像配信装置から配信された複数の映像を取得する取得手段と、複数の映像のそれぞれに含まれる複数の物体の位置を検出する物体位置検出手段と、複数の物体の位置における各物体の向きを検出する向き検出手段と、各物体の向きに基づいて複数の映像のそれぞれに優先度を設定する設定手段と、優先度に基づいて複数の映像を表示する表示手段とを有する画像処理装置が開示されている。
In addition, the image processing device described in
上述の従来技術を用いると、本来は監視重要度が高くない人物に対しても過剰な発報が行われるケースが発生するため、監視業務に関わる作業員は発報された事象に対応しなければならず業務負担が増大する。また、事象検出後に結果を出力する際に、監視重要度の高い行為者が多いと、これらの行為者について映像解析システムによる人物追跡や行動認識等を行う必要が生じるため、人数の増加による処理負荷の増大を引き起こす。そこで、本発明では、監視エリア内でインタラクションを行った複数の人物ごとに監視重要度を設定し、監視重要度の高い人物を精度良く絞り込むことで、監視における対応者の業務負荷の軽減およびシステムの処理負荷の低減が可能な映像解析システムを提供することを目的とする。 When using the above-mentioned conventional technology, there are cases where excessive alerts are issued for people who are not actually of high monitoring importance, and workers involved in monitoring work have to respond to the alerted events, increasing their workload. Furthermore, when outputting the results after detecting an event, if there are many actors with high monitoring importance, it becomes necessary to use the video analysis system to track these actors and recognize their behavior, etc., which increases the processing load due to the increase in the number of people. Therefore, the objective of this invention is to provide a video analysis system that can reduce the workload of responders in monitoring and reduce the processing load of the system by setting a monitoring importance for each of multiple people who interact within a monitoring area and accurately narrowing down the people with high monitoring importance.
本発明の一態様としての映像解析システムは、監視領域を撮影した映像を用いて、前記監視領域における事象を検出する映像解析システムにおいて、前記映像に基づいて、複数の人物の関与により生じる事象であるインタラクションを検出し、前記インタラクションの種類と、前記複数の人物の各々が前記インタラクションにおいて他の人物とどのように関わったかを示すインタラクションの方向とを出力するインタラクション検出部と、前記インタラクションの種類及び方向と、予め設定された監視基準情報と、を比較して、前記インタラクションに関与した複数の人物について人物毎の監視重要度を判定する監視重要度判定部と、前記監視重要度に基づいて、前記事象の検出結果を出力する出力制御部と、を有する映像解析システムを提供する。
また、本発明は、監視領域を撮影した映像を用いて、前記監視領域における事象を検出する映像解析方法において、前記映像に基づいて、複数の人物の関与により生じる事象であるインタラクションを検出し、前記インタラクションの種類と、前記複数の人物の各々が前記インタラクションにおいて他の人物とどのように関わったかを示すインタラクションの方向とを出力するインタラクション検出ステップと、前記インタラクションの種類及び方向と、予め設定された監視基準情報と、を比較して、前記インタラクションに関与した複数の人物について人物毎の監視重要度を判定する監視重要度判定ステップと、前記監視重要度に基づいて、前記事象に検出結果を出力する出力制御ステップと、を含む映像解析方法を提供する。
One aspect of the present invention provides a video analysis system that detects events in a monitored area using video captured of the area, and includes an interaction detection unit that detects interactions, which are events that arise with the involvement of multiple people, based on the video, and outputs the type of interaction and the direction of interaction indicating how each of the multiple people involved in the interaction with the other people; a monitoring importance determination unit that compares the type and direction of the interaction with preset monitoring standard information to determine the monitoring importance of each of the multiple people involved in the interaction; and an output control unit that outputs the detection results of the event based on the monitoring importance.
The present invention also provides a video analysis method for detecting an event in a monitored area using video captured of the area, the video analysis method including an interaction detection step of detecting an interaction, which is an event occurring with the involvement of a plurality of persons, based on the video, and outputting a type of the interaction and a direction of the interaction indicating how each of the plurality of persons was involved with other persons in the interaction, a monitoring importance determination step of comparing the type and direction of the interaction with preset monitoring standard information to determine the monitoring importance of each of the plurality of persons involved in the interaction, and an output control step of outputting a detection result for the event based on the monitoring importance.
本発明によれば、監視エリア内でインタラクションを行った複数の人物ごとに監視重要度を設定し、監視における対応者の業務負荷の軽減およびシステムの処理負荷の低減を実現することができる。 According to the present invention, it is possible to set a monitoring importance level for each of multiple people who interact within a monitoring area, thereby reducing the workload of the person in charge of monitoring and the processing load of the system.
以下、本発明にかかる映像監視システムの実施の形態について説明する。本実施の形態では、イベント会場、駅や空港などの公共施設におけるテロ行為や危険行為の早期発見を目的として、監視エリア内における物品の受け渡し行為やもみ合い行為等の複数人物による連携行動、すなわちインタラクションの検出を行うものである。本発明によると、インタラクションを行った各人物について監視重要度を設定し、対応すべき事象に優先順位を設定可能になるため、施設内の監視員や現場スタッフが効率的かつ迅速に事象への対応を行うことを促進する。また、前記スタッフの人員が要対応者よりも少ない場合において、重要度の高い人物を取り逃すリスクを低減可能である。さらに、監視重要度の高い人物から事象発生後の人物追跡や行動認識等の処理を行うことが可能になるため、限られたコンピュータリソースを適切に配分可能とする。 The following describes an embodiment of the video surveillance system according to the present invention. In this embodiment, the system detects coordinated actions by multiple people, such as the handing over of goods or scuffles, in a surveillance area, for the purpose of early detection of terrorist acts or dangerous acts in public facilities such as event venues, stations, and airports. According to the present invention, it is possible to set a surveillance importance for each person who has interacted and to set priorities for events that need to be dealt with, which promotes efficient and rapid response by surveillance personnel and on-site staff in the facility to events. In addition, when the number of staff is fewer than the number of people who need to be dealt with, it is possible to reduce the risk of missing people with high importance. Furthermore, it is possible to carry out processing such as person tracking and behavior recognition after an event occurs starting from people with high surveillance importance, which allows limited computer resources to be appropriately allocated.
なお、本実施の形態における「事象」とは、ある監視領域において検出対象として事前設定された状況である。特に本実施の形態では、複数の人物が関与して生じる事象であるインタラクションを検出対象とする。例えば、握手、荷物の受け渡し、もみ合い、暴行などの行動がインタラクションに含まれる。以下、図面を用いて、実施例を説明する。 In this embodiment, an "event" refers to a situation that is preset as a detection target in a certain monitoring area. In particular, in this embodiment, the detection target is an interaction, which is an event that occurs with the involvement of multiple people. For example, interactions include actions such as shaking hands, handing over luggage, fighting, and assault. Below, an example will be explained using the drawings.
図1は、本実施の形態における映像監視システムの説明図である。図1に示すように、映像監視システム1は、撮影システム2、映像解析システム3、監視センタシステム4に大別される。撮影システム2は、監視対象エリアに設置されたカメラ部によって構成される。また、映像解析システム3では、撮像装置からの入力映像を解析することで、検出対象である人物間のインタラクションおよび前記人物の属性を判定し、さらに、発生位置の情報とインタラクションの方向に関する情報を、事前設定された監視基準情報に照らし合わせることで、各人物の監視重要度を判定する。また、監視センタシステム4では、映像解析システム3からの解析結果を受け取り、監視員や現場スタッフへの効果的な表示や、インタラクションや人物に関する事象発生後の検索を行う。
Figure 1 is an explanatory diagram of a video surveillance system in this embodiment. As shown in Figure 1, the
ここで、インタラクションの方向とは、インタラクションに係る所定の行動がどの人物からどの人物に行われたかを示すものである。例えば、受け渡しであれば、物品を渡した人物(受け渡しの実行者)から受け取った人物(受け渡しの被実行者)にインタラクションの方向を設定する。同様に、暴行であれば、加害者(暴行の実行者)から被害者(暴行の被実行者)にインタラクションの方向を設定する。このように、インタラクションの方向は、インタラクションの種類ごとに定まるものである。また、握手やもみ合いのように、双方向で行われるインタラクションも存在する。
また、人物の属性とは、一般人か警備員か、年齢、性別などである。
映像監視システム1は、インタラクションの方向やインタラクションに関与した人物の属性を用いることで、人物ごとに監視重要度を設定し、監視における対応者の業務負荷の軽減およびシステムの処理負荷の低減を実現している。
Here, the direction of interaction indicates which person performed a specific action related to the interaction to which person. For example, in the case of a handover, the direction of the interaction is set from the person who handed over the item (the person who performed the handover) to the person who received it (the person who received the handover). Similarly, in the case of an assault, the direction of the interaction is set from the assailant (the person who performed the assault) to the victim (the person who received the assault). In this way, the direction of the interaction is determined for each type of interaction. There are also interactions that are two-way, such as handshakes and scuffles.
The attributes of a person include whether the person is a regular person or a security guard, their age, and their gender.
The
この点について、具体例を挙げて説明する。発生位置と受け渡された物品の種類を用いて人物の監視重要度を算出する算出法によると、受け渡しと受け取りを行った複数の人物の監視重要度の軽重は考慮されない。しかし、例えば物品が当該監視エリアにおける要注意物品であったとすると、前記物品を受け渡された人物の監視重要度が、受け渡した人物よりも高く設定されることが望ましい。または、監視エリア内に異なるセキュリティレベルのエリアがある場合、セキュリティレベルの低いエリアから高いエリアへの受け渡しと、その逆方向の受け渡しでは、監視重要度は異なって判定されることが望ましい。 This point will be explained with a concrete example. According to the calculation method that calculates the monitoring importance of a person using the location of occurrence and the type of the delivered item, the degree of monitoring importance of the multiple people who performed the delivery and receipt is not taken into consideration. However, for example, if the item is a suspicious item in the monitored area, it is desirable to set the monitoring importance of the person to whom the item is delivered higher than that of the person who delivered it. Alternatively, if there are areas with different security levels within the monitored area, it is desirable to determine the monitoring importance differently for a delivery from an area with a low security level to an area with a high security level and a delivery in the opposite direction.
また、例えば、受け渡しを行った人物が警備員をはじめとする監視エリア内の保安維持業務の従事者(保安要員)であれば、監視重要度は高く設定されるべきではない。しかし、このような属性を考慮しなければ、真に監視すべき受け渡しを行った人物と保安要員の監視重要度は同等に判定される。この方法では、システムが提示する重要度に差がない複数の人物に対応が必要となり、監視員などの負担が増大する。さらに、現場スタッフや警備員等の対応にあたる人員が、要対応者の人数よりも少ない場合、重要な対象者を取り逃す恐れがある。
以上から、映像監視システム1は、インタラクションの種別およびその発生位置のみならず、行動の方向と属性に関する情報を用いることで正確な監視重要度の判定を実現しているのである。
Also, for example, if the person who made the handover is a security guard or other security personnel in charge of maintaining security in the monitored area, the monitoring importance should not be set high. However, if such attributes are not taken into consideration, the monitoring importance of the person who made the handover and the security personnel who should really be monitored will be judged to be equal. With this method, it becomes necessary to respond to multiple people whose importance is the same as that presented by the system, which increases the burden on the monitors. Furthermore, if the number of personnel who respond to the handover, such as on-site staff and security guards, is smaller than the number of people who need to be responded to, there is a risk that important targets will be missed.
As described above, the
以下、撮影システム2、映像解析システム3、および監視センタシステム4について具体的に説明する。
図2は、本実施の形態における映像監視システムの全体構成を示した図である。撮影システム2は、監視対象エリアに設置された一つまたは複数のカメラ部21から構成され、撮像された映像は、映像解析システム3の映像入力部31へ順次入力される。カメラ部21は、監視を対象とするエリア全体を撮像できるように配置された監視カメラである。なお、インタラクションの検出のためのエリア設定を必要としない場合には、監視カメラは固定されていない移動型のカメラでもよく、監視対象のエリアを撮像できていれば、形式は問わない。一方、エリア設定を要する場合には、壁や支柱等へ固定された監視カメラを使用し、キャリブレーション設定が事前になされていることが望ましい。また、そのような場合は、パン・チルト・ズーム(PTZ)操作が不可能な固定カメラの利用が想定されるが、それらの設定とキャリブレーション設定の組み合わせが事前に調整されている場合、PTZ操作が可能なカメラを利用してもよく、同一のカメラで様々なエリアを監視してもよい。
The
FIG. 2 is a diagram showing the overall configuration of the video monitoring system in this embodiment. The
また、カメラ部21と映像入力部31は、有線通信手段または無線通信手段によって接続され、カメラ部21から映像入力部31へフレーム画像を連続送信する。インタラクション認識が複数のフレーム画像の入力を前提とする時系列データ分析モデルである場合、フレーム画像の連続送信のフレームレートは、インタラクション認識の要求値以上であることが望ましい。一方、フレームレートが要求値より低下した場合に生じるインタラクション認識の精度低下が許容できる場合、フレームレートは要求値を下回っても良い。この場合、インタラクション認識において、時系列データの内挿または外挿による補間など、精度低下を抑制する処理を行っても良い。また、カメラ部21と映像解析システム3は一対一の対応ではなくてもよく、複数のカメラ部と一つの映像解析システムとして用いてもよい。このような多重プロセスの実行の場合においても、各プロセスが必要とするフレームレートは前述の制約に準ずる。なお、カメラ部21は、後述する映像解析システムの一部または全部の機能を搭載してもよい。
The
映像解析システム3は、映像入力部31、映像処理部32、記憶部33から構成される。映像入力部31は、カメラ部21から映像の入力を受け付け、映像処理部32へ映像データを送信する。なお、解析対象とする映像は、カメラ部21から直接入力された映像ではなく、別途保存されたレコーダ内の映像でもよい。映像の保存場所は問わない。映像処理部32は、後述する記憶部33に保存された監視基準情報を読み込み、映像入力部31より入力された映像を解析することで、インタラクションを行った各個人の監視重要度を判定する機能を有する。記憶部33は、後述する管理制御部43において設定された監視基準情報を保存する。監視基準情報は、映像処理部32の出力となる監視重要度の判定に用いる。また、本実施の形態では、映像解析システム3は運用施設内のサーバへ構築するようなオンプレミス型のシステムに限定されるものではなく、クラウドサービスを活用するなど施設外部サーバに構築されてもよい。
The
監視センタシステム4は、記録部41と映像表示部42と管理制御部43と検索部44から構成される。記録部41は、映像解析システム3による映像解析によって得られた発生インタラクション、インタラクションの方向、人物属性、発生エリア、発生時刻等の情報をデータベースとして保持する機能を有する。映像表示部42では、インタラクションを行った人物の現在時刻における行動や、インタラクション検出時のフレームの一部または全部に関する情報を、監視重要度に従って表示する。管理制御部43では、映像処理部32で用いる監視基準情報を保存するため、監視員や現場スタッフ等によって記憶部33へ設定情報を入力する機能を有する。検索部44は、人物の属性やインタラクション種別をクエリとして、記録部41に保存された情報から該当する人物を検索する機能を有し、該当人物の現在時刻における位置とそれまでの施設内の移動軌跡等の情報を調べる機能を有する。
The
図12は、本実施の形態における映像監視システムのハードウェア構成図である。図12では、カメラユニット1102がネットワークを介してコンピュータ1103に接続されている。さらに、コンピュータ1103は、ネットワークを介してコンピュータ1104と通信可能である。
Figure 12 is a hardware configuration diagram of a video monitoring system in this embodiment. In Figure 12, a
カメラユニット1102は、監視領域に1つ又は複数設置され、映像データをコンピュータ1103に適宜送信する。コンピュータ1103は、演算制御装置としてのCPU(Central Processing Unit)、主記憶装置としてのRAM(Random access memory)、補助記憶装置としてのHDD(hard disk drive)を備える。コンピュータ1103は、各種プログラムをHDDから読み出してRAMに展開し、CPUによって実行することで、映像解析システム3としての機能を実現する。また、コンピュータ1103は、所定の通信インタフェース(IF)を介してカメラユニット1102及びコンピュータ1104と通信する。なお、図示を省略したが、キーボードやディスプレイなどの入出力装置も所定のIFを介してコンピュータ1103に接続される。
One or
コンピュータ1104は、演算制御装置としてのCPU、主記憶装置としてのRAM、補助記憶装置としてのHDDを備え、各種プログラムをHDDから読み出してRAMに展開し、CPUによって実行することで、監視センタシステム4としての機能を実現する。また、コンピュータ1104は、所定のインタフェース(IF)を介してコンピュータ1103、キーボードやディスプレイなどの入出力装置と接続される。
次に、図3を参照して、映像解析システム3の詳細を説明する。図3は、本実施の形態における映像解析システムのブロック図を示した図である。以下、映像解析システム3を構成する映像入力部31、映像処理部32、記憶部33について説明する。
Next, the
映像入力部31は、一つまたは複数のカメラ部21から映像を順次受け付け、後段の映像処理部32へ映像を出力する。ただし、映像処理部32が時系列情報を扱わない場合、入力は画像であってもよい。
The
映像処理部32は、算出部321、インタラクション検出部322、監視重要度判定部323、そして出力制御部324から構成される。
算出部321は、さらに人物検出部3211と属性判定部3212から構成される。
The
The
人物検出部3211は、前記映像入力部から受け付けた画像または映像を用いて、現フレームの静止画中から人物を検出する。人物検出の手段には、Haar-like特徴の利用やR-CNN(Regions with CNN)等の利用によって判定する手段や、骨格推定手段を用いて人物ごとに推定された骨格座標群から推定領域を判定する手段などがあり、本実施の形態ではその手段を問わない。また、人物検出部3211は人物検出ののちに人物追跡を行う。人物追跡では、ある人物の矩形画像と、その人物へ割り当てられた人物IDとが、前後フレームで対応付けられていればよく、テンプレートマッチングやオプティカルフロー等、一般的な人物追跡手法を用いればよい。
The
次に、属性判定部3212へ前記人物検出部で得た人物の矩形画像を入力し、人物の属性を判定する。人物の属性を用いることによって、各個人の監視重要度の判定に寄与する情報として活用することができる。さらに、前述した検索部44におけるクエリとして属性を用いることができる。属性の例として、施設内の警備員やスタッフ、一般の施設利用者、年齢や性別等が挙げられる。施設内の警備員やスタッフと一般の施設利用者を判別できると、警備員やスタッフが起こしたインタラクションは職務の範囲で行った行動であることが想定されるため、監視重要度を設定せず、余分な発報を生じさせないという効果が期待できる。また、一般の施設利用者の年齢や性別の推定により、例えば、仮に特定の年齢層の人物が要注意行動を発生させやすいという事前の統計情報がある場合、当該特定の年齢層に対する監視重要度を高めに設定することで効果的な映像監視が可能になる。さらに、アミューズメント施設やイベント施設等においては、前記施設利用者のうち事前登録された要注意人物や出入禁止対象人物等との照合を行うことも効果的である。属性の推定方法には、人物の矩形画像をHOG(Histograms of Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)、または学習済みディープラーニングモデルのネットワークの中間層から出力されるベクトル等の画像特徴量へ変換し、SVM(Support Vector Machine)や決定木等の識別機を学習させる手段や、CNN(Convolutional Neural Network)に基づく手法によってエンドトゥエンドに判定する手段などがある。これらの判定手段は、一段目として警備員や現場スタッフと一般来場者を分類する識別機、二段目として一般来場者のうち年齢や性別を判定する識別機として構築されてもよく、または同一の識別機において学習されてもよい。さらに、人物の所有物品の判定手段を別途用いることで、禁止物品や危険物品を所持していると判定された人物に対しては、それを表現する属性を付与することも、適切な属性表現のために効果的である。
Next, the rectangular image of the person obtained by the person detection unit is input to the
インタラクション検出部322は、前記人物検出部3211から得た情報を用いて、インタラクションの有無、種別、およびその方向を判定する。判定方法には、任意の人物ペアについて、前述のように画像特徴量を用いる手段や、骨格情報を用いる手段がある。骨格情報を用いる場合、前記人物骨格検知手段による骨格の推定結果から算出される人物の姿勢を表す特徴量や、ある人物ペアの任意の骨格点間の相対距離から算出される特徴量、または、前後の画像フレームから骨格の単位時間当たりの移動量や相対距離の変化量を表現する時系列の特徴量を用いてもよい。さらに、属性判定部3212から得た属性情報を特徴量として用いてもよく、例えば、年齢や性別を表現する特徴量を用いてもよい。または、人物に着目するのみならず、人物が所持する物品を表現する特徴量を用いてもよい。例えば、ある人物による所有判定がなされた物品が、一定時間後に別の人物の所有判定となった場合、所有判定が切り替わった時点において、受け渡し行為が発生したと解釈することができる。これらの特徴量は、単独で用いられるだけではなく、複合的に用いられてもよい。例えば、姿勢に関する特徴量のみを用いてインタラクションを判定すると、遠距離に位置する人物間であってもインタラクションを誤検知する可能性があるが、相対距離に関する特徴量も併用することで、誤検知数を低減可能である。以上のように、特徴量を単独または複合的に用いることで、効果的なインタラクション検出を行うことができる。
The
画像情報を用いる場合は、CNNに基づく手法を用いる手段が挙げられる。または、骨格情報を用いる場合は、姿勢、相対距離、または属性等を表す特徴量により、SVM、決定木、またはLSTM(Long Short-Term Memory)等の識別機を学習させる手段が挙げられる。 When image information is used, a method based on CNN can be used. When skeletal information is used, a method of training a classifier such as SVM, decision tree, or LSTM (Long Short-Term Memory) can be used using features representing posture, relative distance, attributes, etc.
監視重要度判定部323は、属性判定部3212から得られた人物の属性、インタラクション検出部322から得られたインタラクションの種別と方向、そして本実施例の形態では人物検出部3211から得られる人物が位置するエリア情報も入力とし、監視基準情報331に設定された情報と照合することで、インタラクションを行った個人ごとの監視重要度を設定する。エリア情報の算出は、エリアの事前設定情報と人物矩形の情報とを照合して判定することができる。例えば、あるPTZ設定のカメラにおいて画像座標上でエリア設定を行えば、人物の足元の推定位置がどのエリア上に位置するかによって、人物が位置するエリアを判定することができる。
The monitoring
出力制御部324は、監視重要度判定部323で判定された個人ごとの監視重要度を、監視センタシステム4へ送信する。監視重要度が算出された事象全てを送信してもよく、または監視重要度が高いもののみが送信されるように、閾値を事前設定してもよい。
The
記憶部33では、監視重要度判定部323で用いるための監視基準情報331を記憶する。監視基準情報331は、インタラクション種別ごとに設定されたインタラクションセキュリティレベル、属性種別ごとに設定された属性セキュリティレベル、エリア種別ごとに設定されたエリアセキュリティレベルの三種のセキュリティレベル設定情報を有する。さらに、それらのセキュリティレベル設定それぞれの重み情報およびインタラクション種別ごとに設定される実行者または被実行者の重み情報を有する。監視基準情報331は、管理制御部43から設定することができる。
The
次に、図4に示すフローチャートを参照して、本実施の形態における映像解析システムの処理の流れを説明する。
ステップS1において撮影システムから映像解析システムへ映像が入力されると、ステップS2において人物検出が行われる。
次に、ステップS3で人数計測を行う。もし画面内に2名以上が検出された場合には、ステップS4へ移行し、1名以下のみの検出であった場合には、ステップS4以降の処理は行わずに次フレームの入力を待機して、ステップS1へ戻る。なお、インタラクション検出を所望または許容するエリアと所望または許容しないエリアが画面内に混在している場合、計算量削減のために、ステップ2の直前に監視エリアに対して部分的にマスク処理を行ってもよい。
Next, the flow of processing in the video analysis system according to the present embodiment will be described with reference to the flowchart shown in FIG.
When an image is input from the imaging system to the image analysis system in step S1, human detection is performed in step S2.
Next, in step S3, the number of people is counted. If two or more people are detected on the screen, the process proceeds to step S4, and if only one or less people are detected, the process waits for the input of the next frame without performing the processes in and after step S4, and returns to step S1. Note that if the screen includes a mixture of areas where interaction detection is desired or permitted and areas where it is not desired or permitted, a partial mask process may be performed on the monitoring area immediately before
ステップS4ではインタラクション判定を行う。判定は、画面内の任意の人物ペアに対して行われるが、計算量削減のためにインタラクション種別ごとに一定の距離以上の人物ペアに対しては判定処理を行わないことが好適である。例えば、受け渡し行為の検出においては、明らかに互いに手の届かない距離に位置している二名の人物間に対して受け渡しの有無を判定する必要はない。行動判定の前に人物間の相対距離の判定を行う場合、相対距離を世界座標系で算出する必要がある。そのため、事前に設定されたエリア情報を用いるか、または、ステレオカメラや単眼カメラによる深度推定技術等を用いて、事前設定を行うことなく、世界座標系における人物の位置を推定し、人物間の相対距離を算出する。さらに、別途設定テーブルを用意し、一括して判定用閾値を設定する。例えば、閾値を「3m」と設定した場合、世界座標系における相対距離が「3m」という前記閾値を超える人物ペアに対しては行動の判定処理を行わない。もし識別機が多種のインタラクションの認識に対応した多クラス分類器ではなく、インタラクション種別ごとに学習された二クラス分類器である場合、前記閾値の設定はインタラクション種別ごとに行うこともできる。また、エリア境界を横断するインタラクションを検出する際には、同一のエリア内に位置する人物間でインタラクション判定を行わず、異なるエリアに位置する人物間でのインタラクションを判定することも計算量削減および誤検知低減のために好適である。 In step S4, an interaction judgment is performed. The judgment is performed for any person pair in the screen, but in order to reduce the amount of calculation, it is preferable not to perform the judgment process for person pairs that are more than a certain distance apart for each interaction type. For example, in detecting a handover action, it is not necessary to judge whether or not there is a handover between two people who are clearly out of reach of each other. When judging the relative distance between people before the behavior judgment, it is necessary to calculate the relative distance in the world coordinate system. Therefore, by using area information set in advance, or by using depth estimation technology using a stereo camera or a monocular camera, the position of the person in the world coordinate system is estimated without presetting, and the relative distance between the people is calculated. Furthermore, a separate setting table is prepared, and a judgment threshold is set collectively. For example, if the threshold is set to "3m", the behavior judgment process is not performed for person pairs whose relative distance in the world coordinate system exceeds the threshold of "3m". If the classifier is not a multi-class classifier that corresponds to the recognition of various types of interactions, but a two-class classifier that is trained for each interaction type, the threshold can also be set for each interaction type. In addition, when detecting interactions that cross area boundaries, it is preferable to determine interactions between people located in different areas rather than between people located in the same area, in order to reduce the amount of calculations and false positives.
インタラクション判定の結果、インタラクションが行われた、すなわち事象発生と判定された場合、ステップS5の分岐によりステップS6以降の処理へ移行する。一方で、事象が発生していないと判定された場合、ステップS6以降の処理は行わず、次フレームの入力を待機してステップS1へ戻る。 If the interaction determination determines that an interaction has occurred, i.e., that an event has occurred, the process branches off at step S5 and proceeds to step S6 and subsequent steps. On the other hand, if it determines that no event has occurred, the process does not proceed to step S6 and subsequent steps, and the process waits for the input of the next frame and returns to step S1.
ステップS6からステップS8では、事象を発生させた人物ごとに属性算出を行う。次に、ステップS9からステップS11では、検出事象ごとに監視重要度判定を行う。判定された監視重要度についてステップS12で出力制御を行ったのち、次フレームの入力を待機してステップS1へ戻る。 In steps S6 to S8, attributes are calculated for each person who caused the event. Next, in steps S9 to S11, a monitoring importance determination is made for each detected event. After performing output control in step S12 for the determined monitoring importance, the process waits for the input of the next frame and returns to step S1.
なお、本図中に示したフローの処理は、必ずしも単一のプロセスで処理される必要はなく、計算効率向上のために、複数のプロセスを用いて非同期に処理されてもよい。 Note that the processing of the flow shown in this diagram does not necessarily have to be performed by a single process, and may be performed asynchronously using multiple processes to improve computational efficiency.
次に、図5を参照して、本実施の形態における監視基準情報の設定例を示す。本実施例の形態における監視基準情報は、表51のセキュリティレベル設定情報、表52のセキュリティレベル設定対象への重み、そして表53のインタラクション種別ごとの実行者重みから構成される。表51および表52から、インタラクション種別、人物属性、発生エリアを考慮した、個人ごとの重み付き点数を算出し、さらに、前記重み付き点数と表53の実行者重みを用いて監視重要度を算出する。これらの情報は管理制御部43から設定され、監視基準情報331へ保存され、監視重要度判定部323で読み込まれる。以下、各表の設定内容と効果について詳細に説明する。
Next, referring to FIG. 5, an example of the monitoring criteria information settings in this embodiment is shown. The monitoring criteria information in this embodiment is composed of security level setting information in Table 51, weights for security level setting targets in Table 52, and performer weights for each interaction type in Table 53. From Tables 51 and 52, a weighted score for each individual is calculated taking into account the interaction type, person attributes, and occurrence area, and the monitoring importance is calculated using the weighted score and the performer weight in Table 53. This information is set by the
表51は、インタラクション種別ごとのセキュリティレベルを設定する表511、属性種別ごとのセキュリティレベルを設定する表512、エリア種別ごとのセキュリティレベルを設定する表513という三種のセキュリティレベルの設定テーブルから構成される。本実施例の形態では、セキュリティレベルは3点から0点の4段階で設定されるものとし、点数の降順に「レベル高」、「レベル中」、「レベル低」、「レベルなし」とする。レベル高は最も注意レベルの高い対象を示し、レベルなしは注意を要さない対象を示す。
表511に示すインタラクションセキュリティレベルの設定では、例えば「受け渡し」は1点、「暴行」は3点のように、インタラクション種別ごとの重要度が設定されている。同様に、表512に示す属性セキュリティレベルの設定では、「スタッフ」は0点、「出入禁止対象者」は3点のように設定され、表513に示すエリアセキュリティレベルの設定では、「入場ゲート内」を3点、「売店」を2点のように設定されている。
Table 51 is made up of three types of security level setting tables: table 511 for setting security levels for each interaction type, table 512 for setting security levels for each attribute type, and table 513 for setting security levels for each area type. In this embodiment, security levels are set in four stages from 3 points to 0 points, and are classified in descending order of points as "high level,""mediumlevel,""lowlevel," and "none level." A high level indicates an object requiring the highest level of attention, and no level indicates an object requiring no attention.
In the interaction security level settings shown in Table 511, the importance of each interaction type is set, for example, "handover" is set to 1 point and "assault" is set to 3 points. Similarly, in the attribute security level settings shown in Table 512, "staff" is set to 0 points and "prohibited persons" is set to 3 points, and in the area security level settings shown in Table 513, "inside the entrance gate" is set to 3 points and "concession stand" is set to 2 points.
各セキュリティレベルとも、設定対象外の項目は明示的にレベル0として設定され、例えば、インタラクションセキュリティレベルの設定欄においては、「握手」や「ハグ」がレベル0として設定されている。本実施の形態では、表511、表512、および表513の各項目について3点から0点の4段階の点数としたが、階級数は本実施の形態に限定されるものではなく、設定者が自由に設定できることが望ましい。
For each security level, items that are not subject to setting are explicitly set as
表52は、三種のセキュリティレベルの設定対象それぞれに対する重みを格納する設定テーブルである。表52の例では、三種の重みの総和を100%とし、インタラクションが30%、属性が20%、エリアが50%と設定されている。本実施の形態においては、これらの重みを用いて表51の括弧内の点数から重み付き点数を計算し、個人ごとの監視重要度の算出に利用する。例えば、「受け渡し」行為を「一般/青年」が「入場ゲート内」で行った場合、「一般/青年」へ付与される重み付き点数は、表52によって1×0.3+2×0.2+3×0.5=2.2点と計算される。三種のセキュリティレベルの設定対象それぞれに対して重みを設定可能にすることで、施設ごとに異なる需要に柔軟に対応可能になる。例えば、行われたインタラクション種別と人物属性のみを重視するがエリアは問わないという需要があった場合、インタラクションを70%、属性を30%、エリアを0%のように設定することができる。また、一つ以上の設定対象で0点となった場合、その個人の重み付き点数を0点としてもよい。例えば、属性が「警備員」と判定された人物がいずれかのインタラクションを行った場合、職務の範囲において行ったインタラクションであることが考えられ、「警備員」を監視対象とすることは一般に不適切と考えられるためである。上式は重み付き点数の算出式の一例であり、異なる算出式を用いてもよい。 Table 52 is a setting table that stores weights for each of the three security level setting targets. In the example of Table 52, the sum of the three weights is set to 100%, with interaction set to 30%, attribute set to 20%, and area set to 50%. In this embodiment, these weights are used to calculate weighted scores from the scores in parentheses in Table 51, and are used to calculate the monitoring importance for each individual. For example, if a "handover" action is performed by "general/young person" "inside the entrance gate", the weighted score given to "general/young person" is calculated as 1 x 0.3 + 2 x 0.2 + 3 x 0.5 = 2.2 points according to Table 52. By making it possible to set weights for each of the three security level setting targets, it becomes possible to flexibly respond to different demands for each facility. For example, if there is a demand to emphasize only the type of interaction and person attributes performed but not the area, it is possible to set the interaction to 70%, the attribute to 30%, and the area to 0%. Also, if one or more of the set targets receive a score of 0, the weighted score for that individual may be set to 0. For example, if a person whose attribute is determined to be "security guard" engages in any interaction, it is likely that the interaction was within the scope of their job duties, and it is generally considered inappropriate to target "security guards" as targets for monitoring. The above formula is an example of a formula for calculating the weighted score, and a different formula may be used.
表53は、表51および表52から算出された重み付き点数に対して、インタラクションの方向を考慮し、監視重要度を計算するための設定テーブルである。表53を参照すると、例えば「受け渡し」行為は実行者、すなわち物品を受け渡した人物に対する重みは20%と設定される。一方で、被実行者、すなわち物品を受け渡された人物に対する重みは80%と設定される。この例のように、実行者の方が重みが少なくなる設定は、実行者よりも被実行者の重要度が高いことを意味する。「受け渡し」行為においては、物品を手放した人物よりも、その物品を受け取った人物の重要度が高いことが想定される。また、双方向のインタラクションとなる「もみ合い」行為は実行者および被実行者の重みが等価となるよう、表53においては50%と設定されている。そして、実行者である加害者と被実行者である被害者の方向性が明らかな「暴行」行為に関しては、実行者の重みが90%となるように設定されている。重み付き点数から監視重要度を算出する例として、「受け渡し」行為を「一般/青年」が「入場ゲート内」で行った場合に「一般/青年」へ付与される重み付き点数は、前述したように表51および表52から2.2点となるが、「受け渡し」行為の実行者重みが20%と設定されている場合、監視重要度は2.2×0.2=0.44となる。 Table 53 is a setting table for calculating the monitoring importance level by considering the direction of the interaction for the weighted scores calculated from Tables 51 and 52. Referring to Table 53, for example, for the "handover" action, the weight for the perpetrator, i.e., the person who hands over the item, is set to 20%. On the other hand, the weight for the victim, i.e., the person to whom the item is handed over, is set to 80%. As in this example, a setting in which the weight for the perpetrator is lower means that the victim is more important than the perpetrator. In the "handover" action, it is assumed that the person who receives the item is more important than the person who gives it away. In addition, the "scuffle" action, which is a two-way interaction, is set to 50% in Table 53 so that the weights for the perpetrator and victim are equal. And for the "assault" action, where the direction of the perpetrator, the assailant, and the victim, the victim, is clear, the weight for the perpetrator is set to 90%. As an example of calculating the monitoring importance from the weighted score, if a "general/young person" performs a "handover" action "inside the entrance gate", the weighted score given to the "general/young person" is 2.2 points according to Tables 51 and 52 as described above, but if the weight of the person who performs the "handover" action is set to 20%, the monitoring importance will be 2.2 x 0.2 = 0.44.
監視重要度の大きい事象を発生させた人物が、続けて監視重要度の小さい事象を発生させた際に、監視重要度の値が上書きされ、低く見積もられてしまうことを避ける必要がある。そのため、複数のインタラクションを発生させた人物は、その人物に対する監視重要度の値がリセットされるまで、複数の事象で算出された監視重要度が加算される、または大きい事象の値が継続して採用され続けることが望ましい。 When a person who has caused an event with high monitoring importance subsequently causes an event with low monitoring importance, it is necessary to avoid the monitoring importance value being overwritten and estimated low. Therefore, for a person who has caused multiple interactions, it is desirable to have the monitoring importance calculated for multiple events added together, or to continue to use the value of the large event, until the monitoring importance value for that person is reset.
また、同一人物が関与した複数のインタラクションの種別と方向を総合的に用いて、当該人物の監視重要度を求めたり、対応を異ならせることも可能である。例えば、歩行者同士がぶつかるという事象を種別「歩行者衝突」のインタラクションとして設定し、ぶつかった側を実行者、ぶつかられた側を被実行者として方向を規定したケースを考える。ある人物が関与したインタラクションの実績を参照したときに、「歩行者衝突」に高い頻度で関与しており、常に実行者側であった場合、この人物は故意にぶつかっている可能性が高いと考えることができる。このケースでは、監視重要度を高く設定し、同様の「歩行者衝突」に関与したときに即座に保安要員を派遣するという対応をとればよい。一方、「歩行者衝突」に高い頻度で関与しているが、方向が一定ではない(実行者側と被実行者側が同程度)ならば、体調不良などの可能性が考えられる。このケースでは、監視重要度を高く設定し、「うずくまる」などの挙動がみられたときに救護要員を派遣するという対応が望ましい。 It is also possible to determine the monitoring importance of a person or to differentiate responses by using the type and direction of multiple interactions involving the same person in a comprehensive manner. For example, consider a case where an event in which pedestrians collide with each other is set as an interaction of type "pedestrian collision", and the person who collided is set as the actor and the person who was hit is set as the victim, and the direction is specified. When referring to the records of interactions in which a certain person was involved, if the person was frequently involved in "pedestrian collisions" and was always on the actor side, it is highly likely that this person intentionally collided. In this case, the monitoring importance can be set high, and security personnel can be dispatched immediately when the person is involved in a similar "pedestrian collision". On the other hand, if the person is frequently involved in "pedestrian collisions" but the direction is not constant (the actor and victim sides are about the same), it is possible that the person is in poor health. In this case, it is desirable to set the monitoring importance high and dispatch rescue personnel when behavior such as "crouching" is observed.
以上によって計算された監視重要度は出力制御部324へ送信される。出力制御部では、監視センタシステム4へ送信する事象数を抑制する目的で、監視重要度に閾値を設けることができる。例えば、閾値を2.0と設定すれば、監視重要度1.5と算出された監視対象者は送信されず、3.0と算出された個人は送信される。なお、本実施の形態では示していないが、現場スタッフや警備員など、発報対象者を監視重要度の点数に応じて指定してもよい。
The monitoring importance calculated as above is transmitted to the
次に、図6および図7を参照して、図5の監視基準情報を設定するためのGUI(Graphical User Interface)を説明する。図6および図7は、本実施の形態における監視基準情報の設定画面例を示した図である。また、図6は表51の表を作成するための設定画面であり、図7は表52および表53の表を作成するための設定画面である。 Next, a GUI (Graphical User Interface) for setting the monitoring criteria information of FIG. 5 will be described with reference to FIG. 6 and FIG. 7. FIG. 6 and FIG. 7 are diagrams showing examples of setting screens for monitoring criteria information in this embodiment. FIG. 6 is a setting screen for creating Table 51, and FIG. 7 is a setting screen for creating Tables 52 and 53.
図6は、インタラクション種別、人物の属性、そしてエリアに関するセキュリティレベルを設定するGUIであり、以下では特に領域611に示すインタラクションセキュリティレベルの設定について説明する。領域611におけるインタラクションセキュリティレベルの段階数は1点から3点の3段階となっているが、前述の通り、段階数は本実施の形態に限定されるものではなく、設定者が自由に設定できることが望ましい。また、セキュリティレベルの大きさも同様に設定者側が自由に設定できることが望ましい。さらに、セキュリティレベルを設定しないインタラクションについては、重要度を0点として明示できるようにしてもよい。設定者は、領域6111で示すプルダウン欄を押下し、セキュリティレベルの列ごとに、リストから登録されているインタラクションを選択することができる。選択したインタラクション種別を領域6112の「追加」ボタンを押下し、下段の「登録済みのインタラクション」リストへ追加する。追加後、登録済みのインタラクションを削除するためには、削除を所望するインタラクションに対応する領域6113のチェックボックスを押下し、領域6114を押下する。領域6115「設定を保存」ボタンを押下することで、本領域で設定された情報は監視基準情報331へ反映される。本領域で設定された情報を確認するためには、領域6116を押下すればよい。領域612に示す属性セキュリティレベルの設定および領域613に示すエリアセキュリティレベルの設定も、同様に行うことができる。ただし、エリア種別は、システムによって選択肢が固定されているインタラクション種別および属性種別と異なり、システムが想定していないエリアにも対応できるように、エリア種別自体の追加が別途可能である。
Figure 6 shows a GUI for setting the interaction type, person attributes, and area-related security levels. The following describes the setting of the interaction security level shown in
図7における領域62は、セキュリティレベル設定対象の重みを設定するためのGUIであり、本領域の設定で表52を設定する。領域621では、インタラクション、属性、およびエリアに関する重みを百分率で設定する。領域622「設定を保存」ボタンを押下することで、本領域で設定された情報は監視基準情報331へ反映される。本領域で設定された情報を確認するためには、領域623を押下すればよい。
領域63はインタラクション種別ごとの実行者重みを設定するためのGUIであり、本領域の設定で表53を設定する。領域631では、インタラクション種別ごとに実行者側の重みを百分率で設定する。「実行者重み」の入力によって被実行者側に対する重みが自動計算され、表示されるようにしてもよい。または、入力の対象は被実行者側でもよい。領域631で設定が要求されるインタラクションは、領域611で登録され、かつ0点より大きい点数が付与されている全ての行動であり、領域6115の押下による登録と同時に対応する行が自動追加される。領域632「設定を保存」ボタンを押下することで、本領域で設定された情報は監視基準情報331へ反映される。本領域で設定された情報を確認するためには、領域633を押下すればよい。ただし、領域611で登録されたにもかかわらず、領域63で実行者側重みが登録されていないという不整合を回避するため、本設定画面全体の終了時に、登録事項の不備に関して注意を促す表示を出力するなどの実装を行うことが望ましい。
次に、図8を参照して、監視員に対する検出事象の通知画面例について説明する。図8は、本実施の形態における映像表示部42における表示例を示した図であり、領域7は出力画面を示す。領域7が通知画面の全体に表示されてもよいし、通知画面の一部に表示されてもよい。
Next, an example of a notification screen for a detected event to a monitor will be described with reference to FIG. 8. FIG. 8 is a diagram showing an example of a display on the
領域7のうち、画面A(領域71)、画面B(領域72)、画面C(領域73)、画面D(領域74)に表示されている人物は、監視重要度が設定され、監視センタシステム4へ送信された人物である。本実施の形態では、これらの全人物について現在時刻における映像を表示する例を示している。本表示で用いる映像は、事象を発生させた人物の追跡に基づくリアルタイムの映像である。人物追跡は前述の通り人物検出部3211が行い、前記映像は監視重要度に関する情報とともに映像表示部42へ送信される。また、領域75は、各画面に表示されている人物が監視重要度順に示され、検出事象、発生場所、発生時刻、および現在位置が示されている。監視重要度順として表示されている列は、監視重要度判定部323で出力された実際の値を表示してもよい。
The people displayed in
本実施例の形態では、画面AからDの領域サイズは判定された監視重要度に応じて動的に変更される。例えば、全人物の監視重要度がリセットされ、いずれの人物も画面に表示されていない時、時刻「09:20:00」に「受け渡し」行為を行った人物aは最も大きい画面で表示される。次に、時刻「09:30:50」に「暴行」行為を行った人物bが、前記「受け渡し」行為を行った人物よりも監視重要度が大きいと判定された場合、人物bの表示領域は、人物aの表示領域よりも大きくなる。なお、画面に表示されている人物は、同一画面に撮影される他の人物との識別を容易にするため、人物の検出枠の重畳または画像のトリミングなどの画像処理を施して表示することが望ましい。また、画面サイズの制約上、複数の事象が発生している場合には、画面をスクロールできるようにしてもよい。 In this embodiment, the area sizes of screens A to D are dynamically changed according to the determined monitoring importance. For example, when the monitoring importance of all people is reset and none of the people are displayed on the screen, person a who performed the "handover" act at time "09:20:00" is displayed on the largest screen. Next, if person b who performed the "assault" act at time "09:30:50" is determined to have a higher monitoring importance than the person who performed the "handover" act, the display area of person b becomes larger than the display area of person a. Note that it is desirable to display the people displayed on the screen after applying image processing such as superimposing a detection frame of the person or cropping the image in order to make it easier to distinguish them from other people photographed on the same screen. Also, due to the constraints of the screen size, if multiple events are occurring, the screen may be scrolled.
以上に述べたようなリアルタイムの追跡映像のみならず、表示画面や領域75の行を選択することにより、事象発生時の様子を切り替えられることが望ましい。図9は、本実施の形態における画像表示部の表示例を示した図であり、図8における領域75の一事象を選択した様子を示している。図9では、画面B(領域76)が選択され、追跡されている人物が発生させたインタラクションについて検出時のフレームを表示している。インタラクションは一定の時間の幅をもって行われるため、インタラクションの開始と終了のうち、最も判定確度が高いフレームを表示することが望ましい。または、インタラクションの開始から終了までの短時間のクリップを再生できるようにしてもよい。以上により、監視員は、事象発生時にどのような状況でインタラクションが行われたのか把握することができる。さらに、以上のようにして確認された事象に対してスタッフによる対応が完了した場合、対応が不要と判断された場合、または誤検知が明らかな場合等は、表示画面や領域75の行を選択し、削除することができる。
It is desirable to be able to switch the state of an event by selecting a line in the display screen or
また、本画面を確認することができるのは、監視センタの監視員のような、大型のディスプレイの利用が想定される発報対象者に限らず、現場で対応するスタッフや警備員であっても、スマートフォン端末やタブレット端末、またはARゴーグル等を利用することによって、領域7の一部または全部を現場において確認することができる。
In addition, the screen can be viewed not only by the subject of an alert, such as a monitor at a monitoring center, who is expected to use a large display, but also by staff or security guards responding at the scene, who can view part or all of
次に、図10を参照して、インタラクション種別や属性等を利用した検索手段について説明する。映像表示部42において監視員や現場スタッフ等による対応が完了した事象や、一旦対応の必要なしと判断された事象は、表示出力から削除されるため、その後事象を確認する場合には、発生事象に関する情報のデータベースである記録部41からの事象の検索手段が必要となる。
Next, referring to FIG. 10, a search means using interaction type, attributes, etc. will be described. Events that have been dealt with by monitors or on-site staff in the
図10は、本実施の形態における検索部の表示例を示した図であり、領域9は検索画面全体を示す。領域9のうち、領域91は検索の入力画面を示し、領域92は出力画面を示す。
領域91において、領域911では、インタラクション種別、属性、および発生時刻をクエリとした事象の絞り込みを行う。具体的に、領域911の各検索項目列についてプルダウン欄を押下し、リストから登録されている項目を選択する。選択した項目は「追加」ボタンの押下により、下段の「登録済みの項目」リストへ追加される。追加後、登録済みの項目を削除するためには、削除を所望する項目のチェックボックスを押下し、領域912を押下する。なお、本実施例の形態においては、インタラクション種別、属性、および発生時刻をクエリとした検索の例を示しているが、インタラクションの方向やエリア情報などをクエリとした検索を行ってもよい。また、各列は必ずしも入力が要求されるものではなく、空欄であってもよい。例えば、全項目を空欄にして検索を実行すると、記憶部41に保存されている全情報が検索結果として出力される。
10 is a diagram showing an example of the display of the search section in this embodiment, in which an
In the
領域92において、領域921では検索結果に関して、現在場所や発生時刻等の情報が表示される。領域921に示すように、現在時刻においても監視エリア内での滞在が確認され、追跡が可能であるならば、現在位置に関する情報を表示してもよい。領域922では、領域921の情報に対応するフレーム画像またはインタラクションの開始から終了までの短時間のクリップ映像等を表示する。以上、領域921と領域922をまとめて一件の検索結果とし、本実施例の形態においては、スクロールによって検索結果全体を確認することができる。検索結果は、領域922に示す画像または映像のみによるグリッド状に切り替えられるようにしてもよい。
In
検索部44の利用によって、映像表示部42による表示出力から削除された事象であったとしても、記録部41から効率的に事象を検索することができる。また、類似事例の検索やその発生件数を確認することができるため、今後発生することが予想される事象への対応策や防止策を講じるために役立てることができる。
By using the
以上に説明したように、映像監視システム1は、監視映像からインタラクションを検出し、前記インタラクションの種別および方向、ならびに人物の属性とエリア情報を用いて、個人ごとに監視重要度を判定する。本発明によれば、監視エリア内でインタラクションを行った人物について全員に等価な監視重要度を与えるのではなく、個人ごとに監視重要度を設定するため、監視員が対応に優先順位を設定することが容易になり、行為者への効率的な対応を行うことができる。
As described above, the
以下、本発明である映像監視システム1の別の実施形態について説明する。なお、上述した実施の形態と共通する発明については説明を省略し、本実施の形態における特有の処理について説明する。
Below, we will explain another embodiment of the
前述した実施例における映像表示部42における表示例では、現在時刻において監視重要度が設定された全事象について、監視重要度順に従って表示を行っている。一方で、ある一事象のみに着目した表示方法も考えられる。
In the display example on the
図11は、本実施の形態における映像表示部42によるの表示例を示した図である。監視重要度が設定された二名間のインタラクションについて、各人物の情報を詳細に示したものである。領域81はインタラクションが検出されたフレーム画像を示している。前記フレーム画像には、人物811と人物812の間における受け渡し行為の様子が示されている。また、領域84には、二名の人物の属性、発生場所、および現在位置、ならびに、受け渡しの方向および発生場所に関する情報が示されている。前記領域84に記載の通り、二名の人物に関する情報は、画面X(領域82)および画面Y(領域83)にてそれぞれ分かれて表示されている。前記領域82および領域83の内部の画面について、領域821および領域831では、領域81において撮像された各人物の画像が、監視員が容易に視認できるように倍率調整されて表示されている。また、領域822および領域832では、フロアマップを用いて、事象の発生場所、人物の現在位置、および移動軌跡が示されている。本図面においては、丸印が事象の発生現場、五角形が人物の現在位置と進行方向、そして点線が事象の発生現場から現在位置までを結ぶ移動軌跡を示す。また、領域823および領域833では、現在時刻における人物の様子が確認できる。領域82および領域83に示す画面によって、事象を発生させてから現在時刻に至るまでの実行者および被実行者の移動軌跡を把握することができる。
11 is a diagram showing an example of display by the
フロアマップへの移動軌跡の表示を行うために、以下の処理が必要である。まず、人物811と人物812の画像が取得されたのち、カメラから取得されたフレーム画像に対して、一定時刻ごと、または一定フレームごとに人物同定を行う。次に、フロアマップ上において前記人物の位置を特定するため、事前に設定されたエリア情報を用いるか、または、ステレオカメラや単眼カメラによる深度推定技術等を用いて、事前設定を行うことなく、世界座標系における人物の位置を推定する。取得した位置情報と時刻情報を時系列で繋ぐことで、前記人物の移動軌跡をフロアマップへ表示することができる。
The following process is required to display the movement trajectory on the floor map. First, images of
また、本図面では実行者および被実行者共に事象発生からの移動軌跡を示しているが、事象を発生させていない人物の追跡が既に行われている、または別途用意された記憶媒体へ保存済みの映像を利用することで事象発生後に当該人物の追跡が行える場合、各人物について事象の発生現場までの移動軌跡を表示してもよい。例えば、受け渡し行為においては、物品を受け渡した実行者は事象発生までの移動軌跡を表示し、物品を受け渡された被実行者は事象発生後からの移動軌跡を表示することで、人物ではなく物品の移動軌跡に着目した映像監視を行うことができる。 In addition, while this diagram shows the movement trajectories of both the perpetrator and the executed person from the occurrence of the event, if tracking of a person who did not cause the event has already been performed, or if tracking of that person can be performed after the event occurs by using video stored on a separately prepared storage medium, the movement trajectory of each person to the scene of the event may be displayed. For example, in the case of a handover act, the perpetrator who hands over an item displays the movement trajectory up to the occurrence of the event, and the executed person to whom the item is handed over displays the movement trajectory from after the event occurs, allowing video surveillance to focus on the movement trajectory of the item rather than the person.
以上に説明したように、本実施の形態によれば、画像表示部では一事象のみに着目した表示が可能である。具体的に、インタラクションを発生させた人物それぞれの事象発生時の様子、現在時刻における様子、および移動軌跡を表示することができ、さらに、事象発生までの実行者らの移動軌跡も表示することができる。これにより、監視員は事象の有無のみならず、実行者らの事象発生前後の動きも一目で確認することができるため、容易かつ正確に事象の詳細情報を把握することができる。 As described above, according to this embodiment, the image display unit can display a single event. Specifically, it is possible to display the state of each person who generated an interaction at the time the event occurred, their state at the current time, and their movement trajectory, and it is also possible to display the movement trajectory of the perpetrators up until the event occurred. This allows the monitor to check at a glance not only whether an event occurred, but also the movements of the perpetrators before and after the event occurred, making it possible to easily and accurately grasp detailed information about the event.
上述の各実施の形態に示した通り、開示の映像解析システム3は、監視領域を撮影した映像を用いて、監視領域における事象を検出する映像解析システムであって、映像に基づいて、複数の人物の関与により生じる事象であるインタラクションを検出し、インタラクションの種類と、複数の人物の各々がインタラクションにおいて他の人物とどのように関わったかを示すインタラクションの方向とを出力するインタラクション検出部322と、インタラクションの種類及び方向と、予め設定された監視基準情報と、を比較して、インタラクションに関与した複数の人物について人物毎の監視重要度を判定する監視重要度判定部323と、監視重要度に基づいて、事象の検出結果を出力する出力制御部324とを有する。かかる構成及び動作により、監視エリア内でインタラクションを行った複数の人物ごとに監視重要度を設定し、監視における対応者の業務負荷の軽減およびシステムの処理負荷の低減を実現することができる。
As described in the above-mentioned embodiments, the disclosed
また、映像に含まれる人物の像を検出し、検出された人物の属性を表す属性特徴量を算出する算出部321をさらに備え、監視重要度判定部323は、属性特徴量をさらに用いて監視重要度を判定するので、人物の属性を考慮した高精度な判定が可能である。
The system further includes a
また、インタラクション検出部322は、映像に基づいて、人物の骨格を検出し、検出した骨格の推定結果から算出される人物の姿勢を表す姿勢特徴量と、人物間の任意の部位間の一つまたは複数の距離から算出される距離特徴量と、映像に基づいた前後の画像フレーム間の差分から算出される骨格の単位時間当たりの移動量を表す移動特徴量と、人物に対する物品の所有関係を表現する物品特徴量と、の中から少なくともいずれか一つを算出し、算出した特徴量に基づいて、インタラクションの種類及びインタラクションの方向を検出する。かかる構成によれば、人物の姿勢や人物間の距離、物品の種別などを考慮した高精度な判定が可能である。
The
さらに、監視重要度判定部323は、インタラクションが発生した時点の複数の人物の位置に関する情報を利用して、監視重要度を判定するので、位置関係から不合理な事象を除外し、判定精度を向上することができる。
Furthermore, the monitoring
また、映像解析システム3は、検出対象のインタラクションを発生させた各人物に対し監視重要度を判定するための、インタラクションの種類、インタラクションの方向、及び、発生エリア毎のセキュリティレベルの情報を監視基準情報として保持する記憶部33を有する。これらの情報を予め保持し、適宜使用することで、簡易且つ高精度な判定を実現することができる。
The
また、インタラクションの種類及び/または前記人物に関する情報を検索クエリとして、インタラクションの検出実績を検索することで、インタラクションを発生させた人物の検索が可能な検索部44を設けることで、検知して蓄積したインタラクションを有効利用することができる。
In addition, by providing a
また、出力制御部324は、インタラクションを発生させた各人物に対する監視重要度に応じて、表示端末への表示の大きさを変化させる。このため、重要度を簡易に認識させるとともに、重要度に応じて情報量をコントロールすることができる。
また、インタラクションを発生させた各人物について、インタラクションの時間的に前後の移動軌跡を画面上に表示することで、インタラクション前後の挙動を確認することができる。
複数の人物の移動軌跡の生成の要否は、重要度により判定してもよい。この場合には、重要な人物について選択的に移動軌跡を出力可能となる。
さらに、検出したインタラクションにおける複数の人物について、インタラクションに係る所定の行動の実行者または被実行者であることを示す情報を画面に表示することで、インタラクションの方向を明示してもよい。
また、インタラクションが検出されたフレーム画像を画面に表示しつつ、当該インタラクションに関与した人物の現在の位置及び/または現在の映像を画面に表示することで、インタラクションの内容と人物の現状とを関連付けて表示することもできる。
Furthermore, the
In addition, for each person who generated an interaction, the movement trajectory before and after the interaction can be displayed on the screen, making it possible to check the behavior before and after the interaction.
Whether or not to generate trajectories of multiple people may be determined based on their importance, in which case it becomes possible to selectively output trajectories of important people.
Furthermore, the direction of the interaction may be clearly indicated by displaying on the screen information indicating that each of a plurality of people in a detected interaction is either the performer or the recipient of a predetermined action related to the interaction.
In addition, by displaying on the screen a frame image in which an interaction is detected while also displaying on the screen the current position and/or current video of the person involved in the interaction, it is possible to display the content of the interaction in relation to the person's current situation.
なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 The present invention is not limited to the above-mentioned embodiment, and various modifications are included. For example, the above-mentioned embodiment has been described in detail to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the configurations described. In addition, it is possible to replace a part of the configuration of a certain embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of a certain embodiment. In addition, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration. In addition, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing them as integrated circuits, for example, in part or in whole. In addition, each of the above-mentioned configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as programs, tables, files, etc. that realize each function can be placed in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
1…映像監視システム、
2…撮影システム、21…カメラ部、
3…映像解析システム、31…映像入力部、32…映像処理部、321…算出部、3211…人物検出部、3212…属性判定部、322…インタラクション検出部、323…監視重要度判定部、324…出力制御部、33…記憶部、331…監視基準情報、
4…監視センタシステム、41…記録部、42…映像表示部、43…管理制御部、44…検索部
1...Video surveillance system,
2...photography system, 21...camera unit,
3: Video analysis system, 31: Video input unit, 32: Video processing unit, 321: Calculation unit, 3211: Person detection unit, 3212: Attribute determination unit, 322: Interaction detection unit, 323: Monitoring importance determination unit, 324: Output control unit, 33: Storage unit, 331: Monitoring criteria information,
4: monitoring center system, 41: recording section, 42: video display section, 43: management control section, 44: search section
Claims (13)
前記映像に基づいて、複数の人物の関与により生じる事象であるインタラクションを検出し、前記インタラクションの種類と、前記複数の人物の各々が前記インタラクションにおいて他の人物とどのように関わったかを示すインタラクションの方向とを出力するインタラクション検出部と、
前記インタラクションの種類及び方向と、予め設定された監視基準情報と、を比較して、前記インタラクションに関与した複数の人物について人物毎の監視重要度を判定する監視重要度判定部と、
前記監視重要度に基づいて、前記事象の検出結果を出力する出力制御部と、を有する映像解析システム。 1. A video analysis system for detecting an event in a monitored area using a video of the monitored area,
an interaction detection unit that detects an interaction, which is an event occurring with the involvement of a plurality of persons, based on the video, and outputs a type of the interaction and an interaction direction indicating how each of the plurality of persons is involved with other persons in the interaction;
a monitoring importance determination unit for comparing the type and direction of the interaction with preset monitoring standard information to determine a monitoring importance level for each of a plurality of people involved in the interaction;
An output control unit that outputs the event detection result based on the monitoring importance.
前記監視重要度判定部は、前記属性特徴量をさらに用いて前記監視重要度を判定することを特徴とする請求項1に記載の映像解析システム。 A calculation unit is further provided for detecting an image of a person included in the video and calculating an attribute feature amount representing an attribute of the detected person,
The video analysis system according to claim 1 , wherein the monitoring importance determination unit determines the monitoring importance by further using the attribute feature amount.
検出した前記骨格の推定結果から算出される前記人物の姿勢を表す姿勢特徴量と、
前記人物間の任意の部位間の一つまたは複数の距離から算出される距離特徴量と、
前記映像に基づいた前後の画像フレーム間の差分から算出される前記骨格の単位時間当たりの移動量を表す移動特徴量と、
前記人物に対する物品の所有関係を表現する物品特徴量と、の中から少なくともいずれか一つを算出し、算出した特徴量に基づいて、前記インタラクションの種類及び前記インタラクションの方向を検出することを特徴とする請求項1に記載の映像解析システム。 The interaction detection unit detects a skeleton of the person based on the video;
A posture feature amount representing a posture of the person calculated from an estimation result of the detected skeleton; and
a distance feature calculated from one or more distances between any parts of the people; and
a movement feature amount that represents a movement amount of the skeleton per unit time, the movement feature amount being calculated from a difference between previous and next image frames based on the video;
and an item feature that expresses an ownership relationship of the item to the person, and the type of the interaction and the direction of the interaction are detected based on the calculated feature.
前記映像に基づいて、複数の人物の関与により生じる事象であるインタラクションを検出し、前記インタラクションの種類と、前記複数の人物の各々が前記インタラクションにおいて他の人物とどのように関わったかを示すインタラクションの方向とを出力するインタラクション検出ステップと、
前記インタラクションの種類及び方向と、予め設定された監視基準情報と、を比較して、前記インタラクションに関与した複数の人物について人物毎の監視重要度を判定する監視重要度判定ステップと、
前記監視重要度に基づいて、前記事象の検出結果を出力する出力制御ステップと、を含む映像解析方法。 1. A computer-implemented video surveillance method for detecting an event in a surveillance area using a video of the surveillance area, the method comprising:
an interaction detection step of detecting an interaction, which is an event occurring with the involvement of a plurality of persons, based on the video, and outputting a type of the interaction and an interaction direction indicating how each of the plurality of persons is involved with the other persons in the interaction;
a monitoring importance determination step of comparing the type and direction of the interaction with preset monitoring standard information to determine a monitoring importance level for each of a plurality of people involved in the interaction;
and an output control step of outputting the event detection result based on the monitoring importance.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154309A JP7478630B2 (en) | 2020-09-15 | 2020-09-15 | Video analysis system and video analysis method |
PCT/JP2021/005097 WO2022059223A1 (en) | 2020-09-15 | 2021-02-10 | Video analyzing system and video analyzing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154309A JP7478630B2 (en) | 2020-09-15 | 2020-09-15 | Video analysis system and video analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022048475A JP2022048475A (en) | 2022-03-28 |
JP7478630B2 true JP7478630B2 (en) | 2024-05-07 |
Family
ID=80777422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020154309A Active JP7478630B2 (en) | 2020-09-15 | 2020-09-15 | Video analysis system and video analysis method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7478630B2 (en) |
WO (1) | WO2022059223A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116095363B (en) * | 2023-02-09 | 2024-05-14 | 西安电子科技大学 | Mobile terminal short video highlight moment editing method based on key behavior recognition |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017135549A (en) | 2016-01-27 | 2017-08-03 | セコム株式会社 | Flying object monitoring system |
JP2017225122A (en) | 2013-06-28 | 2017-12-21 | 日本電気株式会社 | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JP2019193089A (en) | 2018-04-24 | 2019-10-31 | 東芝テック株式会社 | Video analysis device |
JP2019213116A (en) | 2018-06-07 | 2019-12-12 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6286394B2 (en) * | 2015-07-24 | 2018-02-28 | セコム株式会社 | Image surveillance system |
JP6624852B2 (en) * | 2015-08-27 | 2019-12-25 | キヤノン株式会社 | Image information generation device, image information generation method, image processing system, and program |
JP7099809B2 (en) * | 2017-07-27 | 2022-07-12 | セコム株式会社 | Image monitoring system |
-
2020
- 2020-09-15 JP JP2020154309A patent/JP7478630B2/en active Active
-
2021
- 2021-02-10 WO PCT/JP2021/005097 patent/WO2022059223A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017225122A (en) | 2013-06-28 | 2017-12-21 | 日本電気株式会社 | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JP2017135549A (en) | 2016-01-27 | 2017-08-03 | セコム株式会社 | Flying object monitoring system |
JP2019193089A (en) | 2018-04-24 | 2019-10-31 | 東芝テック株式会社 | Video analysis device |
JP2019213116A (en) | 2018-06-07 | 2019-12-12 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2022059223A1 (en) | 2022-03-24 |
JP2022048475A (en) | 2022-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6905850B2 (en) | Image processing system, imaging device, learning model creation method, information processing device | |
CN113347387B (en) | Image monitoring system and image monitoring method | |
JP5227911B2 (en) | Surveillance video retrieval device and surveillance system | |
JP5674406B2 (en) | Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body | |
US20180107881A1 (en) | Anomalous event retriever | |
WO2018116488A1 (en) | Analysis server, monitoring system, monitoring method, and program | |
JP6013241B2 (en) | Person recognition apparatus and method | |
JP6674584B2 (en) | Video surveillance system | |
JP2018124972A (en) | Crowd analytics via one shot learning | |
JP2018160219A (en) | Moving route prediction device and method for predicting moving route | |
JPWO2014050518A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2007243342A (en) | Image-monitoring apparatus and image-monitoring system | |
JP6729793B2 (en) | Information processing apparatus, control method, and program | |
JP6358258B2 (en) | Image processing system, image processing method, and program | |
KR102260123B1 (en) | Apparatus for Sensing Event on Region of Interest and Driving Method Thereof | |
JP2017220085A (en) | Image retrieval device, image retrieval system and image retrieval method | |
JP5982557B2 (en) | Video surveillance system and image search system | |
CN112383756B (en) | Video monitoring alarm processing method and device | |
JP7145622B2 (en) | Information processing device, information processing device control method, subject detection system, and program | |
JP7478630B2 (en) | Video analysis system and video analysis method | |
JP7138547B2 (en) | store equipment | |
JP7210163B2 (en) | Image processing device, image processing method and program | |
US20240211480A1 (en) | Information aggregation in a multi-modal entity-feature graph for intervention prediction | |
JP2020166590A (en) | Monitoring system, monitoring device, monitoring method, and monitoring program | |
JP7424939B2 (en) | Person detection device, person tracking device, person tracking system, person detection method, person tracking method, person detection program, and person tracking program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7478630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |