JP7214449B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7214449B2
JP7214449B2 JP2018222509A JP2018222509A JP7214449B2 JP 7214449 B2 JP7214449 B2 JP 7214449B2 JP 2018222509 A JP2018222509 A JP 2018222509A JP 2018222509 A JP2018222509 A JP 2018222509A JP 7214449 B2 JP7214449 B2 JP 7214449B2
Authority
JP
Japan
Prior art keywords
person
suspicious
shield
information processing
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222509A
Other languages
Japanese (ja)
Other versions
JP2020088687A (en
Inventor
邦洋 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018222509A priority Critical patent/JP7214449B2/en
Publication of JP2020088687A publication Critical patent/JP2020088687A/en
Application granted granted Critical
Publication of JP7214449B2 publication Critical patent/JP7214449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視カメラによる異常の検出に関するものである。 The present invention relates to detection of anomalies by surveillance cameras.

イベント会場や商業施設、オフィスビル等において、監視カメラから取得される映像を利用して不審者や不審行動を検出するという技術がある。例えば、特許文献1では、不審者を判別する基準として、一定時間内に顔向きが変わった回数を利用している。特許文献2では、予め不審であると定義した行動パターンを用意しておき、そのパターンと合致する行動をする人物を不審者として判定する。特許文献3では、対象の移動速度や移動方向の変動量、所定物との距離、頭の高さを行動特徴量とし、その度数分布によって不審者かどうかを判定している。また、映像以外から得られる情報も利用して不審者、不審行動を検出する技術も存在する。例えば、特許文献4では、水上レーダと複数のカメラを利用して、隣接する船舶の陰に隠れて航行する別の船舶の検出を行っている。特許文献5では、監視対象の部屋へ入退出する人物の重量を測り、入室時と退出時で重量が異なっていれば部屋内で不審な行動を行っていたと判断している。 2. Description of the Related Art There is a technology for detecting suspicious persons and suspicious behavior using images obtained from surveillance cameras in event venues, commercial facilities, office buildings, and the like. For example, in Japanese Patent Laid-Open No. 2002-100000, the number of times the face direction changes within a certain period of time is used as a criterion for discriminating a suspicious person. In Japanese Patent Laid-Open No. 2002-200010, a behavior pattern defined as being suspicious is prepared in advance, and a person who behaves in accordance with the pattern is determined as a suspicious person. In Japanese Patent Laid-Open No. 2002-200010, whether or not a suspicious person is determined is determined based on the frequency distribution of the behavior feature values, which are the moving speed of the target, the amount of change in the moving direction, the distance to a predetermined object, and the height of the head. There are also techniques for detecting suspicious persons and suspicious actions using information obtained from sources other than video. For example, in Patent Literature 4, a waterborne radar and multiple cameras are used to detect another vessel that is hiding behind an adjacent vessel and is navigating. In Patent Document 5, the weight of a person entering and leaving a room to be monitored is measured, and if the weight differs between when entering and leaving the room, it is determined that the person is acting suspiciously in the room.

特開2011‐4050号公報Japanese Unexamined Patent Application Publication No. 2011-4050 特開2013‐45344号公報JP 2013-45344 A 特開2013‐88870号公報JP-A-2013-88870 特開2005‐277705号公報JP-A-2005-277705 特開2009‐239467号公報JP-A-2009-239467

しかしながらこれらの技術では、イベント会場などの広い場所を複数のカメラで監視しようとする場合に、以下のような課題が存在する。まず特許文献1から3に開示されている技術は、あくまでも検出対象が映像に映っている際に不審な行動をしているかどうかを判断するものであるため、カメラの死角で不審行動が発生していることを検出することができない。また、特許文献4では複数カメラを利用して、ある一つのカメラでは死角になる部分をカバーするものであるため、どのカメラを用いても死角になってしまう場所で行われる不審行動を検出することはできない。最後に特許文献5では、監視カメラで映すことができない場所を対象に不審行動の検知を行うことができるが、あくまで特定の場所のみを対象としたものであるため、どこで不審行動が起こるか予め絞り込むことが困難な場所で不審行動を検出することは難しい。 However, these techniques have the following problems when monitoring a large area such as an event venue with a plurality of cameras. First of all, the techniques disclosed in Patent Documents 1 to 3 are intended to determine whether or not the object to be detected is acting suspiciously when it is captured in the image. It is not possible to detect that In addition, in Patent Document 4, multiple cameras are used to cover blind spots with a single camera, so suspicious actions performed in places where any camera is used will be blind spots. It is not possible. Finally, in Patent Document 5, suspicious behavior can be detected in locations that cannot be captured by surveillance cameras. It is difficult to detect suspicious behavior in locations that are difficult to narrow down.

本発明はこのような問題に鑑みてなされたものであり、どこで不審行動が起こるか予め絞り込むことが困難な広範囲を複数のカメラで監視している場合に、カメラの死角になる場所での不審行動の発生を検出するものである。 The present invention has been devised in view of such problems. It detects the occurrence of behavior.

本発明に係る情報処理装置は以下の構成を備える。即ち、所定のエリアを撮影する撮像手段と、前記撮像手段で撮影されるエリア内で、人体の少なくとも一部が遮蔽物に隠れた人物を検出する検出手段と、前記遮蔽物による隠れが発生した前後に、前記検出された人物または該人物の周囲の特徴の変化に基づいて、不審人物候補を判定する判定手段と、前記不審人物候補の人体の一部またはすべてが遮蔽物により隠れていた場所を出力する出力手段。 An information processing apparatus according to the present invention has the following configuration. That is, imaging means for photographing a predetermined area, detection means for detecting a person whose human body is at least partly hidden behind a shield in the area photographed by the imaging means, and a person who is hidden by the shield. before and after, determination means for determining a suspicious person candidate based on changes in characteristics of the detected person or the person's surroundings; Output means for outputting

本発明の構成によれば、監視カメラの死角となる場所で発生した不審行動について発生場所をユーザに出力することができる。 According to the configuration of the present invention, it is possible to output to the user the place of occurrence of suspicious behavior occurring in a blind spot of a surveillance camera.

機能構成例を示すブロック図。FIG. 2 is a block diagram showing an example of functional configuration; 第1の実施形態における処理を説明するフローチャート。4 is a flowchart for explaining processing in the first embodiment; 第1の実施形態において不審人物判定部1004の処理対象となる死角が発生する場所の例。An example of a place where a blind spot to be processed by the suspicious person determination unit 1004 in the first embodiment occurs. 第1の実施形態において不審人物判定部1004が行う不審人物判定処理の対象例。An example of a suspicious person determination process performed by the suspicious person determination unit 1004 in the first embodiment. 第2の実施形態における処理を説明するフローチャート。9 is a flowchart for explaining processing in the second embodiment; 第3の実施形態における処理を説明するフローチャート。10 is a flowchart for explaining processing in the third embodiment;

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will now be described with reference to the accompanying drawings. It should be noted that the embodiment described below is an example of a specific implementation of the present invention, and is one of specific examples of the configuration described in the claims.

[第1の実施形態]
撮像装置によって取得された映像データを対象に不審行動の検出を行う情報処理システムであって、以下のような構成を有する情報処理システムの一例について説明する。すなわち、死角近傍の撮像装置から取得された映像データ中で死角に入った人物を検出し、その人物の特徴が死角に入った前後で変化している場合に、その死角の近傍を、不審行動が発生したと推定される場所として検出する。
[First embodiment]
An example of an information processing system configured as follows, which is an information processing system for detecting suspicious behavior in video data acquired by an imaging device, will be described. That is, when a person in a blind spot is detected in video data acquired from an imaging device near the blind spot, and the characteristics of the person change before and after entering the blind spot, suspicious behavior is detected in the vicinity of the blind spot. Detect as a place where is assumed to have occurred.

本実施形態では、このようなシステムを、サーバ等映像データを処理するのに十分なスペックを持つ情報処理装置に適用した場合について説明する。本実施形態に係るシステムは、図1に示す如く、監視対象領域を撮影する撮像装置1100と撮像装置1100から取得されたデータを保持及び処理を行うサーバ装置1000、及びこの2装置を接続するネットワーク1200からなる。なお、撮像装置1100は複数台がサーバ装置1000に接続されていると想定する。 In this embodiment, a case will be described in which such a system is applied to an information processing apparatus such as a server, which has sufficient specifications to process video data. As shown in FIG. 1, the system according to the present embodiment includes an imaging device 1100 that captures an image of a monitored area, a server device 1000 that holds and processes data acquired from the imaging device 1100, and a network that connects these two devices. consists of 1200. It is assumed that a plurality of imaging devices 1100 are connected to the server device 1000 .

まず、本実施形態に係るサーバ装置1000の構成について、図1のブロック図を用いて説明する。指示入力部1001は、ボタン群などのユーザインターフェースであり、ユーザがサーバ装置1000に対する操作を行うことができる。 First, the configuration of the server device 1000 according to this embodiment will be described using the block diagram of FIG. An instruction input unit 1001 is a user interface such as a group of buttons, and allows a user to operate the server device 1000 .

動画像格納部1002は、撮像装置1100で取得した動画像を保存しておくためのものである。本実施形態における各処理は、この保存された動画像を対象に行われるものである。 A moving image storage unit 1002 is for storing moving images acquired by the imaging device 1100 . Each process in the present embodiment is performed on this saved moving image.

人物検出部1003は、動画像中に映っている人物を検出するものである。 A person detection unit 1003 detects a person appearing in a moving image.

不審人物判定部1004は、人物検出部1003で検出された人物を対象に、その人物が不審な行動をしていたかを推定するものである。ただし、実施形態によっては他の構成要素の処理結果によって、不審な行動をしている対象人物が絞り込まれることがある。 The suspicious person determination unit 1004 is for estimating whether the person detected by the person detection unit 1003 is acting suspiciously. However, depending on the embodiment, a target person who is acting suspiciously may be narrowed down based on the processing results of other components.

場所推定部1005は、不審人物判定部1004で不審な行動を行っていると判定された人物が、実際に不審な行動を行った場所を推定するものである。この結果が、本実施形態において最終的にユーザに提示される結果となる。 The location estimation unit 1005 estimates the location where the person determined by the suspicious person determination unit 1004 to be acting suspiciously actually acted suspiciously. This result is the result that is finally presented to the user in this embodiment.

不審人物候補検出部1006は、特定の条件に合致した人物を不審な行動を行う、もしくは行った人物である可能性が高いとみなし、不審人物の候補として取り上げるものである。 The suspicious person candidate detection unit 1006 considers that a person who meets a specific condition is highly likely to act or has acted suspiciously, and picks the person up as a suspicious person candidate.

人物検索部1007は、動画像格納部1002に保存された動画像中から、特定の人物を検索するものである。本実施形態では、不審人物候補検出部1006で検出された人物を検索対象とすることを想定している。 The person search unit 1007 searches for a specific person from the moving images saved in the moving image storage unit 1002 . In this embodiment, it is assumed that the person detected by the suspicious person candidate detection unit 1006 is to be searched.

人物追尾部1008は、ユーザが手動で、もしくは他構成要素の処理結果によって自動で指定された人物を、撮像装置1100から取得された動画像中で追跡するものである。 The person tracking unit 1008 tracks a person specified manually by the user or automatically according to the processing results of other components in the moving image acquired from the imaging device 1100 .

外部要因保持部1009は、不審人物判定部1004が推定を行う際に利用する、人物の特徴以外の要因を取得、保持するものである。動画像以外を手掛かりに不審行動か否かを推定するための情報は、この外部要因保持部1009が受け取るものとする。 The external factor holding unit 1009 acquires and holds factors other than the features of the person, which are used when the suspicious person determination unit 1004 makes an estimation. It is assumed that the external factor storage unit 1009 receives information for estimating whether or not the behavior is suspicious based on clues other than moving images.

情報表示部1010は、場所推定部1005で推定された不審行動が行われた場所や、撮像装置1100で取得した動画像等の情報を表示するものであり、液晶画面やスピーカなどにより構成されている。 The information display unit 1010 displays information such as the location of the suspicious behavior estimated by the location estimation unit 1005 and the moving image acquired by the imaging device 1100. The information display unit 1010 includes a liquid crystal screen, a speaker, and the like. there is

なお、不審人物候補検出部1006、人物検索部1007、人物追尾部1008は他の実施形態で使用するものであり、本実施形態では使用しない。従って、本実施形態のみを実施する場合には必須の構成要素ではない。 The suspicious person candidate detection unit 1006, person search unit 1007, and person tracking unit 1008 are used in other embodiments, and are not used in this embodiment. Therefore, it is not an essential component when implementing only this embodiment.

次に、本実施形態に係る撮像装置1100の構成について、図1のブロック図を用いて説明する。記憶部1101は、各種の情報や各種のデータ、各種のテーブル等を記憶する。 Next, the configuration of the imaging device 1100 according to this embodiment will be described using the block diagram of FIG. The storage unit 1101 stores various information, various data, various tables, and the like.

撮影部1102は、レンズ等の光学系を通した被写体の光学像を電子的な画像に変換する撮像センサである。 An imaging unit 1102 is an imaging sensor that converts an optical image of a subject through an optical system such as a lens into an electronic image.

入力部1103は、撮影者が行う、各種の情報や各種の指示等の入力を受け付ける。この入力は、撮像装置1100に直接キーボード等の入力デバイスを繋いでも、サーバ装置1000を通して入力を行ってもよい。 An input unit 1103 receives inputs such as various information and various instructions from the photographer. This input may be performed by directly connecting an input device such as a keyboard to the imaging apparatus 1100 or through the server apparatus 1000 .

出力部1104は、撮影部1102で変換したデータや記憶部1101に記憶されている情報等を外部に出力するものである。出力先としては、ネットワーク1200の他、USBやディスプレイケーブル等を用いてもよい。 The output unit 1104 outputs data converted by the imaging unit 1102, information stored in the storage unit 1101, and the like to the outside. As an output destination, in addition to the network 1200, a USB, a display cable, or the like may be used.

次に、サーバ装置1000と撮像装置1100の動作について図2のフローチャートを用いて説明する。本実施形態では、図1に示した各機能部はコンピュータプログラムによって実装されてサーバ装置に保存されているものとする。然るに以降の説明では、これらの機能部を処理の主体として説明する場合があるが、実際には、サーバ装置内の演算機構が該機能部に対応するコンピュータプログラムを実行することで該機能部の機能を実現させる。なお、図1に示した全ての機能部をコンピュータプログラムで実装することに限らず、一部若しくは全部をハードウェアで構成しても構わない。 Next, operations of the server device 1000 and the imaging device 1100 will be described using the flowchart of FIG. In this embodiment, each functional unit shown in FIG. 1 is assumed to be implemented by a computer program and stored in a server device. However, in the following description, these functional units may be described as main bodies of processing. Realize the function. Note that all the functional units shown in FIG. 1 are not limited to being implemented by computer programs, and part or all of them may be implemented by hardware.

まず、ステップS201で撮像装置1100の撮影部1102によって動画像が取得される。この際の撮影は、記憶部1101に記憶された撮影パラメータに従って行われる。この動画像は、ネットワーク1200を介してサーバ装置1000に送られ、動画像格納部1002に記録される。この際、記録される動画像の単位は、例えば一定時間毎やイベントの予定に合わせて予め設定した時間枠毎、といったものがある。あるいは、ストリーミング形式で逐次処理してもよい。勿論、手動で随時記録単位を指定してもよい。また、先述の通り撮像装置1100は複数台がサーバ装置1000に接続されていると想定されるので、各撮像装置1100で記録単位が同一であっても異なっていてもよい。 First, in step S201, a moving image is acquired by the imaging unit 1102 of the imaging device 1100. FIG. The shooting at this time is performed according to the shooting parameters stored in the storage unit 1101 . This moving image is sent to the server device 1000 via the network 1200 and recorded in the moving image storage unit 1002 . At this time, the unit of the moving image to be recorded is, for example, every fixed time period or every time frame set in advance according to the schedule of the event. Alternatively, it may be processed sequentially in a streaming format. Of course, the recording unit may be specified manually at any time. Further, as described above, it is assumed that a plurality of imaging devices 1100 are connected to the server device 1000, so the recording units of the imaging devices 1100 may be the same or different.

次にステップS202では、人物検出部1003によって動画像格納部1002に記録された動画像の各フレームに対して人物検出を行う。ここで検出を行う対象は、全ての撮像装置が撮影した動画像でなくともよい。例えば、定常的に隠れが発生してしまう場所、具体的には図3に示すような場所の近傍を対象にすることが考えられる。それぞれの例について簡単に説明する。まずシーン301は、トイレ等プライバシーの問題で撮影ができない場所である。このように遮蔽された場所は、撮像装置を設置することが難しく、人体の全身を隠して不審な行動を行うことが比較的容易であるため、この場所に入る前と出た後の映像を、人物検出の対象とすべきであるといえる。次にシーン302は、階段や壁の陰等物理的に撮影することができない場所である。このような遮蔽された場所は、シーン301と同様に人体の全身が隠れる場合もあるが、一部だけが遮蔽物に隠れる場合もありうる。しかし、どちらにしても隠れている部分で不審な行動を行うことはできるため、この場所に入る前と出た後の映像を、人物検出の対象とすべきである。最後にシーン303は、大勢の人に紛れる等、動的に発生する隠れを含む場所である。これは隠れの発生要因が、動的か静的かが異なるだけで本質的にはシーン302と同じである。このような動的な隠れは当然常に発生するわけではないが、例えば出入り口など混雑が発生しやすい場所や倉庫等隠れの発生しやすい大型の物品を動かすことが多い場所等を予め選択しておいてよい。あるいは、予め背景のみの画像を用意しておき、動画像中で背景が隠れている割合が多くなったら処理対象として加えるといったことを行ってもよい。このような判断によって処理対象とする撮像装置の数を限定し、処理効率を上げることができる。さらに検出した人物の中から、さらに不審人物として判定を行うべき候補を絞り込む。具体的には、動画像中で体の一部もしくは全てが隠れてしまった人物を検出する。これは、隠れが発生している最中には不審な行動を行ったかどうかを直接確認できないため、本実施形態による判定対象とする必要があるためである。 Next, in step S<b>202 , the person detection unit 1003 performs person detection for each frame of the moving image recorded in the moving image storage unit 1002 . Objects to be detected here do not have to be moving images captured by all imaging devices. For example, it is conceivable to target a place where hiding occurs constantly, specifically, the vicinity of a place as shown in FIG. A brief description of each example is provided. First, a scene 301 is a place such as a restroom where photography cannot be performed due to privacy concerns. It is difficult to install an imaging device in such a shielded place, and it is relatively easy to hide the whole body of the human body and perform suspicious actions. , should be subject to human detection. Next, a scene 302 is a place that cannot be physically photographed, such as a stairway or behind a wall. In such a shielded place, the whole human body may be hidden like the scene 301, but only a part of the human body may be hidden by the shield. However, since it is possible to perform suspicious actions in the hidden part anyway, the video before entering and after leaving this place should be targeted for person detection. Finally, scene 303 is a place that includes dynamically occurring hiding, such as blending in with a crowd of people. This scene is essentially the same as the scene 302 except that the hidden factor is dynamic or static. Of course, such dynamic hiding does not always occur. you can stay Alternatively, an image of only the background may be prepared in advance, and added as a processing target when the ratio of the background hidden in the moving image increases. By such determination, it is possible to limit the number of imaging devices to be processed and improve the processing efficiency. Further, candidates to be judged as suspicious persons are further narrowed down from among the detected persons. Specifically, a person whose body is partly or wholly hidden in a moving image is detected. This is because it is not possible to directly confirm whether or not a person has acted suspiciously while hiding, so it is necessary to make a judgment target according to the present embodiment.

次にステップS203では、ステップS202で検出された人物を対象に不審人物判定部1004が、隠れが生じた前後で、不審な特徴の変化が起きたかどうかを比較し、ステップS204でその判定を行う。これは、特徴の変化が起きたとすれば、隠れが発生した場所で、不審な行動を行っている可能性が高いためである。不審な行動をしていたと判断される具体的な基準としては、例えば以下のようなものがある。まず、荷物が減るもしくは増える、服装が変わる等といった外見の変化である。これは、隠し持っていた爆発物等を仕掛けた、分割して持ち込んだ銃火器の部品を受け取った等の行動によって発生する可能性があるため、不審行動の基準とする。これは例えば、顔等を基準として同一であると判断された人物を対象に、その人物の周囲の局所特徴量を比較する、あるいは隠れの前の画像を用いて隠れの後の画像にテンプレートマッチングを行う等すればよい。なお、同一人物であるかどうかの判断は不審人物判定部が行う。次に、不審な行動をしていたと判断される具体的な基準は、隠れの前後で移動速度が遅くなったもしくは速くなったといった、移動速度の変化である。これは、隠していた荷物が減って速く動けるようになった、あるいは荷物が増えたり周囲を警戒し始めたりしたため移動速度が落ちた等といったことが考えられ得るため、不審行動の基準とする。これは例えば、人物追跡技術を利用してその速度を測るといったことを行えばよい。より正確に計測する必要があれば、撮影開始前に実世界とカメラ間のキャリブレーションを行い、画像座標系と世界座標系の対応関係を算出して、その関係を利用するといったこともできる。最後に、体温や持ち物の温度変化といった温度の変化である。この場合は、サーモカメラ等特別な撮像装置が必要であるが、この特徴を見ることにより発熱物の持ち運び、緊張による体温変化等といった不審な行動を行った際に起こる可能性がある変化を検知できるようになる。 Next, in step S203, the suspicious person determination unit 1004 compares the person detected in step S202 before and after the occurrence of hiding to see if any suspicious characteristics have changed, and performs the determination in step S204. . This is because if a change in characteristics has occurred, there is a high possibility that the animal is behaving suspiciously at the location where the hiding occurred. Specific criteria for judging suspicious behavior include, for example, the following. First, there is a change in appearance, such as a decrease or increase in baggage, a change in clothing, and the like. This is a standard for suspicious behavior because it may occur due to actions such as setting explosives that were hidden or receiving firearm parts brought in in pieces. For example, for a person whose face is judged to be the same as a reference, local feature values around the person are compared. and so on. It should be noted that the suspicious person determination unit determines whether or not the person is the same person. Next, a specific criterion for judging suspicious behavior is a change in movement speed, such as a decrease in movement speed or an increase in movement speed before and after hiding. This is a standard for suspicious behavior because it can be considered that the number of hidden luggage has decreased and the animal has become able to move faster, or that the movement speed has decreased due to an increase in luggage or the beginning of being cautious of the surroundings. This can be done, for example, by using human tracking technology to measure the speed of the person. If it is necessary to measure more accurately, it is also possible to calibrate between the real world and the camera before starting shooting, calculate the correspondence between the image coordinate system and the world coordinate system, and use that relationship. Finally, changes in temperature, such as body temperature and temperature changes in belongings. In this case, a special imaging device such as a thermo camera is required, but by looking at this feature, it is possible to detect changes that may occur when suspicious behavior such as carrying a heat generating object or changing body temperature due to tension is performed. become able to.

また、不審行動の判定のパターンについても説明する。パターンは図4に示すように大きく分けて2つを想定している。1つ目がパターン401に示すような、大きな荷物がなくなる等、明らかに通常行うことのない行動をしている場合である。この場合は、爆発物等をそのまま持ち運んでいることを想定している。これは、なくなればすぐ気付く大きさの荷物がなくなっているという、通常起こる可能性が低い行動を行っているため、一回発生すればそれだけで不審な行動として判定する。2つ目がパターン402に示すような、徐々に荷物が増えてくる等、一つ一つはよく行われるが、頻繁には発生しない行動を繰り返している場合である。この場合は、分解・分割して持ち込んだ銃火器のパーツを一つずつ受け取っていくことを想定している。これは、複数回繰り返される可能性は低いので、発生する毎に徐々に不審度を上げていき、予め設定された閾値を超えたら不審人物であると判定する。 Also, a pattern for determining suspicious behavior will be described. As shown in FIG. 4, two patterns are assumed. The first is a case where the person is clearly not normally doing such as losing a large package as shown in the pattern 401 . In this case, it is assumed that the explosive or the like is being carried as it is. This is an action that is unlikely to occur normally, such as the loss of a package that is large enough to be noticed immediately if it is lost. Therefore, if it occurs once, it is determined as a suspicious action. The second is a pattern 402 in which actions such as a gradual increase in the number of packages are frequently performed but do not occur frequently. In this case, it is assumed that the parts of the firearm brought in after being disassembled and divided are received one by one. Since this is unlikely to be repeated multiple times, the degree of suspicion is gradually increased each time it occurs, and the person is determined to be a suspicious person when a preset threshold value is exceeded.

さらにここでは、外部環境を考慮して判断を行ってもよい。この場合には、外部要因保持部1009によって取得、保持されている情報を利用する。考慮の例としては以下のようなものがある。例えば気温の情報を保持しておき、気温が急に上がったことが原因で上着を脱いだと考えられる場合には、外見特徴が変化していても自然な行動であると判断する。あるいは、同様に外見特徴が変化していていもクロークのそばを通った等、妥当性がある場合は自然な行動であると判断する。また、イベント会場で関連グッズを買った場合には、荷物が増えていても自然な行動であると判断する。この場合には、同時に会場の購買履歴等を利用してもよい。これらの外部情報は、例えば会場で購買を担当している部門が使用しているサーバや室温等の管理システムからネットワーク経由で取得する等して取得する。さらには、弁当等食品を食べ終わり、捨てた場合には、荷物が減っていても自然だと判断することができる。この場合にも、会場の購買履歴や行動履歴等を利用してもよい。逆に、隠れが発生した場所の近辺にゴミ箱がないにも関わらず、荷物が減った場合には、その減ったものが食糧と思われるものであったとしても、どこかに不審物を放置したと判断する。あるいは、隠れが発生した場所の近辺に売店がないにも関わらず、荷物が増えた場合には、その増えたものが食糧と思われるものであったとしても不審物を渡されたと判断する。 Furthermore, here, the external environment may be taken into consideration when making the determination. In this case, information acquired and held by the external factor holding unit 1009 is used. Examples of considerations include: For example, temperature information is stored, and if it is considered that the person has taken off his or her jacket due to a sudden rise in temperature, it is determined that the behavior is natural even if the appearance features have changed. Alternatively, if there is validity such as passing by the cloak even if the appearance characteristics have changed, it is judged to be a natural behavior. In addition, when related goods are purchased at the event site, it is determined that this is a natural behavior even if the number of luggage increases. In this case, the purchase history of the venue may be used at the same time. These external information are obtained, for example, from a server used by a department in charge of purchasing at the venue or from a management system for room temperature, etc., via a network. Furthermore, when food such as boxed lunches has been eaten and thrown away, it can be determined that it is natural even if the amount of luggage is reduced. In this case as well, the purchase history, action history, etc. of the venue may be used. Conversely, if there are no trash cans near the place where the hiding occurred, but the amount of luggage is reduced, even if the reduced amount is thought to be food, leave the suspicious item somewhere. judge that it did. Alternatively, if there is no shop near the place where the hiding occurred, and the number of luggage increases, it is determined that the suspicious item has been handed over even if the increased amount is thought to be food.

ステップS204で不審な行動を行っていると判断された場合には、ステップS205に移り不審行動が発生した場所の推定を行い出力する。これは隠れが発生した場所とその時間長を判断材料として場所推定部1005が推定する。具体的には、隠れが発生した場所を中心に、隠れが発生していた時間内に移動できると考えられる範囲を不審行動の発生場所として提示する。この際、監視場所の地図や構造等の情報を保有していれば、その情報を考慮の上単純に移動できる距離かどうかという判断よりもより高精度な判断を行うことができる。この場所情報を情報表示部1010に表示することにより、警備員等のユーザに不審行動の発生可能性とその場所の情報を与えることができる。一方、ステップS204で不審な行動をしていないと判断した場合には、特にアクションは起こさずそのままこの判定動作は終了とする。 If it is determined in step S204 that the person is acting suspiciously, the process advances to step S205 to estimate and output the place where the suspicious action occurred. This is estimated by the location estimating unit 1005 based on the location where the hiding occurred and the length of time of the occurrence. Specifically, centering around the place where hiding occurred, a range where it is considered possible to move during the time when hiding occurred is presented as a place where suspicious behavior occurred. At this time, if information such as a map and structure of the monitoring location is held, it is possible to make a more accurate judgment than simply judging whether or not the distance can be moved considering the information. By displaying this location information on the information display unit 1010, it is possible to provide the user such as a security guard with information on the possibility of occurrence of suspicious behavior and its location. On the other hand, if it is determined in step S204 that the character is not acting suspiciously, no particular action is taken and this determination operation ends.

このように、本実施形態によれば、隠れを含む場所を撮影した動画像から、隠れた場所で発生した可能性のある不審行動とその場所を推定することができる。これにより、撮像機器の死角も不審行動の発生場所の候補としてユーザに提示することができる。 As described above, according to the present embodiment, it is possible to estimate a suspicious behavior that may have occurred in a hidden place and its place from a video image of a hidden place. As a result, it is possible to present to the user even the blind spot of the imaging device as a candidate for the location where the suspicious behavior occurs.

[第2の実施形態]
本実施形態は、特定の条件に合致した人物を不審人物候補として不審行動を行ったかどうかの判定を行うことを目的とするものである。そして本実施形態では、不審人物候補検出部1006の判定結果を利用して処理の制御を行う。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
[Second embodiment]
The present embodiment aims at determining whether or not a person who meets a specific condition has taken a suspicious action as a suspicious person candidate. In this embodiment, processing is controlled using the determination result of the suspicious person candidate detection unit 1006 . In the following, differences from the first embodiment will be mainly described, and unless otherwise specified, the same as the first embodiment.

第1の実施形態の判定で、何らかの理由により不審な行動を検知できなかった場合を考える。この場合でも、不審な行動を行ってからしばらく経った後、間接的に不審と思われる行動を行う場合がある。具体的には、イベントの途中にも関わらず出口から出ていく、出演者や選手等でもないのに、長時間顔がこわばっている等緊張した表情をしているといったことが挙げられる。本実施形態では、この間接的に不審と思われる行動をキーとして、不審な行動を改めて遡って判定し直す、もしくは不審な行動の判定検出を実行するといったことを行う。つまり、前者では見逃しを防止する、後者では処理を行う時間を限定するといったことができる。 Consider a case where suspicious behavior could not be detected for some reason in the determination of the first embodiment. Even in this case, after some time has passed since the suspicious action, the user may indirectly act suspiciously. Concretely, there are cases in which the person leaves the exit even in the middle of the event, or has a tense expression such as a stiff face for a long time even though the person is neither a performer nor an athlete. In the present embodiment, the behavior that is indirectly thought to be suspicious is used as a key to go back and re-determine the suspicious behavior, or to execute the determination and detection of the suspicious behavior. In other words, the former can prevent overlooking, and the latter can limit the processing time.

システム構成は第1の実施形態と本実施形態で変更点はない。次に、本実施形態における、サーバ装置1000と撮像装置1100の動作について図5のフローチャートを用いて説明する。第1の実施形態と同じく、図1に示した各機能部はコンピュータプログラムによって実装されてサーバ装置に保存されているものとする。然るに以降の説明では、これらの機能部を処理の主体として説明する場合があるが、実際には、サーバ装置内の演算機構が該機能部に対応するコンピュータプログラムを実行することで該機能部の機能を実現させる。なお、図1に示した全ての機能部をコンピュータプログラムで実装することに限らず、一部若しくは全部をハードウェアで構成しても構わない。また、図2と同じ番号が振られているステップは第1の実施形態から機能の変更はないため、以下での説明は省略する。 There is no change in the system configuration between the first embodiment and this embodiment. Next, operations of the server device 1000 and the imaging device 1100 in this embodiment will be described using the flowchart of FIG. As in the first embodiment, each functional unit shown in FIG. 1 is assumed to be implemented by a computer program and stored in a server device. However, in the following description, these functional units may be described as main bodies of processing. Realize the function. Note that all the functional units shown in FIG. 1 are not limited to being implemented by computer programs, and part or all of them may be implemented by hardware. Also, the steps assigned the same numbers as in FIG. 2 have the same functions as those in the first embodiment, and therefore description thereof will be omitted.

まず、ステップS501で第1の実施形態同様、撮像装置1100の撮影部1102によって動画像が取得された後、ステップS502において不審人物候補検出部1006が間接的に不審であると判断される条件に合致した行動をした人物を検出する。具体的な条件の例としては、先に挙げたイベントの途中に退出する、長時間緊張しているといったものが挙げられる。これは例えば、前者についてはイベントのタイムテーブルを予め登録しておき、そのタイムテーブルと退出時間との比較によって判定することができる。また後者は、画像中の人物に対して既存の表情認識技術を適用し、緊張と判断される時間が一定時間以上続いている、といった方法で判定するこことができる。 First, in step S501, as in the first embodiment, after a moving image is acquired by the imaging unit 1102 of the imaging device 1100, in step S502, the suspicious person candidate detection unit 1006 satisfies the conditions for indirectly determining that the suspicious person is suspicious. Detect a person who performed a matching action. Examples of specific conditions include leaving in the middle of the event mentioned above and being nervous for a long time. For the former, for example, an event timetable may be registered in advance, and the determination can be made by comparing the timetable with the exit time. The latter can be determined by applying an existing facial expression recognition technology to a person in an image, and determining whether the person is tense for a certain period of time or more.

次にステップS503では、ステップS502で検出された人物の行動履歴を検索する。ここでは、人物検索部1007が動画像格納部1002に保存されている全ての動画像を対象に、検出された人物が映っていたかどうかの検索を行う。これは、ステップS502で検出された人物の顔画像をキーとして、既存の人物検索技術を利用して検索を行う。 Next, in step S503, the action history of the person detected in step S502 is searched. Here, the person search unit 1007 searches all moving images stored in the moving image storage unit 1002 to see if the detected person appears. This search is performed using the existing person search technology using the face image of the person detected in step S502 as a key.

次にステップS504では、不審人物候補検出部1006がステップS503での検索結果中で隠れがなかったかを判断する。隠れがなかった場合には、不審な行動をしたことはなかったとし、終了する。隠れがあった場合には、以前の不審人物判定部1004の判定では判定条件が厳しく漏れがあったと判断し、ステップS505に移る。 Next, in step S504, the suspicious person candidate detection unit 1006 determines whether or not there is a hidden person among the search results in step S503. If there is no hiding, it is concluded that there was no suspicious behavior, and the process ends. If there is hiding, it is determined that the previous determination by the suspicious person determination unit 1004 was strict and there was an omission, and the process moves to step S505.

ステップS505では、以前よりも不審行動の判定基準を緩和する処理を行う。この新たに設定された判定基準を用いて、第1の実施形態同様の不審行動判定、具体的には図2のステップS203以降の処理を不審人物判定部1004が行う。 In step S505, a process of relaxing the judgment criteria for suspicious behavior more than before is performed. Using this newly set determination criterion, the suspicious person determination unit 1004 performs the same suspicious behavior determination as in the first embodiment, specifically, the processes after step S203 in FIG.

このように、本実施形態によれば、隠れを含む場所を撮影した動画像から、一度不審行動を検出できなかった場合でも、間接的に不審と思われる行動をキーとして再処理を行うことができる。これにより、より見逃しを少なくして撮像機器の死角での不審行動の発生場所候補の提示をユーザに行うことができる。 As described above, according to the present embodiment, even if suspicious behavior cannot be detected once from a moving image of a place including hiding, reprocessing can be performed using the behavior that is indirectly thought to be suspicious as a key. can. As a result, it is possible to present to the user a candidate for the occurrence of suspicious behavior in the blind spot of the imaging device, with less oversight.

[第3の実施形態]
本実施形態は、特定の条件に合致した人物を不審人物候補として追跡し、不審行動を行ったかどうかの判定を行うことを目的とするものである。そして本実施形態では、不審人物候補検出部1006の判定結果を利用して処理の制御を行う。以下では、第1、2の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1、2の実施形態と同様であるものとする。
[Third embodiment]
The purpose of this embodiment is to track a person who satisfies a specific condition as a suspicious person candidate, and to determine whether or not the person has acted suspiciously. In this embodiment, processing is controlled using the determination result of the suspicious person candidate detection unit 1006 . In the following, differences from the first and second embodiments will be mainly described, and unless otherwise specified, the same as the first and second embodiments.

第2の実施形態では、不審な行動を行った後に発生した間接的に不審と思われる行動を対象とした。しかし第2の実施形態とは逆に、間接的に不審な行動を行った後に実際の不審行動を行う場合も考えられる。よって本実施形態では、間接的に不審な行動を行った人物を追跡して重点的に不審行動判定を行うことを行う。 In the second embodiment, a behavior indirectly thought to be suspicious that occurred after a suspicious behavior was targeted. Contrary to the second embodiment, however, it is conceivable that the actual suspicious behavior may be performed after indirectly performing the suspicious behavior. Therefore, in the present embodiment, a person who has indirectly acted suspiciously is tracked, and suspicious action determination is performed intensively.

システム構成は第1、2の実施形態と本実施形態で変更点はない。次に、本実施形態における、サーバ装置1000と撮像装置1100の動作について図6のフローチャートを用いて説明する。第1、2の実施形態と同じく、図1に示した各機能部はコンピュータプログラムによって実装されてサーバ装置に保存されているものとする。然るに以降の説明では、これらの機能部を処理の主体として説明する場合があるが、実際には、サーバ装置内の演算機構が該機能部に対応するコンピュータプログラムを実行することで該機能部の機能を実現させる。なお、図1に示した全ての機能部をコンピュータプログラムで実装することに限らず、一部若しくは全部をハードウェアで構成しても構わない。また、図2と同じ番号が振られているステップは第1の実施形態から機能の変更はないため、以下での説明は省略する。 There is no change in the system configuration between the first and second embodiments and this embodiment. Next, operations of the server device 1000 and the imaging device 1100 in this embodiment will be described using the flowchart of FIG. As in the first and second embodiments, each functional unit shown in FIG. 1 is assumed to be implemented by a computer program and stored in a server device. However, in the following description, these functional units may be described as main bodies of processing. Realize the function. Note that all the functional units shown in FIG. 1 are not limited to being implemented by computer programs, and part or all of them may be implemented by hardware. Also, the steps assigned the same numbers as in FIG. 2 have the same functions as those in the first embodiment, and therefore description thereof will be omitted.

ステップS601、ステップS602では第2の実施形態同様、撮像装置1100の撮影部1102によって動画像が取得された後、追跡対象となる人物の検出を行う。これは不審人物候補検出部1006が間接的に不審であると判断される条件に合致した行動をした人物を検出する。ただし本実施形態では、イベント途中に退出する等、監視エリア内から対象者が外れると想定される条件は含まないものとする。また、予め設定した条件には合致しなくとも、ユーザが追跡対象とすべきと判断する可能性もあるので、指示入力部1001を介してユーザが手動で追跡対象を指定してもよい。これは例えば、マウス等のポインティングデバイスを利用し、画像中の対象人物をクリックして指定するといった方法を取ることができる。 In steps S601 and S602, a person to be tracked is detected after a moving image is acquired by the imaging unit 1102 of the imaging device 1100, as in the second embodiment. In this case, the suspicious person candidate detection unit 1006 indirectly detects a person who has acted in accordance with the conditions for being judged as suspicious. However, this embodiment does not include conditions under which it is assumed that the target person will leave the monitoring area, such as leaving during the event. In addition, even if the conditions set in advance are not met, the user may determine that the object should be tracked. For example, a pointing device such as a mouse can be used to click and designate the target person in the image.

次にステップS603では、人物追尾部1008を用いてステップS602で検出された人物の追跡を行う。これは、ステップS602で検出された人物の顔画像をキーとして、既存の人物追跡技術を利用して検索を行う。 Next, in step S603, the person detected in step S602 is tracked using the person tracking unit 1008. FIG. This search is performed using the existing person tracking technology using the face image of the person detected in step S602 as a key.

追跡中は常にステップS604で不審人物判定部1004により、追跡対象に隠れが発生したかどうかを判定する。隠れが発生していない場合にはステップS605に移り追跡対象者が監視エリア内にいるかどうかの判定を行う。監視エリア内にいる限りは、ステップS604に移り処理を繰り返す。監視エリア外に出た場合には処理を終了する。隠れが発生した場合には第1の実施形態と同様の不審行動判定、具体的は図2のステップS203以降の処理を不審人物判定部1004が行う。 During tracking, the suspicious person determination unit 1004 always determines whether or not the tracking target is hidden in step S604. If no hiding has occurred, the process moves to step S605 to determine whether or not the tracked person is within the monitored area. As long as it is within the monitored area, the process moves to step S604 and is repeated. If it goes out of the monitoring area, the process is terminated. When hiding occurs, the suspicious person determination unit 1004 performs the same suspicious behavior determination as in the first embodiment, specifically, the processes after step S203 in FIG.

このように、本実施形態によれば、隠れを含む場所を撮影した動画像から、間接的に不審と思われる行動をキーとして予め不審人物候補を検出し、不審行動判定を行うことができる。これにより、より見逃しを少なくして撮像機器の死角での不審行動の発生場所候補の提示をユーザに行うことができる。 As described above, according to the present embodiment, it is possible to detect suspicious person candidates in advance by using, as a key, actions that are indirectly thought to be suspicious from moving images of locations including hiding, and to perform suspicious behavior determination. As a result, it is possible to present to the user a candidate for the occurrence of suspicious behavior in the blind spot of the imaging device, with less oversight.

[その他の実施形態]
その他の実施形態として、以下のものが挙げられる。
[Other embodiments]
Other embodiments include the following.

ここまでは各実施形態をそれぞれ独立に扱う形で説明したが、これらを組み合わせて実施することも可能である。例えば、第3の実施形態により重点的に監視する人物を決めて処理を行うとともに、第2の実施形態により検出の漏れを少なくするといったことを行うことができる。 Up to this point, each embodiment has been described independently, but it is also possible to combine them. For example, according to the third embodiment, it is possible to determine a person to be monitored intensively and perform processing, and to reduce omissions of detection according to the second embodiment.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1000 サーバ装置
1001 指示入力部
1002 動画像格納部
1003 人物検出部
1004 不審人物判定部
1005 場所推定部
1006 不審人物候補検出部
1007 人物検索部
1008 人物追尾部
1009 外部要因保持部
1010 情報表示部
1100 撮像装置
1101 記憶部
1102 撮影部
1103 入力部
1104 出力部
1000 server device 1001 instruction input unit 1002 moving image storage unit 1003 person detection unit 1004 suspicious person determination unit 1005 location estimation unit 1006 suspicious person candidate detection unit 1007 person search unit 1008 person tracking unit 1009 external factor holding unit 1010 information display unit 1100 imaging Apparatus 1101 Storage unit 1102 Imaging unit 1103 Input unit 1104 Output unit

Claims (9)

所定のエリアを撮影した画像において、人体の少なくとも一部が遮蔽物に隠れた人物を検出する検出手段と、
前記遮蔽物による隠れが発生した前後に、前記検出された人物または該人物の周囲の特徴の変化に基づいて、不審人物候補を判定する判定手段と、
前記不審人物候補の人体の一部またはすべてが遮蔽物により隠れていた場所を出力する出力手段と、を備えることを特徴とする情報処理装置。
detection means for detecting a person whose human body is at least partly hidden behind a shield in an image of a predetermined area;
determination means for determining a suspicious person candidate based on a change in the characteristics of the detected person or the person's surroundings before and after the occurrence of the hiding by the shield;
An information processing apparatus, comprising: output means for outputting a place where part or all of the human body of the suspicious person candidate is hidden by a shield.
前記所定のエリア内において予め定められた条件に合致した人物を撮影した動画像中から検索する人物検索手段とをさらに備え、
前記判定手段は、前記人物検索手段で検索された人物を対象に判定を行うことを特徴とする、請求項1に記載の情報処理装置。
further comprising a person search means for searching for a moving image of a person who satisfies a predetermined condition within the predetermined area,
2. The information processing apparatus according to claim 1, wherein said determination means performs determination on a person searched by said person search means.
前記撮影された動画像中において、特定の人物を追跡する人物追尾手段をさらに備え、
前記判定手段は前記人物追尾手段で追跡している人物を対象に判定を行うことを特徴とする、請求項2に記載の情報処理装置。
further comprising person tracking means for tracking a specific person in the captured moving image;
3. The information processing apparatus according to claim 2, wherein said determination means performs determination on a person being tracked by said person tracking means.
前記人物追尾手段は、前記予め定められた条件に合致した人物もしくはユーザが指定した人物を追跡することを特徴とする、請求項3に記載の情報処理装置。 4. The information processing apparatus according to claim 3, wherein said person tracking means tracks a person who meets said predetermined condition or a person designated by a user. 前記出力手段は、前記不審人物候補の一部またはすべてが遮蔽物により隠れていた時間の長さに応じて出力する場所の範囲を変化させることを特徴とする、請求項1乃至4何れか1項に記載の情報処理装置。 5. Any one of claims 1 to 4, wherein said output means changes the range of the output location according to the length of time during which part or all of said suspicious person candidate is hidden by a shield. The information processing device according to the item. 外部要因保持手段をさらに備え、前記判定手段は、前記特徴の変化と前記外部要因保持手段で保持された情報とに基づいて、不審人物候補を判定することを特徴とする、請求項1乃至5何れか1項に記載の情報処理装置。 6. The apparatus according to any one of claims 1 to 5, further comprising an external factor holding means, wherein the judgment means judges the suspicious person candidate based on the change in the characteristics and the information held by the external factor holding means. The information processing apparatus according to any one of items 1 and 2. 所定のエリアを撮影した画像において、人体の少なくとも一部が遮蔽物に隠れた人物を検出する検出工程と、
前記遮蔽物による隠れが発生した前後に、前記検出された人物または該人物の周囲の特徴の変化に基づいて、不審人物候補を判定する判定工程と、
前記不審人物候補の人体の一部またはすべてが遮蔽物により隠れていた場所を出力する出力工程と、を備えることを特徴とする情報処理方法。
a detection step of detecting a person whose human body is at least partly hidden behind a shield in an image of a predetermined area;
a determination step of determining a suspicious person candidate based on changes in the characteristics of the detected person or the person's surroundings before and after the occurrence of the hiding by the shield;
and an output step of outputting a location where part or all of the human body of the candidate for suspicious person is hidden by a shield.
コンピュータを
所定のエリアを撮影した画像において、人体の少なくとも一部が遮蔽物に隠れた人物を検出する検出手段と、
前記遮蔽物による隠れが発生した前後に、前記検出された人物または該人物の周囲の特徴の変化に基づいて、不審人物候補を判定する判定手段と、
前記不審人物候補の人体の一部またはすべてが遮蔽物により隠れていた場所を出力する出力手段と、として機能させるためのプログラム。
detection means for detecting a person whose human body is at least partly hidden behind a shield in an image obtained by photographing a predetermined area;
determination means for determining a suspicious person candidate based on a change in characteristics of the detected person or the person's surroundings before and after the occurrence of the hiding by the shield;
A program for functioning as output means for outputting a place where part or all of the human body of the candidate for suspicious person is hidden by a shield.
所定のエリアを撮影する撮像手段と、
前記撮像手段で撮影された画像において、人体の少なくとも一部が遮蔽物に隠れた人物を検出する検出手段と、
前記遮蔽物による隠れが発生した前後に、前記検出された人物または該人物の周囲の特徴の変化に基づいて、不審人物候補を判定する判定手段と、
前記不審人物候補の人体の一部またはすべてが遮蔽物により隠れていた場所を出力する出力手段と、を備えることを特徴とする情報処理システム。
imaging means for imaging a predetermined area;
a detecting means for detecting a person whose human body is at least partly hidden behind a shield in the image captured by the imaging means;
determination means for determining a suspicious person candidate based on a change in the characteristics of the detected person or the person's surroundings before and after the occurrence of the hiding by the shield;
An information processing system, comprising: output means for outputting a place where part or all of the human body of the suspicious person candidate is hidden by a shield.
JP2018222509A 2018-11-28 2018-11-28 Information processing device, information processing method and program Active JP7214449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018222509A JP7214449B2 (en) 2018-11-28 2018-11-28 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222509A JP7214449B2 (en) 2018-11-28 2018-11-28 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2020088687A JP2020088687A (en) 2020-06-04
JP7214449B2 true JP7214449B2 (en) 2023-01-30

Family

ID=70909096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222509A Active JP7214449B2 (en) 2018-11-28 2018-11-28 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7214449B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (en) 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd Surveillance system and surveillance method
JP2010257449A (en) 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2011215829A (en) 2010-03-31 2011-10-27 Hitachi Ltd Monitoring device and suspicious behavior detection method
WO2016151932A1 (en) 2015-03-20 2016-09-29 日本電気株式会社 Monitoring system, monitoring method, and monitoring program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6185517B2 (en) * 2015-06-30 2017-08-23 セコム株式会社 Image monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (en) 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd Surveillance system and surveillance method
JP2010257449A (en) 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2011215829A (en) 2010-03-31 2011-10-27 Hitachi Ltd Monitoring device and suspicious behavior detection method
WO2016151932A1 (en) 2015-03-20 2016-09-29 日本電気株式会社 Monitoring system, monitoring method, and monitoring program

Also Published As

Publication number Publication date
JP2020088687A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6741130B2 (en) Information processing system, information processing method, and program
JP5988225B2 (en) Monitoring device and monitoring method
JP6674584B2 (en) Video surveillance system
JP4984728B2 (en) Subject collation device and subject collation method
JP6406241B2 (en) Information processing system, information processing method, and program
JP6555906B2 (en) Information processing apparatus, information processing method, and program
US20150338497A1 (en) Target tracking device using handover between cameras and method thereof
EP3288258A1 (en) Information processing apparatus and method thereof
JPWO2016157327A1 (en) Video surveillance system and video surveillance method
JP6233624B2 (en) Information processing system, information processing method, and program
WO2018179202A1 (en) Information processing device, control method, and program
JP6867056B2 (en) Information processing equipment, control methods, and programs
JP2016015579A (en) Information processing apparatus,information processing method and program
JP6396682B2 (en) Surveillance camera system
JP5865584B2 (en) Specific person detection system and detection method
KR102574103B1 (en) Apparatus and System for Detecting Hidden Object Based on Artificial Intelligence learning Model Using THz Scan Image
JP7214449B2 (en) Information processing device, information processing method and program
US11227007B2 (en) System, method, and computer-readable medium for managing image
Islam et al. Correlating belongings with passengers in a simulated airport security checkpoint
US11341774B2 (en) Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
JP7332047B2 (en) Tracking Devices, Tracking Systems, Tracking Methods, and Programs
JP6954416B2 (en) Information processing equipment, information processing methods, and programs
KR101692504B1 (en) Intelligent image analysis system using beacon and method thereof
JP6574149B2 (en) Tracking device and tracking method
Srivastava et al. Virtual Surveillance Assistant: Converging Computer Vision, NLP, and Chatbot Technologies via Azure Cognitive Services

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R151 Written notification of patent or utility model registration

Ref document number: 7214449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151