JPWO2014050518A1 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JPWO2014050518A1 JPWO2014050518A1 JP2014538347A JP2014538347A JPWO2014050518A1 JP WO2014050518 A1 JPWO2014050518 A1 JP WO2014050518A1 JP 2014538347 A JP2014538347 A JP 2014538347A JP 2014538347 A JP2014538347 A JP 2014538347A JP WO2014050518 A1 JPWO2014050518 A1 JP WO2014050518A1
- Authority
- JP
- Japan
- Prior art keywords
- event
- video
- information
- information processing
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 70
- 238000003672 processing method Methods 0.000 title claims description 15
- 230000004044 response Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 77
- 238000000605 extraction Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 206010016970 Foot fracture Diseases 0.000 description 1
- 208000029152 Small face Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
- G06F16/7335—Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】情報処理装置であって、検知したイベントに関連するオブジェクトの検索を効率よく行なうため、撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、決定した種類のオブジェクトを映像から検出し、検出したオブジェクトに基づいてクエリ情報を生成する生成手段と、を備えた。
Description
本発明は、映像中においてオブジェクトを検索する技術に関する。
上記技術分野において、特許文献1には、犯罪者と思われる人物の写っている画像および人物領域を監視員に指定させ、指定された画像の取得時刻前後の画像データ内で指定人物を追跡し、得られた追跡結果から人物の特徴量を算出する技術が開示されている。
しかしながら、上記文献に記載の技術では、監視員が画像を指定した上で、指示を出して初めて他の画像からの人物検索を行なっていた。したがって、監視員の能力次第で、検索のスピードや精度に大きな違いがあった。特に、検出すべきイベントによっては、監視員が最適な行動をとるとは限らないため、必要なオブジェクトの検索精度が低下するという問題があった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明の係る情報処理装置は、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを、前記イベント発生時以外の映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する生成手段と、
を備えたことを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを、前記イベント発生時以外の映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する生成手段と、
を備えたことを特徴とする。
上記目的を達成するため、本発明の係る情報処理方法は、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記イベント発生時以外の映像から生成する生成ステップと、
を含むことを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記イベント発生時以外の映像から生成する生成ステップと、
を含むことを特徴とする。
上記目的を達成するため、本発明の係る情報処理プログラムは、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記イベント発生時以外の映像から生成する生成ステップと、
をコンピュータに実行させることを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記イベント発生時以外の映像から生成する生成ステップと、
をコンピュータに実行させることを特徴とする。
本発明によれば、検知したイベントに関連するオブジェクトの検索を非常に効率よく行なうことができる。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素や数値はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。図1に示すように、情報処理装置100は、検知部101と、決定部102と、生成部103とを含む。検知部101は、撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する。また、決定部102は、検知部101がイベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類をイベントの種類に基づいて決定する。さらに、生成部103は、決定された種類のオブジェクトを、映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する。
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。図1に示すように、情報処理装置100は、検知部101と、決定部102と、生成部103とを含む。検知部101は、撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する。また、決定部102は、検知部101がイベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類をイベントの種類に基づいて決定する。さらに、生成部103は、決定された種類のオブジェクトを、映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する。
以上の構成によってクエリ情報を生成すれば、そのクエリ情報を用いた検索を行なうことにより、検知したイベントに関連するオブジェクトの検索を非常に効率よく行なうことができる。
[第2実施形態]
次に本発明の第2実施形態に係る情報処理装置について、図2を用いて説明する。図2は、本実施形態に係る情報処理装置200の構成および利用方法を説明するための図である。
次に本発明の第2実施形態に係る情報処理装置について、図2を用いて説明する。図2は、本実施形態に係る情報処理装置200の構成および利用方法を説明するための図である。
情報処理装置200は、空港ロビーにおいて、行き交う人々およびベンチなどを監視カメラ250で撮影して得られた映像を処理することにより、空港ロビーに起こったイベントを自動検出し、警備員などにアラートを行なうものである。もちろん本発明は、空港ロビーでの利用に限定されるものではなく、例えばカジノやショッピングセンターなどで利用することもできる。
監視カメラ250で撮影された映像は、映像蓄積部210に蓄積されると共にイベント検知部201に送られる。あるいは、一旦映像蓄積部210に蓄積された映像を少し遅れてイベント検知部201に送るようになっていてもよい。イベント検知部201は、取得した映像を解析し、イベントデータベース220を参照してアラートの対象となるようなイベントが起きていないか確認する。アラートの対象となるイベントが発生している場合には、アラート情報を生成してオブジェクト種類決定部202に送る。このようにして生成されたアラート情報は、検索クエリ生成部204へ出力される。ここで、アラート情報とは、アラートが生成された時刻、アラートの種類、および、アラート対象となったオブジェクトの位置を表す情報を含む。オブジェクトの位置情報は、画面上の位置を表す座標値で表現してもよいし、カメラパラメータを用いて実空間上に投影して算出した座標系における座標値(例えばフロア上のある点を基準とした座標系の座標値)であってもよい。また、オブジェクトの外接矩形の位置情報であってもよいし、オブジェクトの重心などの特定の位置を表す座標情報であってもよい。それ以外にも、オブジェクトの位置を特定するさまざまな位置情報を用いることができる。
アラート対象となるイベントとしては、例えば、マークすべきリスト(いわゆるブラックリスト)に含まれる人物の出現、不審な行動、危険な行動等、監視員が着目すべき事象が挙げられる。一例を挙げると、ブラックリストに登録されている人物を検出した際にアラートを生成する。イベント検知部201は、入力される映像から顔を検出し、検出された顔から特徴量を抽出し、抽出された特徴量を、イベントデータベース220内にブラックリストとして登録されている人物の顔の特徴量と照合することにより検出できる。
また、イベント検知部201は、倒れたり、かがみこんだりするといった特定の行動を検知した場合にアラートを生成する。具体的には、例えば、入力された映像から人物を抽出し、フレーム間で追跡して、この人物の身長が急激に低くなり、しばらくその状態が続いたことを検知することによって検出できる。あるいは、かがみこむ、倒れるといった人物の状態そのものを事前に学習して識別器を構築し、学習で生成した識別器のパラメータをイベントデータベース220内に記憶させておき、この識別器を用いてこれらの状態を検知してもよい。
さらに、イベント検知部201は、侵入禁止エリアに人物が立ち入った場合にアラートを生成する。これは、例えば、画像中の侵入禁止エリアの床の領域をマークしておき、その中に検出・追跡された人物の足の位置が入ったかどうかを判定することによって、検知できる。イベントデータベース220内は、どのエリアがどの時点で侵入禁止エリアで、どのカメラにどのように映るかがあらかじめ記憶してもよい。
さらに、イベント検知部201は、置き去りにされた物体を検知した場合、あるいは物体が置き引きされたことを検知した場合にアラートを生成する。これは、例えば、ある物体が置かれたことを背景差分等によって検知し、一定時間以上そのままの状態が継続した場合に置き去り物体を検知できる。
イベントデータベース220には、映像中にどのようなオブジェクトやその変化が発生した場合に、どのようにアラートを生成するのか、あらかじめ記録されている。
さらに、イベントデータベース220内は、各イベントに対して、どのようなオブジェクトを見つけ出してクエリを生成すべきかについて対応関係を示すテーブルが記憶している。
オブジェクト種類決定部202は、上述のように検知された様々なイベントに対して、検索クエリとなるオブジェクトの種類を決定する。例えば、ブラックリストに含まれる人物の出現イベントに関しては、その人物の服装が検索クエリとなるため、そのような服装(携帯物や帽子なども含む)を特定できる全身画像を対象オブジェクトとして決定する。
一方、倒れた人がいた場合のイベントに関しては、倒れた人を特定できる顔や服装が検索クエリとなるため、それらを特定できる顔画像および全身画像をオブジェクトとして決定する。
さらに、侵入禁止エリアに立ち入った人物を発見した場合のイベントに関しては、その人物を特定できる顔や服装が検索クエリとなるため、それらを特定できる顔画像および全身画像をオブジェクトとして決定する。
置き去りにされた物体、あるいは置き引きされた物体を発見した場合のイベントに関しては、置き去りにした人物や置き引きした人物や置き引きされた物体の所有者としての人物などを特定できる顔や服装が検索クエリとなる。そのため、それらを特定できる顔画像および全身画像をオブジェクトとして決定する。
検索クエリ生成部204は、オブジェクトの特徴量を抽出し、検索時にクエリとして用いる特徴量であるクエリ特徴量を生成する。クエリ特徴量は、事前に抽出した特徴量から選択する場合には、映像解析部235によってカメラ映像250から抽出されて特徴量データベース230に格納されている特徴量から選択して取得する。そして、生成されたクエリ特徴量は検索部205へ出力される。検索部205は、映像蓄積部210や他の映像蓄積部240に蓄積された映像に対して、クエリ特徴量を用いた検索を実行し、検索結果を出力する。
検索部205は、他の映像蓄積部240に蓄積された映像中に、クエリ特徴量と同一、あるいは類似した特徴量を有するオブジェクトが存在するかどうかを検索する。すなわち、検索部205は、特徴量データベース230に格納された、検索対象となる過去に蓄積した映像から抽出されたオブジェクトの特徴量とクエリ特徴量との間で照合を行うことによって、検索を行う。特徴量間の類似度が一定の閾値を超えるなど十分高い(あるいは、特徴量間の距離が一定の閾値以下であるなど十分低い)場合に、そのカメラのID、時刻と付随する情報をまとめて検索結果に含める。付随する情報としては、例えばサムネイル画像や、映像の頭出し再生に必要な映像の時刻情報、ファイル先頭からのバイトオフセットなどが挙げられる。そして、得られた結果を一定の基準(例えば特徴量間の類似度順)によって並べて検索結果を生成し、出力する。
ここで、他の映像蓄積部240には、クエリ特徴量を抽出した映像と同じカメラで撮影したものに限らず、他のカメラで撮影した映像も蓄積される。また、映像は、アラートが生成される直前の時刻までのものを含んでいてもよい。その場合、検索対象となる画像に対してオブジェクト抽出、特徴量抽出がリアルタイムで行われ、この結果が検索部205で即座に利用できる。
この結果、モニタ室260の中でモニタ261を眺めて監視している監視員262に対して、アラートを行ない、さらに、そのアラートに関連する詳しい情報を提供できる。ここでは、置き引きがあった場合にディスプレイの画面270を介して監視員262にその発生を告げる。そして同時に、持ち主と犯人の顔画像、全身画像、およびプロファイル情報を取得可能な場合にはそのプロファイル、さらには、検索部205が他の映像を検索したことによって導き出された犯人の現在地などを提供できる。警備員のハンディ端末の画像に問題となる人物の画像を表示して、追跡に利用してもよい。
他のカメラのアラート生成時刻直前までの映像から同一のオブジェクトを検索することで、そのオブジェクトが過去にどこに存在したかを監視員262に提示することができる。さらに、映像を検索された時刻から頭出し再生できるようになっている場合には、検索された映像シーンを頭出し再生することにより、監視員262は、オブジェクトがどのような状態だったか、何をしていたかを確認できるようになる。
なお、図2に示す情報処理装置200は、ハードウェア構成として、不図示のCPU(Central Processing Unit)、ストレージ、RAM(Random Access Memory)、通信制御部などを含んでいる。ストレージには、イベント検知部201、オブジェクト種類決定部202、検索クエリ生成部204、検索部205に対応するプログラムモジュールが格納されている。CPUがそれらのプログラムモジュールを実行することによりそれぞれの機能が発揮される。プログラムモジュールによって生成されたデータ、例えばアラート情報やオブジェクト種類やクエリ特徴量などは一旦RAMに格納された上で他のプログラムモジュールで利用されたり、各種データベースに格納されたりする。
図3は、本実施形態に係る検索クエリ生成部204の内部構成を示す図である。検索クエリ生成部204は、オブジェクト検出部341とオブジェクト特徴量抽出部342とから構成される。オブジェクト検出部341は、アラート情報と映像とからオブジェクトを検出し、オブジェクト情報をオブジェクト特徴量抽出部342へ出力する。オブジェクト特徴量抽出部342は、オブジェクト情報と映像とからオブジェクトの特徴量を抽出し、クエリ特徴量として出力する。
次に、図3の動作について説明する。
(アラート情報によって初めてオブジェクト検出を行う場合)
アラート情報と映像は、オブジェクト検出部341へ入力される。オブジェクト検出部341では、入力されたアラート情報に含まれるオブジェクトの位置情報と時刻情報とから、映像中の該当するフレームの該当位置にあるオブジェクトを検出し、オブジェクト領域情報を出力する。例えば、オブジェクトが人であり、アラートがブラックリスト照合のアラートの場合に、アラート情報には顔の位置情報が含まれる。オブジェクト検出部341は、映像から人物全体の領域を抽出し、顔の位置情報と併せて人物全体の領域の情報をオブジェクト領域情報として生成する。行動アラートのような場合には、アラート情報に含まれるオブジェクトの位置情報の精度を上げて、オブジェクトの特徴量を抽出すべき領域(例えば、抽出する特徴量が服装特徴量の場合には人物の服装領域)を求め、オブジェクト領域情報として生成する。なお、アラート情報に含まれるオブジェクトの位置情報がそのままオブジェクト領域情報として利用できる場合には、オブジェクト検出部341では何もせず、スキップするようになっていてもよい。生成されたオブジェクト領域情報は、オブジェクト情報としてオブジェクト特徴量抽出部342へ出力される。
(アラート情報によって初めてオブジェクト検出を行う場合)
アラート情報と映像は、オブジェクト検出部341へ入力される。オブジェクト検出部341では、入力されたアラート情報に含まれるオブジェクトの位置情報と時刻情報とから、映像中の該当するフレームの該当位置にあるオブジェクトを検出し、オブジェクト領域情報を出力する。例えば、オブジェクトが人であり、アラートがブラックリスト照合のアラートの場合に、アラート情報には顔の位置情報が含まれる。オブジェクト検出部341は、映像から人物全体の領域を抽出し、顔の位置情報と併せて人物全体の領域の情報をオブジェクト領域情報として生成する。行動アラートのような場合には、アラート情報に含まれるオブジェクトの位置情報の精度を上げて、オブジェクトの特徴量を抽出すべき領域(例えば、抽出する特徴量が服装特徴量の場合には人物の服装領域)を求め、オブジェクト領域情報として生成する。なお、アラート情報に含まれるオブジェクトの位置情報がそのままオブジェクト領域情報として利用できる場合には、オブジェクト検出部341では何もせず、スキップするようになっていてもよい。生成されたオブジェクト領域情報は、オブジェクト情報としてオブジェクト特徴量抽出部342へ出力される。
オブジェクト特徴量抽出部342では、オブジェクト情報に基づいて、映像からオブジェクトの特徴量を抽出する。例えば、オブジェクトが人物である場合には、顔の特徴量や服の特徴量を抽出する。顔が小さかったり、正面を向いていなかったりなど、顔特徴抽出に適していない場合には、服の特徴量のみを抽出してもよい。また、服の特徴量を抽出する際には、服をいくつかの部位に分離し、それぞれの部位ごとに特徴量を抽出してもよい。例えば、上半身の部分と下半身の部分の服装に分離して特徴量を抽出してもよい。あるいは、服以外の持ち物や、帽子、メガネなどの携帯品を分離して特徴量を抽出してもよい。オブジェクトが車の場合には、ナンバープレート情報や、車体の特徴量を抽出する。ナンバープレートが小さかったり、見えなかったりなど、認識ができない場合には、車体の特徴量(色や形状、車種など)のみを抽出してもよい。このようにして抽出された特徴量はクエリ特徴量として出力される。
(オブジェクト検出・特徴量抽出は事前に行っており、そこから選択する場合)
検索クエリ生成部204において、アラートが生成されてからオブジェクトの特徴量を抽出する場合について上述したが、リアルタイムにオブジェクトの特徴量抽出が既に行われている場合には、再度オブジェクト特徴量を抽出し直す必要はない。この場合には、単に、既に抽出されたオブジェクトの特徴量から、クエリ特徴量として用いるものを選択すればよい。具体的には、オブジェクト検出部341では、アラート情報で指定された時刻情報から映像のフレームを限定し、その中でオブジェクト位置情報が近いオブジェクトを選択し、その領域情報をオブジェクト情報として出力する。オブジェクト特徴量抽出部342では、既に抽出されているオブジェクトの特徴量の中から、オブジェクト情報で指定されたオブジェクトの特徴量を選択し、クエリ特徴量として出力する。
検索クエリ生成部204において、アラートが生成されてからオブジェクトの特徴量を抽出する場合について上述したが、リアルタイムにオブジェクトの特徴量抽出が既に行われている場合には、再度オブジェクト特徴量を抽出し直す必要はない。この場合には、単に、既に抽出されたオブジェクトの特徴量から、クエリ特徴量として用いるものを選択すればよい。具体的には、オブジェクト検出部341では、アラート情報で指定された時刻情報から映像のフレームを限定し、その中でオブジェクト位置情報が近いオブジェクトを選択し、その領域情報をオブジェクト情報として出力する。オブジェクト特徴量抽出部342では、既に抽出されているオブジェクトの特徴量の中から、オブジェクト情報で指定されたオブジェクトの特徴量を選択し、クエリ特徴量として出力する。
図4に示すフローチャートを用いて、本実施形態での処理の流れを説明する。まずステップS401において、映像蓄積部210またはイベント検知部201は、監視カメラ250からの映像を取得する。
次にステップS403では、イベント検知部201が、映像中にあらかじめ定められたイベント(アラート対象)が発生したことを検知する。
さらにステップS405では、オブジェクト種類決定部202が、検知したイベントに基づいて、さらに検索すべきオブジェクトの種類を決定する。オブジェクトの種類を決定するとステップS407に進み、検索クエリ生成部204がイベント発生時の前後の映像からその種類のオブジェクトを検出する。そして、ステップS409では、検出したオブジェクトの特徴量を求め、その特徴量によって検索クエリを決定する。ステップS411では、検索部205が、蓄積された映像から検索クエリを検索する。
以上の構成および動作により、本実施形態によれば、アラートが挙がった際にすぐに検索を実行し、対象となる人物や物体の足取りを追うことができる。
[第3実施形態]
次に本発明の第3実施形態に係る情報処理装置について、図5を用いて説明する。図5は、本実施形態に係る検索クエリ生成部の構成および利用方法を説明するための図である。本実施形態では、上述の第2実施形態と比べて、検索クエリ生成部501が、オブジェクト検出・追跡部511およびオブジェクト特徴量抽出部512を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
次に本発明の第3実施形態に係る情報処理装置について、図5を用いて説明する。図5は、本実施形態に係る検索クエリ生成部の構成および利用方法を説明するための図である。本実施形態では、上述の第2実施形態と比べて、検索クエリ生成部501が、オブジェクト検出・追跡部511およびオブジェクト特徴量抽出部512を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
オブジェクト検出・追跡部511は、アラート情報と映像とからオブジェクトを検出し、かつ、フレーム間でオブジェクトを追跡し、オブジェクト情報をオブジェクト特徴量抽出部512へ出力する。オブジェクト特徴量抽出部512は、オブジェクト情報と映像とからオブジェクトの特徴量を抽出し、クエリ特徴量として出力する。
(アラート情報によって初めてオブジェクト検出を行う場合)
オブジェクト検出・追跡部511がフレーム間でオブジェクトを追跡している場合、アラート生成前から追跡が継続している。アラート情報と映像は、オブジェクト検出・追跡部511へ入力される。オブジェクト検出・追跡部511では、入力された映像からオブジェクトの検出と検出処理を行っており、その結果とアラート情報に含まれるオブジェクトの位置情報を時刻情報に基づいて比較し、対象となるオブジェクトを判定する。次に、そのオブジェクトの追跡結果を調べ、追跡結果に含まれるオブジェクトの検出結果の中で、特徴量抽出に適したものを選択する。カメラのキャリブレーション情報(カメラパラメータの情報)を用いれば、画像の各位置において、オブジェクトがどのぐらいの大きさで検出されるかは事前に計算できる。このため、この想定値と検出されたオブジェクトの大きさが近く、かつ、オブジェクトの姿勢や状態が特徴量抽出に適しているものを選択する。例えば、人物の場合には、直立している姿勢のもので、足元や上半身などが切れていない状態のものを選択する。これは、例えば、検出されたオブジェクトの外接矩形の形状の縦横比や、画面上の位置等の情報で判定できる。あるいは、オブジェクトの形状情報が同時に取得可能(例えば、背景差分によってシルエットが得られる場合など)な場合には、この形状情報から、姿勢、状態の適切さを判定するようになっていてもよい。なお、選択されるオブジェクトの検出結果は複数(すなわち、複数の異なる時刻の検出結果)あってもかまわない。選択されたオブジェクトの時刻とオブジェクト領域情報は、オブジェクト情報としてオブジェクト特徴量抽出部512へ出力される。
オブジェクト検出・追跡部511がフレーム間でオブジェクトを追跡している場合、アラート生成前から追跡が継続している。アラート情報と映像は、オブジェクト検出・追跡部511へ入力される。オブジェクト検出・追跡部511では、入力された映像からオブジェクトの検出と検出処理を行っており、その結果とアラート情報に含まれるオブジェクトの位置情報を時刻情報に基づいて比較し、対象となるオブジェクトを判定する。次に、そのオブジェクトの追跡結果を調べ、追跡結果に含まれるオブジェクトの検出結果の中で、特徴量抽出に適したものを選択する。カメラのキャリブレーション情報(カメラパラメータの情報)を用いれば、画像の各位置において、オブジェクトがどのぐらいの大きさで検出されるかは事前に計算できる。このため、この想定値と検出されたオブジェクトの大きさが近く、かつ、オブジェクトの姿勢や状態が特徴量抽出に適しているものを選択する。例えば、人物の場合には、直立している姿勢のもので、足元や上半身などが切れていない状態のものを選択する。これは、例えば、検出されたオブジェクトの外接矩形の形状の縦横比や、画面上の位置等の情報で判定できる。あるいは、オブジェクトの形状情報が同時に取得可能(例えば、背景差分によってシルエットが得られる場合など)な場合には、この形状情報から、姿勢、状態の適切さを判定するようになっていてもよい。なお、選択されるオブジェクトの検出結果は複数(すなわち、複数の異なる時刻の検出結果)あってもかまわない。選択されたオブジェクトの時刻とオブジェクト領域情報は、オブジェクト情報としてオブジェクト特徴量抽出部512へ出力される。
オブジェクト特徴量抽出部512では、図3のオブジェクト特徴量抽出部342と同様に、オブジェクト情報に基づいて、映像からオブジェクトの特徴量を抽出する。ただし、この場合、オブジェクト情報は、特徴量を抽出する時刻が以前の時刻である場合があり、この場合には、該当する時刻の映像のフレームからオブジェクトの特徴量を抽出する。また、オブジェクト情報に含まれうる特徴抽出の時刻が複数存在する場合がある。この場合は、指定された時刻のフレームそれぞれに対してオブジェクトの特徴量を抽出し、抽出された特徴量の集合をクエリ特徴量として出力する。
なお、オブジェクト検出・追跡処理はアラート生成時に同時に行っているのであれば、オブジェクト検出・追跡部511では、そこで得られたオブジェクトの検出・追跡情報を用いてもよい。また、既にオブジェクト検出・追跡時に特徴量も抽出済みの場合には、オブジェクト特徴量抽出部512では、既に抽出された特徴量の中から、指定される時刻の特徴量を選択して、クエリ特徴量を生成してもよい。
以上のように本実施形態によれば、オブジェクトを検出して追跡するので、より的確に検索クエリを生成でき、検索精度を向上することができる。
[第4実施形態]
本発明の第4実施形態に係る情報処理装置について、図6を用いて説明する。図6は、本実施形態に係る検索クエリ生成部の構成および利用方法を説明するための図である。本実施形態では、上述の第3実施形態と比べて、検索クエリ生成部501が、時間差決定部613とオブジェクト検出・追跡部611を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
本発明の第4実施形態に係る情報処理装置について、図6を用いて説明する。図6は、本実施形態に係る検索クエリ生成部の構成および利用方法を説明するための図である。本実施形態では、上述の第3実施形態と比べて、検索クエリ生成部501が、時間差決定部613とオブジェクト検出・追跡部611を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
時間差決定部613は、アラート情報からクエリ特徴量の抽出の基準となる特徴抽出時刻情報を決定し、オブジェクト検出・追跡部611へ出力する。オブジェクト検出・追跡部611は、アラート情報と映像と特徴抽出時刻情報とからオブジェクト情報を求め、オブジェクト特徴量抽出部512へ出力する。オブジェクト特徴量抽出部512は、オブジェクト情報と映像とからオブジェクトの特徴量を抽出し、クエリ特徴量として出力する。
アラート情報は、時間差決定部613へ入力される。時間差決定部613では、アラート情報に含まれるイベント種類情報に基づいて、アラート生成時刻からどの程度前の時刻の映像データをクエリとして利用するかを指定する時間差情報を決定する。この時間差はイベント種類によって異なるため、図7のように設定されたイベントテーブル700に基づいて決定する。イベントテーブル700は、イベント種類ごとに、時間差情報を保持しており、入力されるアラート情報に従って時間差情報を選択する。
このようにして決定された時間差情報は、オブジェクト検出・追跡部611へ出力される。オブジェクト検出・追跡部611へは、時間差情報に加え、アラート情報と映像も入力される。オブジェクト検出・追跡部611は、図5のオブジェクト検出・追跡部511と同様に、対象となるオブジェクトを判定する。そして、アラート生成時刻から、時間差情報で指定される時間分だけ遡った時刻(クエリ生成基準時刻)を求め、該当オブジェクトの追跡結果から、その時刻のオブジェクトの検出結果を求める。その時刻とオブジェクトの検出結果をオブジェクト情報として生成し、出力する。あるいは、クエリ生成基準時刻の前後の追跡結果から、図5のオブジェクト検出・追跡部511と同様に、特徴量抽出に適したオブジェクトの検出結果を選び、これをオブジェクト情報として生成、出力するようにしてもよい。生成されたオブジェクト情報は、オブジェクト特徴量抽出部512へ出力される。
オブジェクト特徴量抽出部512は、図5で示した通り、オブジェクトの特徴量を生成、出力する。
なお、オブジェクト検出・追跡処理はアラート生成時に同時に行っているのであれば、オブジェクト検出・追跡部611では、そこで得られたオブジェクトの検出・追跡情報を用いてもよい。また、既にオブジェクト検出・追跡時に特徴量も抽出済みの場合には、オブジェクト特徴量抽出部512では、既に抽出された特徴量の中から、指定される時刻の特徴量を選択して、クエリ特徴量を生成してもよい。
本実施形態では、アラートが生じた際に、そのときの追跡情報と、アラートの種類情報から検索に適した画像を選択し、自動的に検索を実行させる。これにより、アラートが生じた際に、リアルタイムに迅速な検索が実現できる。例えば、不審人物のアラートが生じた際に、アラートが生じたカメラの近傍にあるカメラの映像を検索し、その人物の足取りを追うといった使い方が可能となる。
上述のように得られた特徴量をクエリ特徴量として検索を行うが、追跡した範囲内で抽出された特徴量間の類似性が低い場合には、監視員に提示し、同一人物かどうかを判定させた上で検索を行ってもよい。このように、監視員が指定した映像の前後で人物を追跡し、その中から最も信頼性の高いと考えられる特徴量を指定して検索することにより、監視員が指定した画像のみを用いて検索を行う場合よりも検索精度の向上が期待できる。
図7は、イベントの種類に応じたオブジェクト種類、所定時間差、所定時間幅およびオブジェクト検索画像数を設定するためのイベントテーブル700を示す図である。以下に、イベント種類ごとに詳しく解説する。
(1)ブラックリスト照合の場合
・検索するオブジェクト、生成するクエリ
顔および服装をオブジェクトとして検索し、顔の特徴量に加え、服の特徴量を抽出する。このため、服の特徴量抽出(上半身、下半身を含む)に適した人物位置で特徴を抽出する。
・検索するオブジェクト、生成するクエリ
顔および服装をオブジェクトとして検索し、顔の特徴量に加え、服の特徴量を抽出する。このため、服の特徴量抽出(上半身、下半身を含む)に適した人物位置で特徴を抽出する。
・時間差
顔が大きく映る画像は、服特徴が十分とれないため、アラート時点の画像とは異なる画像で特徴量の抽出が必要である。抽出に適した人物の位置は、カメラ配置(画角)によって決まる。基本的には、なるべく大きく人物が映る状態で足元まで入ることが望ましい。図8のように、人物が遠方から近付いてくるカメラ配置の場合には、足元が画面の下端にかかる画像801のタイミングから、実際に顔照合が可能な画像802まで移動するのにかかる時間をクエリ生成時の時間差として指定する。つまり、全身が映っており服の特徴が抽出しやすい画像801から、ブラックリスト照合が行えるほど顔が大きく映る位置にきた画像802までの平均の移動時間(あるいは移動時間のメディアン値、最頻値などの代表値)をあらかじめ求めておく。この移動時間とほぼ同等かそれ以上の値を時間差情報として決定する。また、服の模様特徴はなるべく近づいた方がより細かい情報がとれることから、さらに近付いた状況の画像803において、服の上方部の特徴をより詳細に抽出し、検索のクエリを作成してもよい。
顔が大きく映る画像は、服特徴が十分とれないため、アラート時点の画像とは異なる画像で特徴量の抽出が必要である。抽出に適した人物の位置は、カメラ配置(画角)によって決まる。基本的には、なるべく大きく人物が映る状態で足元まで入ることが望ましい。図8のように、人物が遠方から近付いてくるカメラ配置の場合には、足元が画面の下端にかかる画像801のタイミングから、実際に顔照合が可能な画像802まで移動するのにかかる時間をクエリ生成時の時間差として指定する。つまり、全身が映っており服の特徴が抽出しやすい画像801から、ブラックリスト照合が行えるほど顔が大きく映る位置にきた画像802までの平均の移動時間(あるいは移動時間のメディアン値、最頻値などの代表値)をあらかじめ求めておく。この移動時間とほぼ同等かそれ以上の値を時間差情報として決定する。また、服の模様特徴はなるべく近づいた方がより細かい情報がとれることから、さらに近付いた状況の画像803において、服の上方部の特徴をより詳細に抽出し、検索のクエリを作成してもよい。
・クエリ生成に用いる画像の枚数(時間差の数)
基本的には、上述のように、アラート生成前で全身が映る位置にいる場合の1枚でよいが、その付近で複数枚取得して、その中で信頼度の高い特徴を複数用いるようにしてもよい。服特徴抽出の信頼度は、人物の外接矩形の縦横比や、人物シルエット形状の人物らしさの度合いで判定できる。ここで人物らしさの度合いは、人物のシルエットを学習した識別器を用いることで算出可能である。あるいは、色特徴の場合には、色の彩度の大きさや明度の大きさ(彩度や明度が低い場合は、影などの影響がある場合と考えられる)や、画素値が飽和している部分がないかどうかといった点を分析することで信頼度を評価することも可能である。
基本的には、上述のように、アラート生成前で全身が映る位置にいる場合の1枚でよいが、その付近で複数枚取得して、その中で信頼度の高い特徴を複数用いるようにしてもよい。服特徴抽出の信頼度は、人物の外接矩形の縦横比や、人物シルエット形状の人物らしさの度合いで判定できる。ここで人物らしさの度合いは、人物のシルエットを学習した識別器を用いることで算出可能である。あるいは、色特徴の場合には、色の彩度の大きさや明度の大きさ(彩度や明度が低い場合は、影などの影響がある場合と考えられる)や、画素値が飽和している部分がないかどうかといった点を分析することで信頼度を評価することも可能である。
(2)倒れ検知の場合
・検索するオブジェクト、生成するクエリ
顔および服装をオブジェクトとして検索する。倒れた状態で、上下半身の服の情報を正しく分離して抽出することは困難なため、直立した状態の画像から特徴を抽出する。倒れた人物の服装情報からその人物を特定したり来歴を検索したりしたい場合は、適切な特徴量抽出のため通常の直立した姿勢の画像が必要である。特に、上半身と下半身の着衣を区別して検索を行いたい場合には、上半身と下半身を分離して特徴量を抽出する必要があるため、やはり直立した姿勢の画像が重要である。
・検索するオブジェクト、生成するクエリ
顔および服装をオブジェクトとして検索する。倒れた状態で、上下半身の服の情報を正しく分離して抽出することは困難なため、直立した状態の画像から特徴を抽出する。倒れた人物の服装情報からその人物を特定したり来歴を検索したりしたい場合は、適切な特徴量抽出のため通常の直立した姿勢の画像が必要である。特に、上半身と下半身の着衣を区別して検索を行いたい場合には、上半身と下半身を分離して特徴量を抽出する必要があるため、やはり直立した姿勢の画像が重要である。
追跡結果を用いてより確実に検索に適した特徴量を得るには、倒れる前の人物が映った映像を含むように追跡時間を長くする必要があるが、その場合、追跡処理に時間かかるため、迅速な検索ができなくなる。したがって、追跡結果ではなく、指定した範囲の画像を検索する方が効率がいい。
・時間差
基本的には、倒れ検知は倒れて一定時間経過後にアラートを出すように設定されているため、設定された判定時間より少し長い時間を時間差として設定する(例えば、倒れて30秒動かない場合にアラートが設定されている場合は、35秒前など)。
基本的には、倒れ検知は倒れて一定時間経過後にアラートを出すように設定されているため、設定された判定時間より少し長い時間を時間差として設定する(例えば、倒れて30秒動かない場合にアラートが設定されている場合は、35秒前など)。
・クエリ生成に用いる画像の枚数(時間差の数)
図9のように、画像903から倒れ検知を行なった場合、基本的には十分長い時間さかのぼった全身画像901の1枚からオブジェクトを抽出すればよい。しかし、倒れる前に画像902のようにうつむき加減に少し屈む状態になって長い時間経過することもある。このような状況ではあまりうまく服の特徴量が抽出できない場合もあるため、それよりも少し前の特徴も選択できるように、少し長めの時間差を複数枚利用(例えば、上述の例の場合には、45秒前と55秒前の2枚も一緒に用いるなど)するようにしてもよい。また、これらで選択された複数枚の画像全部を用いてクエリを生成してもよいし、ブラックリスト照合の場合と同様に、信頼度を求めて信頼度の高い(例えば一定の閾値を超えた場合)もののみを用いるようにしてもよい。
図9のように、画像903から倒れ検知を行なった場合、基本的には十分長い時間さかのぼった全身画像901の1枚からオブジェクトを抽出すればよい。しかし、倒れる前に画像902のようにうつむき加減に少し屈む状態になって長い時間経過することもある。このような状況ではあまりうまく服の特徴量が抽出できない場合もあるため、それよりも少し前の特徴も選択できるように、少し長めの時間差を複数枚利用(例えば、上述の例の場合には、45秒前と55秒前の2枚も一緒に用いるなど)するようにしてもよい。また、これらで選択された複数枚の画像全部を用いてクエリを生成してもよいし、ブラックリスト照合の場合と同様に、信頼度を求めて信頼度の高い(例えば一定の閾値を超えた場合)もののみを用いるようにしてもよい。
(3)置き去り/持ち去りの場合
・検索するオブジェクト、生成するクエリ
アラート自体は置き去りされた荷物(あるいは荷物が持ち去られて新たに現れた領域)
を検知することによって挙がるが、抽出するのは、その物体を置き去り/持ち去りした人物の特徴量になる。この場合も、顔の特徴量を抽出するのは難しい場合が多いため、服の特徴量を抽出する。
・検索するオブジェクト、生成するクエリ
アラート自体は置き去りされた荷物(あるいは荷物が持ち去られて新たに現れた領域)
を検知することによって挙がるが、抽出するのは、その物体を置き去り/持ち去りした人物の特徴量になる。この場合も、顔の特徴量を抽出するのは難しい場合が多いため、服の特徴量を抽出する。
・時間差
基本的には、図10の画像1002から画像1003のように、物体が動かない時間が一定の閾値を超えた場合、置き去りを検知する。このため、時間差はこの判定時間よりも少し長い時間とすればよい。つまり、置き去りを検知してアラートを挙げる場合には、置き去り物体と判定されるまでの時間以上の値を時間差情報として決定し、画像1001のように物体のそばにいた人物を検索する。なお、この場合は、特徴量を抽出するのは、物体の方ではなく、物体を放置した人物の方である。
基本的には、図10の画像1002から画像1003のように、物体が動かない時間が一定の閾値を超えた場合、置き去りを検知する。このため、時間差はこの判定時間よりも少し長い時間とすればよい。つまり、置き去りを検知してアラートを挙げる場合には、置き去り物体と判定されるまでの時間以上の値を時間差情報として決定し、画像1001のように物体のそばにいた人物を検索する。なお、この場合は、特徴量を抽出するのは、物体の方ではなく、物体を放置した人物の方である。
持ち去りの場合には、図11の画像1102から画像1103のように一定時間動かない物体を持ち去った人物を発見した場合に、持ち去りを検知する。持ち去りを行なった人物に関しては時間差なしでオブジェクト抽出を行ない、その人物の顔および服装の特徴量を生成する。一方、持ち去られた人物に関しては、持ち去り判定時間以上の値を時間差情報として決定して、画像1101のように元々物体のそばにいた人物をオブジェクトとして検索する。そして、その人物の顔および服装の特徴量を抽出する。画像1101の人物と画像1103の人物との照合を行なうことにより、持ち去り判定の信頼性を高めてもよい。
・クエリ生成に用いる画像の枚数(時間差の数)
物を床に置く行為には、一定の時間がかかると予想され、置く動作の間は、屈んだり、体を曲げたりするため、服特徴量の抽出に適した姿勢ではない可能性がある。物を落とす場合のように、姿勢はほとんど変えずに物を置き去る場合もある。このため、時間差としては、設定された判定時間より少し長い時間を複数設定(例えば60秒間不動の状態が続いたときにアラートが挙がるように設定されている場合には、65秒、75秒、85秒といった具合に3つ設定)すればよい。
物を床に置く行為には、一定の時間がかかると予想され、置く動作の間は、屈んだり、体を曲げたりするため、服特徴量の抽出に適した姿勢ではない可能性がある。物を落とす場合のように、姿勢はほとんど変えずに物を置き去る場合もある。このため、時間差としては、設定された判定時間より少し長い時間を複数設定(例えば60秒間不動の状態が続いたときにアラートが挙がるように設定されている場合には、65秒、75秒、85秒といった具合に3つ設定)すればよい。
(4)侵入検知の場合
・検索するオブジェクト、生成するクエリ
基本的には侵入検知を行う状況では顔が見えているとは限らず特徴量抽出に向いていないため、服装の特徴量を抽出する。
・検索するオブジェクト、生成するクエリ
基本的には侵入検知を行う状況では顔が見えているとは限らず特徴量抽出に向いていないため、服装の特徴量を抽出する。
・時間差
図12のように、アラートが生じた時点の画像1202における服装の特徴量をとってもよいが、ブラックリスト照合の場合と同様、服特徴に適した人物の位置はカメラの画角によって決まる。図12のように侵入禁止エリアがカメラの遠方に設定されている場合には、侵入禁止エリアに入る前の方がカメラに近く、より詳細な服特徴の抽出が可能になる。そのため、全身がなるべく大きく映る画像1201のようなタイミングを決め、そこから侵入禁止エリアに移動するまでの時刻を時間差に設定すればよい。逆に侵入禁止エリアがカメラの手前側にあり、遠方から近くに移動してきたときに侵入を検知する場合には、エリアに侵入した直後よりも少し移動したときに服特徴を抽出するように、時間差を設定すればよい。
図12のように、アラートが生じた時点の画像1202における服装の特徴量をとってもよいが、ブラックリスト照合の場合と同様、服特徴に適した人物の位置はカメラの画角によって決まる。図12のように侵入禁止エリアがカメラの遠方に設定されている場合には、侵入禁止エリアに入る前の方がカメラに近く、より詳細な服特徴の抽出が可能になる。そのため、全身がなるべく大きく映る画像1201のようなタイミングを決め、そこから侵入禁止エリアに移動するまでの時刻を時間差に設定すればよい。逆に侵入禁止エリアがカメラの手前側にあり、遠方から近くに移動してきたときに侵入を検知する場合には、エリアに侵入した直後よりも少し移動したときに服特徴を抽出するように、時間差を設定すればよい。
・クエリ生成に用いる画像の枚数(時間差の数)
基本的には、ブラックリストの場合と同様に1枚でよい。
基本的には、ブラックリストの場合と同様に1枚でよい。
(5)たむろ/迂回行動検知の場合
・検索するオブジェクト、生成するクエリ
アラート自体は、たむろの発生、または迂回行動の発生を検知することにより挙がるが、抽出するのは、たむろまたは迂回行動の原因となった人物の特徴量になる。この場合も、顔の特徴量を抽出するのは難しい場合が多いため、服の特徴量を抽出する。
ここで、たむろとは、複数人物の長時間の停留のことである。また、迂回行動とは、こぼれた液体、不審物、汚物などが床にある場合、または不審な(危険そうな)人物がいる場合に、群衆がそれを避けて通る行動のことである。
検索対象は、例えばたむろの原因となった人物(例えば、大道芸人等)や迂回行動の原因となった不審な(危険そうな)人物等である。
・時間差
基本的には、たむろまたは迂回行動を検知するのに必要な判定時間より少し長い時間を時間差として設定する(例えば、複数人物が30秒停留した場合にアラートが設定されている場合は、35秒前など)。
・クエリ生成に用いる画像の枚数(時間差の数)
基本的には、上述のように、アラート生成前の1枚でよいが、その付近で複数枚取得して、その中で信頼度の高い特徴を複数用いるようにしてもよい。上述のように服特徴抽出の信頼度は、人物の外接矩形の縦横比や、人物シルエット形状の人物らしさの度合いで判定できる。
以上のように、発生したイベントに応じた時間差でオブジェクトの検出、検索クエリの生成を行なうため、非常に精度のよい検索が可能となる。
・検索するオブジェクト、生成するクエリ
アラート自体は、たむろの発生、または迂回行動の発生を検知することにより挙がるが、抽出するのは、たむろまたは迂回行動の原因となった人物の特徴量になる。この場合も、顔の特徴量を抽出するのは難しい場合が多いため、服の特徴量を抽出する。
ここで、たむろとは、複数人物の長時間の停留のことである。また、迂回行動とは、こぼれた液体、不審物、汚物などが床にある場合、または不審な(危険そうな)人物がいる場合に、群衆がそれを避けて通る行動のことである。
検索対象は、例えばたむろの原因となった人物(例えば、大道芸人等)や迂回行動の原因となった不審な(危険そうな)人物等である。
・時間差
基本的には、たむろまたは迂回行動を検知するのに必要な判定時間より少し長い時間を時間差として設定する(例えば、複数人物が30秒停留した場合にアラートが設定されている場合は、35秒前など)。
・クエリ生成に用いる画像の枚数(時間差の数)
基本的には、上述のように、アラート生成前の1枚でよいが、その付近で複数枚取得して、その中で信頼度の高い特徴を複数用いるようにしてもよい。上述のように服特徴抽出の信頼度は、人物の外接矩形の縦横比や、人物シルエット形状の人物らしさの度合いで判定できる。
以上のように、発生したイベントに応じた時間差でオブジェクトの検出、検索クエリの生成を行なうため、非常に精度のよい検索が可能となる。
[第5実施形態]
本発明の第5実施形態に係る情報処理装置について、図13を用いて説明する。図13は、本実施形態に係る検索クエリ生成部1301の構成および利用方法を説明するための図である。本実施形態では、上述の第4実施形態と比べて、検索クエリ生成部1301が、オブジェクト同一性判定部1312を含み、オブジェクト検出・追跡部611の代わりにオブジェクト検出部1311を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
本発明の第5実施形態に係る情報処理装置について、図13を用いて説明する。図13は、本実施形態に係る検索クエリ生成部1301の構成および利用方法を説明するための図である。本実施形態では、上述の第4実施形態と比べて、検索クエリ生成部1301が、オブジェクト同一性判定部1312を含み、オブジェクト検出・追跡部611の代わりにオブジェクト検出部1311を含む点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
オブジェクト検出部1311が追跡を行わない場合には、オブジェクト特徴量生成後にオブジェクト同一性判定部1312でアラート生成時のオブジェクトと同じであるかどうかを判定する。この場合は、オブジェクト検出部1311から、アラート生成時のオブジェクト検出結果と、時間差決定部613で与えられる時間差を与えた時点でのオブジェクト検出結果の2つが出力される。そして、オブジェクト特徴量抽出部512では、それぞれに対してオブジェクトの特徴量を抽出し、オブジェクト同一性判定部1312へ出力する。オブジェクト同一性判定部1312では、これらの特徴量間の類似性を判定し、同一のオブジェクトとして判定された場合に、時間差を与えた特徴量をクエリ特徴量として出力する。一方、同一でないとみなされた場合には、アラート生成時の特徴量をクエリ特徴量として出力する。
なお、オブジェクト同一性判定部1312にアラート情報も入力するようにし、アラートの種類に応じて同一の判定基準を変えるようになっていてもよい。例えば、倒れた検知の場合には、姿勢の違いによって特徴量の類似度が下がるため、類似判定の基準を甘くするようにしてもよい。あるいは、オブジェクトの位置情報を重視して、オブジェクトの位置がほとんど同一であれば、類似度は低くても同一オブジェクトと見なして特徴量を出力するようにしてもよい。置き去り検知の場合も同様に、位置情報を重視して判定してもよい。
[第6実施形態]
本発明の第6実施形態に係る情報処理装置について、図14を用いて説明する。図14は、本実施形態に係る検索クエリ生成部1401の構成および利用方法を説明するための図である。本実施形態では、上述の第4実施形態と比べると、検索クエリ生成部1401が、時間差学習部1414を含む点で異なる。その他の構成および動作は、第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
本発明の第6実施形態に係る情報処理装置について、図14を用いて説明する。図14は、本実施形態に係る検索クエリ生成部1401の構成および利用方法を説明するための図である。本実施形態では、上述の第4実施形態と比べると、検索クエリ生成部1401が、時間差学習部1414を含む点で異なる。その他の構成および動作は、第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図14に示す検索クエリ生成部1401は、カメラ配置に依存して時間差が決まる場合に、オブジェクト検出・追跡結果から時間差を学習する。時間差決定部1411は、時間差決定部613と同様に、アラート情報に含まれるイベント種類情報に基づいて、アラート生成時刻からどの程度前の時刻の映像データをクエリとして利用するかを指定する時間差情報を決定する。この時間差は図7のように設定されたイベントテーブル700に基づいて決定するが、ここでのイベントテーブル700の時間差情報は、時間差学習部1414からの指示に応じて更新可能である。時間差学習部1414は、オブジェクト検出・追跡の結果から、アラート生成時の位置から服特徴が抽出しやすい位置との間を人物が移動するのにかかる時間を計測し、計測した結果を統計処理して時間差の代表値を算出する。そして、時間差学習部1414は、その代表値によって、時間差決定部1411に記憶されている時間差を更新する。時間差の代表値の算出方法としては、平均をとる以外に、メディアンやモードの算出、あるいは、分布の両側の一定のパーセント以上の部分ははずれ値として除いて算出した平均などを用いることができる。
この際、単にオブジェクトの大きさだけでなく、照明条件や背景が特徴量抽出に適しているかどうかという情報も時間差学習部1414に入力し、時間差を算出するようにしてもよい。例えば、大きさは少し小さいが、照明の下で安定して特徴量が抽出可能な場所があれば、その位置からアラート生成時の位置までに移動する時刻を算出してもよい。このような場所が複数存在する場合には、それぞれに対して時間差を求めて、それぞれの時間差代表値を算出するようにしてもよい。あるいは、背景の色が服の色と異なり、抽出しやすい位置(例えば白い服の人の場合には、背景が暗い色の場所がよい)があれば、それを用いてもよい。ただし、服の色によって抽出しやすい背景の色は異なってくるため、複数の位置を求めておき、それぞれの位置に対して時間差の代表値を求めるようにしてもよい。この場合は、オブジェクト特徴量抽出部512でクエリ特徴量生成時に実際に抽出された色に応じて適した時間差を選択するようにすればよい。
以上本実施形態によれば、時間差を学習してオブジェクトの検出を行なうので、使用に伴ってオブジェクト抽出の画像の選択精度が向上し、結果としてクエリ特徴量の精度が向上する。
[第7実施形態]
本発明の第7実施形態に係る情報処理装置について、図15を用いて説明する。図15は、本実施形態に係る検索クエリ生成部1501の構成および利用方法を説明するための図である。本実施形態では、上述の第6実施形態と比べると、時間差学習部1514がオブジェクト特徴量の抽出結果まで考慮して時間差を学習する点で異なる。その他の構成および動作は、第6実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
本発明の第7実施形態に係る情報処理装置について、図15を用いて説明する。図15は、本実施形態に係る検索クエリ生成部1501の構成および利用方法を説明するための図である。本実施形態では、上述の第6実施形態と比べると、時間差学習部1514がオブジェクト特徴量の抽出結果まで考慮して時間差を学習する点で異なる。その他の構成および動作は、第6実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
時間差学習部1514は、抽出されたオブジェクトの特徴量の信頼度も考慮して時間差を決定する。信頼度の算出方法は、上述したとおりであり、服特徴抽出の信頼度は、人物の外接矩形の縦横比や、人物シルエット形状の人物らしさの度合いで判定できる。あるいは、色特徴の場合には、色の彩度の大きさや明度の大きさ(彩度や明度が低い場合は、影などの影響がある場合と考えられる)や飽和している部分がないかどうかといった点を分析することで信頼度を評価することも可能である。特徴量の信頼度の高い時間差を選択することにより、学習を行なう。
以上、本実施形態によれば、特徴量の信頼度を考慮して時間差を学習するため、使用に伴ってオブジェクト抽出画像の選択精度が向上し、結果としてクエリ特徴量の精度が向上する。
[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(WorldWideWeb)サーバも、本発明の範疇に含まれる。
[実施形態の他の表現]
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを、前記映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する生成手段と、
を備えた情報処理装置。
(付記2)
前記生成手段は、前記決定手段で決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記1に記載の情報処理装置。
(付記3)
前記生成手段は、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定手段で決定した種類のクエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記1または2に記載の情報処理装置。
(付記4)
前記生成手段は、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記1、2または3に記載の情報処理装置。
(付記5)
前記生成手段は、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定領域を決定する付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記生成手段は、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定数を決定する付記1乃至5のいずれか1項に記載の情報処理装置。
(付記7)
前記イベントに関連するオブジェクトの追跡を行なう追跡手段と、
前記追跡手段による前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定手段が決定した時間差を更新する更新手段と、
を備えた付記1乃至6のいずれか1項に記載の情報処理装置。
(付記8)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知手段は、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定手段は、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記1乃至7のいずれか1項に記載の情報処理装置。
(付記9)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定手段は、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定手段は、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記1乃至9のいずれか1項に記載の情報処理装置。
(付記11)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定手段は、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記1乃至10のいずれか1項に記載の情報処理装置。
(付記12)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記映像から生成する生成ステップと、
を含む情報処理方法。
(付記13)
前記生成ステップは、前記決定ステップで決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記12に記載の情報処理方法。
(付記14)
前記生成ステップは、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定ステップで決定した種類のクエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記12または13に記載の情報処理方法。
(付記15)
前記生成ステップは、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記12、13または14に記載の情報処理方法。
(付記16)
前記生成ステップは、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定領域を決定する付記12乃至15のいずれか1項に記載の情報処理方法。
(付記17)
前記生成ステップは、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定数を決定する付記12乃至16のいずれか1項に記載の情報処理方法。
(付記18)
前記イベントに関連するオブジェクトの追跡を行なう追跡ステップと、
前記追跡ステップによる前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定ステップが決定した時間差を更新する更新ステップと、
を備えた付記12乃至17のいずれか1項に記載の情報処理方法。
(付記19)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知ステップは、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定ステップは、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記12乃至18のいずれか1項に記載の情報処理方法。
(付記20)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定ステップは、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記12乃至19のいずれか1項に記載の情報処理方法。
(付記21)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定ステップは、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記12乃至20のいずれか1項に記載の情報処理方法。
(付記22)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定ステップは、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記12乃至21のいずれか1項に記載の情報処理方法。
(付記23)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記映像から生成する生成ステップと、
をコンピュータに実行させる情報処理プログラム。
(付記24)
前記生成ステップは、前記決定ステップで決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記23に記載の情報処理プログラム。
(付記25)
前記生成ステップは、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定ステップで決定した種類のクエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記23または24に記載の情報処理プログラム。
(付記26)
前記生成ステップは、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記23、24または25に記載の情報処理プログラム。
(付記27)
前記生成ステップは、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定領域を決定する付記23乃至26のいずれか1項に記載の情報処理プログラム。
(付記28)
前記生成ステップは、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定数を決定する付記23乃至27のいずれか1項に記載の情報処理プログラム。
(付記29)
前記イベントに関連するオブジェクトの追跡を行なう追跡ステップと、
前記追跡ステップによる前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定ステップが決定した時間差を更新する更新ステップと、
を備えた付記23乃至28のいずれか1項に記載の情報処理プログラム。
(付記30)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知ステップは、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定ステップは、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記23乃至29のいずれか1項に記載の情報処理プログラム。
(付記31)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定ステップは、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記23乃至30のいずれか1項に記載の情報処理プログラム。
(付記32)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定ステップは、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記23乃至31のいずれか1項に記載の情報処理プログラム。
(付記33)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定ステップは、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記23乃至32のいずれか1項に記載の情報処理プログラム。
この出願は、2012年9月28日に出願された日本出願特願2012−217592を基礎とする優先権を主張し、その開示の全てをここに取り込む。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを、前記映像から検出し、前記オブジェクトに基づいてクエリ情報を生成する生成手段と、
を備えた情報処理装置。
(付記2)
前記生成手段は、前記決定手段で決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記1に記載の情報処理装置。
(付記3)
前記生成手段は、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定手段で決定した種類のクエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記1または2に記載の情報処理装置。
(付記4)
前記生成手段は、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記1、2または3に記載の情報処理装置。
(付記5)
前記生成手段は、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定領域を決定する付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記生成手段は、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定数を決定する付記1乃至5のいずれか1項に記載の情報処理装置。
(付記7)
前記イベントに関連するオブジェクトの追跡を行なう追跡手段と、
前記追跡手段による前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定手段が決定した時間差を更新する更新手段と、
を備えた付記1乃至6のいずれか1項に記載の情報処理装置。
(付記8)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知手段は、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定手段は、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記1乃至7のいずれか1項に記載の情報処理装置。
(付記9)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定手段は、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定手段は、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記1乃至9のいずれか1項に記載の情報処理装置。
(付記11)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定手段は、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記1乃至10のいずれか1項に記載の情報処理装置。
(付記12)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記映像から生成する生成ステップと、
を含む情報処理方法。
(付記13)
前記生成ステップは、前記決定ステップで決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記12に記載の情報処理方法。
(付記14)
前記生成ステップは、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定ステップで決定した種類のクエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記12または13に記載の情報処理方法。
(付記15)
前記生成ステップは、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記12、13または14に記載の情報処理方法。
(付記16)
前記生成ステップは、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定領域を決定する付記12乃至15のいずれか1項に記載の情報処理方法。
(付記17)
前記生成ステップは、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定数を決定する付記12乃至16のいずれか1項に記載の情報処理方法。
(付記18)
前記イベントに関連するオブジェクトの追跡を行なう追跡ステップと、
前記追跡ステップによる前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定ステップが決定した時間差を更新する更新ステップと、
を備えた付記12乃至17のいずれか1項に記載の情報処理方法。
(付記19)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知ステップは、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定ステップは、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記12乃至18のいずれか1項に記載の情報処理方法。
(付記20)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定ステップは、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記12乃至19のいずれか1項に記載の情報処理方法。
(付記21)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定ステップは、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記12乃至20のいずれか1項に記載の情報処理方法。
(付記22)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定ステップは、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記12乃至21のいずれか1項に記載の情報処理方法。
(付記23)
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、前記イベントの種類に応じて検索すべきクエリ情報の種類を決定する決定ステップと、
前記決定ステップで決定した種類のクエリ情報を、前記映像から生成する生成ステップと、
をコンピュータに実行させる情報処理プログラム。
(付記24)
前記生成ステップは、前記決定ステップで決定した種類のオブジェクトの特徴量を前記クエリ情報として生成する付記23に記載の情報処理プログラム。
(付記25)
前記生成ステップは、
前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記決定ステップで決定した種類のクエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間差を決定する付記23または24に記載の情報処理プログラム。
(付記26)
前記生成ステップは、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定時間幅を決定する付記23、24または25に記載の情報処理プログラム。
(付記27)
前記生成ステップは、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定領域を決定する付記23乃至26のいずれか1項に記載の情報処理プログラム。
(付記28)
前記生成ステップは、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定ステップは、さらに、前記イベントの種類に応じて前記所定数を決定する付記23乃至27のいずれか1項に記載の情報処理プログラム。
(付記29)
前記イベントに関連するオブジェクトの追跡を行なう追跡ステップと、
前記追跡ステップによる前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定ステップが決定した時間差を更新する更新ステップと、
を備えた付記23乃至28のいずれか1項に記載の情報処理プログラム。
(付記30)
前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知ステップは、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定ステップは、前記リストに含まれる人物の服装を前記クエリ情報として決定する付記23乃至29のいずれか1項に記載の情報処理プログラム。
(付記31)
前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定ステップは、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する付記23乃至30のいずれか1項に記載の情報処理プログラム。
(付記32)
前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定ステップは、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する付記23乃至31のいずれか1項に記載の情報処理プログラム。
(付記33)
前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定ステップは、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する付記23乃至32のいずれか1項に記載の情報処理プログラム。
この出願は、2012年9月28日に出願された日本出願特願2012−217592を基礎とする優先権を主張し、その開示の全てをここに取り込む。
上記目的を達成するため、本発明の係る情報処理装置は、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成手段と、
を備えたことを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成手段と、
を備えたことを特徴とする。
上記目的を達成するため、本発明の係る情報処理方法は、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成ステップと、
を含むことを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成ステップと、
を含むことを特徴とする。
上記目的を達成するため、本発明の係る情報処理プログラムは、
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成ステップと、
をコンピュータに実行させることを特徴とする。
撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトの特徴量をクエリ情報として生成する生成ステップと、
をコンピュータに実行させることを特徴とする。
Claims (13)
- 撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知手段と、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定手段と、
前記決定手段で決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトに基づいてクエリ情報を生成する生成手段と、
を備えた情報処理装置。 - 前記生成手段は、検出した前記オブジェクトの特徴量を前記クエリ情報として生成する請求項1に記載の情報処理装置。
- 前記生成手段は、前記イベント発生時から所定時間差だけ異なるタイミングでの映像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間差を決定する請求項1または2に記載の情報処理装置。 - 前記生成手段は、前記イベント発生時と異なるタイミングでの所定時間幅の映像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定時間幅を決定する請求項1、2または3に記載の情報処理装置。 - 前記生成手段は、前記映像中の所定領域を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定領域を決定する請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記生成手段は、前記映像中の1枚以上の所定数の画像を用いて、前記クエリ情報を生成し、
前記決定手段は、さらに、前記イベントの種類に応じて前記所定数を決定する請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記イベントに関連するオブジェクトの追跡を行なう追跡手段と、
前記追跡手段による前記オブジェクトの追跡の結果から、前記イベント発生時と、前記クエリ情報を生成すべき画像のタイミングまでの時間差を算出することにより、前記決定手段が決定した時間差を更新する更新手段と、
を備えた請求項1乃至6のいずれか1項に記載の情報処理装置。 - 前記イベントは、あらかじめ定められたリストに含まれる人物の発見であり、
前記検知手段は、前記人物の顔画像に基づいて前記リストに含まれる人物か否かを判定し、
前記決定手段は、前記リストに含まれる人物の服装を前記クエリ情報として決定する請求項1乃至7のいずれか1項に記載の情報処理装置。 - 前記イベントは、前記映像中の人物が倒れたことの発見であり、
前記決定手段は、倒れた前記人物の倒れる前の服装を前記クエリ情報として決定する請求項1乃至7のいずれか1項に記載の情報処理装置。 - 前記イベントは、荷物の置き去りまたは持ち去りの発見であり、
前記決定手段は、前記荷物を置き去りにした人物または持ち去った人物の服装を前記クエリ情報として決定する請求項1乃至7のいずれか1項に記載の情報処理装置。 - 前記イベントは、前記映像中の侵入禁止区域に侵入した人物の発見であり、
前記決定手段は、前記侵入禁止区域に侵入した人物の服装を前記クエリ情報として決定する請求項1乃至7のいずれか1項に記載の情報処理装置。 - 撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトに基づいてクエリ情報を生成する生成ステップと、
を含む情報処理方法。 - 撮影した映像を解析して、あらかじめ定められたイベントが発生したか否かを検知する検知ステップと、
前記イベントの発生を検知したことに応答して、クエリ情報として用いるべきオブジェクトの種類を前記イベントの種類に基づいて決定する決定ステップと、
前記決定ステップで決定した種類のオブジェクトを前記映像から検出し、検出した前記オブジェクトに基づいてクエリ情報を生成する生成ステップと、
をコンピュータに実行させる情報処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012217592 | 2012-09-28 | ||
JP2012217592 | 2012-09-28 | ||
PCT/JP2013/074191 WO2014050518A1 (ja) | 2012-09-28 | 2013-09-09 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2014050518A1 true JPWO2014050518A1 (ja) | 2016-08-22 |
Family
ID=50387926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014538347A Pending JPWO2014050518A1 (ja) | 2012-09-28 | 2013-09-09 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (6) | US10248868B2 (ja) |
JP (1) | JPWO2014050518A1 (ja) |
AR (1) | AR092514A1 (ja) |
WO (1) | WO2014050518A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10929651B2 (en) * | 2008-07-21 | 2021-02-23 | Facefirst, Inc. | Biometric notification system |
JP6351240B2 (ja) * | 2013-11-20 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6762754B2 (ja) * | 2016-04-19 | 2020-09-30 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN106294798B (zh) * | 2016-08-15 | 2020-01-17 | 华为技术有限公司 | 一种基于缩略图的图像分享方法和终端 |
US20190347914A1 (en) * | 2016-12-15 | 2019-11-14 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
JP6505954B2 (ja) * | 2017-03-06 | 2019-04-24 | 楽天株式会社 | 画像処理装置、画像処理方法、サーバ、及び、コンピュータプログラム |
US10373458B2 (en) * | 2017-04-20 | 2019-08-06 | Deep Sentinel Corp. | Automatic threat detection based on video frame delta information in compressed video streams |
US11017537B2 (en) * | 2017-04-28 | 2021-05-25 | Hitachi Kokusai Electric Inc. | Image monitoring system |
US10401506B1 (en) * | 2017-11-19 | 2019-09-03 | David Edward Newman | System for detecting and locating radioactive sources |
US11206375B2 (en) | 2018-03-28 | 2021-12-21 | Gal Zuckerman | Analyzing past events by utilizing imagery data captured by a plurality of on-road vehicles |
JP6933178B2 (ja) * | 2018-03-29 | 2021-09-08 | 京セラドキュメントソリューションズ株式会社 | 制御装置、監視システム、監視カメラ制御方法および監視プログラム |
GB2587555C (en) | 2018-05-17 | 2021-11-17 | Mitsubishi Electric Corp | Image analysis device, image analysis method, and recording medium |
US11138418B2 (en) | 2018-08-06 | 2021-10-05 | Gal Zuckerman | Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles |
CN113615157A (zh) * | 2019-03-22 | 2021-11-05 | 富士胶片株式会社 | 图像处理装置、图像处理方法、摄影装置及程序 |
WO2020261508A1 (en) * | 2019-06-27 | 2020-12-30 | Nec Corporation | Image processing device, person search system, image processing method, and non-transitory computer readable medium |
US11164007B2 (en) | 2019-07-23 | 2021-11-02 | Conduent Business Services, Llc | Method and system for detecting the owner of an abandoned object from a surveillance video |
EP3889073A1 (en) | 2020-03-30 | 2021-10-06 | Hamilton Sundstrand Corporation | Additively manufactured permeable barrier layer and method of manufacture |
JP7355228B2 (ja) * | 2020-03-31 | 2023-10-03 | 日本電気株式会社 | 監視装置、監視方法、およびプログラム |
US20230186490A1 (en) * | 2020-05-12 | 2023-06-15 | Nippon Telegraph And Telephone Corporation | Learning apparatus, learning method and learning program |
CN111368812B (zh) * | 2020-05-27 | 2020-12-08 | 北京伟杰东博信息科技有限公司 | 一种列车前方异物侵限检测方法及系统 |
JP7500335B2 (ja) * | 2020-08-07 | 2024-06-17 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム |
JP7424940B2 (ja) * | 2020-08-07 | 2024-01-30 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム |
WO2022030558A1 (ja) * | 2020-08-07 | 2022-02-10 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 人物を検出または追跡する装置、システム、方法及びプログラム |
JP7564064B2 (ja) * | 2021-07-05 | 2024-10-08 | 株式会社日立製作所 | 映像監視システム及び映像監視方法 |
JP7279241B1 (ja) * | 2022-08-03 | 2023-05-22 | セーフィー株式会社 | システムおよびプログラム |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030033A (ja) * | 1998-07-09 | 2000-01-28 | Matsushita Electric Ind Co Ltd | 人物検出方法 |
US6757008B1 (en) * | 1999-09-29 | 2004-06-29 | Spectrum San Diego, Inc. | Video surveillance system |
US8711217B2 (en) * | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US20020198685A1 (en) * | 2001-06-26 | 2002-12-26 | Mann W. Stephen G. | Slip and fall decetor, method of evidence collection, and notice server, for uisually impaired persons, or the like |
WO2003009251A1 (en) * | 2001-07-18 | 2003-01-30 | Hyunjae Tech Co., Ltd | System for automatic recognizing licence number of other vehicles on observation vehicles and method thereof |
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
US20030058111A1 (en) * | 2001-09-27 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Computer vision based elderly care monitoring system |
US7683929B2 (en) * | 2002-02-06 | 2010-03-23 | Nice Systems, Ltd. | System and method for video content analysis-based detection, surveillance and alarm management |
US10271017B2 (en) * | 2012-09-13 | 2019-04-23 | General Electric Company | System and method for generating an activity summary of a person |
US20040143602A1 (en) * | 2002-10-18 | 2004-07-22 | Antonio Ruiz | Apparatus, system and method for automated and adaptive digital image/video surveillance for events and configurations using a rich multimedia relational database |
US7280753B2 (en) * | 2003-09-03 | 2007-10-09 | Canon Kabushiki Kaisha | Display apparatus, image processing apparatus, and image processing system |
WO2005041578A2 (en) * | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
US7786255B2 (en) | 2004-04-21 | 2010-08-31 | The Bringham and Women's Hospital, Inc. | Poly-N-acetyl glucosamine (PNAG/dPNAG)-binding peptides and methods of use thereof |
WO2006034135A2 (en) * | 2004-09-17 | 2006-03-30 | Proximex | Adaptive multi-modal integrated biometric identification detection and surveillance system |
JP4522344B2 (ja) | 2004-11-09 | 2010-08-11 | キヤノン株式会社 | 撮像装置及びその制御方法とそのプログラム |
JP2006166409A (ja) | 2004-11-09 | 2006-06-22 | Canon Inc | データ処理装置及びその制御方法 |
US20070122000A1 (en) * | 2005-11-29 | 2007-05-31 | Objectvideo, Inc. | Detection of stationary objects in video |
JP2007134934A (ja) * | 2005-11-10 | 2007-05-31 | Matsushita Electric Ind Co Ltd | 映像情報検索システムおよび映像監視システム |
US7468662B2 (en) | 2006-06-16 | 2008-12-23 | International Business Machines Corporation | Method for spatio-temporal event detection using composite definitions for camera systems |
US10078693B2 (en) * | 2006-06-16 | 2018-09-18 | International Business Machines Corporation | People searches by multisensor event correlation |
US20100278391A1 (en) * | 2006-10-12 | 2010-11-04 | Yung-Tai Hsu | Apparatus for behavior analysis and method thereof |
JP2008140093A (ja) * | 2006-12-01 | 2008-06-19 | Nippon Telegr & Teleph Corp <Ntt> | 異常事象抽出装置、異常事象抽出方法、この方法のプログラム及びこのプログラムを記録した記録媒体 |
EP2119235A4 (en) * | 2007-02-02 | 2011-12-21 | Honeywell Int Inc | SYSTEMS AND METHODS FOR MANAGING LIVE VIDEO DATA |
US20080252722A1 (en) | 2007-04-11 | 2008-10-16 | Yuan-Kai Wang | System And Method Of Intelligent Surveillance And Analysis |
JP4736096B2 (ja) * | 2007-05-28 | 2011-07-27 | Necソフト株式会社 | セキュリティ監視システム、セキュリティ監視方法及び情報処理端末 |
JP2009027393A (ja) | 2007-07-19 | 2009-02-05 | Hitachi Ltd | 映像検索システムおよび人物検索方法 |
US20090092283A1 (en) * | 2007-10-09 | 2009-04-09 | Honeywell International Inc. | Surveillance and monitoring system |
US9786164B2 (en) * | 2008-05-23 | 2017-10-10 | Leverage Information Systems, Inc. | Automated camera response in a surveillance architecture |
US20120020518A1 (en) | 2009-02-24 | 2012-01-26 | Shinya Taguchi | Person tracking device and person tracking program |
JP5393236B2 (ja) * | 2009-04-23 | 2014-01-22 | キヤノン株式会社 | 再生装置及び再生方法 |
EP2490171B1 (en) * | 2009-10-16 | 2020-11-25 | Nec Corporation | Person image search starting from clothing query text. |
WO2011102416A1 (ja) | 2010-02-19 | 2011-08-25 | 株式会社 東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
US8462224B2 (en) * | 2010-06-01 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | Image retrieval |
JP5693147B2 (ja) * | 2010-10-29 | 2015-04-01 | キヤノン株式会社 | 撮影妨害検知方法、妨害検知装置及び監視カメラシステム |
US8787725B2 (en) * | 2010-11-11 | 2014-07-22 | Honeywell International Inc. | Systems and methods for managing video data |
WO2012131816A1 (ja) * | 2011-03-28 | 2012-10-04 | 日本電気株式会社 | 人物追跡装置、人物追跡方法および人物追跡プログラムを格納した非一時的なコンピュータ可読媒体 |
US20130030875A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | System and method for site abnormality recording and notification |
JP5525495B2 (ja) * | 2011-08-30 | 2014-06-18 | 株式会社日立製作所 | 映像監視装置、映像監視方法およびプログラム |
-
2013
- 2013-09-09 US US14/430,416 patent/US10248868B2/en active Active
- 2013-09-09 JP JP2014538347A patent/JPWO2014050518A1/ja active Pending
- 2013-09-09 WO PCT/JP2013/074191 patent/WO2014050518A1/ja active Application Filing
- 2013-09-11 AR ARP130103232A patent/AR092514A1/es not_active Application Discontinuation
-
2019
- 2019-02-26 US US16/285,333 patent/US11816897B2/en active Active
- 2019-02-26 US US16/285,314 patent/US11321947B2/en active Active
-
2023
- 2023-05-16 US US18/198,022 patent/US20230290151A1/en active Pending
- 2023-08-02 US US18/229,350 patent/US20230377342A1/en active Pending
- 2023-08-02 US US18/229,412 patent/US20230386214A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20190188486A1 (en) | 2019-06-20 |
US20190188485A1 (en) | 2019-06-20 |
AR092514A1 (es) | 2015-04-22 |
US20230290151A1 (en) | 2023-09-14 |
WO2014050518A1 (ja) | 2014-04-03 |
US20150254514A1 (en) | 2015-09-10 |
US20230386214A1 (en) | 2023-11-30 |
US10248868B2 (en) | 2019-04-02 |
US11816897B2 (en) | 2023-11-14 |
US11321947B2 (en) | 2022-05-03 |
US20230377342A1 (en) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014050518A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP6551512B2 (ja) | 監視システム、監視制御装置、監視方法、およびプログラム | |
JP5793353B2 (ja) | 顔画像検索システム、及び顔画像検索方法 | |
JP5740210B2 (ja) | 顔画像検索システム、及び顔画像検索方法 | |
JP6172551B1 (ja) | 画像検索装置、画像検索システム及び画像検索方法 | |
JP2011248836A (ja) | 滞留検出システム及びプログラム | |
JP2020013290A (ja) | 映像解析装置、人物検索システムおよび人物検索方法 | |
US20160125232A1 (en) | Dynamic face identification | |
JP6358258B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP2017046196A (ja) | 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム | |
JP5982557B2 (ja) | 映像監視システムおよび画像検索システム | |
WO2019220589A1 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
JP2016057908A (ja) | 万引き予防システム及びソフトウエア | |
CN111753587B (zh) | 一种倒地检测方法及装置 | |
KR101840042B1 (ko) | 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템 | |
KR101030257B1 (ko) | 카메라의 영상을 이용한 보행자 계수 방법 및 장치 | |
JP2011018238A (ja) | 画像検索システム及び画像検索方法 | |
CN111814510A (zh) | 一种遗留物主体检测方法及装置 | |
JP2011035571A (ja) | 不審行動検知方法および不審行動検知装置 | |
JP6206627B1 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP6536643B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP2014182585A (ja) | 画像解析装置、画像解析方法および画像解析プログラム | |
US11216969B2 (en) | System, method, and computer-readable medium for managing position of target | |
KR101285128B1 (ko) | 영상 분석을 위한 지능형 검색 로봇 | |
JP2022030852A (ja) | 人物検出装置、人物追跡装置、人物追跡システム、人物検出方法、人物追跡方法、人物検出プログラム及び人物追跡プログラム |