JP6406241B2 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6406241B2
JP6406241B2 JP2015500168A JP2015500168A JP6406241B2 JP 6406241 B2 JP6406241 B2 JP 6406241B2 JP 2015500168 A JP2015500168 A JP 2015500168A JP 2015500168 A JP2015500168 A JP 2015500168A JP 6406241 B2 JP6406241 B2 JP 6406241B2
Authority
JP
Japan
Prior art keywords
moving body
time
person
video camera
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015500168A
Other languages
English (en)
Other versions
JPWO2014125882A1 (ja
Inventor
祐介 ▲高▼橋
祐介 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014125882A1 publication Critical patent/JPWO2014125882A1/ja
Application granted granted Critical
Publication of JP6406241B2 publication Critical patent/JP6406241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Description

本発明に係るいくつかの態様は、情報処理システム、情報処理方法及びプログラムに関する。
近年、複数のカメラで撮影される映像を利用して広範囲にわたる監視を可能とするシステムが考えられている。例えば特許文献1には、ビデオカメラで撮影された人物の特徴量と、追跡人物との特徴量の類似度に基づいて、それぞれのビデオカメラで撮影された人物が同一人物であるか否かを判別することにより、人物を追跡している。
特開2007−272946号公報
特許文献1記載の手法では、指定した所定時間以上経過した場合には処理を打ち切るようにしている。これにより、当該所定時間までにビデオカメラ撮影範囲に追跡人物が登場しなかった場合には、当該人物の追跡を継続することはできない。つまり、追跡人物がビデオカメラの撮影範囲外(死角)で何らかの犯罪行為を長時間にわたって行なっていた場合等に追跡を継続できないこととなるため、人物追跡の役割を十分に果たすことができなくなってしまう。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、複数のビデオカメラの映像を用いて、好適に人物追跡を行うことのできる情報処理システム、情報処理方法及びプログラムを提供することを目的の1つとする。
本発明に係る情報処理システムは、第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する手段と、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する判別手段とを備える。
本発明に係る情報処理方法は、第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出するステップと、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別するステップとを情報処理システムが行う。
本発明に係るプログラムは、第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する処理と、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する処理とをコンピュータに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、複数のビデオカメラの映像を用いて、好適に人物追跡を行うことのできる情報処理システム、情報処理方法及びプログラムを提供するこができる。
第1実施形態に係る監視システムの概略構成を示す機能ブロック図である。 図1に示す監視システムにおける人物追跡方法を説明するための図である。 対応付け対象の人物を抽出する時間帯の具体例を説明するための図である。 図1に示す情報処理サーバの概略構成を示す機能ブロック図である。 出現時間スコアを算出する関数の具体例を説明するための図である。 図1に示す情報処理サーバの処理の流れを示すフローチャートである。 図1に示す情報処理サーバを実装可能なハードウェアの構成を示すブロック図である。 第2実施形態に係る監視装置の概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
図1乃至図7は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、次の流れに従って本実施形態を説明する。まず、「1.1」でシステム構成の概要を示すとともに、「1.2」で動作の概要を説明する。その後、「1.3」でシステムの機能構成を説明し、「1.4」で処理の流れを、「1.5」で、本システムを実現可能なハードウェア構成の具体例を示す。最後に、「1.6」以降で、本実施形態に係る効果等を説明する。
(1.1 システム構成)
図1を参照しながら、本実施形態に係る情報処理システムである監視システム1のシステム構成を説明する。図1は、監視システム1のシステム構成を示すブロック図である。
監視システム1は、大きく分けて、情報処理サーバ100と、映像(動画像)を撮影(撮像)する複数のビデオカメラ200(ビデオカメラ200A乃至200Nを総称してビデオカメラ200と呼ぶ。)とから構成される。
以下、監視システム1は、撮影装置であるビデオカメラ200で撮影された人物を監視(追跡)するためのシステムであるものとして説明するが、監視対象はこれに限られるものではない。例えば、監視対象を車や自転車、バイク等の各種移動体に応用することも考えられる。
ビデオカメラ200は、映像(動画像)を撮影すると共に、当該撮影した映像内に人物がいるか否かを判別した上で、当該人物に係る映像内の位置(映像内の移動軌跡も含む)や特徴量などの情報を含む人物検出結果を、撮影映像と共に情報処理サーバ100へと送信する。また、ビデオカメラ200は、撮影した映像をフレーム間で比較することにより、映像内(画角内)の人物追跡も行うことができる。
なお、人物の検出や特徴量の抽出、カメラ内の人物追跡などの処理は、ビデオカメラ200上でなくとも、例えば、情報処理サーバ100や、図示しない他の情報処理装置上で行なっても良い。
情報処理サーバ100は、ビデオカメラ200で撮影された映像を解析することにより、それぞれのビデオカメラ200で撮影された人物が同一人物であるか否かを判別する。この作業を繰返すことにより、それぞれの人物の追跡を行う。
この同一人物であるか否かの判別の際、情報処理サーバ100は、撮影した人物の属性を特定した上で、当該属性と、ビデオカメラ200の映像からのフレームアウトから次のビデオカメラ200の映像へのフレームインに至る時間と、類似度とに基づいて、人物の同一性を判定する。ここで、人物の属性は移動速度にばらつきを与える(すなわち移動時間にばらつきを与える)属性をいい、例えば、歩容特徴(うろつき、千鳥足等)、所持品がある(杖や荷物等を所持)、ビジター(場所に不慣れ等)、視線特徴(キョロキョロしている、監視カメラをちらちらみている等)、不審者(ブラックリストに登録されている、過去の移動時間の履歴が平均から大きく外れている、他人を避けて行動している等)などを挙げることができる。同一性の判定方法の詳細は後述する。
情報処理サーバ100で処理する映像は、ビデオカメラ200により撮影されるリアルタイムの映像のみならず、ビデオカメラ200により撮影された後、記憶装置(例えば、HDD(Hard Disk Drive)やVCR(Video Cassette Recorder)など)に記憶された映像を対象に追跡(分析)することも考えられる。
更に、当該記憶装置に記憶された映像を逆順に再生(逆再生)して追跡することも考えられる。通常、ある人物が不審な行動を取った場合には、その人物がその行為までにどのような経路で移動し、どのような行動をとったのかを調べる必要があるため、このような逆再生による追跡を可能とすることは極めて有用である。
情報処理サーバ100における人物監視(人物追跡)において、情報処理サーバ100は、監視用の画面などの各種表示画面を表示装置300に出力すると共に、入力装置400から、人物監視に係る各種操作入力に係る操作信号を受け付ける。より具体的には、例えば、表示装置300に表示する監視用画面では、ビデオカメラ200から入力された映像を複数表示することで、監視対象の人物が今どこにいるのかを、監視者であるユーザが把握できるようにしている。
表示装置300は、例えば、液晶や有機EL(Electro Luminescence)等に画像を表示するディスプレイである。情報処理サーバ100から出力される監視用画面は、表示装置300が表示する。
入力装置400は、ユーザ(監視者)が各種情報を入力するための装置である。例えば、マウスやタッチパッド、タッチパネルなどの各種ポインティングデバイスやキーボード等が入力装置400に該当する。監視対象人物の登録等の処理は、ユーザの入力装置400に対する操作に基づいてなされる。
なお、情報処理サーバ100と表示装置300、入力装置400の構成は種々変えることができる。例えば、表示装置300及び入力装置400を1台のクライアントとして実現することも考えられるし、或いは、情報処理サーバ100、表示装置300、及び入力装置400の機能を3台以上の情報処理装置により実現しても良い。また、表示装置300及び入力装置400を1台のクライアントとして実現する場合には、本実施形態に係る情報処理サーバ100の一部の機能を、当該クライアントに持たせても良い。
(1.2 動作説明)
(1.2.1 出現時間スコアと特徴量の統合比率を制御する方法)
まず、図2を参照しながら、本実施形態に係る人物の追跡方法を説明する。図2において、ビデオカメラC1で撮影範囲a1を、ビデオカメラC2で撮影範囲a2を撮影しており、撮影範囲a1にいる追跡対象の人物P1が移動速度V1で、撮影範囲a2の方向に移動しているものとする。
なお、図2の例では、撮影範囲a1から撮影範囲a2に至るルートに分岐等は無いが、分岐していても良く、撮影範囲a1から人物P1が移動可能な地点が、撮影範囲a2以外にあっても良い。
このような場合において、人物P1の速度と、撮影範囲a1と撮影範囲a2との距離Dがわかれば、人物P1がカメラC1の映像からフレームアウトした後、撮影範囲a2に到達するまでの時間は、D/V1近傍であるものと予測することができる。ここで、撮影範囲a1と撮影範囲a2との距離は、ビデオカメラC1及びC2の設置時に予めわかるため、当該距離をデータベース(後述するカメラ間情報451に相当)に読み込み可能に登録しておけば良い。人物P1の移動速度V1は、ビデオカメラC1の映像を解析することにより特定することが可能である。
換言すると、ビデオカメラC1の映像からフレームアウトした人物P1がビデオカメラC2の映像にフレームインする時間スコア(ここでは、出現時間スコアという。)は、ビデオカメラC1の映像からフレームアウトした時刻のD/V1後近傍に最も高くなり、その時間から離れると低くなる。この出現時間スコアは、ビデオカメラC2の映像に新たにフレームインした人物が、ビデオカメラC1の映像からフレームアウトした人物P1と同一人物であるか否かを判断するためのスコアであると言い換えることができる。
ここで、移動速度V1に基づく出現時間スコアを元に、ビデオカメラC2の映像に新たにフレームインした人物と、ビデオカメラC1の映像からフレームアウトした人物P1とが同一人物か否かを判別する手法は、人物P1が撮影範囲a1から撮影範囲a2に至る移動速度が、ビデオカメラC1の映像での移動速度V1と略一定であることを前提としている。しかしながら、人物の移動速度は必ずしも一定ではなく、それぞれの人物の属性に応じて、移動速度が略一定と推定される場合と、移動速度のばらつきが大きい場合とがある。移動速度のばらつきが大きくなる属性としては、例えばうろつきや千鳥足等の歩容特徴を持っている場合や、杖や荷物等の所持品を持っている場合、その場所を初めて訪問したビジター、キョロキョロしていたりカメラをちらちら見たりといった視線特徴を持っている場合、不審者と推定できる場合(例えば、ブラックリストに登録された人物、過去の移動時間が平均から大きく外れている、他人を避けている、等)等が考えられる。
このようにばらつきが多い場合には、移動速度のみを元に、ビデオカメラC1の映像からフレームアウトした人物と、ビデオカメラC2の映像にフレームインした人物とが同一人物であるかを判定するのは困難である。そこで本実施形態にかかる情報処理サーバ100では、ビデオカメラC1に映る人物の特徴量と、ビデオカメラC2に映る人物の特徴量とを比較した上で、両者の類似度を判定している。この類似度が高いほど、両人物が同一人物である可能性が高い。この類似度と、出現時間スコアとに基づいて、ビデオカメラC1の映像からフレームアウトした人物と、ビデオカメラC2の映像にフレームインした人物とが同一人物であるかを判定するようにしている。なお、特徴量の類似度のみを元に同一人物であるか否かを判断することも考えられるが、そのように判定すると、例えば制服を来ている人物が多数いる、すなわち類似する特徴量を持つ人物が多数出現する場合に、同一人物の判定を行うことが困難となるという問題が生じるため、本実施形態では、出現時間スコアも用いて、同一人物の判定を行なっている。
具体的には、以下の数式により同一人物であるか否かを判定するスコアを算出することができる。
Figure 0006406241
ここで、αは、出現時間スコアと特徴量の類似度とのどちらを重視して同一人物であるか否かを決めるパラメータである。本実施形態において、このパラメータαは、人物P1の属性に応じて決定される。より具体的には、人物P1が移動速度にばらつきが生じやすい属性の人物である場合には特徴量類似度の比重を高めるべく、例えばα=0.2と設定し、移動速度にばらつきが生じやすい属性ではない場合には、出現時間スコアと特徴量類似度の比重を同等とすべくα=0.5として設定することが考えられる。
(1.2.2 人物候補抽出の対象とする時間帯幅を変化させる方法)
この他、人物の同一性の判定を行う時間帯を設定することも考えられる。例えば、人物P1の移動速度V1に基づいてビデオカメラC2の映像に人物P1が到達すると予測される時刻をT0とすると(なお、T0は、人物P1がビデオカメラC1の映像からフレームアウトした後、D/V1経過後に相当する)、人物P1と同一人物であるか否かを判定する時間Tは、下記のように設定することができる。例えば、γ=2βとして以下説明する(図3参照)。
Figure 0006406241
つまり、この時間幅にビデオカメラC2の映像に出現した人物のみを、ビデオカメラC1の映像からフレームアウトした人物との同一性の判定対象(抽出対象)とする。ここで、出現予測時刻T0から抽出対象とする時間帯の上限である(1+2β)T0までの時間(2βT0)の方が、出現予測時刻T0から当該時間帯の下限である(1−β)T0までの時間(βT0)よりも長くなっているのは、人間の移動速度は、早まるよりも遅れる方が幅が広いと考えられるためである。
上記の式において、βは、同一人物の判定対象とする時間帯の幅を設定するためのパラメータである。この時間帯の幅は、人物の出現時間のばらつきの大きさによって決まる。よって、移動時間のばらつきが大きいと考えられる属性を持つ人物に対してはβを大きく設定し、移動時間のばらつきが小さいと考えられる属性を持つ人物に対しては、それよりもβを小さく設定すればよい。
なお、この時間帯幅にビデオカメラC2に出現した人物と、ビデオカメラC1からフレームアウトした人物との同一性の判定に関しては、主に特徴量類似度に基づいて算出しても良いし、「1.2.1」で説明したように、出現時間スコアと特徴量類似度とを合わせて算出しても良い。以下では、出現時間スコアと特徴量類似度とを合わせて算出する手法を中心に説明する。
(1.3 システムの機能構成)
次に、図4を参照しながら、本実施形態に係る情報処理サーバ100の機能構成を説明する。図4は、本実施形態に係る情報処理サーバ100の機能構成を示す機能ブロック図である。
図4に示すように、情報処理サーバ100は、画像情報取得部410と、人物抽出部420と、人物特徴量類似度算出部430と、出現時間スコア算出部440と、データベース450と、人物属性取得部460と、統合スコア算出部470と、人物対応付け部480とを含む。
画像情報取得部410は、ビデオカメラ200から直接、若しくはビデオカメラ200が撮影した映像を記憶媒体から、映像を取得する。人物抽出部420は、ビデオカメラ200が撮影した映像の各フレームから、人物画像領域を特定すると共に、それぞれの人物画像の特徴量を算出する。
人物特徴量類似度算出部430は、人物抽出部420で抽出された人物の特徴量の類似度を算出する。一般的に、特徴量の類似度が高い人物は同一人物である可能性が高いものと考えることができる。このとき、人物属性取得部460が特定する人物の属性に基づいて定められる時間幅(図3に例示)内の人物のみに対して、類似度を算出するようにしても良い。
出現時間スコア算出部440は、あるビデオカメラ200に撮影された映像に映る人物と、その後、他のビデオカメラ200に撮影された映像に映る人物とが同一人物であるスコア(出現時間スコア)を算出する。ビデオカメラC2の映像に新たにフレームインした人物が、ビデオカメラC1の映像からフレームアウトした人物P1と同一人物であるか否かを判断するためのスコアは、ビデオカメラC1の映像からフレームアウトした人物P1がビデオカメラC2の映像にフレームインする出現時間スコアと言い換えることができ、当該出現時間スコアは時間を変数として求めることができる。
出現時間スコアを求める関数は、上記「1.2.2」で説明した、人物候補抽出の対象とする時間幅の範囲内において、図5(a)に示すステップ状の関数や、図5(b)に示す山状の関数を用いて表現することができる。図5(b)のように山状の関数を用いる場合には、先述の通り、ビデオカメラC1の映像からフレームアウトした人物P1がビデオカメラC2の映像にフレームインする出現時間スコアは、ビデオカメラC1の映像からフレームアウトした時刻のD/V1後近傍に最も高くなり、その時間から離れると低くなる。
出現時間スコア算出部440は、上記出現時間スコアを算出するに辺り、DB450に格納されたカメラ間情報451を参照する。カメラ間情報451は、ビデオカメラ200間の距離や位置関係(どのビデオカメラ200の撮影範囲からどのビデオカメラ200の撮影範囲に移動が可能か)等の情報を含む。
人物属性取得部460は、人物抽出部420で抽出された人物の属性を特定する。ここで特定する属性は、前述の通り、人物の移動速度に影響を与える属性であり、例えば、うろつきや千鳥足等の歩容特徴を持っている場合や、杖や荷物等の所持品を持っている場合、その場所を初めて訪問したビジター、キョロキョロしていたりカメラをちらちら見たりといった視線特徴を持っている場合、不審者と推定できる場合(例えば、ブラックリストに登録された人物、過去の移動時間が平均から大きく外れている、他人を避けている、等)等が考えられる。
ここで、うろつき、千鳥足といった歩容特徴については、映像内の人物の足元位置の軌跡から判定が可能である。杖や荷物等の所持品を持っているか否かについては、画像内の動体領域に対して予め登録している人体モデルをフィッティングさせた上で、人体モデルに合わない領域を抽出し、抽出領域の形状・色・サイズ・人物のパーツ(例えば手など)からの位置関係等を元に、杖や荷物等の所持品を持っているか否か、及び所持品が何であるかを推定することが可能である。
キョロキョロしていたりカメラをちらちら見たりといった視線特徴については、予め登録している様々な顔の向きの人物の顔の特徴と比較することにより、画像から顔領域及び顔の向きを抽出し、顔モデルに基づいて顔領域内の目の位置を推定すると共に、目の中の黒目位置を目領域の濃淡分布から判定した結果得られる視線方向に基づいて判断することが可能である。
ビジターか否かについては、例えば、対象とする撮影領域に侵入するために社員証またはビジターカードが必要な場合には、ビジターカードを用いて入場した人物であるか否か、若しくはビジターカードを胸につけている場合には、当該ビジターカードが胸に付けられているかという画像特徴に基づいて判断することが可能である。
統合スコア算出部470は、人物特徴量類似度算出部430及び出現時間スコア算出部440が算出した人物特徴の類似度及び出現時間スコアに基づいて、あるビデオカメラ200の映像に映った人物と、他のビデオカメラ200の映像に映った人物とが同一人物であるか否かを判定するためのスコアを算出する。このスコアの算出方法としては、例えば、上記「1.2.1」で具体例を示した手法などが考えられる。
人物対応付け部480は、統合スコア算出部470で算出したスコアに基づいて、それぞれのビデオカメラ200で撮影された人物のうち、同一人物と判定される人物の対応付けを行う。このとき、同一人物であるか否かは、例えばスコアが一定の閾値を超えているか否かにより判定することが可能である。それぞれのビデオカメラ200に映るどの人物が同一人物であるかがわかれば、それぞれの人物の移動履歴を特定することができる、すなわち人物の追跡が可能となる。
(1.4 処理の流れ)
以下、情報処理サーバ100の処理の流れを、図6を参照しながら説明する。図6は、本実施形態に係る情報処理サーバ100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、人物抽出部420は、画像情報取得部410から入力された画像から、人物領域を抽出すると共に(S501)、抽出された人物領域(人物画像)から特徴量を抽出する(S503)。その上で、人物特徴量類似度算出部430は、あるビデオカメラ200の映像に映る人物と、当該ビデオカメラ200の撮影範囲から移動可能な位置にあるビデオカメラ200の映像に映る人物との間で類似度を算出する(S505)。この時、図3を参照しながら説明したように、人物抽出に対して時間幅を設けても良い。
更に、出現時間スコア算出部440は、あるビデオカメラ200の映像から人物がフレームアウトした時刻と、他のビデオカメラ200の映像に人物がフレームインした時刻との差分時間に基づいて、出現時間スコアを算出する(S507)。
人物属性取得部460は、ビデオカメラ200に映る各人物の属性を特定する(S509)。この特定方法の具体例については「1.3」で説明したため、ここでは説明を省略する。
統合スコア算出部470は、人物属性取得部460が特定した人物の属性と、人物特徴量類似度算出部430が算出した特徴量の類似度と、出現時間スコア算出部440が算出した出現時間スコアとに基づいて、各ビデオカメラ200に映る人物が同一人物であるか否かを判別するためのスコアを算出し(S511)、人物対応付け部480は、当該スコアに基づいて人物の対応関係を決定する(S513)。
(1.5 ハードウェア構成)
以下、図7を参照しながら、上述してきた情報処理サーバ100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお前述の通り、情報処理サーバ100の機能は、複数の情報処理装置により実現することも可能である。
図7に示すように、情報処理サーバ100は、プロセッサ601、メモリ603、記憶装置605、入力インタフェース(I/F)607、データI/F609、通信I/F611、及び表示装置613を含む。
プロセッサ601は、メモリ603に記憶されているプログラムを実行することにより、情報処理サーバ100における様々な処理を制御する。例えば、図4で説明した画像情報取得部410、人物抽出部420、人物特徴量類似度算出部430、出現時間スコア算出部440、人物属性取得部460、統合スコア算出部470、及び人物対応付け部480に係る処理は、メモリ603に一時記憶された上で、主にプロセッサ601上で動作するプログラムとして実現可能である。
メモリ603は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ603は、プロセッサ601によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ603の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置605は、例えばハードディスクやフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置605は、オペレーティングシステムや、画像情報取得部410、人物抽出部420、人物特徴量類似度算出部430、出現時間スコア算出部440、人物属性取得部460、統合スコア算出部470、及び人物対応付け部480を実現するための各種プログラムや、DB450に含まれるカメラ間情報451等の各種データなどを記憶する。記憶装置605に記憶されているプログラムやデータは、必要に応じてメモリ603にロードされることにより、プロセッサ601から参照される。
入力I/F607は、ユーザからの入力を受け付けるためのデバイスである。図1で説明した入力装置400は、入力I/F607により実現することも可能である。入力I/F607の具体例としては、キーボードやマウス、タッチパネル、各種センサ等が挙げられる。入力I/F607は、例えばUSB(Universal Serial Bus)等のインタフェースを介して情報処理サーバ100に接続されても良い。
データI/F609は、情報処理サーバ100の外部からデータを入力するためのデバイスである。データI/F609の具体例としては、各種記憶装置に記憶されているデータを読み取るためのドライブ装置などがある。データI/F609は、情報処理サーバ100の外部に設けられることも考えられる。その場合、データI/F609は、例えばUSB等のインタフェースを介して情報処理サーバ100へと接続される。
通信I/F611は、情報処理サーバ100の外部の装置、例えばビデオカメラ200等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F611は情報処理サーバ100の外部に設けられることも考えられる。その場合、通信I/F611は、例えばUSB等のインタフェースを介して情報処理サーバ100に接続される。
表示装置613は、各種情報を表示するためのデバイスである。図1で説明した表示装置300は、表示装置613により実現することも可能である。表示装置613の具体例としては、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等が挙げられる。表示装置613は、情報処理サーバ100の外部に設けられても良い。その場合、表示装置613は、例えばディスプレイケーブル等を介して情報処理サーバ100に接続される。
(1.6 本実施形態に係る効果)
以上説明したように、本実施形態に係る監視システム1では、移動速度に影響を与えるような属性を持つ人物か否かに応じて、同一性の判定方法を変えるようにしている。具体的には、例えば、移動速度に影響を与える可能性の高い属性を有する人物に関しては、出現時間スコアに基づく同一性判定の比率を下げたり、若しくは、同一性判定の時間帯を広げたりする。これにより、好適に人物追跡を行うことができるようになる。
(2 第2実施形態)
以下、第2実施形態を、図8を参照しながら説明する。図8は、情報処理システムである監視装置700の機能構成を示すブロック図である。図8に示すように、監視装置700は、類似度算出部710と時間算出部720と属性特定部730と判別部740とを含む。
類似度算出部710は、図示しない複数のビデオカメラのうち、あるビデオカメラ(ここでは、第1のビデオカメラと呼ぶ。)の映像に映る移動体(ここでは、第1の移動体と呼ぶ。)と、他のビデオカメラ(ここでは、第2のビデオカメラと呼ぶ。)の映像に映る移動体(ここでは、第2の移動体と呼ぶ。)との類似度とを算出する。なお、移動体の具体例としては、例えば人物や車、自転車、バイク等を挙げることができる。
時間算出部720は、第1の移動体が、第1のビデオカメラの映像からフレームアウトしてから、第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する。
属性特定部730は、第1のビデオカメラに映った第1の移動体の属性を特定する。ここで、移動体の属性とは、例えば移動速度に影響を与える属性をいう。例えば、移動体が人物の場合には、うろつきや千鳥足等の歩容特徴を持っている場合や、杖や荷物等の所持品を持っている場合、その場所を初めて訪問したビジター、キョロキョロしていたりカメラをちらちら見たりといった視線特徴を持っている場合、不審者と推定できる場合(例えば、ブラックリストに登録された人物、過去の移動時間が平均から大きく外れている、他人を避けている、等)等が考えられる。
判別部740は、属性特定部730が特定した第1の移動体の属性と、類似度算出部710が算出した類似度と、時間算出部720が算出した時間とに基づいて、第1の移動体及び第2の移動体が同一の移動体であるか否かを判別する。
このように実装することで、本実施形態に係る監視装置700によれば、複数のビデオカメラの映像を用いて、好適に人物追跡を行うことができる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する手段と、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する判別手段とを備える情報処理システム。
(付記2)
前記第1の移動体の属性を特定する手段を更に備える付記1記載の情報処理システム。
(付記3)
前記第1のビデオカメラの映像に映る第1の移動体と、前記第2のビデオカメラの映像に映る第2の移動体との類似度を算出する手段を更に備える、付記1又は付記2のいずれか1項記載の情報処理システム。
(付記4)
前記第1の移動体の属性に応じて、前記時間が判別結果に与える影響が異なる、付記1乃至付記3のいずれか1項記載の情報処理システム。
(付記5)
前記第1の移動体の属性に応じて、前記類似度と、前記時間とが判別結果に与える影響の大きさが異なる、付記4記載の情報処理システム。
(付記6)
前記判別手段は、前記第1の移動体の属性に応じて設定される時間幅内に前記時間が収まる前記第2の移動体に対して、前記類似度が同一の移動体であるか否かを判別する、付記1乃至付記3のいずれか1項記載の情報処理システム。
(付記7)
前記時間幅は、前記第1のビデオカメラの撮影範囲から前記第2のビデオカメラの撮影範囲までの平均移動時間を跨いで設定され、前記時間幅の上限から前記平均移動時間までの時間は、前記時間幅の下限から前記平均移動時間までの時間よりも長い、付記6記載の情報処理システム。
(付記8)
前記属性は、移動体の移動速度に相関がある、付記1乃至付記7のいずれか1項記載の情報処理システム。
(付記9)
第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出するステップと、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別するステップとを情報処理システムが行う情報処理方法。
(付記10)
前記第1の移動体の属性を特定するステップを更に備える付記9記載の情報処理方法。
(付記11)
前記第1のビデオカメラの映像に映る第1の移動体と、前記第2のビデオカメラの映像に映る第2の移動体との類似度を算出するステップを更に備える、付記9又は付記10のいずれか1項記載の情報処理方法。
(付記12)
前記第1の移動体の属性に応じて、前記時間が判別結果に与える影響が異なる、付記9乃至付記11のいずれか1項記載の情報処理方法。
(付記13)
前記第1の移動体の属性に応じて、前記類似度と、前記時間とが判別結果に与える影響の大きさが異なる、付記12記載の情報処理方法。
(付記14)
前記第1の移動体の属性に応じて設定される時間幅内に前記時間が収まる前記第2の移動体に対して、前記類似度が同一の移動体であるか否かを判別する、付記9乃至付記11のいずれか1項記載の情報処理方法。
(付記15)
前記時間幅は、前記第1のビデオカメラの撮影範囲から前記第2のビデオカメラの撮影範囲までの平均移動時間を跨いで設定され、前記時間幅の上限から前記平均移動時間までの時間は、前記時間幅の下限から前記平均移動時間までの時間よりも長い、付記14記載の情報処理方法。
(付記16)
前記属性は、移動体の移動速度に相関がある、付記9乃至付記15のいずれか1項記載の情報処理方法。
(付記17)
第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する処理と、前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する処理とをコンピュータに実行させるプログラム。
(付記18)
前記第1の移動体の属性を特定する処理を更に備える付記17記載のプログラム情報処理方法。
(付記19)
前記第1のビデオカメラの映像に映る第1の移動体と、前記第2のビデオカメラの映像に映る第2の移動体との類似度を算出する処理を更に備える、付記17又は付記18のいずれか1項記載のプログラム。
(付記20)
前記第1の移動体の属性に応じて、前記時間が判別結果に与える影響が異なる、付記17乃至付記19のいずれか1項記載のプログラム。
(付記21)
前記第1の移動体の属性に応じて、前記類似度と、前記時間とが判別結果に与える影響の大きさが異なる、付記20記載のプログラム。
(付記22)
前記第1の移動体の属性に応じて設定される時間幅内に前記時間が収まる前記第2の移動体に対して、前記類似度が同一の移動体であるか否かを判別する、付記17乃至付記19のいずれか1項記載のプログラム。
(付記23)
前記時間幅は、前記第1のビデオカメラの撮影範囲から前記第2のビデオカメラの撮影範囲までの平均移動時間を跨いで設定され、前記時間幅の上限から前記平均移動時間までの時間は、前記時間幅の下限から前記平均移動時間までの時間よりも長い、付記22記載のプログラム。
(付記24)
前記属性は、移動体の移動速度に相関がある、付記17乃至付記23のいずれか1項記載のプログラム。
この出願は、2013年2月15日に出願された日本出願特願2013−27796を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・監視システム、20・・・100・・・情報処理サーバ、200・・・ビデオカメラ、300・・・表示装置、400・・・入力装置、410・・・画像情報取得部、420・・・人物抽出部、430・・・人物特徴量類似度算出部、440・・・出現時間スコア算出部、450・・・データベース、451・・・カメラ間情報、460・・・人物属性取得部、470・・・統合スコア算出部、480・・・人物対応付け部、601・・・プロセッサ、603・・・メモリ、605・・・記憶装置、607・・・入力インタフェース、609・・・データインタフェース、611・・・通信インタフェース、613・・・表示装置、700・・・監視装置、710・・・類似度算出部、720・・・時間算出部、740・・・属性特定部、740・・・判別部

Claims (9)

  1. 第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する手段と、
    前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する判別手段と
    を備え
    前記判別手段は、前記第1の移動体の属性に応じて、判別結果に与える前記時間の影響度合いを変化させる情報処理システム。
  2. 前記第1の移動体の属性を特定する手段
    を更に備える請求項1記載の情報処理システム。
  3. 前記第1のビデオカメラの映像に映る第1の移動体と、前記第2のビデオカメラの映像に映る第2の移動体との類似度を算出する手段
    を更に備える、請求項1又は請求項2記載の情報処理システム。
  4. 前記判別手段は、前記第1の移動体の属性に応じて、判別結果に与える前記類似度と、前記時間と影響の比重を変化させる
    請求項1乃至請求項3のいずれか1項記載の情報処理システム。
  5. 前記判別手段は、前記第1の移動体の属性に応じて設定される時間幅内に前記時間が収まる前記第2の移動体に対して、前記第1の移動体と同一の移動体であるか否かを判別する、
    請求項1乃至請求項のいずれか1項記載の情報処理システム。
  6. 前記時間幅は、前記第1のビデオカメラの撮影範囲から前記第2のビデオカメラの撮影範囲までの平均移動時間に基づいて設定され、前記時間幅の上限から前記平均移動時間までの時間は、前記時間幅の下限から前記平均移動時間までの時間よりも長い、請求項記載の情報処理システム。
  7. 前記属性は、移動体の移動速度に相関がある、
    請求項1乃至請求項のいずれか1項記載の情報処理システム。
  8. 第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出するステップと、
    前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別するステップと
    コンピュータが行い、
    前記コンピュータは、前記第1の移動体と前記第2の移動体が同一の移動体であるか否かを判別する際に、前記第1の移動体の属性に応じて、判別結果に与える前記時間の影響度合いを変化させる情報処理方法。
  9. 第1の移動体が第1のビデオカメラの映像からフレームアウトしてから第2のビデオカメラの映像に第2の移動体がフレームインするまでの時間を算出する処理と、
    前記第1の移動体の属性と、前記第1の移動体及び前記第2の移動体の類似度と、前記時間とに基づいて、前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを判別する処理と
    をコンピュータに実行させ
    さらにまた、前記第1の移動体と前記第2の移動体が同一の移動体であるか否かを判別する際に、前記第1の移動体の属性に応じて、判別結果に与える前記時間の影響度合いを変化させる処理
    をコンピュータに実行させるプログラム。
JP2015500168A 2013-02-15 2014-01-22 情報処理システム、情報処理方法及びプログラム Active JP6406241B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013027796 2013-02-15
JP2013027796 2013-02-15
PCT/JP2014/051214 WO2014125882A1 (ja) 2013-02-15 2014-01-22 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014125882A1 JPWO2014125882A1 (ja) 2017-02-02
JP6406241B2 true JP6406241B2 (ja) 2018-10-17

Family

ID=51353892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015500168A Active JP6406241B2 (ja) 2013-02-15 2014-01-22 情報処理システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9697420B2 (ja)
JP (1) JP6406241B2 (ja)
WO (1) WO2014125882A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP6441067B2 (ja) * 2014-12-22 2018-12-19 セコム株式会社 監視システム
CN106296724B (zh) * 2015-05-12 2020-04-03 杭州海康威视数字技术股份有限公司 一种目标人物的轨迹信息的确定方法、系统及处理服务器
US9984309B2 (en) * 2015-09-30 2018-05-29 International Business Machines Corporation Classifying and grouping electronic images
JP6923011B2 (ja) * 2015-12-16 2021-08-18 日本電気株式会社 移動時間記憶システム、移動時間記憶方法および移動時間記憶プログラム
JP6645166B2 (ja) * 2015-12-16 2020-02-14 日本電気株式会社 移動時間記憶システム、移動時間記憶方法および移動時間記憶プログラム
US10489453B2 (en) 2016-02-26 2019-11-26 Amazon Technologies, Inc. Searching shared video footage from audio/video recording and communication devices
US10841542B2 (en) 2016-02-26 2020-11-17 A9.Com, Inc. Locating a person of interest using shared video footage from audio/video recording and communication devices
US9965934B2 (en) 2016-02-26 2018-05-08 Ring Inc. Sharing video footage from audio/video recording and communication devices for parcel theft deterrence
US10748414B2 (en) 2016-02-26 2020-08-18 A9.Com, Inc. Augmenting and sharing data from audio/video recording and communication devices
JP6503148B1 (ja) * 2016-02-26 2019-04-17 アマゾン テクノロジーズ インコーポレイテッド 音声/ビデオ記録通信装置からのビデオ映像のシェアリング関連出願の相互参照
US11393108B1 (en) 2016-02-26 2022-07-19 Amazon Technologies, Inc. Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices
US10397528B2 (en) 2016-02-26 2019-08-27 Amazon Technologies, Inc. Providing status information for secondary devices with video footage from audio/video recording and communication devices
WO2017159060A1 (ja) * 2016-03-18 2017-09-21 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6217888B1 (ja) 2016-03-30 2017-10-25 日本電気株式会社 解析装置、解析方法及びプログラム
JP6846963B2 (ja) * 2017-03-16 2021-03-24 三菱電機インフォメーションネットワーク株式会社 映像再生装置、映像再生方法、映像再生プログラム及び映像再生システム
JP6787296B2 (ja) * 2017-11-06 2020-11-18 京セラドキュメントソリューションズ株式会社 監視システム
US11138745B2 (en) 2018-04-30 2021-10-05 Uatc, Llc Object association for autonomous vehicles
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP7314959B2 (ja) * 2018-12-28 2023-07-26 日本電気株式会社 人物認証装置、制御方法、及びプログラム
JP7208051B2 (ja) * 2019-02-14 2023-01-18 株式会社日立製作所 状態認識装置
JP6733766B1 (ja) 2019-03-28 2020-08-05 日本電気株式会社 解析装置、制御方法、及びプログラム
JP7218778B2 (ja) * 2020-01-09 2023-02-07 日本電気株式会社 情報処理システム、方法およびプログラム
JP6866950B2 (ja) * 2020-07-06 2021-04-28 日本電気株式会社 解析装置、制御方法、及びプログラム
JP7479987B2 (ja) 2020-08-07 2024-05-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、情報処理方法、及びプログラム
US11714882B2 (en) * 2020-10-09 2023-08-01 Dragonfruit Ai, Inc. Management of attributes associated with objects in video data

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221355A (ja) * 2005-02-09 2006-08-24 Hitachi Ltd 監視装置及び監視システム
JP4706535B2 (ja) 2006-03-30 2011-06-22 株式会社日立製作所 複数カメラを用いた移動物体監視装置
JP4881766B2 (ja) 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置
JP4937016B2 (ja) 2007-07-09 2012-05-23 三菱電機株式会社 監視装置及び監視方法及びプログラム
KR100904846B1 (ko) * 2007-08-27 2009-06-25 아주대학교산학협력단 움직임을 추적하여 영상획득기기들의 네트워크 구성을추론하는 장치 및 방법
EP2418849B1 (en) * 2009-04-10 2013-10-02 Omron Corporation Monitoring system, and monitoring terminal
JP6233624B2 (ja) * 2013-02-13 2017-11-22 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014175356A1 (ja) * 2013-04-26 2014-10-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US20160042621A1 (en) * 2014-06-13 2016-02-11 William Daylesford Hogg Video Motion Detection Method and Alert Management

Also Published As

Publication number Publication date
WO2014125882A1 (ja) 2014-08-21
US9697420B2 (en) 2017-07-04
JPWO2014125882A1 (ja) 2017-02-02
US20150363638A1 (en) 2015-12-17

Similar Documents

Publication Publication Date Title
JP6406241B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR102465532B1 (ko) 객체 인식 방법 및 장치
JP6801760B2 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
JP6806188B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
CN104103030B (zh) 图像分析方法、照相机装置、控制装置及控制方法
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP2966591B1 (en) Method and apparatus for identifying salient events by analyzing salient video segments identified by sensor information
Phankokkruad et al. An evaluation of technical study and performance for real-time face detection using web real-time communication
WO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
KR101648786B1 (ko) 객체 인식 방법
US20200311438A1 (en) Representative image generation device and representative image generation method
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
Yoon et al. Tracking System for mobile user Based on CCTV
JP7257765B2 (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
WO2020022362A1 (ja) 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体
Kim et al. Face recognition method based on fixed and PTZ camera control for moving humans
JP7364079B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
Bieber et al. Activity monitoring by fusion of optical and mechanical tracking technologies for user behavior analysis
JP6198105B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
CN111046788A (zh) 一种停留人员的检测方法、装置及系统
WO2017051499A1 (en) Representative image generation device, representative image generation method, and program
KR20140118404A (ko) 객체의 영역간 이동 감지 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6406241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150