JP2019186955A - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019186955A
JP2019186955A JP2019123022A JP2019123022A JP2019186955A JP 2019186955 A JP2019186955 A JP 2019186955A JP 2019123022 A JP2019123022 A JP 2019123022A JP 2019123022 A JP2019123022 A JP 2019123022A JP 2019186955 A JP2019186955 A JP 2019186955A
Authority
JP
Japan
Prior art keywords
person
video
information processing
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019123022A
Other languages
English (en)
Other versions
JP6806188B2 (ja
Inventor
博義 宮野
Hiroyoshi Miyano
博義 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2019186955A publication Critical patent/JP2019186955A/ja
Application granted granted Critical
Publication of JP6806188B2 publication Critical patent/JP6806188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 複数の撮影装置に映る移動体に対して、好適に同一性を判別することのできる情報処理システム、情報処理方法及びプログラムを提供する。【解決手段】 本発明の一態様にかかる情報処理システムは、複数の撮影装置で撮影された映像の入力を受ける入力手段と、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出する検出手段と、前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付ける対応付け手段と、前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供する提供手段と、を備え、前記特徴量はヒストグラムに基づく情報を含む。【選択図】 図3

Description

本発明に係るいくつかの態様は、情報処理システム、情報処理方法及びプログラムに関する。
近年、複数のビデオカメラ(撮影装置)で撮影した映像を利用して広範囲にわたる監視を行うシステムが考えられている。例えば特許文献1は、複数のカメラによって撮影された移動体を追跡する監視システムを開示している。特許文献1記載の手法では、個別のカメラ毎に抽出した移動体の輝度値や色等の特徴量を用いて、移動体の同一性を判定している。
特開2006−146378号公報
しかしながら、特許文献1記載の手法では、追跡対象がカメラの映像に出現するより先に、追跡対象の移動体と特徴量が類似している別の移動体が当該カメラの映像に出現した場合には、誤ってその別の移動体を、追跡対象の移動体と同一移動体として追跡してしまう可能性がある。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、複数の撮影装置に映る移動体に対して、好適に同一性を判別することのできる情報処理システム、情報処理方法及びプログラムを提供することを目的の1つとする。
本発明の一態様にかかる情報処理システムは、複数の撮影装置で撮影された映像の入力を受ける入力手段と、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出する検出手段と、前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付ける対応付け手段と、前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供する提供手段と、を備え、前記特徴量はヒストグラムに基づく情報を含む。
本発明の一態様にかかる情報処理方法は、複数の撮影装置で撮影された映像の入力を受け、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出し、前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付け、前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供し、前記特徴量はヒストグラムに基づく情報を含む。
本発明の一態様にかかるプログラムは、コンピュータに複数の撮影装置で撮影された映像の入力を受ける処理、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出する処理、前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付ける処理、前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供する処理、を実行させ、前記特徴量はヒストグラムに基づく情報を含む。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、複数の撮影装置に映る移動体に対して、好適に同一性を判別することのできる情報処理システム、情報処理方法及びプログラムを提供することができる。
ビデオカメラの映像の具体例を示す図である。 ビデオカメラの映像の具体例を示す図である。 非出現確率の具体例を示す図である。 非出現確率の具体例を示す図である。 第1実施形態に係る追跡システムの概略構成を示す機能ブロック図である。 表示画面の具体例を示す図である。 図1に示す情報処理サーバの処理の流れを示すフローチャートである。 図1に示す情報処理サーバを実装可能なハードウェアの構成を示すブロック図である。 第2実施形態に係る監視装置の概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
図1A乃至図6は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、以下の流れに沿って本実施形態を説明する。まず、「1.1」で本システムによる移動体の判別方法の概要を説明する。その後、「1.2」でシステムの機能構成の概要を、「1.3」で処理の流れを、「1.4」で、本システムを実現可能なハードウェア構成の具体例を示す。最後に「1.5」以降で、本実施形態に係る効果などを説明する。
(1.1 概要)
本実施形態は、例えば撮影範囲がそれぞれ離れた複数の撮影装置(例えば監視カメラ)が撮影した映像を解析することにより、移動体の動きを追跡するシステムに関する。このために、本実施形態に係るシステムでは、第1の撮影範囲からフレームアウトした移動体と同一と判断できる移動体が第2の撮影範囲に現れた場合には、両移動体を同一の移動体として対応づける。つまり、本システムでは、移動体の同一性を判別する。
ここで、移動体の具体例としては、人物や車、バイク、自転車等種々考えることができるが、以下では人物を追跡する場合を中心に説明する。以下、図1A及び図1Bを参照しながら、映像に映る人物の同一性の判別方法について考える。
人物の同一性を判別するためには、例えば、それぞれの映像に映る人物の画像から、輝度値や色といった特徴量を抽出した上で、特徴量の類似度が閾値よりも高いものを、同一人物として判別する手法が考えられる。
しかしながら、図1Aに示すように、時刻TにおいてカメラAの映像に映っていた人物を追跡する場合に、時刻T+1において、追跡対象の人物がまだカメラBの映像には映っていない(撮影範囲に到着していない)にもかかわらず、追跡対象の人物と類似度の高い人物が先にカメラBの映像に映ると、その人物が追跡対象の人物として誤って判別されてしまう可能性がある。
このような誤った対応付けを防ぐためには、類似度による同一人物判定のための閾値を高く設定する方法も考えられる。しかしながら、閾値を高く設定すると、追跡対象の人物が現れた場合であっても、同一人物とは判断されない可能性が高くなる。
例えば図1Bに示すように、カメラAとカメラBとが近距離にあって、追跡対象の人物以外の人物がカメラBに映る可能性が低い場合であっても、例えば人物が小さく映ったり違う角度で映ったりすることにより精度の高い特徴量が取れない場合に類似度判定の閾値が高すぎると、カメラBに映った人物が追跡対象の人物と同一人物とは判別されなくなってしまう。
そこで、本実施形態に係るシステムでは、類似度のみならず、追跡対象が映っていない可能性をも考慮して、カメラ間での人物追跡(人物の対応付け)を行う。以下、詳細に説明する。
以下、追跡対象の人物がカメラAの映像からフレームアウトした後、t秒後にカメラBの映像に人物が映った場合に、画像情報を元に算出される、追跡対象の人物とカメラBの映像に映った人物とが同一人物である確率をPとする。ここで確率Pは、例えば、カメラAの映像における追跡対象人物画像の特徴量(以下、単に「人物の特徴量」ともいう。)と、カメラBに映った映像の人物との類似度の高さ等に基づき算出される。ここで、特徴量としては、例えば、色や輝度、形状、姿勢、それらのヒストグラム等、種々考えられる。
また、追跡対象の人物が、カメラBの映像にはまだ出現していないであろう確率をQとする。Qは、カメラAの映像からフレームアウトした後の経過時間tを少なくとも一部の変数とする関数であり、Qはtに対して単調非増加となる。また、カメラAの撮影範囲とカメラBの撮影範囲との距離に応じて、Q(t)の減少幅は異なる。
図2A及び図2Bに、確率Q(t)の具体例を示す。図2Aは、カメラAの撮影範囲からカメラBの撮影範囲までの距離が長い場合のQ(t)の時間tに対する変化、図2Bは、図2Aの場合よりもカメラAの撮影範囲からカメラBの撮影範囲までの距離が短い場合のQ(t)の時間tに対する変化を示している。
図2A及び図2Bを見ると、時間t=0の場合には、両方ともQ(t)は1となっている。これは、カメラAの撮影範囲とカメラBの撮影範囲とが重なっていない場合には、カメラAから追跡対象の人物がフレームアウトした瞬間には、カメラBの映像に映るとは考えられないからである。
その後、tの増加に伴い、Q(t)は減少していく。しかしながら、Q(t)の減少の速度は、図2Bの方が図2Aの場合よりも早い。これは、図2Bの方が、図2AよりもカメラAの撮影範囲からカメラBの撮影範囲までの距離が短いため、長時間追跡対象の人物がカメラAの映像からフレームアウト後、カメラBの映像に映るまでにかかる時間が、図2Bの場合の方が短いと考えられるためである。
本実施形態に係るシステムでは、このようなPとQ(t)とに基づき、P>Q(t)であれば、カメラBに映った人物を追跡対象の人物として判定する。前述の通り、カメラAとカメラBとの撮影範囲が近接していれば、Q(t)は小さくなる(時間tに対する減少幅が大きくなる)ので、Pが小さい場合であっても、同一人物として判定されやすくなる。
一方、カメラA及びカメラBの撮影範囲が離れていれば、Q(t)は大きくなる(時間tに対する減少幅が小さくなる)ので、Pが十分に大きく無い限り、同一人物とは判定されない。この場合には、継続してカメラBに映る人物を観測して、Pの値を更新する。例えば、解像度の高い画像や、カメラAでの撮影画像と姿勢や向きなどの撮影条件が近い画像が得られれば、その画像を優先して再度特徴量を算出することにより、Pの値を更新することが考えられる。一方、時間が経過する毎に追跡対象の人物がカメラBの映像に出現していない可能性が減少するために、Q(t)の値も小さくなる。よって、他に適切な人物候補がいなければ、やがてP>Q(t)となって、カメラBに映る人物が追跡対象の人物として判定されるようになる。
なお、上記ではQ(t)の値を変える情報として、カメラの撮影範囲間の距離を挙げたが、これ以外にもQ(t)の値を変える情報は複数考えられる。例えば、他のカメラに映っているかどうかを考慮することが考えられる。カメラAの撮影範囲から到達可能な他のカメラの映像に時間が経っても人物が映っていないのであれば、カメラBの映像に映っている人物が追跡対象の人物である可能性が高いため、Q(t)の値を小さくすればよい(時間tに対する減少幅を大きくする)。
また、カメラAとカメラBとの間に、追跡人物が他の場所へと向かうことのできる出入り口がある場合には、カメラBの撮影範囲に人物が出現する可能性が低いと考えられるので、Q(t)の値を大きくすればよい(時間tに対する減少幅を小さくする)。
或いは、カメラAの映像に追跡対象の人物の他にも1以上の人物が映っている場合であって、当該1以上の他の人物がカメラBの映像に映っている場合には、追跡対象の人物もカメラBの映像に映っている可能性が高いと考えられるので、Q(t)の値を小さくすれば良い(時間tに対する減少幅を大きくする)。
(1.2 システム概要)
(1.2.1 システム全体の概要)
以下、図3を参照しながら、本実施形態に係る情報処理システムである追跡システム1のシステム構成を説明する。図1は、追跡システム1のシステム構成を示すブロック図である。
追跡システム1は、大きく分けて、情報処理サーバ100と、映像(動画像)を撮影(撮像)する複数のビデオカメラ200(ビデオカメラ200A乃至200N)を総称してビデオカメラ200と呼ぶ。)と、表示装置300と、入力装置400とから構成される。
以下、追跡システム1を、ビデオカメラ200で撮影された人物を追跡するためのシステムとして説明するが、前述の通り、追跡対象は車や自転車、バイク、動物等の各種移動体とすることも考えられる。
撮影装置であるビデオカメラ200は、映像を撮影すると共に、当該撮影した映像内に人物がいるか否かを判別した上で、当該人物に係る位置や特徴量などの情報を、撮影映像と共に情報処理サーバ100へと送信する。またビデオカメラ200は、撮影した映像をフレーム間で比較することにより、映像内の人物追跡も行うことができる。
なお、映像からの人物の検出(人物に係る画像領域の検出)や特徴量の抽出、カメラ内の人物追跡等の処理は、ビデオカメラ200以外の、例えば情報処理サーバ100や、図示しない他の情報処理装置上で行なっても良い。
情報処理サーバ100は、ビデオカメラ200で撮影された映像を解析することにより、人物の検出や、追跡する人物の登録、登録された人物の追跡等の各種処理を行う。
なお、以下ではビデオカメラ200により撮影されるリアルタイムの映像を元に人物追跡を行う場合を中心に説明するが、これに限られるものではなく、例えば、ビデオカメラ200により撮影された後、記憶装置(例えば、HDD(Hard Disk Drive)やVCR(Video Casette Recorder)など)に記憶された映像を対象に追跡(分析)することも考えられる。更に、当該記憶装置に記憶された映像を逆順に再生(逆再生)して追跡することも考えられる。通常、ある人物が不審な行動を取った場合には、その人物がその行為までにどのような経路で移動し、どのような行動をとったかを調べる必要があるため、このような逆再生による追跡を可能とすることは極めて有用である。
情報処理サーバ100による人物追跡において、情報処理サーバ100は、表示装置300に監視用の画面を出力すると共に、入力装置400から、人物追跡に係る各種操作入力に係る操作信号を入力する。より具体的には、例えば、表示装置300に表示する監視用画面では、ビデオカメラ200から入力された映像のうち、追跡対象の人物を、グラフィカルユーザインタフェース(GUI)として表示する。表示装置300が表示する監視用画面の具体例は、図4を参照しながら後述する。
このような監視用画面をユーザに提供するために、情報処理サーバ100は、映像に映っている人物が追跡対象の人物であるか否か(映像に映っている人物と、追跡対象の人物が同一人物であるか否か)を判別する機能を有する。
表示装置300は、例えば、液晶や有機EL(Electro Luminescence)等に画像を表示するディスプレイである。情報処理サーバ100から出力される監視用画面は、前述の通り表示装置300が表示する。
入力装置400は、ユーザが各種情報を入力するための装置である。例えば、マウスやタッチパッド、タッチパネル等のポインティングデバイスやキーボード等が入力装置400に該当する。
なお、情報処理サーバ100と表示装置300、入力装置400の構成は種々考えられる。例えば、表示装置300及び入力装置400を1台のクライアント装置として実現することも考えられるし、或いは、情報処理サーバ100、表示装置300、及び入力装置400が保つ機能を4台以上の情報処理装置により実現しても良い。また、表示装置300及び入力装置400を1台のクライアント装置として実現する場合には、本実施形態に係る情報処理サーバ100の一部の機能を、当該クライアント装置に持たせても良い。
(1.2.2 情報処理サーバ100の機能構成)
以下、本実施形態に係る情報処理サーバ100の構成を説明する。情報処理サーバ100は、図3に示すように、入力部110、検出部120、類似度算出部130、非出現確率算出部140、人物判別部150、及び表示制御部160及びデータベース(DB)170を含む。なお、情報処理サーバ100の機能は、複数の情報処理装置(コンピュータ)により実現しても良い。
入力部110は、ビデオカメラ200から受信した映像を表示制御部160へと出力することにより、当該映像を表示装置300に表示させると共に、同じくビデオカメラ200から受信した人物検出結果の情報を、検出人物情報173としてDB170へと登録する。入力部110がDB170に登録する検出人物情報173には、ビデオカメラ200により検出された人物の特徴量の情報が含まれる。
検出部120は、ビデオカメラ200から入力された映像に対する人物検出結果を示す検出人物情報173に基づいて、映像に人物が映っているか否かを検出する。入力された映像に人物が映っていれば、類似度算出部130や非出現確率算出部140にその旨を伝える。
類似度算出部130は、検出人物情報173として登録された特徴量を用いて、処理対象の人物(例えば、表示装置300に表示している映像に映る人物)の特徴量と、追跡対象人物(それ以前にビデオカメラ200に映った人物)の特徴量との類似度を算出する。もし類似度が高ければ、両人物が同一人物である可能性が高いことになる。よって、当該類似度を、上記「1.1」で説明した、両人物が同一である確率Pとして用いることができる。
なお、処理対象の人物(処理対象のビデオカメラ200に映る人物)に係る特徴量は、人物の移動(映像上の人物の大きさの変化や、人物の姿勢及び向きの変化等)に伴い随時更新されるため、類似度算出部130は、更新された特徴量に基づき、随時類似度を算出する。
非出現確率算出部140は、追跡対象人物が、処理対象の撮影範囲にまだ出現していない確率(非出現確率)を算出する。この非出現確率算出部140が算出する確率は、追跡対象人物がビデオカメラ200の映像からフレームアウトした時刻からの経過時間tの増加に伴い減少するものであり、上記「1.1」で説明したQ(t)に相当する。また、Q(t)は、追跡対象人物が最後にフレームアウトしたビデオカメラ200の撮影範囲と、処理対象のビデオカメラ200の撮影範囲の距離や、他のビデオカメラ200に出現しているか否か、追跡対象人物の近傍にいた人物が処理対象のビデオカメラ200の映像に出現済みであるか否か等の情報に応じて変化させることができる。
人物判別部150は、上記類似度算出部130が算出した類似度に相当する確率Pと、非出現確率算出部140が算出した非出現確率Q(t)とを比較し、その結果に基づいて、処理対象のビデオカメラ200に映る人物が、追跡対象人物と同一人物であるか否かを判別する。より具体的には、上述の通り、P>Q(t)であれば、処理対象のビデオカメラ200に映る人物は追跡対象の人物として判別することができ、P≦Q(t)であれば、処理対象のビデオカメラ200に映る人物が、追跡対象の人物と同一である可能性は低いものと判別することができる。
表示制御部160は、入力部110により入力されたビデオカメラ200の映像や、人物判別部150による同一人物判定の結果(すなわち、追跡対象の人物であるか否か)を示すGUI等を含む監視用画面を生成した上で、当該監視用画面を表示装置300へと出力する。
表示制御部160が生成する監視用画面の具体例を、図4を参照しながら説明する。確率Pが予め定められた閾値よりも高いために同一人物である可能性が高いが、Q(t)よりも小さいために同一人物であることを確定できない場合等には、図4左側に示すように当該人物を点線の矩形等でその状態(仮の対応付け状態)を示しておき、Q(t)よりもPが大きくなった時点で、図4右側に示すように人物を囲む矩形を実線で囲む等により、映像に映る人物が追跡対象人物であることが確定した旨をユーザに伝えるようにしても良い。この場合、他に、より追跡対象人物として尤もらしい人物がビデオカメラ200の映像に映った場合には、仮の対応付けを行う人物(点線の矩形でユーザに示す人物)を移すようにすることも考えられる。
DB170は、確率情報171及び検出人物情報173を管理する。
確率情報171は、図2Aや図2Bで具体例を示した非出現確率Q(t)を算出するための関数等の情報である。非出現確率算出部140は、確率情報171に経過時間t等の情報を提供することにより、非出現確率Q(t)の値を算出する。
検出人物情報173は、ビデオカメラ200により撮影及び検出された人物に関する情報である。どの経路で移動したかや検出人物に関する特徴量等の情報が、検出人物情報173には含まれる。
(1.3 処理の流れ)
次に、情報処理サーバ100の処理の流れを、図5を参照しながら説明する。図5は、本実施形態に係る情報処理サーバ100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、検出部120は、ビデオカメラ200から入力部110で受信する情報に基づき、ビデオカメラ200(以下、このビデオカメラ200を「カメラA」とも呼ぶ。)で撮影された映像内から、追跡対象の人物がフレームアウトしたことを検出する(S501)。追跡対象の人物がフレームアウトすれば、その後の経過時間を非出現確率算出部140は計測する。
その後、検出部120は、カメラAの撮影領域から人物が到達可能なビデオカメラ200(以下、このビデオカメラ200を「カメラB」とも呼ぶ。)の映像に人物が出現したか否かを判別する(S503)。カメラBに追跡対象の人物が出現した場合には(S503のYes)、類似度算出部130は、カメラAやそれ以前に撮影された追跡対象人物の画像に基づく特徴量と、カメラBに映った対象人物の特徴量とをDB170の検出人物情報173から読み込んだ上で、両者の類似度を求め、当該類似度から、両人物が同一人物である確率Pを決定する(S505)。
一方、非出現確率算出部140は、追跡対象人物がカメラAの画像からフレームアウトした後の経過時間tを算出し、当該経過時間と、DB170に格納された確率情報171とに基づいて、追跡対象人物が、経過時間tでカメラBの映像に出現する確率Q(t)を算出する(S507)。
人物判別部150は、類似度算出部130で算出した確率Pと、非出現確率算出部140で算出したQ(t)とを比較する(S509)。その結果、Pの方がQ(t)よりも大きければ(S509のYes)、カメラBに映っている人物は追跡対象の人物と同一人物であると判別できるので、人物判別部150は、両人物を同一人物であるとして対応付けた上で追跡を継続する(S511)。
一方、PがQ(t)以下である場合には(S509のNo)、カメラBに映る他の人物(処理対象の人物以外の人物)や、他のビデオカメラ200で現在時刻において撮影されている映像に映る各人物が、追跡対象人物と対応付けられたか(同一人物であると判別されたか)否かを判別する(S513)。もし他の人物が追跡対象の人物と対応付けられていれば(S513のYes)、カメラBに映る処理対象の人物は追跡対象の人物では無いことになるので、処理を終了する。現在時刻の各映像に映る各人物が、まだ誰も追跡対象の人物と対応付けられていない場合には(S513のNo)、S505に戻って、再度、新たに抽出された特徴量や経過時間に基づいて処理を繰り返す。
(1.4 ハードウェア構成)
以下、図6を参照しながら、上述してきた情報処理サーバ100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお前述の通り、情報処理サーバ100の機能は、複数の情報処理装置により実現することも可能である。
図6に示すように、情報処理サーバ100は、プロセッサ601、メモリ603、記憶装置605、入力インタフェース(I/F)607、データI/F609、通信I/F611、及び表示装置613を含む。
プロセッサ601は、メモリ603に記憶されているプログラムを実行することにより情報処理サーバ100における様々な処理を制御する。例えば、図3で説明した入力部110、検出部120、類似度算出部130、非出現確率算出部140、人物判別部150、及び表示制御部160に係る処理は、メモリ603に一時記憶された上で主にプロセッサ601上で動作するプログラムとして実現可能である。
メモリ603は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ603は、プロセッサ601によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ603の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置605は、例えばハードディスクやフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置605は、オペレーティングシステムや、入力部110、検出部120、類似度算出部130、非出現確率算出部140、人物判別部150、及び表示制御部160を実現するための各種プログラムや、DB170として格納される確率情報171及び検出人物情報173を含む各種データ等を記憶する。記憶装置605に記憶されているプログラムやデータは、必要に応じてメモリ603にロードされることにより、プロセッサ601から参照される。
入力I/F607は、ユーザからの入力を受け付けるためのデバイスである。図3で説明した入力装置400は、入力I/F607により実現することも可能である。入力I/F607の具体例としては、キーボードやマウス、タッチパネル等が挙げられる。入力I/F607は、例えばUSB(Universal Serial Bus)等のインタフェースを介して情報処理サーバ100に接続されても良い。
データI/F609は、情報処理サーバ100の外部からデータを入力するためのデバイスである。データI/F609の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F609は、情報処理サーバ100の外部に設けられることも考えられる。その場合、データI/F609は、例えばUSB等のインタフェースを介して情報処理サーバ100へと接続される。
通信I/F611は、情報処理サーバ100の外部の装置、例えばビデオカメラ200等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F611は情報処理サーバ100の外部に設けられることも考えられる。その場合、通信I/F611は、例えばUSB等のインタフェースを介して情報処理サーバ100に接続される。
表示装置613は、各種情報を表示するためのデバイスである。図1で説明した表示装置300は、表示装置613により実現することも可能である。表示装置613の具体例としては、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等が挙げられる。表示装置613は、情報処理サーバ100の外部に設けられても良い。その場合、表示装置613は、例えばディスプレイケーブル等を介して情報処理サーバ100に接続される。
(1.5 本実施形態に係る効果)
以上説明したように、本実施形態に係る追跡システム1では、ビデオカメラ200の映像に映る人物画像の特徴量の類似性のみならず、前の映像からのフレームアウト後の経過時間に基づく非出現確率をも考慮して、人物の同一性を判別(人物を追跡)している。これにより、追跡対象人物がカメラAの映像からフレームアウト後、カメラBの映像に映った際に十分な精度の特徴量が取れない場合であっても、カメラAとカメラBとの撮影範囲が近距離で誤る可能性が低い場合には、その人物を追跡対象人物として対応づけることができる。また、カメラAとカメラBとの距離が長距離であるにも関わらず、カメラAから追跡対象人物がフレームアウトした後、すぐに追跡対象人物と特徴量が類似する人物が登場した場合に、その人物が誤って追跡対象人物として対応付けられることも防ぐことができる。つまり、複数の撮影装置に映る移動体に対して、好適に同一性を判別することができる。
(2 第2実施形態)
以下、第2実施形態を、図7を参照しながら説明する。図7は、情報処理システムである監視装置700の機能構成を示すブロック図である。図7に示すように、監視装置700は、入力部710と、検出部720と、第1算出部730と、第2算出部740と、判別部750とを含む。
入力部710は、図示しない撮影装置(例えば、ビデオカメラ)で撮影された映像の入力を受けることができる。
検出部720は、複数の撮影装置のうちのあるビデオカメラ(以下、第1撮影装置という。)で撮影した映像(以下、第1映像という。)に映る移動体と、複数の撮影装置のうち、他のビデオカメラ(以下、第2撮影装置という。)が撮影した映像(以下、第2映像という。)に映る移動体とを検出する。
第1算出部730は、第1映像に映る移動体と、第2映像に映る移動体との類似度に基づいて、両移動体が同一の移動体である確率(以下、第1確率という。)を求める。
第2算出部740は、第1映像から移動体がフレームアウトした後の経過時間に基づいて、当該移動体(第1映像に映る移動体)が第2映像に出現していない確率(以下、第2確率という。)を求める。
判別部750は、第1確率と第2確率との比較に基づいて、第1映像に映る移動体と第2映像に映る移動体とが同一であるか否かを判別する。
このように実装することで、本実施形態に係る監視装置700によれば、複数の撮影装置に映る移動体に対して、好適に同一性を判別できる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
複数の撮影装置で撮影された映像の入力を受ける入力手段と、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る移動体と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る移動体とを検出する検出手段と、前記第1の映像に映る移動体の特徴量と、前記第2の映像に映る移動体の特徴量との類似度に基づいて、両移動体が同一である第1の確率を求める第1の算出手段と、前記第1の映像から移動体がフレームアウトした後の経過時間に基づいて、前記第1の映像に映る移動体が前記第2の映像に出現していない第2の確率を求める第2の算出手段と、前記第1の確率と前記第2の確率との比較に基づいて、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であるか否かを判別する判別手段とを備える情報処理システム。
(付記2)
前記判別手段は、前記第1の確率が前記第2の確率よりも大きい場合に、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であると判別する、付記1記載の情報処理システム。
(付記3)
前記第2の確率は、移動体の前記第1の映像からのフレームアウト後の経過時間に対して単調非増加となる、付記1又は付記2記載の情報処理システム。
(付記4)
前記第2の確率は、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が長い場合には、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が短い場合よりも、経過時間に対する減少幅が小さくなる、付記3記載の情報処理システム。
(付記5)
前記第2の映像を表示装置に表示させる表示制御手段を更に備え、前記表示制御手段は、前記第2の映像に映る移動体が前記第1の映像に映る移動体と同一であると判別された場合の表示方法を、同一であると判別される前と表示方法と変える、付記1乃至付記4のいずれか1項記載の情報処理システム。
(付記6)
前記判別手段は、前記第1の映像に同時に映る複数の移動体のうち、前記第2の映像に映る一部の移動体と同一であるか否かを判別し、前記第2の算出手段は、前記複数の移動体に、前記第2の映像に映る移動体と同一であると判別された移動体がある場合には、前記複数の移動体のうち、前記第2の映像に映る移動体と対応付けられていない移動体に関する前記第2の確率を下げる、付記1乃至付記5記載の情報処理システム。
(付記7)
複数の撮影装置で撮影された映像の入力を受けるステップと、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る移動体と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る移動体とを検出するステップと、前記第1の映像に映る移動体の特徴量と、前記第2の映像に映る移動体の特徴量との類似度に基づいて、両移動体が同一である第1の確率を求めるステップと、前記第1の映像から移動体がフレームアウトした後の経過時間に基づいて、前記第1の映像に映る移動体が前記第2の映像に出現していない第2の確率を求めるステップと、前記第1の確率と前記第2の確率との比較に基づいて、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であるか否かを判別するステップとを情報処理システムが行う情報処理方法。
(付記8)
前記第1の確率が前記第2の確率よりも大きい場合に、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であると判別する、付記7記載の情報処理方法。
(付記9)
前記第2の確率は、移動体の前記第1の映像からのフレームアウト後の経過時間に対して単調非増加となる、付記7又は付記8記載の情報処理方法。
(付記10)
前記第2の確率は、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が長い場合には、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が短い場合よりも、経過時間に対する減少幅が小さくなる、付記9記載の情報処理方法。
(付記11)
前記第2の映像を表示装置に表示するステップを更に行い、前記第2の映像に映る移動体が前記第1の映像に映る移動体と同一であると判別された場合の表示方法を、同一であると判別される前と表示方法と変える、付記1乃至付記4のいずれか1項記載の情報処理方法。
(付記12)
前記第1の映像に同時に映る複数の移動体のうち、前記第2の映像に映る一部の移動体と同一であるか否かを判別し、前記複数の移動体に、前記第2の映像に映る移動体と同一であると判別された移動体がある場合には、前記複数の移動体のうち、前記第2の映像に映る移動体と対応付けられていない移動体に関する前記第2の確率を下げる、付記7乃至付記11記載の情報処理方法。
(付記13)
複数の撮影装置で撮影された映像の入力を受ける処理と、前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る移動体と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る移動体とを検出する処理と、前記第1の映像に映る移動体の特徴量と、前記第2の映像に映る移動体の特徴量との類似度に基づいて、両移動体が同一である第1の確率を求める処理と、前記第1の映像から移動体がフレームアウトした後の経過時間に基づいて、前記第1の映像に映る移動体が前記第2の映像に出現していない第2の確率を求める処理と、前記第1の確率と前記第2の確率との比較に基づいて、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であるか否かを判別する処理とをコンピュータに実行させるプログラム。
(付記14)
コンピュータに、前記第1の確率が前記第2の確率よりも大きい場合に、前記第1の映像に映る移動体と前記第2の映像に映る移動体とが同一であると判別させる、付記13記載のプログラム。
(付記15)
前記第2の確率は、移動体の前記第1の映像からのフレームアウト後の経過時間に対して単調非増加となる、付記13又は付記14記載のプログラム。
(付記16)
前記第2の確率は、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が長い場合には、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲までの距離が短い場合よりも、経過時間に対する減少幅が小さくなる、付記15記載のプログラム。
(付記17)
コンピュータに、前記第2の映像を表示装置に表示させる処理を更に実行させ、前記第2の映像に映る移動体が前記第1の映像に映る移動体と同一であると判別された場合の表示方法を、同一であると判別される前と表示方法と変えさせる、付記13乃至付記16のいずれか1項記載のプログラム。
(付記18)
コンピュータに、前記第1の映像に同時に映る複数の移動体のうち、前記第2の映像に映る一部の移動体と同一であるか否かを判別させ、前記複数の移動体に、前記第2の映像に映る移動体と同一であると判別された移動体がある場合には、前記複数の移動体のうち、前記第2の映像に映る移動体と対応付けられていない移動体に関する前記第2の確率を下げさせる、付記13乃至付記17記載のプログラム。
この出願は、2013年4月26日に出願された日本出願特願2013−093849を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・追跡システム
100・・・情報処理サーバ
110・・・入力部
120・・・検出部
130・・・類似度算出部
140・・・非出現確率算出部
150・・・人物判別部
160・・・表示制御部
171・・・確率情報
173・・・検出人物情報
200・・・ビデオカメラ
300・・・表示装置
400・・・入力装置
601・・・プロセッサ
603・・・メモリ
605・・・記憶装置
607・・・入力インタフェース
609・・・データインタフェース
611・・・通信インタフェース
613・・・表示装置
700・・・監視装置
710・・・入力部
720・・・検出部
730・・・第1算出部
740・・・第2算出部
750・・・判別部

Claims (9)

  1. 複数の撮影装置で撮影された映像の入力を受ける入力手段と、
    前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出する検出手段と、
    前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付ける対応付け手段と、
    前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供する提供手段と、
    を備え、
    前記特徴量はヒストグラムに基づく情報を含む、
    情報処理システム。
  2. 前記提供手段は、前記対応付け手段が前記第1の人物の特徴量と前記第2の人物の特徴量とに基づいて前記第1の人物と前期第2の人物とを対応付けた後に、前記経過時間を提供する、
    請求項1に記載の情報処理システム。
  3. 前記第1の映像または前記第2の映像のうち少なくとも一方に映る人物であって、他方の映像に映る人物と対応付けられ、監視対象に設定された人物の画像を強調して表示する ように制御する制御手段を備える、
    請求項1または2に記載の情報処理システム。
  4. 複数の撮影装置で撮影された映像の入力を受け、
    前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出し、
    前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付け、
    前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供し、
    前記特徴量はヒストグラムに基づく情報を含む、
    情報処理方法。
  5. 前記第1の人物の特徴量と前記第2の人物の特徴量とに基づいて前記第1の人物と前期第2の人物とを対応付けた後に、前記経過時間を提供する、
    請求項4に記載の情報処理方法。
  6. さらに、前記第1の映像または前記第2の映像のうち少なくとも一方に映る人物であって、他方の映像に映る人物と対応付けられ、監視対象に設定された人物の画像を強調して表示するように制御する、
    請求項4または5に記載の情報処理方法。
  7. コンピュータに
    複数の撮影装置で撮影された映像の入力を受ける処理、
    前記複数の撮影装置のうち第1の撮影装置が撮影する第1の映像に映る第1の人物画像と、前記複数の撮影装置のうち第2の撮影装置が撮影する第2の映像に映る第2の人物画像とを検出する処理、
    前記第1の映像に映る第1の人物の特徴量と、前記第2の映像に映る第2の人物の特徴量とに基づいて、前記第1の人物と前記第2の人物とを対応付ける処理、
    前記第1の映像から前記第1の人物がフレームアウトした時点から、前記第2の映像へ前記第2の人物がフレームインした時点までの経過時間を提供する処理、
    を実行させ、
    前記特徴量はヒストグラムに基づく情報を含む、
    プログラム。
  8. 前記経過時間を提供する処理は、前記対応付ける処理が前記第1の人物の特徴量と前記第2の人物の特徴量とに基づいて前記第1の人物と前期第2の人物とを対応付けた後に、実行させる、
    請求項7に記載のプログラム。
  9. さらに、コンピュータに、
    前記第1の映像または前記第2の映像のうち少なくとも一方に映る人物であって、他方の映像に映る人物と対応付けられ、監視対象に設定された人物の画像を強調して表示するように制御する処理、
    を実行させる請求項7または8に記載のプログラム。
JP2019123022A 2013-04-26 2019-07-01 情報処理システム、情報処理方法及びプログラム Active JP6806188B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013093849 2013-04-26
JP2013093849 2013-04-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015513818A Division JP6551226B2 (ja) 2013-04-26 2014-04-23 情報処理システム、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020201087A Division JP7131599B2 (ja) 2013-04-26 2020-12-03 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019186955A true JP2019186955A (ja) 2019-10-24
JP6806188B2 JP6806188B2 (ja) 2021-01-06

Family

ID=51791923

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015513818A Expired - Fee Related JP6551226B2 (ja) 2013-04-26 2014-04-23 情報処理システム、情報処理方法及びプログラム
JP2019123022A Active JP6806188B2 (ja) 2013-04-26 2019-07-01 情報処理システム、情報処理方法及びプログラム
JP2020201087A Active JP7131599B2 (ja) 2013-04-26 2020-12-03 情報処理システム、情報処理方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015513818A Expired - Fee Related JP6551226B2 (ja) 2013-04-26 2014-04-23 情報処理システム、情報処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020201087A Active JP7131599B2 (ja) 2013-04-26 2020-12-03 情報処理システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (5) US10347100B2 (ja)
JP (3) JP6551226B2 (ja)
WO (1) WO2014175356A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014125882A1 (ja) * 2013-02-15 2014-08-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
KR20160058519A (ko) * 2014-11-17 2016-05-25 삼성전자주식회사 복수의 영상들에 대한 영상 처리
CN106203458B (zh) * 2015-04-29 2020-03-06 杭州海康威视数字技术股份有限公司 人群视频分析方法及系统
EP3435665A4 (en) * 2016-03-25 2019-03-20 Panasonic Intellectual Property Management Co., Ltd. MONITORING AND MONITORING SYSTEM
BR112018068324A8 (pt) * 2016-03-30 2023-04-04 Nec Corp Aparelho de análise, método de análise, e programa
JP2019023785A (ja) * 2017-07-24 2019-02-14 富士ゼロックス株式会社 人物識別装置及びプログラム
EP3912132A4 (en) * 2019-02-28 2022-12-07 Stats Llc SYSTEM AND METHOD FOR GENERATION OF PLAYER TRACKING DATA FROM BROADCAST VIDEO
EP3799006A1 (de) 2019-09-27 2021-03-31 VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH Verfahren und system zum erstellen von bewegungsprofilen, verkehrsnetz
JP7446760B2 (ja) * 2019-10-07 2024-03-11 キヤノン株式会社 情報処理装置、映像の要約方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236255A (ja) * 2005-02-28 2006-09-07 Mitsubishi Electric Corp 人物追跡装置および人物追跡システム
JP2012048690A (ja) * 2010-08-30 2012-03-08 Secom Co Ltd 監視装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690374B2 (en) * 1999-05-12 2004-02-10 Imove, Inc. Security camera system for tracking moving objects in both forward and reverse directions
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
CN1839409A (zh) * 2003-08-21 2006-09-27 松下电器产业株式会社 人物检测装置和人物检测方法
JP4759988B2 (ja) 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
JP2006221355A (ja) 2005-02-09 2006-08-24 Hitachi Ltd 監視装置及び監視システム
JP4658640B2 (ja) 2005-02-28 2011-03-23 パイオニア株式会社 情報出力装置及び表示装置
US20100310120A1 (en) * 2005-11-05 2010-12-09 Charlie Keith Method and system for tracking moving objects in a scene
JP4866754B2 (ja) 2007-02-19 2012-02-01 パナソニック株式会社 行動履歴検索装置及び行動履歴検索方法
JP4778468B2 (ja) 2007-04-05 2011-09-21 日本放送協会 識別情報推定装置及び識別情報推定プログラム
JP5051885B2 (ja) 2007-08-07 2012-10-17 パナソニック株式会社 人物検索装置及び人物検索方法
KR100904846B1 (ko) * 2007-08-27 2009-06-25 아주대학교산학협력단 움직임을 추적하여 영상획득기기들의 네트워크 구성을추론하는 장치 및 방법
JP4945477B2 (ja) * 2008-02-21 2012-06-06 株式会社日立国際電気 監視システム、人物検索方法
JP5085621B2 (ja) * 2009-09-10 2012-11-28 株式会社東芝 画像認識処理に適用する特徴情報選択装置、画像認識処理装置、監視システム、方法、及びプログラム
JP5602541B2 (ja) 2010-08-25 2014-10-08 株式会社オハラ 全固体リチウムイオン電池
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
JP5956248B2 (ja) 2012-05-21 2016-07-27 セコム株式会社 画像監視装置
JP6233624B2 (ja) * 2013-02-13 2017-11-22 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236255A (ja) * 2005-02-28 2006-09-07 Mitsubishi Electric Corp 人物追跡装置および人物追跡システム
JP2012048690A (ja) * 2010-08-30 2012-03-08 Secom Co Ltd 監視装置

Also Published As

Publication number Publication date
JP7131599B2 (ja) 2022-09-06
US10347100B2 (en) 2019-07-09
US20220292942A1 (en) 2022-09-15
US11367330B2 (en) 2022-06-21
JP6551226B2 (ja) 2019-07-31
JPWO2014175356A1 (ja) 2017-02-23
US20210012632A1 (en) 2021-01-14
US20160104357A1 (en) 2016-04-14
US10854056B2 (en) 2020-12-01
US10854057B2 (en) 2020-12-01
US11908293B2 (en) 2024-02-20
US20190180583A1 (en) 2019-06-13
WO2014175356A1 (ja) 2014-10-30
JP6806188B2 (ja) 2021-01-06
US20190180584A1 (en) 2019-06-13
JP2021048617A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
JP6806188B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6406241B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
US9589192B2 (en) Information processing system, information processing method, and program
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US20230353711A1 (en) Image processing system, image processing method, and program
JP6292540B2 (ja) 情報処理システム、情報処理方法及びプログラム
US9396538B2 (en) Image processing system, image processing method, and program
US20240144793A1 (en) Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6806188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350