JPWO2014069088A1 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2014069088A1
JPWO2014069088A1 JP2014544362A JP2014544362A JPWO2014069088A1 JP WO2014069088 A1 JPWO2014069088 A1 JP WO2014069088A1 JP 2014544362 A JP2014544362 A JP 2014544362A JP 2014544362 A JP2014544362 A JP 2014544362A JP WO2014069088 A1 JPWO2014069088 A1 JP WO2014069088A1
Authority
JP
Japan
Prior art keywords
video
imaging device
time
information processing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014544362A
Other languages
English (en)
Other versions
JP6233721B2 (ja
Inventor
博義 宮野
博義 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014069088A1 publication Critical patent/JPWO2014069088A1/ja
Application granted granted Critical
Publication of JP6233721B2 publication Critical patent/JP6233721B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

(課題)複数の撮影装置に係る移動体の監視を好適に行うことのできる情報処理システム、情報処理方法及びプログラムを提供する。(解決手段)複数のビデオカメラ200で撮影された映像の入力を受ける入力部110と、入力部110により入力された、複数のビデオカメラ200のうちのビデオカメラ200Aが撮影した映像に映る移動体を検知する人物検知部120と、びえ御カメラ200Aの映像で検知された移動体がビデオカメラ200Nが撮影する映像に映る確率の時間遷移と、ビデオカメラ200Aで検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体がビデオカメラ200Nの映像に現れる時間帯を予測する時刻予測部140と、ビデオカメラ200Nの映像に現れると予測される時間帯を報知するUI生成部153とを備える。

Description

本発明に係るいくつかの態様は、情報処理システム、情報処理方法及びプログラムに関する。
近年、複数のビデオカメラ(撮影装置)で撮影した映像を利用して広範囲にわたる監視を行うシステムが考えられている。しかしながら、多くのビデオカメラで撮影された映像を同時に監視することは難しい。例えば、複数のビデオカメラのそれぞれの撮影範囲が重なっていない監視システムで特定の人物を追跡する場合には、その人物が撮影範囲外に消えると、次にいずれかのビデオカメラの撮影範囲に現れるまで監視員は各ビデオカメラの映像を注視し続けなければならないため、監視者の負荷が非常に高い。そこで、このような問題に対応すべく、例えば特許文献1には、各監視カメラの撮影範囲へ侵入者が到達する推定到達時刻を算出した上で、当該推定到達時刻を表示することのできる監視装置を開示している。
特開2009−017416号公報
しかしながら、特許文献1記載の手法のように推定到達時刻を表示したとしても、当該時刻はあくまで推定される時刻でしかないため、実際に現れる時刻は、それよりも早い場合もあれば遅い場合もあるため、その時刻にだけ、監視者であるユーザが見ておけばよいというものではない。また、例えば推定到達時刻になっても追跡対象である侵入者が現れない場合には、単にそのユーザは遅く来るだけなのか、あるいは他の経路で異なる場所に行ってしまった可能性が高いのかを判断することができない。よって、特許文献1記載の手法では、監視者であるユーザの監視負荷を十分に下げることができなかった。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、複数の撮影装置に係る移動体の監視を好適に行うことのできる情報処理システム、情報処理方法及びプログラムを提供することを目的の1つとする。
本発明に係る情報処理システムは、複数の撮影装置で撮影された映像の入力を受ける入力手段と、前記入力手段により入力された、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する検知手段と、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する予測手段と、前記第2の撮影装置の映像に現れると予測される時間帯を報知する報知手段とを備える。
本発明に係る情報処理方法は、複数の撮影装置で撮影された映像の入力を受けるステップと、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知するステップと、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測するステップと、前記第2の撮影装置の映像に現れると予測される時間帯を報知するステップとを情報処理システムが行う。
本発明に係るプログラムは、複数の撮影装置で撮影された映像の入力を受ける処理と、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する処理と、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する処理と、前記第2の撮影装置の映像に現れると予測される時間帯を報知する処理とをコンピュータに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、複数の撮影装置に係る移動体の監視を好適に行うことのできる情報処理システム、情報処理方法及びプログラムを提供することができる。
第1実施形態に係る監視システムの概略構成を示す機能ブロック図である。 表示画面の具体例を示す図である。 表示画面の時間推移を説明するための図である。 確率の算出方法の具体例を説明するための図である。 図1に示す情報処理サーバの処理の流れを示すフローチャートである。 図1に示す情報処理サーバを実装可能なハードウェアの構成を示すブロック図である。 第2実施形態に係る監視装置の概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
図1乃至図6は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、以下の流れに沿って本実施形態を説明する。まず「1.1」でシステムの機能構成の概要を示すとともに、「1.2」で動作の概要を、表示画面の具体例を示しながら説明する。その後、「1.3」で処理の流れを、「1.4」で、本システムを実現可能なハードウェア構成の具体例を示す。最後に「1.5」以降で、本実施形態に係る効果などを説明する。
(1.1 システム構成)
(1.1.1 システム構成概要)
図1を参照しながら、本実施形態に係る情報処理システムである監視システム1のシステム構成を説明する。図1は、監視システム1のシステム構成を示すブロック図である。
監視システム1は、大きく分けて、情報処理サーバ100と、映像(動画像)を撮影(撮像)する複数のビデオカメラ200(ビデオカメラ200A乃至200Nを総称してビデオカメラ200と呼ぶ。)と、表示装置300と、入力装置400とから構成される。
以下、監視システム1は、ビデオカメラ200で撮影された人物を監視(追跡)するためのシステムであるものとして説明するが、監視対象を車や自転車、バイク等の各種移動体に応用することも考えられる。
撮影装置であるビデオカメラ200は、映像を撮影すると共に、当該撮影した映像内に人物がいるか否かを判別した上で、当該人物に係る位置や特徴量等の情報を、撮影映像と共に情報処理サーバ100へと送信する。また、ビデオカメラ200は、撮影した映像をフレーム間で比較することにより、映像内の人物追跡も行うことができる。
なお、人物の検出や特徴量の抽出、カメラ内の人物追跡などの処理は、例えば、情報処理サーバ100や、図示しない他の情報処理装置上で行なっても良い。
情報処理サーバ100は、ビデオカメラ200で撮影された映像を解析することにより、人物の検出や、追跡する人物の登録、登録された人物の追跡などの各種処理を行う。
なお、以下ではビデオカメラ200により撮影されるリアルタイムの映像を元に人物監視(人物追跡)を行う場合を中心に説明するが、これに限られるものではなく、例えば、ビデオカメラ200により撮影された後、記憶装置(例えば、HDD(Hard Disk Drive)やVCR(Video Casette Recorder)など)に記憶された映像を対象に追跡(分析)することも考えられる。更に、当該記憶装置に記憶された動画像を逆順に再生(逆再生)して追跡することも考えられる。通常、ある人物が不審な行動をとった場合には、その人物がその行為までにどのような経路で移動し、どのような行動をとったかを調べる必要があるため、このような逆再生による追跡を可能とすることは極めて有用である。
情報処理サーバ100による人物監視において、情報処理サーバ100は、表示装置300に監視用の画面を出力すると共に、入力装置400から、人物監視(人物追跡)に係る各種操作入力に係る操作信号を受け付ける。より具体的には、例えば、表示装置300に表示する監視用画面(後述する図2に具体例を示す。)では、ビデオカメラ200から入力された映像を複数表示することで、監視対象の人物が今どこにいるのか、もし映っていないならば、次にどのビデオカメラ200に登場する可能性が高いのか、を、監視者であるユーザが把握できるようにしている。このため、情報処理サーバ100は、人物がどのビデオカメラ200に映るのかを予測(次カメラ予測)する機能を有する。
さらに情報処理サーバ100は、監視対象の人物が次にどのビデオカメラ200に登場する可能性が高いのかをユーザに示す(報知する)際に、いつ頃登場する可能性が高いかを、動的に示すことができる。例えば、今から3秒後から5秒後に登場する可能性が高い場合には、表示画面上にその旨を表示することにより、監視者であるユーザが、注意すべき時間帯を認識できるようになっている。更に、監視対象の人物がビデオカメラ200の映像からのフレームアウト後の経過時間に応じて、次に登場するビデオカメラ200の確からしさも変化するため、情報処理サーバ100は、動的に各ビデオカメラ200に登場する確率を算出した上で、その確率に応じた表示をユーザに対して行う。この処理の詳細は、図2乃至図4を参照しながら後述する。
監視者であるユーザは、表示装置300を見て、あるビデオカメラ200の映像(動画像)に映った監視対象の人物が、当該ビデオカメラ200からフレームアウト後、他のビデオカメラ200の映像に映った場合には、入力装置400を操作して、当該2人の人物を同一人物であるものとして対応づけることができる。若しくは、情報処理サーバ100が、撮影された人物の特徴量等の情報を元に、人手を介さずに人物を対応付けるようにしても良い。
表示装置300は、例えば、液晶や有機EL(Electro Luminescence)等に画像を表示するディスプレイである。情報処理サーバ100から出力される監視用画面は、表示装置300が表示する。
入力装置400は、ユーザ(監視者)が各種情報を入力するための装置である。例えば、マウスやタッチパッド、タッチパネル等のポインティングデバイスやキーボード等が入力装置400に該当する。監視対象人物(追跡対象人物)の登録や、登録された人物とビデオカメラ200に新たに登場した人物との対応づけ(同一人物としての対応付け)等の各種処理は、ユーザの入力装置400に対する操作に基づいてなされる。
なお、情報処理サーバ100と表示装置300、入力装置400の構成は種々考えられる。例えば、表示装置300及び入力装置400を1台のクライアントとして実現することも考えられるし、或いは、情報処理サーバ100,表示装置300、及び入力装置400の機能を4台以上の情報処理装置により実現しても良い。また、表示装置300及び入力装置400を1台のクライアントとして実現する場合には、本実施形態に係る情報処理サーバ100の一部の機能を、当該クライアントに持たせても良い。
(1.1.2 情報処理サーバ100の構成)
以下、本実施形態に係る情報処理サーバ100の構成を説明する。情報処理サーバ100は、図1に示すように、入力部110、人物検知部120、確率情報生成部130、時刻予測部140、表示制御部150、及びデータベース(DB)160を含む。なお、情報処理サーバ100の機能は、複数の情報処理装置(コンピュータ)により実現しても良い。
入力部110は、ビデオカメラ200から受信した映像を表示制御部150へと出力することにより、当該映像を表示装置300に表示させると共に、同じくビデオカメラ200から受信した人物検出結果の情報を、検出人物情報163等としてDB160へ登録する。入力部110がDB160に登録する検出人物情報163には、ビデオカメラ200により検出された人物の特徴量の情報が含まれる。
人物検知部120は、入力部110がビデオカメラ200から受信した人物検出結果に基づき、監視対象の人物がビデオカメラ200の映像に映っていること、及び映らなくなった(フレームアウトした)こと、を検知する。なお、上述の通り、本実施形態ではビデオカメラ200が人物検出を行なっているがこれに限られるものではなく、人物検知部120自身が、人物検出を行うように実装することも考えられる。
確率情報生成部130は、あるビデオカメラ200に映った後、フレームアウトした人物が他のそれぞれのビデオカメラ200(人物が戻ってきた(Uターンしてきた)場合も考慮すべく、自ビデオカメラ200を含んでも良い)に映る確率の時間遷移に係る情報を算出した上で、DB160の確率情報161として登録する。この確率情報161の登録は、予め前処理をして行なっても、人物検出を逐次行いながら動的に更新しても、どちらでも良い。確率情報生成部130が生成する、人物があるビデオカメラ200の映像からフレームアウトした後、他のビデオカメラ200に映る確率の時間遷移については、図3や図4を参照しながら後述する。
時刻予測部140は、あるビデオカメラ200に映った人物がフレームアウトした後、他のカメラに映る時刻(時間帯)を、フレームアウトからの時間の経過と、確率情報161とに基づいて予測する。この処理は、図3を参照しながら後述する。
表示制御部150は、監視用画面等の各種表示画面を表示装置300に表示させる。表示制御部150は、映像表示部151及びUI生成部153を含む。
映像表示部151は、入力部110により入力された撮影映像を表示装置300に表示させる。後述の図2の例では、監視用画面の一部に、映像表示部151が表示させる映像領域が設けられる。なお、映像表示部151が表示装置300に表示させる映像はリアルタイムの映像でなくとも良い。もし、記録映像を表示装置300に表示させる場合には、ビデオカメラ200から入力された映像を図示しない記憶媒体に記憶した上で、映像表示部151は当該映像を読みだして表示装置300に表示させることとなる。
UI生成部153は、後述する図2に具体例を示す監視用画面等の各種表示画面を表示装置300に表示させる。UI生成部153が生成及び提供するGUI(Graphical User Interface)により、監視対象人物の登録や同一人物であるか否かの対応付けなどを行う。また、本実施形態においては、確率情報生成部130及び時刻予測部140による次カメラ予測の結果、監視対象人物が登場すると推測されるビデオカメラ200及びその時間帯の情報を、UI生成部153がユーザに対して報知する。
DB160は、例えば図示しないHDD等の各種記憶装置上に構築される。DB160は、確率情報161、及び検出人物情報163を管理する。
(1.2 動作の概要)
以下、図2乃至図4を参照しながら、監視システム1の機能や動作を説明する。
(1.2.1 人物監視の概略)
まず、図2を参照しながら、表示装置300が表示する表示画面の具体例を説明する。図3は、表示装置300が人物監視のために表示する表示画面(以下、監視用画面20ともいう。)の具体例を示す図である。
図2の監視用画面20の例では、複数のビデオカメラ200から入力された撮影映像をそれぞれ表示する映像領域21A乃至21D(以下、総称して映像領域21ともいう。)を含む。
映像領域21は、前述の通り複数のビデオカメラ200から入力されたマルチカメラ映像を表示する。ここで、それぞれの映像領域21に表示されるビデオカメラ200の映像は、随時(動的に)切り換わる。例えば、監視対象の人物が表示領域から外れた後、当該人物の移動に合わせて、次にその人物が現れると時刻予測部140が予測するビデオカメラ200の映像へと、UI生成部153及び映像表示部151は映像領域21に表示する映像を切り換える。
図2(a)は、進行方向aへ移動する人物Pが映像領域21Aの映像(「Camera001」の識別子を持つビデオカメラ200の映像)に映っている場合の監視用画面20の具体例、図2(b)は、人物Pが映像領域21Aの映像からフレームアウトした後、人物Pが複数のビデオカメラ200のいずれでも検出されていない場合の監視用画面20の具体例を示す図である。
図2(b)の具体例を見ればわかるように、人物Pのフレームアウト後の監視用画面20の映像領域21B乃至21Dには、時間帯表示領域23B乃至23D(以下、総称して時間帯表示領域23ともいう。)と、出現位置示唆画像25B乃至25D(以下、総称して出現位置示唆画像25ともいう。)とが表示されている。
当該時間帯表示領域23は、それぞれの映像に人物Pが登場する可能性の高い時間帯を示している。例えば映像領域21Bの時間帯表示領域23上には「3s〜5s」と表示されているため、人物Pが現れるならば、監視用画面20を表示している現在時刻から3秒乃至5秒の時間帯に、当該映像に人物Pが映る可能性が高いことを示している。同じく、映像領域21Cの時間帯表示領域23C上には「12s〜16s」と表示されているため、人物Pが当該映像領域21Cの映像に現れるならば、現在時刻から12乃至16秒の時間帯である可能性が高いことを示している。映像領域21Dの時間帯表示領域23D上には「30s〜40s」と表示されているため、人物Pが当該映像領域21Dの映像に現れるならば、現在時刻から30乃至40秒の時間帯である可能性が高いことを示している。
出現位置示唆画像25は、監視対象の人物Pが出現する可能性の高い映像上の位置を示している。ここで、出現位置示唆画像25Bは、出現位置示唆画像25Cや25Dよりも濃い色で示されている。これは、現在時刻において、人物Pが映像領域21Bの映像に登場する確率が、映像領域21Cや21Dに登場する確率よりも高いことを示している。このように、出現位置示唆画像25を、現在時刻における出現確率に応じて、色を順次変化させたり点滅させたりすることにより、人物Pの現れる可能性の高さや可能性の高い時間帯を、ユーザに認識させるようにしても良い。
このように、人物Pが近い時間に現れる可能性が高い順に映像領域21B、21C及び21Dを並べることにより、ユーザがどの映像領域21に注目しておけば良いのかわかりやすくなる。また、人物Pが登場する可能性の高い時間帯を時間帯表示領域23によりユーザに認識させることにより、ユーザはこの時間帯に各映像領域21を確認すれば良い、すなわち、その時間帯(範囲)よりも早い時間から映像を注視する必要はなく、また、その時間帯よりも遅い時刻になれば映像を注視する必要がなくなるため、ユーザの監視負荷を軽減することが可能となる。
一方で、表示順が随時切り換わるとユーザが混乱する可能性も考えられる。そこで、各映像領域21に表示される映像の位置は変えずに、人物Pの出現する可能性の高さに応じてそれぞれの映像領域21の色等による強調方法を変えることにより、監視者であるユーザが注視すべき映像の優先順位を表現しても良い。
なお、本実施形態では、時間帯表示領域23や出現位置示唆画像25により、人物Pの現れる可能性の高い時間帯を報知しているがこれに限られるものではない。例えば、映像領域21やその周囲を、人物Pの現れる可能性(確率)の高さに応じて、点滅させたり、輝度を変化させたりすることも考えられる。
(1.2.2 時間経過に応じたユーザ報知の変化)
次に、図3を参照しながら、時間経過に応じたユーザ報知の変化を説明する。図3(a)は、図2に示した人物Pが映像領域21Aからフレームアウトした後の時刻Tにおける状態、図3(b)は図3(a)の2秒後の状態を示している。また、図3(a)(b)のそれぞれ左側には映像領域21の表示例を、右側には、当該映像領域21に人物Pが現れる確率の時間遷移を、それぞれ示している。
時刻Tにおいては、図3(a)に示すように、人物Pが現れる可能性の確率の時間遷移の中で、閾値Xを超える確率を持つ時間帯は、現在時刻から3〜5秒後である。よって、UI生成部153は、映像領域21内の時間帯表示領域23に「3s〜5s」と表示する。
一方、時刻Tの2秒後(図3(b))には、人物Pが現れる可能性の確率の時間遷移の中で、閾値Xを超える確率を持つ時間帯は、現在時刻から1〜3秒後となる。よって、UI生成部153は、映像領域21内の時間帯表示領域23に「1〜3s」と表示する。
このように、映像領域21へ人物Pが出現する時間帯の報知方法は、時間経過に応じて動的に変化する。
なお、図3左側に示す画面例では示していないが、出現位置示唆画像25についても、時間帯表示領域23と同様に、時間経過に応じて動的に変化させることができる。
(1.2.3 監視対象人物の現れる確率の算出方法)
続いて、図4を参照しながら、確率の算出方法を説明する。あるビデオカメラ200(ここでは「カメラA」と呼ぶ。)の映像からフレームアウトしてからt秒後に、次のビデオカメラ200(ここでは「カメラB」と呼ぶ。)の映像に現れる確率f(t|A,B)は、下記の数式により表現することができる。
Figure 2014069088
ここで、μは、カメラAからカメラBに追跡対象人物が現れる平均出現時間である。なお、平均出現時間は、監視対象人物のカメラAによる映像内での移動速度に応じて補正することも考えられる。例えば、カメラAの映像で、平均速度の2倍の速度で監視対象人物が移動している場合には、平均出現時間を半分に補正することが考えられる。若しくは、監視対象人物の性別や身長等の属性を予め識別しておき、それらの属性に対応した平均出現時間を採用することも考えられる。
また、a(t)はヒストグラムであり、その具体例は、図4に示す。このa(t)の分布は、監視システム1の監視対象者たちの動きから確率情報生成部130が確率情報161の一部として統計的に作成/更新しても良いし、或いは、予め確率情報生成部130が確率情報161の一部として準備しておいても良い。なお、このa(t)に係る情報は、人物が移動可能なカメラ間毎に生成される。或いは、共通的な関数を採用しても良い。より具体的には、例えば、以下の式で表現されるBPT(Brownian Passage Time)分布を採用することが考えられる。
Figure 2014069088
ここで、αは予め定められたパラメータであり、出現時間のばらつき具合を表す。
この数式は、人物の移動がブラウン運動であるものと仮定した場合の数式であるが、BPT分布を区分線形関数で表現するなど、他のヒューリスティックな関数を採用することも考えられる。
更には、AとBとが同じ場合(すなわち、監視対象者がUターンしてきた場合)を考慮しても良い。
なお、上記数式及び図4からわかるように、カメラAからカメラBに追跡対象人物が現れる確率は、平均出現時刻μ周辺で最も高くなる。
上記確率fを示す数式は、以下のように書き換えることもできる。カメラAから追跡対象人物が消えた(フレームアウトした)時刻をT消滅、現在時刻をTとすると、時刻Tに当該人物がカメラBに現れる確率p(T|A,B)は、以下の式で表現する事ができる。
Figure 2014069088
なお、カメラAからのフレームアウト後、一定時間以上経過したら(tが閾値を超えたら)、若しくは確率が予め定めた閾値よりも小さくなったら、追跡対象人物が出口から出たものと判別することができる。もしくは、p(T|A,出口)を設けて出口対応を別途検討するようにしても良い。
また、カメラが全部でN個あったとして、全てのカメラをC(i=1,2,…N)とすると、時刻TにカメラBの映像に監視対象人物が現れる確率を、B以外のカメラに現れない程確からしいと考えて、以下の数式により計算した値を用いることも考えられる。
Figure 2014069088
このように計算すれば、カメラB以外のビデオカメラに現れる可能性が0であれば1に近い値となり、カメラB以外に現れる可能性が高ければ、0に近い値となる。
また、上記数式では考慮していないが、確率計算には、カメラBやその他のビデオカメラ200に現れた人物の特徴量等に基づき、人物が現れたか否かを考慮してもよい。例えば、カメラBに現れた人物が、その人物の特徴量から監視対象人物である確率をgとすると、確率は以下の数式により算出することができる。
Figure 2014069088
この数式では、カメラBに人物が現れない場合にはgが存在せず、確率を計算できないため、カメラBに人物が現れない場合には、予め定めた定数cを用いて以下の数式により計算すればよい。
Figure 2014069088
(1.3 処理の流れ)
次に、情報処理サーバ100の処理の流れを、図5を参照しながら説明する。図5は、本実施形態にかかる情報処理サーバ100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、人物検知部120は、ビデオカメラ200から入力部110で受信する情報に基づき、ビデオカメラ200で撮影された映像内に検出対象オブジェクトとしての人物が映っているか否かを判別する(S501)。以下、このビデオカメラ200を「カメラA」と呼ぶ。
S501での判別の結果、カメラAで撮影した映像に人物が検出されている場合には(S501のYes)、その後当該人物がカメラAからフレームアウトしたか否かを、人物検知部120は判別する(S503)。
人物がカメラAからフレームアウトした場合には(S503のYes)、時刻予測部140は、まず、人物のカメラAからのフレームアウト後の経過時間を算出する(S505)。時刻予測部140は、更にDB160から確率情報161を参照することにより(S507)、カメラAから人物が移動可能な位置にある各ビデオカメラ200に対して、当該人物がそのビデオカメラ200の映像に現れる確率の時間推移(例えば、図3の右側のグラフに相当する情報)を生成する。
その上で時刻予測部140は、カメラAからフレームアウトした人物が移動可能な各ビデオカメラ200毎に、それぞれのビデオカメラ200にその人物が登場する可能性の高い時間帯を求める(S509)。より具体的には、例えば、図3の右側に示した確率の時間推移において、確率が閾値Xを超える時間帯を、当該人物がそのビデオカメラ200に現れる可能性の高い時間帯として時刻予測部140は特定することができる。
UI生成部153は、時刻予測部140が予測した、カメラAから各ビデオカメラ200に移動する可能性の高い時間帯が早い順等に、監視用画面20の映像領域21の映像を並べ替えた上で、時間帯表示領域23にその時間帯を示す(S511)。なお、前述の通り、ユーザへの時間帯の報知の方法はこれに限られるものではない。
その後人物検知部120は、いずれかのビデオカメラ200でカメラAからフレームアウトした追跡対象の人物が検出されたか否かを判別し(S513)、もし検出されていなければ(S513のYes)、情報処理サーバ100は、S505以降の処理を繰返す。一方、もし当該追跡対象人物がいずれかのビデオカメラ200で検出されていた場合には(S513のYes)、ユーザへの報知を終了する(S515)。
(1.4 ハードウェア構成)
以下、図6を参照しながら、上述してきた情報処理サーバ100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお前述の通り、情報処理サーバ100の機能は、複数の情報処理装置により実現することも可能である。
図6に示すように、情報処理サーバ100は、プロセッサ601、メモリ603、記憶装置605、入力インタフェース(I/F)607、データI/F609、通信I/F611、及び表示装置613を含む。
プロセッサ601は、メモリ603に記憶されているプログラムを実行することにより情報処理サーバ100における様々な処理を制御する。例えば、図1で説明した入力部110、人物検知部120、確率情報生成部130、時刻予測部140及び表示制御部150に係る処理は、メモリ603に一時記憶された上で主にプロセッサ601上で動作するプログラムとして実現可能である。
メモリ603は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ603は、プロセッサ601によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ603の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置605は、例えばハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶装置605は、オペレーティングシステムや、入力部110、人物検知部120、確率情報生成部130、時刻予測部140、及び表示制御部150を実現するための各種プログラムや、DB160として格納される確率情報161及び検出人物情報163を含む各種データ等を記憶する。記憶装置605に記憶されているプログラムやデータは、必要に応じてメモリ603にロードされることにより、プロセッサ601から参照される。
入力I/F607は、ユーザからの入力を受け付けるためのデバイスである。図1で説明した入力装置400は、入力I/F607により実現することも可能である。入力I/F607の具体例としては、キーボードやマウス、タッチパネル、各種センサ等が挙げられる。入力I/F607は、例えばUSB(Universal Serial Bus)等のインタフェースを介して情報処理サーバ100に接続されても良い。
データI/F609は、情報処理サーバ100の外部からデータを入力するためのデバイスである。データI/F609の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F609は、情報処理サーバ100の外部に設けられることも考えられる。その場合、データI/F609は、例えばUSB等のインタフェースを介して情報処理サーバ100へと接続される。
通信I/F611は、情報処理サーバ100の外部の装置、例えばビデオカメラ200等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F611は情報処理サーバ100の外部に設けられることも考えられる。その場合、通信I/F611は、例えばUSB等のインタフェースを介して情報処理サーバ100に接続される。
表示装置613は、各種情報を表示するためのデバイスである。図1で説明した表示装置300は、表示装置613により実現することも可能である。表示装置613の具体例としては、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等が挙げられる。表示装置613は、情報処理サーバ100の外部に設けられても良い。その場合、表示装置613は、例えばディスプレイケーブル等を介して情報処理サーバ100に接続される。
(1.5 本実施形態に係る効果)
以上説明したように、本実施形態に係る監視システム1では、追跡対象者があるビデオカメラ200から各ビデオカメラ200の撮影領域に移動する可能性の高い時間帯(時間区間)をユーザに報知する。これにより、監視者であるユーザは、各映像を注視すべき時間帯を明確に把握することができるようになるため、人物監視に係る負荷を軽減することが可能となる。
(2 第2実施形態)
以下、第2実施形態を、図7を参照しながら説明する。図7は、情報処理システムである監視装置700の機能構成を示すブロック図である。図7に示すように、監視装置700は、入力部710と、検知部720と、予測部730と、報知部740とを含む。
入力部710は、図示しないビデオカメラ(撮像装置)で撮影された映像の入力を受けることができる。
検知部720は、入力部710により入力された、複数のビデオカメラのうち、少なくとも1台のビデオカメラが撮影した映像に映る移動体を検知する。ここで、移動体の具体例としては、人間の他、車や自転車、バイク等を挙げることができる。
予測部730は、あるビデオカメラで検知された移動体が、そのビデオカメラを含む他のビデオカメラが撮影する映像に映る確率の時間遷移と、ビデオカメラの映像の撮影範囲から移動体が外れた後の時間経過とに基づいて、当該移動体が他のビデオカメラに現れる時間帯を予測する。
報知部740は、当該他のビデオカメラの映像に現れると予測される時間帯を報知する。
このように実装することで、本実施形態に係る監視装置700によれば、複数の撮影装置に係る移動体の監視を好適に行うことができるようになる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
複数の撮影装置で撮影された映像の入力を受ける入力手段と、前記入力手段により入力された、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する検知手段と、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する予測手段と、前記第2の撮影装置の映像に現れると予測される時間帯を報知する報知手段とを備える情報処理システム。
(付記2)
前記予測手段は、前記第1の撮影装置で検知された移動体が前記第2の撮影装置が撮影する映像に映る確率が閾値を超える時間帯を、移動体が前記第2の撮影装置に現れる時間帯と予測する、付記1記載の情報処理システム。
(付記3)
前記報知手段は、前記第2の撮影装置で撮影された映像の上に、移動体が現れると予測される時間帯を表示することにより、当該時間帯を報知する、付記1又は付記2記載の情報処理システム。
(付記4)
前記報知手段は、移動体が現れると予測される時間帯に、前記第2の撮影装置で撮影された映像に係る表示を変化させることにより、当該時間帯を報知する、付記1又は付記2記載の情報処理システム。
(付記5)
複数の撮影装置で撮影された映像の入力を受けるステップと、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知するステップと、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測するステップと、前記第2の撮影装置の映像に現れると予測される時間帯を報知するステップとを情報処理システムが行う情報処理方法。
(付記6)
前記第1の撮影装置で検知された移動体が前記第2の撮影装置が撮影する映像に映る確率が閾値を超える時間帯を、移動体が前記第2の撮影装置に現れる時間帯と予測する、付記5記載の情報処理方法。
(付記7)
前記第2の撮影装置で撮影された映像の上に、移動体が現れると予測される時間帯を表示することにより、当該時間帯を報知する、付記5又は付記6記載の情報処理方法。
(付記8)
移動体が現れると予測される時間帯に、前記第2の撮影装置で撮影された映像に係る表示を変化させることにより、当該時間帯を報知する、付記5又は付記6記載の情報処理方法。
(付記9)
複数の撮影装置で撮影された映像の入力を受ける処理と、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する処理と、前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する処理と、前記第2の撮影装置の映像に現れると予測される時間帯を報知する処理とをコンピュータに実行させるプログラム。
(付記10)
前記第1の撮影装置で検知された移動体が前記第2の撮影装置が撮影する映像に映る確率が閾値を超える時間帯を、移動体が前記第2の撮影装置に現れる時間帯と予測する、付記9記載のプログラム。
(付記11)
前記第2の撮影装置で撮影された映像の上に、移動体が現れると予測される時間帯を表示することにより、当該時間帯を報知する、付記9又は付記10記載のプログラム。
(付記12)
移動体が現れると予測される時間帯に、前記第2の撮影装置で撮影された映像に係る表示を変化させることにより、当該時間帯を報知する、付記9又は付記10記載のプログラム。
この出願は、2012年10月29日に出願された日本出願特願2012−237987を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・監視システム、20・・・監視用画面、21・・・映像領域、23・・・時間帯表示領域、25・・・出現位置示唆画像、100・・・情報処理サーバ、110・・・入力部、120・・・人物検知部、130・・・確率情報生成部、140・・・時刻予測部、150・・・表示制御部、151・・・映像表示部、153・・・UI生成部、160・・・データベース(DB)、161・・・確率情報、163・・・検出人物情報、200・・・ビデオカメラ、300・・・表示装置、400・・・入力装置、601・・・プロセッサ、603・・・メモリ、605・・・記憶装置、607・・・入力インタフェース(I/F)、609・・・データインタフェース、611・・・通信インタフェース、613・・・表示装置、700・・・監視装置、710・・・入力部、720・・・検知部、730・・・予測部、740・・・報知部

Claims (6)

  1. 複数の撮影装置で撮影された映像の入力を受ける入力手段と、
    前記入力手段により入力された、前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する検知手段と、
    前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する予測手段と、
    前記第2の撮影装置の映像に現れると予測される時間帯を報知する報知手段と
    を備える情報処理システム。
  2. 前記予測手段は、前記第1の撮影装置で検知された移動体が前記第2の撮影装置が撮影する映像に映る確率が閾値を超える時間帯を、移動体が前記第2の撮影装置に現れる時間帯と予測する、
    請求項1記載の情報処理システム。
  3. 前記報知手段は、前記第2の撮影装置で撮影された映像の上に、移動体が現れると予測される時間帯を表示することにより、当該時間帯を報知する、
    請求項1又は請求項2記載の情報処理システム。
  4. 前記報知手段は、移動体が現れると予測される時間帯に、前記第2の撮影装置で撮影された映像に係る表示を変化させることにより、当該時間帯を報知する、
    請求項1又は請求項2記載の情報処理システム。
  5. 複数の撮影装置で撮影された映像の入力を受けるステップと、
    前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知するステップと、
    前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測するステップと、
    前記第2の撮影装置の映像に現れると予測される時間帯を報知するステップと
    を情報処理システムが行う情報処理方法。
  6. 複数の撮影装置で撮影された映像の入力を受ける処理と、
    前記複数の撮影装置のうちの第1の撮影装置が撮影した映像に映る移動体を検知する処理と、
    前記第1の撮影装置の映像で検知された移動体が前記複数の撮影装置のうちの第2の撮影装置が撮影する映像に映る確率の時間遷移と、前記第1の撮影装置で検知された移動体が撮影範囲から外れた後の時間経過とに基づいて、当該移動体が前記第2の撮影装置の映像に現れる時間帯を予測する処理と、
    前記第2の撮影装置の映像に現れると予測される時間帯を報知する処理と
    をコンピュータに実行させるプログラム。
JP2014544362A 2012-10-29 2013-08-30 情報処理システム、情報処理方法及びプログラム Active JP6233721B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012237987 2012-10-29
JP2012237987 2012-10-29
PCT/JP2013/073358 WO2014069088A1 (ja) 2012-10-29 2013-08-30 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014069088A1 true JPWO2014069088A1 (ja) 2016-09-08
JP6233721B2 JP6233721B2 (ja) 2017-11-22

Family

ID=50627009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014544362A Active JP6233721B2 (ja) 2012-10-29 2013-08-30 情報処理システム、情報処理方法及びプログラム

Country Status (6)

Country Link
US (1) US9633253B2 (ja)
EP (1) EP2913997B1 (ja)
JP (1) JP6233721B2 (ja)
AU (1) AU2013339935A1 (ja)
WO (1) WO2014069088A1 (ja)
ZA (1) ZA201503400B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6527729B2 (ja) * 2015-03-20 2019-06-05 環境機器株式会社 画像処理装置及び画像処理プログラム
JP6688975B2 (ja) 2016-03-25 2020-04-28 パナソニックIpマネジメント株式会社 監視装置及び監視システム
CN109013677A (zh) * 2018-08-04 2018-12-18 石修英 一种土壤有机污染环境监控系统
CN111291585B (zh) * 2018-12-06 2023-12-08 杭州海康威视数字技术股份有限公司 一种基于gps的目标跟踪系统、方法、装置及球机
US11954941B2 (en) * 2020-01-14 2024-04-09 EMC IP Holding Company LLC Facial recognition IOT application for multi-stream video using forecasting tools
US11031044B1 (en) * 2020-03-16 2021-06-08 Motorola Solutions, Inc. Method, system and computer program product for self-learned and probabilistic-based prediction of inter-camera object movement

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6809760B1 (en) * 1998-06-12 2004-10-26 Canon Kabushiki Kaisha Camera control apparatus for controlling a plurality of cameras for tracking an object
JP2006081053A (ja) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp 移動体追跡支援システム
US20080211916A1 (en) * 2007-03-02 2008-09-04 Fujifilm Corporation Image capturing system, image capturing method, and computer program product
JP2008219570A (ja) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd カメラ間連結関係情報生成装置
JP2010161732A (ja) * 2009-01-09 2010-07-22 Toshiba Corp 人物監視装置、人物監視方法、及び、人物監視システム
US20120019644A1 (en) * 2009-04-10 2012-01-26 Omron Corporation Monitoring system and monitoring terminal
EP2453412A2 (en) * 2010-11-12 2012-05-16 Sony Corporation Video surveillance

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5570100A (en) * 1994-03-10 1996-10-29 Motorola, Inc. Method for providing a communication unit's estimated time of arrival
GB2378339A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Predictive control of multiple image capture devices.
ATE500580T1 (de) * 2005-03-25 2011-03-15 Sensormatic Electronics Llc Intelligente kameraauswahl und objektverfolgung
JP4937016B2 (ja) 2007-07-09 2012-05-23 三菱電機株式会社 監視装置及び監視方法及びプログラム
TWI391801B (zh) * 2008-12-01 2013-04-01 Inst Information Industry 接手視訊監控方法與系統以及電腦裝置
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
JP6210234B2 (ja) * 2012-09-19 2017-10-11 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JPWO2014050432A1 (ja) * 2012-09-27 2016-08-22 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6809760B1 (en) * 1998-06-12 2004-10-26 Canon Kabushiki Kaisha Camera control apparatus for controlling a plurality of cameras for tracking an object
JP2006081053A (ja) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp 移動体追跡支援システム
US20080211916A1 (en) * 2007-03-02 2008-09-04 Fujifilm Corporation Image capturing system, image capturing method, and computer program product
JP2008219570A (ja) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd カメラ間連結関係情報生成装置
JP2010161732A (ja) * 2009-01-09 2010-07-22 Toshiba Corp 人物監視装置、人物監視方法、及び、人物監視システム
US20120019644A1 (en) * 2009-04-10 2012-01-26 Omron Corporation Monitoring system and monitoring terminal
EP2453412A2 (en) * 2010-11-12 2012-05-16 Sony Corporation Video surveillance

Also Published As

Publication number Publication date
AU2013339935A1 (en) 2015-05-07
EP2913997B1 (en) 2021-09-29
US20150294140A1 (en) 2015-10-15
EP2913997A4 (en) 2016-07-06
US9633253B2 (en) 2017-04-25
WO2014069088A1 (ja) 2014-05-08
JP6233721B2 (ja) 2017-11-22
EP2913997A1 (en) 2015-09-02
ZA201503400B (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6233721B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP7131599B2 (ja) 情報処理システム、情報処理方法及びプログラム
US9298987B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2011048736A (ja) 監視制御装置及び監視システム
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
WO2014045670A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP6941458B2 (ja) 監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171012

R150 Certificate of patent or registration of utility model

Ref document number: 6233721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150