JP2015070354A - 移動体追跡装置、移動体追跡システムおよび移動体追跡方法 - Google Patents

移動体追跡装置、移動体追跡システムおよび移動体追跡方法 Download PDF

Info

Publication number
JP2015070354A
JP2015070354A JP2013201012A JP2013201012A JP2015070354A JP 2015070354 A JP2015070354 A JP 2015070354A JP 2013201012 A JP2013201012 A JP 2013201012A JP 2013201012 A JP2013201012 A JP 2013201012A JP 2015070354 A JP2015070354 A JP 2015070354A
Authority
JP
Japan
Prior art keywords
flow line
information
moving
moving body
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013201012A
Other languages
English (en)
Other versions
JP6206804B2 (ja
Inventor
裕一 松本
Yuichi Matsumoto
裕一 松本
宏明 由雄
Hiroaki Yoshio
宏明 由雄
陽一 合田
Yoichi Aida
陽一 合田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013201012A priority Critical patent/JP6206804B2/ja
Priority to EP14185836.5A priority patent/EP2854107B1/en
Priority to US14/496,055 priority patent/US9514542B2/en
Priority to CN201410505748.7A priority patent/CN104519317B/zh
Publication of JP2015070354A publication Critical patent/JP2015070354A/ja
Application granted granted Critical
Publication of JP6206804B2 publication Critical patent/JP6206804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】移動体の動線をリアルタイムな映像上に重畳して表示する際に、ユーザに違和感を与えることがなく、移動体の移動状況を適切に把握することができるようにする。【解決手段】監視エリアのリアルタイムな映像上に移動体の動線を重畳した画面をモニタ7に表示させるために、映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置を、映像から移動体を検出して検出位置情報を出力する移動体検出部22と、検出位置情報に含まれる誤検出情報を排除して、移動体の移動経路として最適化された確定動線を生成する確定動線生成部23と、検出位置情報による略最新の検出位置と確定動線の終点との間の未確定区間を補間する暫定動線を生成する暫定動線生成部24と、確定動線および暫定動線を統合した統合動線に関する動線情報を取得する動線情報取得部25と、を備えたものとする。【選択図】図2

Description

本発明は、監視エリアのリアルタイムな映像上に移動体の動線を重畳した画面を表示装置に表示させるために、映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置、移動体追跡システムおよび移動体追跡方法に関するものである。
モニタに監視エリアの映像を表示させて、その映像に映った人物などの移動体を監視する監視システムが広く普及している。また、映像から移動体を検出して、その検出位置情報に基づいて移動体の移動経路を示す動線(軌跡)を生成する技術が知られている(特許文献1参照)。このような動線生成技術を用いて、リアルタイムな映像上に動線を重畳して表示するようにすると、映像内に映った移動体と共に表示される動線を目視することで、移動体の移動状況を的確に把握することができるため、監視作業の能率を向上させることができる。
特開2011−243155号公報
さて、前記のように移動体の動線をリアルタイムな映像上に重畳して表示する場合、検出位置を時系列で連結しただけの動線では、移動体検出処理での誤検出によるノイズが含まれるため、実際の移動体の移動経路から大きく外れる場合がある。このため、移動体検出処理での誤検出によるノイズを排除して、移動体の移動経路として最適化された確定動線を生成することが望ましい。
ところが、確定動線を生成する処理には時間を要するため、動線が人物の動きから大きく遅れて表示される場合があり、この場合、人物が移動しているにも拘わらず、人物に追随するように動線が表示されないため、ユーザに違和感を与えるという問題があった。また、人物に追随するように動線が描画されないと、移動体の移動状況を適切に把握することが難しくなるため、監視作業の能率が低下するという問題があった。
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、移動体の動線をリアルタイムな映像上に重畳して表示する際に、ユーザに違和感を与えることがなく、移動体の移動状況を適切に把握することができるように構成された移動体追跡装置、移動体追跡システムおよび移動体追跡方法を提供することにある。
本発明の移動体追跡装置は、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置であって、前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、を備えた構成とする。
また、本発明の移動体追跡システムは、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡システムであって、前記監視エリアを撮像するカメラと、複数の情報処理装置と、前記映像上に前記動線を重畳した画面を表示する前記表示装置と、を有し、前記複数の情報処理装置のいずれかが、前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、前記動線情報に基づいて前記映像上に前記動線を重畳した画面を生成する画面生成手段と、を備えた構成とする。
また、本発明の移動体追跡方法は、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡方法であって、前記映像から移動体を検出して前記検出位置情報を出力するステップと、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成するステップと、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成するステップと、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得するステップと、を有する構成とする。
本発明によれば、確定動線を生成する処理の如何に拘わらず、確定動線および暫定動線を統合した統合動線が映像中に映った移動体の近くまで延びた状態で表示される。このため、動線が常に人物に追随するように表示され、ユーザに違和感を与えることを避けることができ、また、人物の移動状況を適切に把握することができるため、監視作業の能率を向上させることができる。
本実施形態に係る移動体追跡システムの全体構成図 移動体追跡装置4およびPC3の概略構成を示す機能ブロック図 確定動線生成部23および暫定動線生成部24で生成される確定動線および未確定動線の状態を説明する説明図 比較例においてモニタ7の画面に表示される動線の状態を示す説明図 本実施形態においてモニタ7の画面に表示される動線の状態を示す説明図 移動体追跡装置4で行われる処理の手順を示すフロー図 動線の表示方法の例を説明する説明図 動線の表示方法の例を説明する説明図 動線の表示方法の例を説明する説明図 暫定動線の別の例を説明する説明図 確定動線と未確定動線とを統合した統合動線の表示方法を説明する説明図 複数の人物が検出された場合の動線の表示状況を説明する説明図
前記課題を解決するためになされた第1の発明は、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置であって、前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、を備えた構成とする。
これによると、確定動線を生成する処理の如何に拘わらず、確定動線および暫定動線を統合した統合動線が映像中に映った移動体の近くまで延びた状態で表示される。このため、動線が常に人物に追随するように表示され、ユーザに違和感を与えることを避けることができ、また、人物の移動状況を適切に把握することができるため、監視作業の能率を向上させることができる。
また、第2の発明は、前記第2の動線生成手段は、前記暫定動線として、前記検出位置情報による検出位置を時系列で連結してなる未確定動線を生成する構成とする。
これによると、未確定動線には、移動体検出処理での誤検出によるノイズが含まれるため、未確定動線が実際の移動体の移動経路から大きく外れる場合もあるが、未確定動線は実際の移動体の移動経路に概ね一致するため、未確定動線に基づいて移動体の移動状況を的確に把握することができる。
また、第3の発明は、前記動線情報取得手段は、前記移動体検出手段により前記映像から複数の移動体が検出された場合に、その移動体ごとに前記動線情報を取得する構成とする。
これによると、複数の移動体が存在する場合でも移動体ごとに動線が表示されるため、各移動体の移動状況を把握することができる。特に、動線が移動体の略最新の検出位置まで延びた状態で表示されることから、移動体ごとの動線を取り違えることを避けることができるため、各移動体の移動状況を的確に把握することができる。
また、第4の発明は、前記動線情報は、前記確定動線および前記暫定動線を識別可能に表示させる表示情報を含む構成とする。
これによると、確定動線および暫定動線が識別可能に表示されるため、確定動線および暫定動線を目視で識別することができ、特に、暫定動線を未確定動線とした場合、確定動線と未確定動線とを識別することで、動線が確定する状況をユーザが把握することができる。
また、第5の発明は、前記確定動線および前記暫定動線は、線種、太さ、濃さ、および色のうちの少なくとも1つの要素が互いに異なるように描画される構成とする。
これによると、確定動線および暫定動線を目視で容易に識別することができる。
また、第6の発明は、前記確定動線および前記暫定動線のうち、一方が実線で描画され、他方が破線で描画される構成とする。
これによると、確定動線および暫定動線を目視でより一層容易に識別することができる。
また、第7の発明は、前記確定動線および前記暫定動線の少なくとも一方で、線の表示状態を定期的に変化させるアニメーション表示が行われる構成とする。
これによると、確定動線および暫定動線を識別可能に表示させることができる。なお、確定動線および暫定動線の両方でアニメーション表示を行うようにしてもよく、この場合、確定動線と暫定動線とで異なるアニメーション表示を行えばよい。
また、第8の発明は、前記確定動線および前記暫定動線の表示方法を指定するユーザの入力操作に応じて、指定された表示方法に設定する表示方法設定手段をさらに備え、この表示方法設定手段により設定された表示方法に基づいて前記表示情報を生成する構成とする。
これによると、確定動線および暫定動線の表示方法をユーザが必要に応じて自由に指定することができるため、ユーザの利便性を高めることができる。
また、第9の発明は、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡システムであって、前記監視エリアを撮像するカメラと、複数の情報処理装置と、前記映像上に前記動線を重畳した画面を表示する前記表示装置と、を有し、前記複数の情報処理装置のいずれかが、前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、前記動線情報に基づいて前記映像上に前記動線を重畳した画面を生成する画面生成手段と、を備えた構成とする。
これによると、前記の第1の発明と同様に、移動体の動線をリアルタイムな映像上に重畳して表示する際に、ユーザに違和感を与えることがなく、移動体の移動状況を適切に把握することができる。
また、第10の発明は、監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡方法であって、前記映像から移動体を検出して前記検出位置情報を出力するステップと、前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成するステップと、前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成するステップと、前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得するステップと、を有する構成とする。
これによると、前記の第1の発明と同様に、移動体の動線をリアルタイムな映像上に重畳して表示する際に、ユーザに違和感を与えることがなく、移動体の移動状況を適切に把握することができる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
図1は、本実施形態に係る移動体追跡システムの全体構成図である。この移動体追跡システムは、スーパーマーケットなどの小売店舗などを対象にして構築されるものであり、カメラ1と、レコーダ(映像記録装置)2と、PC3と、移動体追跡装置4と、を備えている。
カメラ1は店舗内の適所に設置され、カメラ1により店舗内の監視エリアが撮像され、これにより得られた映像情報がレコーダ2に録画される。
PC3には、監視員などのユーザが種々の入力操作を行うマウスなどの入力デバイス6と、監視画面を表示するモニタ(表示装置)7とが接続されている。なお、タッチパネルディスプレイで、入力デバイス6およびモニタ7を構成してもよい。
このPC3は、店舗の警備室などに設置され、監視者(警備員)が、モニタ7に表示される監視画面で、カメラ1で撮像された店舗内の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の映像を閲覧することができる。
なお、本部に設けられたPC11にも図示しないモニタが接続され、カメラ1で撮像された店舗内の映像をリアルタイムで閲覧し、また、レコーダ2に録画された過去の店舗内の映像を閲覧して、本部で店舗内の状況を確認することができる。
次に、図1に示した移動体追跡装置4で行われる移動体追跡処理について説明する。図2は、移動体追跡装置4およびPC3の概略構成を示す機能ブロック図である。
移動体追跡装置4は、映像入力部21と、移動体検出部22と、確定動線生成部(第1の動線生成手段)23と、暫定動線生成部(第2の動線生成手段)24と、動線情報取得部(動線情報取得手段)25と、動線出力部26と、表示方法設定部(表示方法設定手段)27と、を備えている。PC3は、移動体追跡装置制御部31と、画面生成部(画面生成手段)32と、を備えている。
移動体追跡装置4の映像入力部21では、カメラ1から出力される映像(フレーム)が入力される。移動体検出部22では、映像入力部21で取得した映像から人物(移動体)を検出して人物ごとの検出位置情報を出力する処理が行われる。この移動体検出処理は、公知の画像認識技術(人物検出技術および人物追跡技術など)を利用すればよい。
確定動線生成部23では、移動体検出部22で取得した検出位置情報(人物の位置座標等)に含まれる誤検出情報(ノイズなど)を排除して、人物の移動経路として最適化された確定動線を生成する処理が行われる。この確定動線生成処理は、所要のスムージングアルゴリズムを用いて、検出位置情報に対してデータクレンジングを行うものである。
暫定動線生成部24では、移動体検出部22による最新の検出位置と、確定動線生成部23で生成した確定動線の終点との間の未確定区間を補間する暫定動線を生成する処理が行われる。特に本実施形態では、暫定動線として、移動体検出部22で取得した検出位置情報による検出位置を時系列で連結してなる未確定動線を生成する処理が行われる。
動線情報取得部25では、確定動線および暫定動線を統合した統合動線に関する動線情報を取得する処理が行われる。この動線情報取得部25で取得した動線情報は動線出力部26から出力される。
PC3の移動体追跡装置制御部31では、入力デバイス6を用いて行われるユーザの入力操作に応じて、移動体追跡装置4を制御する処理、すなわち移動体追跡装置4で行われる各種の処理の条件を設定する処理などが行われる。
特に本実施形態では、確定動線および暫定動線を識別可能に表示させるための動線の表示方法に関する設定がPC3の移動体追跡装置制御部31を介して移動体追跡装置4の表示方法設定部27にて行われる。すなわち、動線の表示方法を指定する操作が、PC3の入力デバイス6を用いて行われ、このユーザの入力操作に応じて指定された表示方法に設定する処理が表示方法設定部27にて行われる。そして、動線情報取得部25にて、表示方法設定部27により設定された表示方法に基づいて、確定動線および暫定動線を識別可能に表示させる表示情報を生成する処理が行われる。この表示情報は、動線情報に含めて動線出力部26から出力される。
画面生成部32では、モニタ7に表示させる監視画面を生成する処理が行われる。特に本実施形態では、移動体追跡装置4から取得した動線情報、およびカメラ1からの映像情報に基づいて、人物の動線をリアルタイムな映像上に重畳した画面を生成する処理が行われ、特に、動線情報に含まれる表示情報に基づいて、確定動線および暫定動線が識別可能に表示される。
なお、図2に示したPC3の各部は、PC3のCPUで移動体追跡用のプログラムを実行させることで実現される。このプログラムは、専用のアプリケーションプログラムとしてPC3に導入すればよいが、この他に、移動体追跡装置4にWebサーバの機能を設けて、PC3では汎用的なWebブラウザで必要な機能を実現するようにしてもよい。
次に、図2に示した移動体追跡装置4の確定動線生成部23、暫定動線生成部24および動線情報取得部25で行われる処理について説明する。図3は、確定動線生成部23および暫定動線生成部24で生成される確定動線および未確定動線の状態を説明する説明図である。図4は、比較例においてモニタ7の画面に表示される動線の状態を示す説明図である。図5は、本実施形態においてモニタ7の画面に表示される動線の状態を示す説明図である。なお、図4および図5では、人物の位置を示す枠画像が人物を取り囲むように表示されている。
図3に示すように、確定動線生成部23にて確定動線が生成されるが、移動体検出部22で検出された検出位置の信頼度が低い状態では確定動線生成処理に時間を要するため、図3(A)に示すように、確定動線が人物の動きから大きく遅れて生成される。そして、信頼度の高い検出位置が得られるようになると、確定動線が人物の動きに追いつき、図3(B)に示すように、確定動線が映像内の人物の近くまで延びた状態となる。ここで、確定動線生成処理の遅れが信頼度に起因することとして説明したが、一般的に、この遅れは、スムージングアルゴリズムの処理的な負荷が影響するものである。例えば、ある程度の過去、未来の検出位置情報を踏まえた上で現在の検出位置を確定させるようなスムージングアルゴリズムでは、ある程度の未来のフレーム時間分、確定動線の生成(更新)処理が遅れることとなる。
ここで、リアルタイムな映像上に確定動線を重畳して表示させると、図3(A)に示す状態では、図4(A)に示すように、確定動線が映像中に映った人物から大きく離れた状態となり、人物が移動していても動線は止まっているように描画される。そして、図3(B)に示す状態となると、図4(B)に示すように、一気に確定動線が描画される。このように、確定動線を表示させるだけでは、人物が移動しているにも拘わらず、人物に追随するように動線が描画されず、ユーザに違和感を与える。また、人物の移動状況を適切に把握することができないため、監視作業の能率が低下する。
一方、本実施形態では、暫定動線生成部24にて、移動体検出部22による最新の検出位置と確定動線の終点との間の未確定区間を補間する暫定動線として、検出位置情報による検出位置を時系列で連結してなる未確定動線を生成し、動線情報取得部25にて、確定動線および未確定動線を統合した統合動線を生成するようにしている。
このため、図3(A)に示す状態では、図5(A)に示すように、確定動線および未確定動線を統合した統合動線が映像中に映った人物の近くまで延びた状態で表示される。そして、図3(B)に示す状態となると、図5(B)に示すように、図5(A)に示す状態で未確定動線で表示されていた区間が確定動線に置き換わる。このように、本実施形態では、人物に追随するように動線が表示されるため、ユーザに違和感を与えることを避けることができ、また、人物の移動状況を適切に把握することができるため、監視作業の能率を向上させることができる。
なお、確定動線生成処理は、移動体検出処理での誤検出の程度に影響されるため、移動体検出処理での誤検出の多少に応じて未確定動線の長さが変化するが、確定動線生成処理の如何に拘わらず、確定動線および暫定動線を統合した統合動線は映像中に映った移動体の近くまで延びた状態で表示される。また、移動体検出処理にも相応の処理時間が必要となるため、厳密には未確定動線の終点、すなわち最新の検出位置は映像中に映った人物像の真上に位置しないが、移動体検出処理にはさほど時間を要しないため、映像内に映った人物とその人物の最新の検出位置との間には大きなずれは生じないため、未確定動線は、映像中に映った人物像の直近まで延びた状態で表示される。
また、本実施形態では、最新の検出位置と確定動線の終点との間の未確定区間を補間する暫定動線として、検出位置を時系列で連結してなる未確定動線を表示するようにしており、この未確定動線には、移動体検出処理での誤検出によるノイズが含まれるため、未確定動線が実際の人物の移動経路から大きく外れる場合もあるが、未確定動線は実際の人物の移動経路に概ね一致するため、未確定動線に基づいて人物の移動状況を的確に把握することができる。
また、本実施形態では、確定動線および暫定動線の表示方法を指定するユーザの入力操作に応じて、指定された表示方法に設定する処理が表示方法設定部27で行われて、ここで設定された表示方法に基づいて動線の表示情報が動線情報取得部25で生成するようになっており、これにより、確定動線および暫定動線の表示方法をユーザが必要に応じて自由に指定することができるため、ユーザの利便性を高めることができる。
次に、図2に示した移動体追跡装置4で行われる処理の手順について説明する。図6は、移動体追跡装置4で行われる処理の手順を示すフロー図である。
移動体追跡装置4では、まず、カメラ1から出力される映像(フレーム)が映像入力部21に入力されると(ST101)、移動体検出部22にて映像から人物を検出する処理が行われる(ST102)。そして、映像から人物を検出した場合には(ST103でYES)、確定動線生成部23にて移動体検出情報に基づいて確定動線を生成する処理が行われる(ST104)。また、暫定動線生成部24にて移動体検出情報に基づいて未確定動線を生成する処理が行われる(ST105)。ついで、動線情報取得部25にて確定動線および未確定動線を統合した統合動線に関する動線情報を取得する処理が行われ(ST106)、動線情報取得部25で生成した動線情報が動線出力部26から出力される(ST107)。
一方、映像から人物を検出することができなかった場合には(ST103でNO)、確定動線生成、暫定動線生成、動線情報取得および動線情報出力の各処理(ST104〜ST107)は行われず、次の映像(フレーム)の処理に進む。
次に、図2に示したモニタ7の画面に表示される動線の表示方法について説明する。図7、図8および図9は、動線の表示方法の例を説明する説明図である。
図7(A)に示す例では、確定動線および未確定動線が異なる線種の線で描画されている。特にここでは、確定動線が実線で描画され、未確定動線が破線で描画されている。なお、確定動線および未確定動線を、実線および破線以外の他の線種の線、例えば点線、一点鎖線および二点鎖線などで描画するようにしてもよい。
また、図7(B)に示す例では、確定動線および未確定動線が異なる濃さ(濃度)の線で描画されている。特にここでは、確定動線が濃い線で描画され、未確定動線が薄い線で描画されている。なお、確定動線および未確定動線を異なる色合い(色相)の線で描画するようにしてもよい。例えば、確定動線を赤色で描画し、未確定動線を青色で描画するようにしてもよい。
また、図7(C)に示す例では、確定動線および未確定動線が異なる太さの線で描画されている。特にここでは、確定動線が太線で描画され、未確定動線が細線で描画されている。
このように本実施形態では、確定動線および暫定動線が識別可能に表示されるため、確定動線および暫定動線を目視で識別することができ、特に、暫定動線を未確定動線とした場合、確定動線と未確定動線とを識別することで、動線が確定する状況をユーザが把握することができる。
特に、本実施形態では、確定動線および暫定動線が、線種、太さ、濃さ、および色のうちの少なくとも1つ要素が異なるように描画されるため、確定動線および暫定動線を目視で容易に識別することができる。
一方、図8に示す例では、未確定動線において、線の表示状態を定期的に変化させるアニメーション表示が行われる。特に本実施形態では、未確定動線が点滅表示される。すなわち、図8(A)に示すように、未確定動線が表示された第1の表示状態と、図8(B)に示すように、未確定動線が表示されていない第2の表示状態とが交互に繰り返される。確定動線は常時表示されている。
このように本実施形態では、未確定動線において、線の表示状態を定期的に変化させるアニメーション表示が行われるため、確定動線および未確定動線を識別可能に表示させることができる。
なお、確定動線でアニメーション表示を行うようにしてもよい。また、確定動線および暫定動線の両方でアニメーション表示を行うようにしてもよく、この場合、確定動線と暫定動線とで異なるアニメーション表示を行えばよい。
また、図7および図8に示した例では、未確定区間のみ未確定動線を表示するようにしたが、図9に示す例では、確定区間および未確定区間の両方で未確定動線が表示され、確定区間では確定動線および未確定動線がともに表示されている。
なお、図7、図8および図9に示した動線の表示方法を適宜に組み合わせることも可能である。例えば、図7(A)に示したように、確定動線および未確定動線を表す実線および破線を、図7(B)に示した例と同様に、濃さや色合いが異なるように描画するようにしてもよい。また、図8に示した例では、確定動線と、アニメーション表示が行われる未確定動線とをともに実線で描画しているが、この確定動線および未確定動線を、図7に示した例と同様に、線種などが異なるように描画するようにしてもよい。
次に、暫定動線の別の例について説明する。図10は、暫定動線の別の例を説明する説明図である。
図10(A)に示す例は、図7に示した例と同様に、未確定区間の暫定動線として、検出位置を時系列で連結してなる未確定動線を表示するようにしている。
一方、図10(B)に示す例では、未確定区間の暫定動線として直線を表示するようにしている。この直線は、移動体検出部22による最新の検出位置と確定動線の終点とを結ぶように描画される。なお、未確定区間の暫定動線を曲線で表示するようにしてもよい。この場合、確定動線の終点付近の曲率(曲がり具合)などに基づいて曲線を設定すればよい。
また、図10(C)に示す例では、未確定動線を簡略化した暫定動線が表示されている。図10(A)に示す例では、時系列で並んだ全ての検出位置を結ぶように未確定動線が描画されているが、この図10(C)に示す例では、検出位置を一部省略する、すなわち時系列で並んだ検出位置を間引きした折れ線で暫定動線が描画されている。
なお、図10に示した暫定動線の各形態は、図7〜図9に示した確定動線および未確定動線の表示方法と同様に、ユーザの必要に応じて適宜に選択することができるようにするとよい。
次に、確定動線と未確定動線とを統合した統合動線の表示方法について説明する。図11は、確定動線と未確定動線とを統合した統合動線の表示方法を説明する説明図である。
確定動線と未確定動線とを統合した統合動線を表示する場合、未確定動線は、未確定区間、すなわち確定動線の終点の時刻以降の期間における検出位置を時系列で連結して生成されるが、確定動線の終点と同一の時刻における検出位置、すなわち未確定動線の始点は、確定動線の終点と必ずしも一致しない。そこで、図11(A),(B)に示す描画方法が採用される。
図11(A)に示す例では、確定動線の終点と未確定動線の始点とを連結線で連結している。連結線は直線とすればよいが、曲線としてもよい。この場合、確定動線の終点付近および未確定動線の始点付近の曲率(曲がり具合)などに基づいて曲線を設定すればよい。
図11(B)に示す例では、確定動線の終点と未確定動線の始点とを連結せず、確定動線と未確定動線との間に隙間が形成されている。この場合、確定動線と未確定動線との間の隙間が大きいと、ユーザに違和感を与えるが、通常、同一時刻における確定動線の終点と未確定動線の始点とのずれはさほど大きくならないため、確定動線と未確定動線との間の隙間は小さく、ユーザに大きな違和感を与えることはない。
なお、図11に示した統合動線の描画方法は、図7〜図9に示した確定動線および未確定動線の表示方法と同様に、ユーザの必要に応じて適宜に選択することができるようにするとよい。
次に、複数の人物が検出された場合の動線の表示状況について説明する。図12は、複数の人物が検出された場合の動線の表示状況を説明する説明図である。ここでは、2人の場合を示すが、これより多い場合も同様である。
まず、図12(A)に示すように、2人の人物が検出されると、1人の場合と同様に、2人の人物の各々に確定動線および未確定動線が表示される。そして、図12(B)に示すように、2人の人物が接近すると、2人の人物に確定動線が別々に表示されるが、未確定動線は2人の人物で1本になる。そして図12(C−1)に示すように、2人の人物が離れると、2人の人物に別々に確定動線および未確定動線が表示される。
一方、図12(B)に示す状態から、図12(C−2)に示すように、2人の人物が離れないままで移動すると、2人の人物にそれぞれ表示されていた2本の確定動線が1本になり、2人の人物の未確定動線も1本になる。
このように本実施形態では、複数の人物が存在する場合でも人物ごとに動線が表示されるため、各人物の移動状況を把握することができる。特に本実施形態では、動線が人物の最新の検出位置まで延びた状態で表示されることから、人物ごとの動線を取り違えることを避けることができるため、各人物の移動状況を的確に把握することができる。
以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る移動体追跡装置、移動体追跡システムおよび移動体追跡方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
例えば、本実施形態では、スーパーマーケットなどの小売店舗の例について説明したが、ファミリーレストランなどの飲食店など、小売店舗以外の業務形態の店舗に適用することも可能であり、さらに、広域監視システムが採用される工場、空港、鉄道、高速道路、公共施設、電力設備などの店舗以外の施設にも適用することができる。
また、本実施形態では、追跡対象となる移動体を人物とした例について説明したが、人物以外の移動体、例えば自動車や自転車などの車両を追跡対象とする用途で用いることも可能である。
また、本実施形態では、移動体検出部22による最新の検出位置に基づいて暫定動線(未確定動線)を生成するようにしたが、必ずしも最新の検出位置に基づいて暫定動線を生成する必要はなく、最新の検出位置に時間的に近接する時点の検出位置に基づいて暫定動線を生成するようにしてもよい。
また、本実施形態では、カメラ1とは別に移動体追跡装置4を設けたが、この移動体追跡装置の機能の一部あるいは全部をカメラ1に一体化して移動体追跡機能付き撮像装置として構成することも可能である。また、処理の高速化を図るため、移動体追跡装置4の機能の一部、例えば確定動線生成部23および動線情報取得部25をPC3に設ける構成も可能である。また、PC3の機能を移動体追跡装置4と一体化する構成や、移動体追跡装置お4よびPC3の機能をレコーダ2と一体化する構成も可能であり、このような構成ではPC3が不要となる。
また、図2に示されるように、表示方法設定部27を移動体追跡装置4に設ける構成となっているが、PC3に表示方法設定部27を設けることも可能である。この場合、動線出力部26から出力される確定動線、未確定動線に対する表示方法をPC3側で選択することができるようになる。
また、本実施形態では、移動体追跡処理の全てを、店舗に設けられた装置に行わせるようにしたが、これらの必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置で移動体追跡システムが構成される。
このような構成では、店舗に設けられた装置に、少なくとも移動体検出処理を行わせるようにするとよい。このように構成すると、移動体検出処理で取得した情報はデータ量が少なくて済むため、残りの処理を店舗とは異なる場所に設置された情報処理装置、例えば本部に設置されたPC11に行わせるようにしても、通信負荷を軽減することができるため、広域ネットワーク接続形態によるシステムの運用が容易になる。
また、クラウドコンピュータ12に、少なくとも確定動線生成処理を行わせるようにしてもよい。このように構成すると、確定動線生成処理は演算量が大きくなるため、これをクラウドコンピューティングシステムを構成する情報処理装置に行わせることで、店舗などのユーザ側に高速な情報処理装置が不要となり、また、残りの処理は演算量が小さくて済むため、店舗に設置された販売情報管理装置を構成する情報処理装置に拡張機能として兼用させることも可能になり、これによりユーザが負担するコストを軽減することができる。
また、クラウドコンピュータ12に必要な処理の全部または一部を行わせ、あるいは、移動体追跡処理で得られた動線情報をクラウドコンピュータ12に送信するようにしてもよく、このように構成すると、店舗や本部に設けられたPC3,11の他に、スマートフォン13などの携帯型端末でも移動体の追跡状況を閲覧することができるようになり、これにより店舗や本部の他に外出先などの任意の場所で移動体の追跡状況を閲覧することができる。
また、本実施形態では、店舗に設置されたPC3のモニタ7に動線を重畳した監視画面を表示するようにしたが、監視画面の表示装置をPC3とは別に設けることも可能であり、例えば、前記のように本部に設置されたPC11やスマートフォン13を監視画面の表示装置とする他に、店舗に設置された販売情報管理装置に監視画面の表示装置としての機能を付加することも可能である。
本発明にかかる移動体追跡装置、移動体追跡システムおよび移動体追跡方法は、移動体の動線をリアルタイムな映像上に重畳して表示する際に、ユーザに違和感を与えることがなく、移動体の移動状況を適切に把握することができる効果を有し、監視エリアのリアルタイムな映像上に移動体の動線を重畳した画面を表示装置に表示させるために、映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置、移動体追跡システムおよび移動体追跡方法などとして有用である。
1 カメラ
2 レコーダ
3 PC
4 移動体追跡装置
6 入力デバイス
7 モニタ(表示装置)
11 PC
12 クラウドコンピュータ
13 スマートフォン
22 移動体検出部(移動体検出手段)
23 確定動線生成部(第1の動線生成手段)
24 暫定動線生成部(第2の動線生成手段)
25 動線情報取得部(動線情報取得手段)
27 表示方法設定部(表示方法設定手段)
31 移動体追跡装置制御部
32 画面生成部(画面生成手段)

Claims (10)

  1. 監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡装置であって、
    前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、
    前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、
    前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、
    前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、
    を備えたことを特徴とする移動体追跡装置。
  2. 前記第2の動線生成手段は、前記暫定動線として、前記検出位置情報による検出位置を時系列で連結してなる未確定動線を生成することを特徴とする請求項1に記載の移動体追跡装置。
  3. 前記動線情報取得手段は、前記移動体検出手段により前記映像から複数の移動体が検出された場合に、その移動体ごとに前記動線情報を取得することを特徴とする請求項1または請求項2に記載の移動体追跡装置。
  4. 前記動線情報は、前記確定動線および前記暫定動線を識別可能に表示させる表示情報を含むことを特徴とする請求項1から請求項3のいずれかに記載の移動体追跡装置。
  5. 前記確定動線および前記暫定動線は、線種、太さ、濃さ、および色のうちの少なくとも1つの要素が互いに異なるように描画されることを特徴とする請求項4に記載の移動体追跡装置。
  6. 前記確定動線および前記暫定動線のうち、一方が実線で描画され、他方が破線で描画されることを特徴とする請求項5に記載の移動体追跡装置。
  7. 前記確定動線および前記暫定動線の少なくとも一方で、線の表示状態を定期的に変化させるアニメーション表示が行われることを特徴とする請求項4から請求項6のいずれかに記載の移動体追跡装置。
  8. 前記確定動線および前記暫定動線の表示方法を指定するユーザの入力操作に応じて、指定された表示方法に設定する表示方法設定手段をさらに備え、
    この表示方法設定手段により設定された表示方法に基づいて前記表示情報を生成することを特徴とする請求項4から請求項7のいずれかに記載の移動体追跡装置。
  9. 監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡システムであって、
    前記監視エリアを撮像するカメラと、
    複数の情報処理装置と、
    前記映像上に前記動線を重畳した画面を表示する前記表示装置と、
    を有し、
    前記複数の情報処理装置のいずれかが、
    前記映像から移動体を検出して前記検出位置情報を出力する移動体検出手段と、
    前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成する第1の動線生成手段と、
    前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成する第2の動線生成手段と、
    前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得する動線情報取得手段と、
    前記動線情報に基づいて前記映像上に前記動線を重畳した画面を生成する画面生成手段と、
    を備えたことを特徴とする移動体追跡システム。
  10. 監視エリアのリアルタイムな映像上に移動体の移動経路を示す動線を重畳した画面を表示装置に表示させるために、前記映像から移動体を検出して得られた検出位置情報に基づいて動線情報を取得する移動体追跡方法であって、
    前記映像から移動体を検出して前記検出位置情報を出力するステップと、
    前記検出位置情報に含まれる誤検出情報を排除して、前記移動体の移動経路として最適化された確定動線を生成するステップと、
    前記検出位置情報による略最新の検出位置と前記確定動線の終点との間の未確定区間を補間する暫定動線を生成するステップと、
    前記確定動線および前記暫定動線を統合した統合動線に関する前記動線情報を取得するステップと、
    を有することを特徴とする移動体追跡方法。
JP2013201012A 2013-09-27 2013-09-27 移動体追跡装置、移動体追跡システムおよび移動体追跡方法 Active JP6206804B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013201012A JP6206804B2 (ja) 2013-09-27 2013-09-27 移動体追跡装置、移動体追跡システムおよび移動体追跡方法
EP14185836.5A EP2854107B1 (en) 2013-09-27 2014-09-22 Moving object tracking device, moving object tracking system and moving object tracking method
US14/496,055 US9514542B2 (en) 2013-09-27 2014-09-25 Moving object tracking device, moving object tracking system and moving object tracking method
CN201410505748.7A CN104519317B (zh) 2013-09-27 2014-09-26 运动对象跟踪装置、运动对象跟踪系统及运动对象跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013201012A JP6206804B2 (ja) 2013-09-27 2013-09-27 移動体追跡装置、移動体追跡システムおよび移動体追跡方法

Publications (2)

Publication Number Publication Date
JP2015070354A true JP2015070354A (ja) 2015-04-13
JP6206804B2 JP6206804B2 (ja) 2017-10-04

Family

ID=51661860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013201012A Active JP6206804B2 (ja) 2013-09-27 2013-09-27 移動体追跡装置、移動体追跡システムおよび移動体追跡方法

Country Status (4)

Country Link
US (1) US9514542B2 (ja)
EP (1) EP2854107B1 (ja)
JP (1) JP6206804B2 (ja)
CN (1) CN104519317B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180040A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
EP3483821A4 (en) * 2016-07-05 2019-05-15 Panasonic Intellectual Property Management Co., Ltd. INFORMATION PRESENTATION DEVICE, INFORMATION PRESENTATION SYSTEM AND INFORMATION PRESENTATION METHOD

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6544073B2 (ja) * 2015-06-22 2019-07-17 セイコーエプソン株式会社 画像表示システムおよび画像表示方法
CN106791586A (zh) * 2015-11-19 2017-05-31 杭州海康威视数字技术股份有限公司 一种对移动目标进行监控的方法及监控设备、装置、系统
JP2017174273A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 動線生成装置及びプログラム
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
CN108198232B (zh) * 2017-12-14 2021-04-16 浙江大华技术股份有限公司 一种轨迹框绘制的方法及设备
CN109034075A (zh) * 2018-07-31 2018-12-18 中国人民解放军61646部队 面阵凝视型遥感卫星跟踪舰船目标的方法
CN109102530B (zh) * 2018-08-21 2020-09-04 北京字节跳动网络技术有限公司 运动轨迹绘制方法、装置、设备和存储介质
CN109618218B (zh) * 2019-01-31 2021-05-28 维沃移动通信有限公司 一种视频处理方法及移动终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179294A1 (en) * 2002-03-22 2003-09-25 Martins Fernando C.M. Method for simultaneous visual tracking of multiple bodies in a closed structured environment
WO2006012645A2 (en) * 2004-07-28 2006-02-02 Sarnoff Corporation Method and apparatus for total situational awareness and monitoring
WO2010044186A1 (ja) * 2008-10-17 2010-04-22 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
WO2011021588A1 (ja) * 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
JP2011254289A (ja) * 2010-06-02 2011-12-15 Toa Corp 移動体軌跡表示装置および移動体軌跡表示プログラム
JP2012234285A (ja) * 2011-04-28 2012-11-29 Dainippon Printing Co Ltd 画像解析装置、画像解析方法、画像解析プログラム及び記録媒体
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483630A (en) * 1990-07-12 1996-01-09 Hitachi, Ltd. Method and apparatus for representing motion of multiple-jointed object, computer graphic apparatus, and robot controller
GB2431805A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Video motion detection
US7957565B1 (en) * 2007-04-05 2011-06-07 Videomining Corporation Method and system for recognizing employees in a physical space based on automatic behavior analysis
JP2009290827A (ja) * 2008-06-02 2009-12-10 Sony Corp 画像処理装置および画像処理方法
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation
GB2469074A (en) * 2009-03-31 2010-10-06 Sony Corp Object tracking with polynomial position adjustment
JP5528151B2 (ja) 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
CN102473307B (zh) * 2010-03-15 2015-05-27 松下电器产业株式会社 用于轨迹估计的方法和装置以及用于分割的方法
JP5567899B2 (ja) 2010-05-21 2014-08-06 パナソニック株式会社 動線作成装置及び動線作成方法
US8849054B2 (en) * 2010-12-23 2014-09-30 Samsung Electronics Co., Ltd Digital image stabilization
CN103329518B (zh) 2011-01-11 2016-08-17 松下电器产业株式会社 拍摄系统及其使用的摄像机控制装置、拍摄方法及摄像机控制方法
JP5975353B2 (ja) 2011-03-31 2016-08-23 パナソニックIpマネジメント株式会社 人数計測装置
US20150178972A1 (en) * 2011-06-14 2015-06-25 Google Inc. Animated Visualization of GPS Data in a GIS System
US20130030875A1 (en) 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification
US20130027561A1 (en) 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
US10109097B2 (en) * 2011-08-01 2018-10-23 Autodesk, Inc. Dynamic collision avoidance for crowd simulation over structured paths that intersect at waypoints
US9183658B2 (en) * 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US9781336B2 (en) 2012-01-30 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Optimum camera setting device and optimum camera setting method
US20140267186A1 (en) * 2013-03-15 2014-09-18 Research In Motion Limited Active stylus low energy indication on a touch-sensitive display device
US9875550B2 (en) * 2013-08-28 2018-01-23 Disney Enterprises, Inc. Method and device for tracking sports players with context-conditioned motion models

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179294A1 (en) * 2002-03-22 2003-09-25 Martins Fernando C.M. Method for simultaneous visual tracking of multiple bodies in a closed structured environment
WO2006012645A2 (en) * 2004-07-28 2006-02-02 Sarnoff Corporation Method and apparatus for total situational awareness and monitoring
WO2010044186A1 (ja) * 2008-10-17 2010-04-22 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
WO2011021588A1 (ja) * 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
JP2011254289A (ja) * 2010-06-02 2011-12-15 Toa Corp 移動体軌跡表示装置および移動体軌跡表示プログラム
JP2012234285A (ja) * 2011-04-28 2012-11-29 Dainippon Printing Co Ltd 画像解析装置、画像解析方法、画像解析プログラム及び記録媒体
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3483821A4 (en) * 2016-07-05 2019-05-15 Panasonic Intellectual Property Management Co., Ltd. INFORMATION PRESENTATION DEVICE, INFORMATION PRESENTATION SYSTEM AND INFORMATION PRESENTATION METHOD
WO2018180040A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JPWO2018180040A1 (ja) * 2017-03-31 2019-12-19 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
US10846865B2 (en) 2017-03-31 2020-11-24 Nec Corporation Video image processing device, video image analysis system, method, and program

Also Published As

Publication number Publication date
CN104519317B (zh) 2018-12-25
JP6206804B2 (ja) 2017-10-04
US20150091944A1 (en) 2015-04-02
US9514542B2 (en) 2016-12-06
EP2854107A1 (en) 2015-04-01
EP2854107B1 (en) 2017-06-14
CN104519317A (zh) 2015-04-15

Similar Documents

Publication Publication Date Title
JP6206804B2 (ja) 移動体追跡装置、移動体追跡システムおよび移動体追跡方法
JP5866564B1 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
TWI773797B (zh) 用以追蹤真實空間之區域中的多關節主體之系統,方法及電腦程式產品
JP5597781B1 (ja) 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP5506989B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
EP3043291B1 (en) Method and system for queue length analysis
JP5954106B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5874884B1 (ja) 施設利用状況計測装置、施設利用状況計測システム及び施設利用状況計測方法
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5853141B2 (ja) 人数計測装置、人数計測システムおよび人数計測方法
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JPWO2014045843A1 (ja) 画像処理システム、画像処理方法及びプログラム
US20210090611A1 (en) Information processing apparatus, control method, and program
JP6399096B2 (ja) 情報処理装置、表示方法およびコンピュータプログラム
CN113361364B (zh) 目标行为检测方法、装置、设备及存储介质
US12100219B2 (en) Generating images or timelines based on user-configured thresholds for number of people and staying time in target area
Bouma et al. WPSS: Watching people security services
TW201822082A (zh) 智慧型影像辨識動態規劃之系統及方法
JP2022026849A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2013155623A1 (en) System and method for processing image or audio data
JP7371704B2 (ja) 流量情報出力装置、制御方法、及びプログラム
Song et al. Pedestrian Abnormal Behavior Detection System Using Edge–Server Architecture for Large–Scale CCTV Environments
WO2023191987A1 (en) Pose detection using thermal data
WO2022047342A1 (en) System and method for using deep neural networks for adding value to video streams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R151 Written notification of patent or utility model registration

Ref document number: 6206804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151