JPWO2018181484A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JPWO2018181484A1
JPWO2018181484A1 JP2019509981A JP2019509981A JPWO2018181484A1 JP WO2018181484 A1 JPWO2018181484 A1 JP WO2018181484A1 JP 2019509981 A JP2019509981 A JP 2019509981A JP 2019509981 A JP2019509981 A JP 2019509981A JP WO2018181484 A1 JPWO2018181484 A1 JP WO2018181484A1
Authority
JP
Japan
Prior art keywords
column
row
detecting
element information
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019509981A
Other languages
English (en)
Other versions
JP7156269B2 (ja
Inventor
拓也 小川
拓也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018181484A1 publication Critical patent/JPWO2018181484A1/ja
Application granted granted Critical
Publication of JP7156269B2 publication Critical patent/JP7156269B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明の情報処理装置は、動画データ(12)からオブジェクト列(20)を検出する。また、本発明の情報処理装置は、オブジェクト列(20)が検出された動画フレーム(14)を用いて要素情報を生成する。要素情報は、オブジェクト列(20)に含まれるオブジェクト(22)がその動画フレーム(14)において占めるオブジェクト領域(24)と、そのオブジェクト(22)の属性とを対応付けた情報である。さらに本発明の情報処理装置は、要素情報と、要素情報が生成された動画フレーム(14)以降に生成される動画フレーム(14)に対するオブジェクト検出の結果とに基づいて、オブジェクト列(20)の変化を検出する。そして、本発明の情報処理装置は、変化が検出されたオブジェクト列(20)について要素情報を生成することで、その後に利用する要素情報を更新する。

Description

本発明は、情報処理装置、制御方法、及びプログラムに関する。
人などのオブジェクトの列を映像から検出して管理する技術が開発されている。例えば特許文献1から3は、映像から検出される全ての注目物体によって列が形成されているとみなし、映像に含まれる注目物体を計数することで、列の待ち時間を推測する技術を開示している。特許文献4は、直線上に並ぶオブジェクトを一つの列として検出する技術を開示している。特許文献5は、設置したマーカ内に含まれる領域を列ができる領域として扱うことで、映像から列を検出する技術を開示している。
特許文献6は、映像から列を形成する人の移動の軌跡を検出することで、列の仕切り線(列の外枠)を検出する技術を開示している。特許文献7は、映像から検出される複数の人それぞれについて移動方向を算出し、その移動方向が所定の方向と異なる人物を、列に含まれない人物として列から除外する技術を開示している。特許文献8は、列に並んでいない新たな対象が、列の末尾から所定距離内の場所において静止若しくは微動する場合、又は列の末尾以外の部分と所定の割り込み距離内の場所において静止若しくは微動する場合に、その対象が列に加わったことを検出する技術を開示している。
特許文献9は、所定の場所に形成される人の列にグループが含まれることを認識し、グループの数に基づいて列の待ち時間を算出する技術を開示している。特許文献10は、列を構成していない人が、列の末尾の人との距離が所定距離以下の場所に接近し、なおかつその位置が列の方向と所定の角度の範囲に含まれる場合に、行列に新たな人が加わることを検出する技術を開示している。特許文献11は、顧客が利用する買い物カゴに発光する機構を設けておき、顧客が列に並んだ時に買い物カゴが発光するようにすることで、複数の列の中から顧客が並んだ列を特定する技術を開示している。
特開平11−164040号公報 特開平11−175694号公報 特開2001−291144号公報 特開2005−216217号公報 特開2005−242896号公報 特開2005−316582号公報 特開2007−317052号公報 特表2008−519567号公報 特開2015−215787号公報 特開2013−109395号公報 特開2011−096140号公報
本発明者は、オブジェクトの列の変化を検出する新たな技術を見出した。本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、オブジェクトの列の変化を検出する新たな技術を提供することである。
本発明の情報処理装置は、1)動画データからオブジェクトの列を検出する列検出手段と、2)前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成手段と、3)前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出手段と、を有する。
前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する。
本発明の制御方法は、コンピュータによって実行される。当該制御方法は、1)動画データからオブジェクトの列を検出する列検出ステップと、2)前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成ステップと、3)前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出ステップと、を有する。
前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、オブジェクトの列の変化を検出する新たな技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置の動作の概要を例示する図である。 実施形態1の情報処理装置がオブジェクト列の変化を検出する処理を時系列で例示する図である。 実施形態1の情報処理装置の構成を例示する図である。 情報処理装置を実現するための計算機を例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 動画データから検出されるオブジェクトがトラッキングされている様子を例示する図である。 新たなオブジェクト列を検出する方法を例示する図である。 予定領域を利用してオブジェクト列を検出する方法を例示する図である。 オブジェクト領域を特定する方法を例示する図である。 先頭のオブジェクトがオブジェクト列から離脱するケースを例示する図である。 末尾のオブジェクトがオブジェクト列から離脱するケースを例示する図である。 中間層のオブジェクト領域が離脱するケースを例示する図である。 オブジェクトがオブジェクト列に加入するケースを例示する図である。 オブジェクトグループによって構成されるオブジェクト列を例示する図である。 実施形態2の情報処理装置を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<概要>
図1及び図2は、実施形態1の情報処理装置(後述する情報処理装置2000)の動作の概要を例示する図である。以下で説明する情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は以下の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては後述する。
情報処理装置2000は、カメラ10によって生成された動画データ12からオブジェクト列20を検出する。オブジェクト列20は、オブジェクト22によって構成される列である。図1では、動画フレーム14に含まれるオブジェクト22−1からオブジェクト22−8のうち、オブジェクト22−1からオブジェクト22−4によって、オブジェクト列20が構成されている。動画フレーム14は、オブジェクト列20を構成する動画フレームの内の1つである。
オブジェクト列20としては、任意のものを扱うことができる。例えばオブジェクト列20は、レジカウンタや券売機などの利用を待つ人の列である。この場合、オブジェクト22は人である。その他にも例えば、オブジェクト列20は、駐車場の利用を待つ車両の列である。この場合、オブジェクト22は車両である。図1において、オブジェクト22は人である。
情報処理装置2000は、オブジェクト列20が検出された動画フレーム14を利用して、そのオブジェクト列20に含まれるオブジェクト22に関する情報である要素情報を生成する。要素情報は、オブジェクト列20に含まれるオブジェクト22ごとに、そのオブジェクト22がその動画フレーム14において占める領域(以下、オブジェクト領域24)とそのオブジェクト22の属性とを対応付けた情報である。
例えば図1において、オブジェクト22−1からオブジェクト22−4のオブジェクト領域24はそれぞれ、オブジェクト領域24−1からオブジェクト領域24−4である。そして、要素情報は、オブジェクト22−1からオブジェクト22−4の属性それぞれを、オブジェクト領域24−1からオブジェクト領域24−4と対応付けている。要素情報によれば、1つの動画フレーム14に含まれるオブジェクト列20を、そのオブジェクト列20を構成する各オブジェクト22が占めるオブジェクト領域24で区切ることで表現することができる。
さらに情報処理装置2000は、動画フレーム14から生成された要素情報と、その動画フレーム14よりも後に生成された各動画フレーム14に対するオブジェクト22の検出の結果とに基づいて、オブジェクト列20の変化を検出する。そして、情報処理装置2000は、変化後のオブジェクト列20について要素情報を生成することで、変化検出部2060が利用する要素情報を更新する。情報処理装置2000がオブジェクト列20の変化を検出する具体的な方法などについては後述する。
図2は、情報処理装置2000がオブジェクト列20の変化を検出する処理を時系列で例示する図である。図2の例では、時点 Tb において、「先頭のオブジェクト22がオブジェクト列20から離脱する」というオブジェクト列20の変化が起きている。
情報処理装置2000は、時点 Ta に生成された動画フレーム14−1からオブジェクト列20を検出する。そして情報処理装置2000は、動画フレーム14−1を用いて要素情報を生成する。ここで生成される要素情報は、図1に示した要素情報と同じ要素情報である。
その後の時点 Tb において、オブジェクト列20から先頭のオブジェクト22(p001 という識別子を持つオブジェクト22)が離脱する。情報処理装置2000は、この「先頭のオブジェクト22の離脱」というオブジェクト列20の変化を、時点 Ta に生成された要素情報と、時点 Ta 以降に生成された動画フレーム14におけるオブジェクト22の検出結果とに基づいて検出する。情報処理装置2000は、変化後のオブジェクト列20について要素情報を生成することで、オブジェクト列20の変化の検出に利用する要素情報を更新する。
以降、情報処理装置2000は、「直近に生成された要素情報を用いてオブジェクト列20の変化を検出し、要素情報を更新する。」という処理を繰り返す。
本実施形態の情報処理装置2000によれば、動画データ12から検出されるオブジェクト列20について、そのオブジェクト列20を構成する各オブジェクト22が占める領域(オブジェクト領域24)と、そのオブジェクト22の属性とを示す要素情報が生成される。このようにすることで、動画データ12におけるオブジェクト列20の構成を正確に把握できる。
さらに、情報処理装置2000は、要素情報が生成された動画フレーム14以降の各動画フレーム14におけるオブジェクト22の検出結果と要素情報とに基づいて、オブジェクト列20の変化を検出する。こうすることで、要素情報によって示される正確なオブジェクト列20の構成を基準としてオブジェクト列20の変化が検出されるため、オブジェクト列20の変化を正確に把握できる。
以下、本実施形態の情報処理装置2000についてさらに詳細に説明する。
<情報処理装置2000の機能構成の例>
図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、列検出部2020、生成部2040、及び変化検出部2060を有する。列検出部2020は、動画データ12からオブジェクト列20を検出する。生成部2040は、オブジェクト列20が含まれる複数の動画フレーム14それぞれについて要素情報を生成する。変化検出部2060は、複数の動画フレーム14それぞれについて生成された要素情報を比較することで、オブジェクト列20の変化を検出する。
<情報処理装置2000のハードウエア構成>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算装置である。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
例えば計算機1000は、ネットワークを介してカメラ10と通信可能に接続されている。ただし、計算機1000をカメラ10と通信可能に接続する方法は、ネットワークを介した接続に限定されない。また、計算機1000は、カメラ10と通信可能に接続されていなくてもよい。
ストレージデバイス1080は、情報処理装置2000の各機能構成部(列検出部2020、生成部2040、及び変化検出部2060)を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
なお、計算機1000は、複数の計算機を利用して実現されてもよい。例えば列検出部2020、生成部2040、及び変化検出部2060をそれぞれ異なる計算機で実現することができる。この場合、各計算機のストレージデバイスに記憶されるプログラムモジュールは、その計算機で実現される機能構成部に対応するプログラムモジュールだけでもよい。
<カメラ10について>
カメラ10は、繰り返し撮像を行うことで動画データを生成できる任意のカメラである。例えばカメラ10は、特定の施設や道路などを監視するために設けられている監視カメラである。
情報処理装置2000の機能の一部又は全部は、カメラ10によって実現されてもよい。すなわち、情報処理装置2000を実現するための計算機1000として、カメラ10を利用してもよい。この場合、カメラ10は、自身で生成した動画データ12を処理する。このように情報処理装置2000を実現するために用いられるカメラ10には、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを利用できる。
<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。列検出部2020は、動画データ12に含まれる動画フレーム14から、オブジェクト列20を検出する(S102)。生成部2040は、オブジェクト列20が検出された動画フレーム14について要素情報を生成する(S104)。
S106から114は、所定の終了条件が満たされるまで繰り返し実行されるループ処理Aである。S106において、所定の終了条件が満たされている場合、情報処理装置2000は、図5の処理を終了する。一方、所定の終了条件が満たされていない場合、図5の処理はS108に進む。
変化検出部2060は、要素情報が生成された動画フレーム14以降に生成された各動画フレーム14から、オブジェクト22を検出する(S108)。変化検出部2060は、要素情報と、S108におけるオブジェクト22の検出の結果とに基づいて、オブジェクト列20の変化を検出する(S110)。生成部2040は、変化後のオブジェクト列20について要素情報を生成することで、変化検出部2060が利用する要素情報を更新する(S112)。S114はループ処理Aの終端であるため、図5の処理はS106に進む。
以降、情報処理装置2000は、「直近に生成された要素情報を用いてオブジェクト列20の変化を検出し(S108及びS110)、要素情報を更新する(S112)。」という処理を繰り返す。
上記所定の終了条件は任意である。例えば所定の終了条件は、オブジェクト列20に含まれるオブジェクト22の数が0になること、すなわちオブジェクト列20が無くなることである。この場合、情報処理装置2000は、まだ処理対象となっていない動画フレーム14で構成される動画データ12について、再度図5の処理を最初から実行する。こうすることで、新たに形成されるオブジェクト列20の検出及びそのオブジェクト列20の変化の検出が行われる。
<動画データ12の取得方法>
情報処理装置2000は、処理対象とする動画データ12を取得する。情報処理装置2000が動画データ12を取得する方法は様々である。例えば情報処理装置2000は、カメラ10から送信される動画データ12を受信する。また例えば、情報処理装置2000は、カメラ10にアクセスし、カメラ10に記憶されている動画データ12を取得する。
なお、カメラ10は、カメラ10の外部に設けられている記憶装置に動画データ12を記憶させてもよい。この場合、情報処理装置2000は、この記憶装置にアクセスして動画データ12を取得する。そのため、この場合、情報処理装置2000とカメラ10は通信可能に接続されていなくてもよい。
情報処理装置2000の一部又は全部の機能がカメラ10で実現される場合、情報処理装置2000は、情報処理装置2000自身によって生成された動画データ12を取得する。この場合、動画データ12は、例えば情報処理装置2000の内部にある記憶装置(例えばストレージデバイス1080)に記憶されている。そこで情報処理装置2000は、これらの記憶装置から動画データ12を取得する。
情報処理装置2000が動画データ12を取得するタイミングは任意である。例えば情報処理装置2000は、カメラ10によって動画データ12を構成する新たな動画フレーム14が生成される度に、その新たに生成された動画フレーム14を取得することで、動画データ12を取得する。その他にも例えば、情報処理装置2000は、定期的に未取得の動画フレーム14を取得してもよい。例えば情報処理装置2000が1秒間に1回動画フレーム14を取得する場合、情報処理装置2000は、カメラ10によって1秒間に生成される複数の動画フレーム14(例えば動画データ12のフレームレートが 30fps(frames/second) であれば、30枚の動画フレーム14)をまとめて取得する。
情報処理装置2000は、動画データ12を構成する全ての動画フレーム14を取得してもよいし、一部の動画フレーム14のみを取得してもよい。後者の場合、例えば情報処理装置2000は、カメラ10によって生成される動画フレーム14を、所定数に1つの割合で取得する。
<オブジェクト列20の検出:S102>
列検出部2020は、動画データ12からオブジェクト列20を検出する(S102)。動画データ12からオブジェクト列20を検出する方法には、様々な方法を採用できる。以下では、その一例を説明する。
列検出部2020は、各動画フレーム14からオブジェクトを検出し、各オブジェクト22をトラッキングする。ここで、何をオブジェクト22として検出するかは、予め定めておくとする。例えばオブジェクト列20として人の列を扱う場合には、オブジェクト22として人を検出するように定めておく。その他にも例えば、オブジェクト列20として車両の列を扱う場合には、オブジェクト22として車両を検出するように定めておく。なお、動画フレーム(すなわち画像データ)から特定の種類のオブジェクトを検出する技術には、既存の技術を利用できる。
列検出部2020は、例えば以下に示す方法でオブジェクト22をトラッキングする。ただし、列検出部2020がオブジェクト22をトラッキングする方法は下記の方法に限定されず、種々の既存の技術を利用してもよい。
列検出部2020は、動画フレーム14から検出される各オブジェクトに識別子を割り振り、オブジェクトの識別子ごとにそのオブジェクトに関する情報(以下、トラッキング情報)を管理することで、オブジェクトをトラッキングする。或るオブジェクト22のトラッキング情報は、例えば、動画フレーム14においてそのオブジェクト22の位置を表す座標、大きさ、その画像領域から算出される特徴量(オブジェクトの特徴量)などが含まれる。オブジェクト22の位置は、動画フレーム14においてオブジェクト22を表す画像領域の中心位置などである。オブジェクト22の特徴量とは、そのオブジェクトの外観の特徴を1つ以上の値で表現したものである。
列検出部2020は、オブジェクトをトラッキングする際、そのオブジェクトが静止状態にあるか移動状態にあるかを判別する。例えば列検出部2020は、或るオブジェクトの位置の変化量が所定量以下である状態が所定時間以上継続している場合に、そのオブジェクトの状態を、静止状態とする。一方、オブジェクトの位置の変化量が所定値より大きいオブジェクトの状態を、移動状態とする。また、オブジェクトの状態は、前述したトラッキング情報によって示される。なお、トラッキングしているオブジェクトが静止しているか否かを判別する技術にも既存の技術を利用することができる。
図6は、動画データ12から検出されるオブジェクト22がトラッキングされている様子を例示する図である。動画フレーム14には、5つのオブジェクト22(オブジェクト22−1からオブジェクト22−5)が含まれる。これら5つのオブジェクト22にはそれぞれ、p001 から p005 という識別子が割り与えられている。そして、これら5つのオブジェクト22についてトラッキング情報30が生成されている。なお、図5では図示の都合上、トラッキング情報30は、オブジェクト22の識別子と状態のみを示している。
列検出部2020は、動画データ12を構成する時系列の動画フレーム14それぞれからオブジェクト22を検出する。列検出部2020は、新たに解析した動画フレーム14から検出されたオブジェクト22と、既に解析した動画フレーム14から検出されたオブジェクト22(既にトラッキング情報が生成されている)との対応付けを行う。言い換えれば、列検出部2020は、新たに解析した動画フレーム14から検出されたオブジェクト22について、既知のオブジェクト22と未知のオブジェクトのどちらであるかを判定する。
新たに解析した動画フレーム14から検出されたオブジェクト22が既知のオブジェクト22である場合、列検出部2020は、新たに解析した動画フレーム14から得られるそのオブジェクト22の情報で、そのオブジェクト22のトラッキング情報を更新する。例えば列検出部2020は、オブジェクト22の位置、特徴量、又は状態などの情報を更新する。一方、新たに解析した動画フレーム14から検出されたオブジェクト22が未知のオブジェクト22である場合、列検出部2020は、そのオブジェクト22に対して他のオブジェクト22と重複しない識別子を割り与えた上で、そのオブジェクト22のトラッキング情報を生成する。
ここで、環境光の影響などにより、トラッキング中のオブジェクト22が一時的に動画フレーム14から検出されない場合がある。仮にこのような場合に、そのオブジェクト22がカメラ10の撮像範囲から出たものとして、そのオブジェクト22のトラッキング情報を更新したり削除したりしてしまうと、オブジェクト22のトラッキングを正確に行うことができなくなってしまう。
そこで列検出部2020は、このようにオブジェクト22が一時的に動画フレーム14から検出されない場合には、そのオブジェクト22のトラッキング情報を削除しない。例えば列検出部2020は、オブジェクト22が検出されない場合でも、その検出されない期間の長さが所定値以下である間は、そのオブジェクト22のトラッキング情報を更新せずに保持し続ける。その後、オブジェクト22が動画フレーム14から検出されたら、その動画フレーム14から検出された情報でオブジェクト22のトラッキング情報を更新する。一方で、列検出部2020は、オブジェクト22が検出されない期間の長さが所定値より大きい場合には、そのオブジェクト22のトラッキング情報を削除するか、又はそのオブジェクト22のトラッキング情報にカメラ10の撮像範囲外に出たことを示す情報を付加するなどの更新を行う。このようにすることで、一時的に動画フレーム14からオブジェクト22を検出できないことがあったとしても、オブジェクト22を高い精度でトラッキングすることができる。
さらに、オブジェクト22が一時的に動画フレーム14から検出されない場合に、別のオブジェクト22が代わりに検出されてしまうことが考えられる。例として、動画フレーム14−1において位置Pでオブジェクト22−1が検出された後、次の動画フレーム14−2ではオブジェクト22−1が検出されず、なおかつ別のオブジェクト22−2が位置Pの付近で検出されるケースがある。このような場合に、誤ってオブジェクト22−2をオブジェクト22−1として扱ってオブジェクト22−1のトラッキング情報を更新してしまうと、オブジェクト22−1やオブジェクト22−2を正しくトラッキングできない。
そこで例えば、列検出部2020は、時系列で連続する2つの動画フレーム14において特徴量の類似度が高いオブジェクト22が検出されたとしても、それらの検出位置が所定距離以上大きければ、それらを互いに異なるオブジェクト22として扱い、先の動画フレーム14から検出されたオブジェクト22のトラッキング情報を更新しない。さらに列検出部2020は、時系列で連続する2つの動画フレーム14において位置が互いに近いオブジェクト22が検出されたとしても、それらのオブジェクト22の特徴量の類似度が低い場合には、それらを互いに異なるオブジェクト22として扱い、先の動画フレーム14から検出されたオブジェクト22のトラッキング情報を更新しない。
このようにすることで、或るオブジェクト22が一時的に動画フレーム14から検出されず、なおかつそのオブジェクト22の位置付近で別のオブジェクト22が検出されてしまうケースにおいて、トラッキング情報が誤った情報に更新されてしまうことを防ぐことができる。よって、オブジェクト22のトラッキングを高い精度で行うことができる。
列検出部2020は、トラッキングしているオブジェクト22によって所定の条件が満たされたことを検出することにより、新たなオブジェクト列20が形成されたことを検出する。例えば列検出部2020は、トラッキングしているオブジェクト22の中に、1)既に検出されているオブジェクト列20に属さない、2)隣接する他のオブジェクト22との距離が所定距離以下の場所に位置する、及び3)静止状態であるという3つの条件を満たすオブジェクト22が複数存在する場合に、これらの条件を満たす複数のオブジェクト22によって新たなオブジェクト列20が形成されたことを検出する。
ここで、或るオブジェクトが既に検出されているオブジェクト列20に属するかどうかは、そのオブジェクトをトラッキングしてきた過程から特定できる。例えば前述したトラッキング情報30に、オブジェクト22がオブジェクト列20に属するか否かを示す情報を含める。ここで、この情報の初期値には、「オブジェクト列20に属さない(未属)」を設定する。そして、トラッキングしているオブジェクト22が前述した条件を満たして新たなオブジェクト列20を形成したことを検出したら、そのオブジェクト22のトラッキング情報に、「オブジェクト列20に属する(既属)」という値を設定する。こうすることで、各オブジェクト22が既にオブジェクト列20に属しているか否かを特定することができる。
なお、上記3つの条件に加え、オブジェクト22の向きをさらに考慮してもよい。具体的には、「1)〜3)の条件を満たしている各オブジェクト22が同じ方向を向いている」という条件をさらに加える。その他にも例えば、「1)〜3)の条件を満たしている複数のオブジェクト22のうち、所定割合以上のオブジェクト22が同じ方向を向いている」という条件を加えてもよい。
図7は、新たなオブジェクト列20を検出する方法を例示する第1の図である。動画フレーム14−1において、オブジェクト22−1からオブジェクト22−5はいずれも、既存のオブジェクト列20に属していない。しかし、オブジェクト22−1、オブジェクト22−2、及びオブジェクト22−5は移動している。そのため、これらのオブジェクト22は、オブジェクト列20を形成する条件を満たしていない。また、オブジェクト22−3とオブジェクト22−4は、静止してはいるものの、互いの間の距離が所定距離より大きい。そのため、オブジェクト22−3とオブジェクト22−4も、オブジェクト列20を形成する条件を満たしていない。よって、動画フレーム14−1からは、オブジェクト列20が検出されない。
動画フレーム14−1が生成されてからしばらく後、動画フレーム14−2が生成されたとする。動画フレーム14−2においても、オブジェクト22−1からオブジェクト22−5はいずれも、既存のオブジェクト列20に属していない。また、オブジェクト22−1とオブジェクト22−5は静止している。さらに、オブジェクト22−2とオブジェクト22−5の間の距離は、所定距離以下となっている。よって、列検出部2020は、オブジェクト22−2とオブジェクト22−5によって新たなオブジェクト列20が形成されたことを検出する。なお、その他のオブジェクト22は、オブジェクト列20を形成する条件を満たしていない。
上記3つ又は4つの条件が満たされた場合に新たなオブジェクト列20を検出する方法によれば、オブジェクト列20が形成される場所が予め分かっていない場合においてもオブジェクト列20が形成されたことを検出できる。この点、オブジェクト列20が形成される場所を予め定めておくことが可能な場合もある。例えばスーパーのレジカウンタなどでは、レジカウンタに並ぶ人の列ができる場所はおおよそ決まっている。
そこで、オブジェクト列20が形成されうる領域(以下、予定領域)を予め定義しておき、その定義を利用してオブジェクト列20を検出してもよい。すなわち、列検出部2020は、トラッキングしている1つ以上のオブジェクト22が予定領域内で静止状態になった場合に、その1つ以上のオブジェクトによって新たなオブジェクト列20が形成されたことを検出する。この方法によれば、オブジェクト列20を形成しているオブジェクトが1つの場合でも、オブジェクト列20を検出することができる。
図8は、予定領域を利用してオブジェクト列20を検出する方法を例示する図である。図8では、オブジェクト22−1が予定領域40内で静止している。そのため、列検出部2020は、オブジェクト22−1によって形成されているオブジェクト列20を検出する。
なお、列検出部2020が動画データ12からオブジェクト列20を検出する方法は、上述の方法に限定されない。列検出部2020は、動画データからオブジェクトの列を検出する既存の技術を利用することで、オブジェクト列20を検出してもよい。
<要素情報の生成:S104>
生成部2040は、列検出部2020によってオブジェクト列20が検出された動画フレーム14を用いて、オブジェクト列20の要約情報を生成する(S104)。前述したように、要素情報は、オブジェクト22が動画フレーム14において占める領域であるオブジェクト領域24とそのオブジェクト22の属性とを対応付けた情報である。よって、要素情報を生成するためには、各オブジェクト22について、属性及びオブジェクト領域24を特定する必要がある。以下、それぞれの特定方法について説明する。
<<オブジェクト22の属性の特定>>
オブジェクト22の属性は、種々の情報を含みうる。例えばオブジェクト22の属性は、オブジェクト22の特徴量を含む。オブジェクト22が人である場合、例えばオブジェクト22の特徴量は、顔、身体、服装、又は持ち物などの色や形状などを表す。また、オブジェクト22が車両である場合、オブジェクト22の特徴量は、車両の色、形状、又はナンバープレートのナンバーなどを表す。ここで、動画フレームに含まれるオブジェクトの特徴量を算出する技術には、既存の技術を利用することができる。
その他にも例えば、オブジェクト22の属性は、オブジェクト列20におけるオブジェクト22の位置を示す。ここで、情報処理装置2000は、オブジェクト列20におけるオブジェクト22の位置を特定するために、オブジェクト列20における先頭と末尾を特定する。以下、オブジェクト列20における先頭と末尾を特定する方法について説明する。
<<<オブジェクト列20の先頭の特定>>>
例えば生成部2040は、オブジェクト列20の進行方向を特定し、オブジェクト列20において進行方向の端に位置するオブジェクト22を、先頭のオブジェクト22として特定する。ここで、オブジェクト列20の進行方向は、例えば、オブジェクト列20を構成する各オブジェクト22の正面方向として特定することができる。なお、オブジェクト22の正面方向を特定する技術には、既存の技術を利用することができる。例えばオブジェクト22が人である場合、オブジェクト22の正面方向を特定する方法には、1)頭部検出を行うことで顔の正面方向を特定し、顔の正面方向をオブジェクト22の正面方向とする方法や、2)胴体検出を行うことで胴体の正面方向を特定し、胴体の正面方向をオブジェクト22の正面方向とする方法などを利用できる。また、オブジェクト22が車両である場合、車両の形状に基づいて車両の進行方向を特定することができる。
なお、生成部2040は、要素情報を生成した後に、動画データ12を用いてオブジェクト列20の動きを解析することで、オブジェクト列20の進行方向をさらに正確に特定するようにしてもよい。具体的には、生成部2040は、そのオブジェクト列20が含まれる複数の動画フレーム14を比較することにより、オブジェクト列20を構成するオブジェクト22が移動する方向を特定することで、オブジェクト列20の移動方向を特定する。このようにして特定されたオブジェクト列20の移動方向が、要素情報を生成した時に特定した移動方向と異なる場合、生成部2040は、新たに特定したオブジェクト列20の移動方向に基づいて、オブジェクト22の属性を変更する。
<<<オブジェクト列20の末尾の特定>>>
例えば生成部2040は、オブジェクト列20の進行方向を特定し、オブジェクト列20において進行方向とは逆の端に位置するオブジェクト22を、末尾のオブジェクトとして特定する。オブジェクト列20の進行方向を特定する方法は前述した通りである。
<<オブジェクト領域24の特定>>
生成部2040は、オブジェクト列20全体を表す画像領域を、互いに隣接する2つのオブジェクト22の間の境界で区切る。こうすることで、生成部2040は、オブジェクト列20の画像領域を、各オブジェクト22が占める複数の部分領域に分割する。オブジェクト22のオブジェクト領域24は、オブジェクト列20を上述の方法で分割することで得られる部分領域のうち、そのオブジェクト22が含まれる部分領域である。なお、オブジェクト列20全体を表す画像領域を定める方法には、既存の技術を利用することができる。
オブジェクト領域24を特定するために、生成部2040は、オブジェクト列20において互いに隣接するオブジェクト22の間の境界を特定する。互いに隣接する2つのオブジェクト22の間の境界は、例えば以下に示す方法で特定できる。
図9は、オブジェクト領域24を特定する方法を例示する図である。生成部2040は、互いに隣接する2つのオブジェクト22の位置を結ぶ線分23の中心を算出する。生成部2040は、算出した中心を通る、上記線分の法線を、上記2つのオブジェクト22の境界線25とする。そして生成部2040は、オブジェクト22のオブジェクト領域24を、そのオブジェクト22の前後にある境界線25の間の領域として特定する。なお、オブジェクト22の位置は、前述した通り、オブジェクト22を表す画像領域の中心位置などである。
ここで、境界線25の長さを定める方法は任意である。例えば生成部2040は、境界線25の長さを予め定められた所定の長さとする。
<オブジェクト列20の変化の検出:S108、110>
変化検出部2060は、動画フレーム14から生成された要素情報と、その動画フレーム14以降に生成された各動画フレーム14に対するオブジェクト22の検出の結果とに基づいて、オブジェクト列20の変化を検出する(S108、110)。各動画フレーム14に対するオブジェクト22の検出は、例えば前述した、オブジェクト22のトラッキングである。つまり変化検出部2060は、要素情報が生成された動画フレーム14以降の動画フレーム14によって構成される動画データ12において各オブジェクト22をトラッキングし、そのトラッキングによって把握されるオブジェクト22の動きや状態などと、要素情報とに基づいて、オブジェクト列20の変化を検出する。
ここで、変化検出部2060が検出するオブジェクト列20の変化は、様々である。以下、変化検出部2060によって検出されるオブジェクト列20の変化について例示する。
<<オブジェクト22の離脱>>
変化検出部2060は、オブジェクト列20からオブジェクト22が離脱したことを検出する。ここでいうオブジェクト22の離脱は、オブジェクト22がオブジェクト列20に属さなくなることを意味する。オブジェクト22が一時的にオブジェクト列20を離れ、その後にオブジェクト列20の同じ位置に戻るケースについては、離脱と表現しないこととする。そこで変化検出部2060は、オブジェクト列20から或るオブジェクト22が検出されない場合に、オブジェクト22が一時的にオブジェクト列20から離れただけなのか、それともオブジェクト列20に戻ってこないのか(オブジェクト列20から離脱したのか)を区別する。
オブジェクト22の離脱は、1)先頭のオブジェクト22が離脱するケース、2)末尾のオブジェクト22が離脱するケース、及び3)先頭と末尾のいずれでもないオブジェクト22が離脱するケースという3つのケースに大別できる。以下、それぞれのケースの検出方法について説明する。なお、以下では、オブジェクト列20において、先頭と末尾のいずれでもない位置を「中間層」と表現する。
<<<先頭のオブジェクト22が離脱するケース>>>
図10は、先頭のオブジェクト22がオブジェクト列20から離脱するケースを例示する図である。図10では、先頭に位置するオブジェクト22−1がオブジェクト列20から離脱する。
まず、先頭のオブジェクト22が離脱すると、そのオブジェクト22が、そのオブジェクト22のオブジェクト領域24から検出されなくなる。例えば図10では、オブジェクト22−1がオブジェクト領域24−1から検出されない。
さらに、先頭から2番目に位置していたオブジェクト22が、先頭のオブジェクト22のオブジェクト領域24へ入る。例えば図10では、オブジェクト22−2がオブジェクト領域24−1に入る。
そこで変化検出部2060は、1)先頭のオブジェクト22のオブジェクト領域24から、そのオブジェクト22が検出されないこと、及び2)先頭のオブジェクト22のオブジェクト領域24へ、先頭から2番目のオブジェクト22が入ること、という2つの条件が満たされた場合に、先頭のオブジェクト22が離脱したことを検出する。
<<<末尾のオブジェクト22が離脱するケース>>>
図11は、末尾のオブジェクト22がオブジェクト列20から離脱するケースを例示する図である。図11では、末尾に位置するオブジェクト22−4がオブジェクト列20から離脱する。
まず、末尾のオブジェクト22が離脱すると、そのオブジェクト22が、そのオブジェクト22のオブジェクト領域24から検出されなくなる。例えば図11では、オブジェクト22−4がオブジェクト領域24−4から検出されない。
さらに、末尾の一つ前に位置しているオブジェクト22は静止状態である。例えば図11では、オブジェクト22−3は静止状態である。
そこで例えば、変化検出部2060は、1)末尾のオブジェクト22のオブジェクト領域24から、そのオブジェクト22が検出されないこと、及び2)末尾の一つ前のオブジェクト22が静止状態であること、という2つの条件が満たされた場合に、末尾のオブジェクト22がオブジェクト列20から離脱したことを検出する。
その他にも例えば、変化検出部2060は、1)末尾のオブジェクト22と末尾の一つ前のオブジェクト22との間の距離が所定距離以上となり、2)なおかつ末尾の一つ前のオブジェクト22が静止状態であること、という2つの条件が満たされた場合に、末尾のオブジェクト22がオブジェクト列20から離脱したことを検出してもよい。
<<<先頭でも末尾でもないオブジェクト22が離脱するケース>>>
オブジェクト列20を構成するオブジェクト22が3つ以上である場合、中間層のオブジェクト22(先頭でも末尾でもないオブジェクト22)が存在する。例えば図5において、中間層のオブジェクト22は、オブジェクト22−2とオブジェクト22−3である。
図12は、中間層のオブジェクト領域24が離脱するケースを例示する図である。図12では、中間層に位置するオブジェクト22−3が離脱する。まず、離脱するオブジェクト22は、そのオブジェクト22のオブジェクト領域24から検出されなくなる。例えば図12では、オブジェクト22−2がオブジェクト領域24−3から検出されなくなる。
また、中間層のオブジェクト22が一時的にオブジェクト列20から離れる場合と異なり、中間層のオブジェクト22がオブジェクト列20から離脱する場合には、離脱するオブジェクト22のオブジェクト領域24へ、そのオブジェクト22の一つ後ろに位置するオブジェクト22が入る。例えば図12では、オブジェクト22−3の一つ後ろに位置するオブジェクト22−4が、オブジェクト領域24−2へ入る。
さらに、先頭のオブジェクト22がオブジェクト列20から離脱する場合とは異なり、中間層のオブジェクト22がオブジェクト列20から離脱する場合には、離脱するオブジェクト22の一つ前に位置するオブジェクト22が静止状態である。例えば図12では、オブジェクト22−3の一つ前に位置するオブジェクト22−2が静止状態である。
そこで変化検出部2060は、1)或る中間層のオブジェクト22が、そのオブジェクト22に対応するオブジェクト領域24から検出されないこと、2)そのオブジェクト22のオブジェクト領域24へ、そのオブジェクト22の一つ後ろに位置するオブジェクト22が入ること、3)そのオブジェクト22の一つ前のオブジェクト22が静止状態であること、という3つの条件が満たされた場合に、その中間層のオブジェクト領域24からオブジェクト22が離脱したと判定する。
<<オブジェクト22の加入>>
例えば変化検出部2060は、オブジェクト列20に対してオブジェクト22が加わったことを検出する。ここで、オブジェクト列20に属さないオブジェクト22がオブジェクト列20の付近に現れて静止すると、そのオブジェクト22がオブジェクト列20に加わったようにも見える。しかし実際には、そのオブジェクト22は、オブジェクト列20の付近で静止しただけであって、オブジェクト列20に加わっていないこともある。具体的には、オブジェクト列20に新たに加わるオブジェクト22はオブジェクト列20の末尾に並ぶため、オブジェクト列20の末尾以外の場所で静止したオブジェクト22は、たとえオブジェクト列20の近くで静止したとしても、オブジェクト列20に加わっていないと考えられる。
そこで変化検出部2060は、1)オブジェクト列20の末尾のオブジェクト22と、そのオブジェクト列20に属していないトラッキング中のオブジェクト22との距離が、所定距離以下となること、及び2)そのオブジェクト22の状態が静止状態になること、という2つの条件が満たされた場合に、そのオブジェクト22がオブジェクト列20に加わったことを検出する。
図13は、オブジェクト22がオブジェクト列20に加入するケースを例示する図である。図13では、オブジェクト22−1からオブジェクト22−4によって構成されているオブジェクト列20に、オブジェクト22−5が加わる。ここで、オブジェクト22−4は、オブジェクト列20の末尾に位置するオブジェクト22−4との距離が所定距離以下の場所まで移動してきた後、静止している。そこで変化検出部2060は、オブジェクト22−5がオブジェクト列20に加わったことを検出する。
<要素情報の更新:S112>
変化検出部2060によってオブジェクト列20の変化が検出された場合、生成部2040は、変化検出部2060によって利用される要素情報を更新する(S112)。例えば生成部2040は、オブジェクト列20の変化が検出された動画フレーム14以降に生成される動画フレーム14であって、オブジェクト列20を構成する全てのオブジェクト22が静止状態にある動画フレーム14について、S104と同様の方法で要素情報を生成する。その後、変化検出部2060によるオブジェクト列20の変化の検出には、新たに生成された要素情報が利用される。つまり、変化検出部2060に利用される要素情報が更新される。
ここで、全てのオブジェクト22が静止状態にある動画フレーム14を利用するのは、オブジェクト22が移動状態の場合、オブジェクト列20の状態が変化している最中(例えば先頭のオブジェクト22が離脱した場合に、他のオブジェクト22が1つずつ前に進んでいる)であるためである。全てのオブジェクト22が静止状態である動画フレーム14を利用することで、定常状態になっているオブジェクト列20(例えば先頭のオブジェクト22が離脱した場合に、他のオブジェクト22が1つずつ前に進み終わっているオブジェクト列20)について、要素情報が生成されるようになる。
ただし、生成部2040は、構成が変化している最中のオブジェクト列20についても要素情報を生成してもよい。すわなち、生成部2040は、オブジェクト列20の変化が検出された動画フレーム14以降に生成される複数の動画フレーム14それぞれについて、S104と同様の方法で要素情報を生成することで、要素情報の更新を繰り返し行ってもよい。例えばこの更新は、オブジェクト列20を構成する全てのオブジェクト22が静止状態になるまで行われる。
<変形例>
情報処理装置2000は、オブジェクト列20を構成する単位として、複数のオブジェクト22から成るグループ(以下、オブジェクトグループ)を用いてもよい。図14は、オブジェクトグループによって構成されるオブジェクト列20を例示する図である。図14において、オブジェクト列20は、オブジェクトグループ26−1、オブジェクトグループ26−2、及びオブジェクトグループ26−3という3つのオブジェクトグループによって構成されている。オブジェクトグループ26−1は、オブジェクト22−1及びオブジェクト22−2によって構成されている。オブジェクトグループ26−2は、オブジェクト22−3によって構成されている。オブジェクトグループ26−3は、オブジェクト22−4及びオブジェクト22−5によって構成されている。
要素情報が示すオブジェクト領域24は、動画フレーム14においてオブジェクトグループ26が示す領域とする。そのため、生成部2040は、オブジェクトグループごとにオブジェクト領域24を特定する。図14において、オブジェクト領域24−1はオブジェクトグループ26−1のオブジェクト領域であり、オブジェクト領域24−2はオブジェクトグループ26−2のオブジェクト領域であり、オブジェクト領域24−3はオブジェクトグループ26−3のオブジェクト領域である。
また要素情報が示す属性は、オブジェクトグループ26の属性とする。そのため、生成部2040は、オブジェクトグループ26ごとに、そのオブジェクトグループ26の属性を特定する。オブジェクトグループ26の属性は、例えば、オブジェクトグループ26に含まれる各オブジェクト22の特徴量、及びオブジェクト列20におけるそのオブジェクトグループ26の位置を含む。ここで、オブジェクトグループ26の位置を定める方法は任意である。例えばオブジェクトグループ26の位置は、そのオブジェクトグループ26に含まれるいずれかのオブジェクト22の位置として定められる。その他にも例えば、オブジェクトグループ26の位置は、そのオブジェクトグループ26に含まれる複数のオブジェクト22の中心位置として定められる。
変化検出部2060は、要素情報と、要素情報が生成された動画フレーム14以降の動画フレーム14におけるオブジェクトグループ26の検出の結果に基づいて、オブジェクト列20の変化を検出する。オブジェクトグループ26の検出の結果に基づいてオブジェクト列20の変化を検出する方法は、オブジェクト22の検出の結果に基づいてオブジェクト列20の変化を検出する方法と同様である。例えば変化検出部2060は、1)先頭のオブジェクトグループ26のオブジェクト領域24から、そのオブジェクトグループ26が検出されないこと、及び2)先頭のオブジェクトグループ26のオブジェクト領域24へ、先頭から2番目のオブジェクトグループ26が入ること、という2つの条件が満たされた場合に、先頭のオブジェクトグループ26がオブジェクト列20から離脱したことを検出する。
オブジェクトグループ26をオブジェクト列20の構成単位として扱う場合、情報処理装置2000は、動画フレーム14から各オブジェクトグループ26を検出する。例えば情報処理装置2000は、個々のオブジェクト22をトラッキングする過程で、互いの距離が所定距離以下の状態で所定時間以上移動している複数のオブジェクト22を検出したら、それら複数のオブジェクト22のまとまりを1つのオブジェクトグループ26として検出する。この場合、情報処理装置2000は、これら複数のオブジェクト22のトラッキング情報をまとめて、オブジェクトグループ26としてのトラッキング情報を生成する。オブジェクトグループ26のトラッキング情報は、例えば、オブジェクトグループ26を構成する各オブジェクト22のトラッキング情報に加え、オブジェクトグループ26の位置や状態などの情報を含む。
[実施形態2]
図15は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
実施形態2の情報処理装置2000は、算出部2080をさらに有する。算出部2080は、オブジェクト列20の待ち時間を算出する。オブジェクト列20の待ち時間とは、そのオブジェクト列20の最後尾に並んでから、そのオブジェクト列20の先頭を離脱するまでにかかると推測される時間を表す。例えば券売機にできる人の列であれば、その列に並んでからその列を抜けて券売機を利用できるようになるまでにかかると推測される時間が、その列の待ち時間である。
算出部2080は、オブジェクト22がオブジェクト列20の先頭に滞留すると予測される時間(以下、予測滞留時間)にオブジェクト列20の長さを掛け合わせることで、オブジェクト列20の待ち時間を算出する。ここで、或る時点におけるオブジェクト列20の長さは、その時点の直近に生成された要素情報が示すオブジェクト領域24の数である。例えば、要素情報が時点 Ta、Tb、及び Tc に算出されたとする。この場合、時点 Ta と Tb の間におけるオブジェクト列20の長さは、時点 Ta に生成された要素情報が示すオブジェクト領域24の数である。また、時点 Tb と Tc の間におけるオブジェクト列20の長さは、時点 Tb に生成された要素情報が示すオブジェクト領域24の数である。
ここで、或るオブジェクト22がオブジェクト列20から離脱すると、オブジェクト列20の待ち時間は短くなる。しかしながら、オブジェクト22が一時的にオブジェクト列20から離れただけである場合、そのオブジェクト22は後でオブジェクト列20に戻ってくるため、オブジェクト列20の待ち時間は減少しない。よって、オブジェクト列20がオブジェクト列20から離れる場合、それが一時的なものなのかどうかを特定できることが好ましい。
この点、実施形態1で述べた通り、変化検出部2060は、オブジェクト22が一時的にオブジェクト列20から離れた場合には、そのオブジェクト22がオブジェクト列20から離脱したとは扱わないため、要素情報が更新されない。よって、オブジェクト22が一時的にオブジェクト列20から離れても、オブジェクト列20の長さが減少しないため、オブジェクト列20の待ち時間も減少しない。一方で、オブジェクト22がオブジェクト列20から離脱した場合には、その離脱が検出されて要素情報が更新される。よって、要素情報によって特定されるオブジェクト列20の長さが短くなるため、オブジェクト列20の待ち時間が減少する。
このように、情報処理装置2000によれば、オブジェクト22が一時的にオブジェクト列20から離れても、そのことに影響されることなく、オブジェクト列20の待ち時間を正確に算出することができる。
<予測滞留時間の算出方法>
予測滞留時間の算出に利用するため、オブジェクト列20から先頭のオブジェクト22が離脱したことを検出した変化検出部2060は、そのオブジェクト22がオブジェクト列20の先頭から離脱した時点(以下、先頭離脱時点)を記憶装置に記録させる。例えば、或るオブジェクト22の先頭離脱時点は、そのオブジェクト22がオブジェクト列20の先頭から離脱したことが検出された動画フレーム14の生成時点とする。
算出部2080は、先頭離脱時点を用いて、オブジェクト列20において実際にオブジェクト22が先頭に滞留した時間(以下、実滞留時間)を算出する。具体的には、算出部2080は、或るオブジェクト22の先頭滞留時点と、その次にオブジェクト列20の先頭から離脱したオブジェクト22の先頭滞留時点との差分を、実滞留時間として算出する。
例えば、オブジェクト22−1、オブジェクト22−2、及びオブジェクト22−3という順で並ぶ3つのオブジェクト22によってオブジェクト列20が構成されているとする。そして、オブジェクト22−1からオブジェクト22−3がそれぞれ、時点 Ta、Tb、及び Tc にオブジェクト列20の先頭から離脱したとする。この場合、オブジェクト22−2の実滞留時間は Tb-Ta であり、オブジェクト22−3の実滞留時間は Tc-Tb である。
算出部2080は、1つ以上の実滞留時間を用いて、予測滞留時間を算出する。例えば算出部2080は、直近に算出された実滞留時間を予測滞留時間とする。その他にも例えば、算出部2080は、複数の予測滞留時間の統計値を算出し、その統計値を予測滞留時間とする。統計値は、例えば平均値、最大値、最小値などである。統計値の算出に利用される実滞留時間は、オブジェクト列20について算出された全ての実滞留時間であってもよいし、一部の実滞留時間であってもよい。後者の場合、例えば算出部2080は、直近の所定個の実滞留時間の統計値を算出する。
<算出した待ち時間の利用方法>
算出部2080によって算出されたオブジェクト列20の待ち時間を利用する方法は様々である。例えば情報処理装置2000は、算出部2080によって算出された待ち時間を、記憶装置に記憶させる。こうすることで、例えば時間帯、日付、又は曜日ごとのオブジェクト列20の待ち時間の違いを統計的に算出するなどして、カメラ10が設置されている場所におけるオブジェクト列20の待ち時間の傾向などを把握することができる。
その他にも例えば、情報処理装置2000は、算出部2080によって算出されたオブジェクト列20の待ち時間を、種々の方法で提示してもよい。例えば情報処理装置2000は、所定のディスプレイ装置にオブジェクト列20の待ち時間を表示させる。例えばこの所定のディスプレイ装置は、オブジェクト列20の付近に予め設置されている。その他にも例えば、情報処理装置2000は、オブジェクト列20の待ち時間を、所定の Web ページに表示させてもよい。こうすることで、オブジェクト列20に並ぼうとしている人が、オブジェクト列20の正確な待ち時間を考慮した上で、オブジェクト列20に並ぶかどうかを判断することができるようになる。
<ハードウエア構成の例>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図4によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュール(算出部2080を実現するプログラムモジュールなど)がさらに記憶される。
<変形例>
上述の説明では、オブジェクト22をオブジェクト列20の構成単位としている。しかし、実施形態1の変形例として前述したように、オブジェクトグループ26をオブジェクト列20の構成単位としてもよい。
この場合、算出部2080は、オブジェクトグループ26がオブジェクト列20の先頭に滞留すると予測される時間を、予測滞留時間として算出する。オブジェクトグループ26の予測滞留時間を算出する方法は、オブジェクト22の予測滞留時間を算出する方法と同様である。
そして、算出部2080は、オブジェクトグループ26の予測滞留時間にオブジェクト列20の長さを掛け合わせることで、オブジェクト列20の待ち時間を算出する。オブジェクト列20の長さは、要素情報に示されるオブジェクト領域24の数、すなわちオブジェクト列20に含まれるオブジェクトグループ26の数で表される。
この出願は、2017年3月31日に出願された日本出願特願2017−070824号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
この出願は、2017年3月31日に出願された日本出願特願2017−070824号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 動画データからオブジェクトの列を検出する列検出手段と、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成手段と、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出手段と、を有し、
前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する、情報処理装置。
2. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出手段を有する、1.に記載の情報処理装置。
3. 前記待ち時間算出手段は、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、2.に記載の情報処理装置。
4. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
5. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
6. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
7. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
8. コンピュータによって実行される制御方法であって、
動画データからオブジェクトの列を検出する列検出ステップと、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成ステップと、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出ステップと、を有し、
前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する、制御方法。
9. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出ステップを有する、8.に記載の制御方法。
10. 前記待ち時間算出ステップにおいて、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、9.に記載の制御方法。
11. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
12. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
13. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
14. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、8.乃至10.いずれか一つに記載の制御方法。
15. 8.乃至14.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。

Claims (15)

  1. 動画データからオブジェクトの列を検出する列検出手段と、
    前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成手段と、
    前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出手段と、を有し、
    前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する、情報処理装置。
  2. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出手段を有する、請求項1に記載の情報処理装置。
  3. 前記待ち時間算出手段は、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、請求項2に記載の情報処理装置。
  4. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出手段は、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。
  5. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出手段は、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。
  6. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出手段は、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。
  7. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出手段は、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。
  8. コンピュータによって実行される制御方法であって、
    動画データからオブジェクトの列を検出する列検出ステップと、
    前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成ステップと、
    前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出ステップと、を有し、
    前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する、制御方法。
  9. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出ステップを有する、請求項8に記載の制御方法。
  10. 前記待ち時間算出ステップにおいて、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、請求項9に記載の制御方法。
  11. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出ステップにおいて、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。
  12. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出ステップにおいて、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。
  13. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出ステップにおいて、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。
  14. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
    前記変化検出ステップにおいて、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、請求項8乃至10いずれか一項に記載の制御方法。
  15. 請求項8乃至14いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2019509981A 2017-03-31 2018-03-28 情報処理装置、制御方法、及びプログラム Active JP7156269B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017070824 2017-03-31
JP2017070824 2017-03-31
PCT/JP2018/012784 WO2018181484A1 (ja) 2017-03-31 2018-03-28 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018181484A1 true JPWO2018181484A1 (ja) 2020-02-13
JP7156269B2 JP7156269B2 (ja) 2022-10-19

Family

ID=63677703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509981A Active JP7156269B2 (ja) 2017-03-31 2018-03-28 情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (5) US11151389B2 (ja)
JP (1) JP7156269B2 (ja)
WO (1) WO2018181484A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11704782B2 (en) * 2018-10-03 2023-07-18 The Toronto-Dominion Bank Computerized image analysis for automatically determining wait times for a queue area

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175694A (ja) * 1997-12-11 1999-07-02 Omron Corp 混雑報知装置
JP2010130383A (ja) * 2008-11-28 2010-06-10 Secom Co Ltd 移動物体追跡装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3978834B2 (ja) 1997-11-28 2007-09-19 松下電器産業株式会社 情報通信方法およびその装置
JP2001291144A (ja) 2000-04-04 2001-10-19 Toshiba Corp 自動取引装置
JP2005216217A (ja) 2004-02-02 2005-08-11 Chuo Electronics Co Ltd 行列の人数計測システムおよび人数計測方法
JP2005242896A (ja) 2004-02-27 2005-09-08 Oki Electric Ind Co Ltd 待ち行列対応表示システム及び待ち行列解析装置
JP4402505B2 (ja) 2004-04-27 2010-01-20 グローリー株式会社 待ち時間案内システムおよび方法
US20080312871A1 (en) 2004-11-02 2008-12-18 Sensormatic Electronics Corporation Line Monitoring System and Method
JP2007317052A (ja) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
JP5418151B2 (ja) 2009-10-30 2014-02-19 富士通株式会社 情報提供プログラム、および情報提供装置
JP2013109395A (ja) 2011-11-17 2013-06-06 Sharp Corp 待ち行列管理装置、待ち行列管理方法および、待ち行列管理システム
EP2849151A1 (de) * 2013-09-13 2015-03-18 Xovis AG Verfahren zur Analyse von freien Warteschlangen
JP5597781B1 (ja) * 2014-03-26 2014-10-01 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP2015215787A (ja) 2014-05-12 2015-12-03 キヤノン株式会社 情報処理装置、待ち時間推定システム、情報処理方法及びプログラム
JP6904677B2 (ja) * 2016-08-30 2021-07-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175694A (ja) * 1997-12-11 1999-07-02 Omron Corp 混雑報知装置
JP2010130383A (ja) * 2008-11-28 2010-06-10 Secom Co Ltd 移動物体追跡装置

Also Published As

Publication number Publication date
US20210110167A1 (en) 2021-04-15
US20230410523A1 (en) 2023-12-21
US20230410522A1 (en) 2023-12-21
US20230410524A1 (en) 2023-12-21
US20220004776A1 (en) 2022-01-06
WO2018181484A1 (ja) 2018-10-04
US11790659B2 (en) 2023-10-17
US11151389B2 (en) 2021-10-19
JP7156269B2 (ja) 2022-10-19

Similar Documents

Publication Publication Date Title
TWI773797B (zh) 用以追蹤真實空間之區域中的多關節主體之系統,方法及電腦程式產品
JP6362674B2 (ja) 映像監視支援装置、映像監視支援方法、およびプログラム
WO2019105163A1 (zh) 目标人物的搜索方法和装置、设备、程序产品和介质
KR102374776B1 (ko) Cctv의 위치 정보 및 객체의 움직임 정보에 기초한 타겟 객체 재식별 시스템 및 방법
JP5511035B2 (ja) 広告配信対象者特定装置、および、広告配信装置
US11379993B2 (en) Image processing apparatus, image processing method, and storage medium
KR102198920B1 (ko) 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
US20230410523A1 (en) Information processing apparatus, control method, and program
WO2015061964A1 (en) Simulataneous metadata extraction of moving objects
CN116088503A (zh) 动态障碍物检测方法和机器人
JP2021144741A (ja) 情報処理システム、制御方法、及びプログラム
WO2022078134A1 (zh) 一种人员流量分析方法和系统、电子设备和可读存储介质
JP7115579B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11727580B2 (en) Method and system for gathering information of an object moving in an area of interest
Bazo et al. Baptizo: A sensor fusion based model for tracking the identity of human poses
EP2535860A2 (en) Method for synchronising character information according to data-type classification
US11074696B2 (en) Image processing device, image processing method, and recording medium storing program
Stovall et al. Scalable object tracking in smart cities
JP6792195B2 (ja) 画像処理装置
KR102029860B1 (ko) 실시간 다중 객체 추적 방법과 이를 수행하기 위한 장치
CN112802347B (zh) 通过交通路口车辆的行驶速度确定方法、装置和设备
CN111832459A (zh) 目标检测方法、装置、设备以及存储介质
Sooraj et al. Real-time traffic counter using mobile devices
JP2019176379A (ja) 制御装置、監視システム、監視カメラ制御方法および監視プログラム
WO2024000558A1 (zh) 目标跟踪方法、目标跟踪系统和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R151 Written notification of patent or utility model registration

Ref document number: 7156269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151