JPWO2018181484A1 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2018181484A1 JPWO2018181484A1 JP2019509981A JP2019509981A JPWO2018181484A1 JP WO2018181484 A1 JPWO2018181484 A1 JP WO2018181484A1 JP 2019509981 A JP2019509981 A JP 2019509981A JP 2019509981 A JP2019509981 A JP 2019509981A JP WO2018181484 A1 JPWO2018181484 A1 JP WO2018181484A1
- Authority
- JP
- Japan
- Prior art keywords
- column
- row
- detecting
- element information
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する。
前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する。
<概要>
図1及び図2は、実施形態1の情報処理装置(後述する情報処理装置2000)の動作の概要を例示する図である。以下で説明する情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は以下の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては後述する。
図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、列検出部2020、生成部2040、及び変化検出部2060を有する。列検出部2020は、動画データ12からオブジェクト列20を検出する。生成部2040は、オブジェクト列20が含まれる複数の動画フレーム14それぞれについて要素情報を生成する。変化検出部2060は、複数の動画フレーム14それぞれについて生成された要素情報を比較することで、オブジェクト列20の変化を検出する。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
カメラ10は、繰り返し撮像を行うことで動画データを生成できる任意のカメラである。例えばカメラ10は、特定の施設や道路などを監視するために設けられている監視カメラである。
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。列検出部2020は、動画データ12に含まれる動画フレーム14から、オブジェクト列20を検出する(S102)。生成部2040は、オブジェクト列20が検出された動画フレーム14について要素情報を生成する(S104)。
情報処理装置2000は、処理対象とする動画データ12を取得する。情報処理装置2000が動画データ12を取得する方法は様々である。例えば情報処理装置2000は、カメラ10から送信される動画データ12を受信する。また例えば、情報処理装置2000は、カメラ10にアクセスし、カメラ10に記憶されている動画データ12を取得する。
列検出部2020は、動画データ12からオブジェクト列20を検出する(S102)。動画データ12からオブジェクト列20を検出する方法には、様々な方法を採用できる。以下では、その一例を説明する。
生成部2040は、列検出部2020によってオブジェクト列20が検出された動画フレーム14を用いて、オブジェクト列20の要約情報を生成する(S104)。前述したように、要素情報は、オブジェクト22が動画フレーム14において占める領域であるオブジェクト領域24とそのオブジェクト22の属性とを対応付けた情報である。よって、要素情報を生成するためには、各オブジェクト22について、属性及びオブジェクト領域24を特定する必要がある。以下、それぞれの特定方法について説明する。
オブジェクト22の属性は、種々の情報を含みうる。例えばオブジェクト22の属性は、オブジェクト22の特徴量を含む。オブジェクト22が人である場合、例えばオブジェクト22の特徴量は、顔、身体、服装、又は持ち物などの色や形状などを表す。また、オブジェクト22が車両である場合、オブジェクト22の特徴量は、車両の色、形状、又はナンバープレートのナンバーなどを表す。ここで、動画フレームに含まれるオブジェクトの特徴量を算出する技術には、既存の技術を利用することができる。
例えば生成部2040は、オブジェクト列20の進行方向を特定し、オブジェクト列20において進行方向の端に位置するオブジェクト22を、先頭のオブジェクト22として特定する。ここで、オブジェクト列20の進行方向は、例えば、オブジェクト列20を構成する各オブジェクト22の正面方向として特定することができる。なお、オブジェクト22の正面方向を特定する技術には、既存の技術を利用することができる。例えばオブジェクト22が人である場合、オブジェクト22の正面方向を特定する方法には、1)頭部検出を行うことで顔の正面方向を特定し、顔の正面方向をオブジェクト22の正面方向とする方法や、2)胴体検出を行うことで胴体の正面方向を特定し、胴体の正面方向をオブジェクト22の正面方向とする方法などを利用できる。また、オブジェクト22が車両である場合、車両の形状に基づいて車両の進行方向を特定することができる。
例えば生成部2040は、オブジェクト列20の進行方向を特定し、オブジェクト列20において進行方向とは逆の端に位置するオブジェクト22を、末尾のオブジェクトとして特定する。オブジェクト列20の進行方向を特定する方法は前述した通りである。
生成部2040は、オブジェクト列20全体を表す画像領域を、互いに隣接する2つのオブジェクト22の間の境界で区切る。こうすることで、生成部2040は、オブジェクト列20の画像領域を、各オブジェクト22が占める複数の部分領域に分割する。オブジェクト22のオブジェクト領域24は、オブジェクト列20を上述の方法で分割することで得られる部分領域のうち、そのオブジェクト22が含まれる部分領域である。なお、オブジェクト列20全体を表す画像領域を定める方法には、既存の技術を利用することができる。
変化検出部2060は、動画フレーム14から生成された要素情報と、その動画フレーム14以降に生成された各動画フレーム14に対するオブジェクト22の検出の結果とに基づいて、オブジェクト列20の変化を検出する(S108、110)。各動画フレーム14に対するオブジェクト22の検出は、例えば前述した、オブジェクト22のトラッキングである。つまり変化検出部2060は、要素情報が生成された動画フレーム14以降の動画フレーム14によって構成される動画データ12において各オブジェクト22をトラッキングし、そのトラッキングによって把握されるオブジェクト22の動きや状態などと、要素情報とに基づいて、オブジェクト列20の変化を検出する。
変化検出部2060は、オブジェクト列20からオブジェクト22が離脱したことを検出する。ここでいうオブジェクト22の離脱は、オブジェクト22がオブジェクト列20に属さなくなることを意味する。オブジェクト22が一時的にオブジェクト列20を離れ、その後にオブジェクト列20の同じ位置に戻るケースについては、離脱と表現しないこととする。そこで変化検出部2060は、オブジェクト列20から或るオブジェクト22が検出されない場合に、オブジェクト22が一時的にオブジェクト列20から離れただけなのか、それともオブジェクト列20に戻ってこないのか(オブジェクト列20から離脱したのか)を区別する。
図10は、先頭のオブジェクト22がオブジェクト列20から離脱するケースを例示する図である。図10では、先頭に位置するオブジェクト22−1がオブジェクト列20から離脱する。
図11は、末尾のオブジェクト22がオブジェクト列20から離脱するケースを例示する図である。図11では、末尾に位置するオブジェクト22−4がオブジェクト列20から離脱する。
オブジェクト列20を構成するオブジェクト22が3つ以上である場合、中間層のオブジェクト22(先頭でも末尾でもないオブジェクト22)が存在する。例えば図5において、中間層のオブジェクト22は、オブジェクト22−2とオブジェクト22−3である。
例えば変化検出部2060は、オブジェクト列20に対してオブジェクト22が加わったことを検出する。ここで、オブジェクト列20に属さないオブジェクト22がオブジェクト列20の付近に現れて静止すると、そのオブジェクト22がオブジェクト列20に加わったようにも見える。しかし実際には、そのオブジェクト22は、オブジェクト列20の付近で静止しただけであって、オブジェクト列20に加わっていないこともある。具体的には、オブジェクト列20に新たに加わるオブジェクト22はオブジェクト列20の末尾に並ぶため、オブジェクト列20の末尾以外の場所で静止したオブジェクト22は、たとえオブジェクト列20の近くで静止したとしても、オブジェクト列20に加わっていないと考えられる。
変化検出部2060によってオブジェクト列20の変化が検出された場合、生成部2040は、変化検出部2060によって利用される要素情報を更新する(S112)。例えば生成部2040は、オブジェクト列20の変化が検出された動画フレーム14以降に生成される動画フレーム14であって、オブジェクト列20を構成する全てのオブジェクト22が静止状態にある動画フレーム14について、S104と同様の方法で要素情報を生成する。その後、変化検出部2060によるオブジェクト列20の変化の検出には、新たに生成された要素情報が利用される。つまり、変化検出部2060に利用される要素情報が更新される。
情報処理装置2000は、オブジェクト列20を構成する単位として、複数のオブジェクト22から成るグループ(以下、オブジェクトグループ)を用いてもよい。図14は、オブジェクトグループによって構成されるオブジェクト列20を例示する図である。図14において、オブジェクト列20は、オブジェクトグループ26−1、オブジェクトグループ26−2、及びオブジェクトグループ26−3という3つのオブジェクトグループによって構成されている。オブジェクトグループ26−1は、オブジェクト22−1及びオブジェクト22−2によって構成されている。オブジェクトグループ26−2は、オブジェクト22−3によって構成されている。オブジェクトグループ26−3は、オブジェクト22−4及びオブジェクト22−5によって構成されている。
図15は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
予測滞留時間の算出に利用するため、オブジェクト列20から先頭のオブジェクト22が離脱したことを検出した変化検出部2060は、そのオブジェクト22がオブジェクト列20の先頭から離脱した時点(以下、先頭離脱時点)を記憶装置に記録させる。例えば、或るオブジェクト22の先頭離脱時点は、そのオブジェクト22がオブジェクト列20の先頭から離脱したことが検出された動画フレーム14の生成時点とする。
算出部2080によって算出されたオブジェクト列20の待ち時間を利用する方法は様々である。例えば情報処理装置2000は、算出部2080によって算出された待ち時間を、記憶装置に記憶させる。こうすることで、例えば時間帯、日付、又は曜日ごとのオブジェクト列20の待ち時間の違いを統計的に算出するなどして、カメラ10が設置されている場所におけるオブジェクト列20の待ち時間の傾向などを把握することができる。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図4によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュール(算出部2080を実現するプログラムモジュールなど)がさらに記憶される。
上述の説明では、オブジェクト22をオブジェクト列20の構成単位としている。しかし、実施形態1の変形例として前述したように、オブジェクトグループ26をオブジェクト列20の構成単位としてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 動画データからオブジェクトの列を検出する列検出手段と、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成手段と、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出手段と、を有し、
前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する、情報処理装置。
2. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出手段を有する、1.に記載の情報処理装置。
3. 前記待ち時間算出手段は、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、2.に記載の情報処理装置。
4. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
5. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
6. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
7. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、1.乃至3.いずれか一つに記載の情報処理装置。
8. コンピュータによって実行される制御方法であって、
動画データからオブジェクトの列を検出する列検出ステップと、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成ステップと、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出ステップと、を有し、
前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する、制御方法。
9. 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出ステップを有する、8.に記載の制御方法。
10. 前記待ち時間算出ステップにおいて、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、9.に記載の制御方法。
11. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
12. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
13. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、8.乃至10.いずれか一つに記載の制御方法。
14. 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、8.乃至10.いずれか一つに記載の制御方法。
15. 8.乃至14.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Claims (15)
- 動画データからオブジェクトの列を検出する列検出手段と、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成手段と、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出手段と、を有し、
前記生成手段は、前記変化が検出された列について前記要素情報を生成することで、前記変化検出手段が利用する要素情報を更新する、情報処理装置。 - 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出手段を有する、請求項1に記載の情報処理装置。
- 前記待ち時間算出手段は、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、請求項2に記載の情報処理装置。
- 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出手段は、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、請求項1乃至3いずれか一項に記載の情報処理装置。 - コンピュータによって実行される制御方法であって、
動画データからオブジェクトの列を検出する列検出ステップと、
前記オブジェクトの列が検出された動画フレームを用いて、前記列に含まれるオブジェクトがその動画フレームにおいて占める領域であるオブジェクト領域と、そのオブジェクトの属性とを対応付けた情報である要素情報を生成する生成ステップと、
前記要素情報と、前記要素情報が生成された動画フレーム以降に生成される動画フレームに対するオブジェクト検出の結果とに基づいて、前記列の変化を検出する変化検出ステップと、を有し、
前記生成ステップにおいて、前記変化が検出された列について前記要素情報を生成することで、前記変化検出ステップで利用する要素情報を更新する、制御方法。 - 前記列の端に位置するオブジェクトがその端に滞留する時間を算出し、前記算出した時間に前記列の長さを掛け合わせた時間を、前記列の待ち時間として算出する待ち時間算出ステップを有する、請求項8に記載の制御方法。
- 前記待ち時間算出ステップにおいて、前記列の端からオブジェクトが離脱してから、その次に前記列の端からオブジェクトが離脱するまでの時間を、前記オブジェクトが前記列の端に滞留する時間として算出する、請求項9に記載の制御方法。
- 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の先頭に位置する第1オブジェクトのオブジェクト領域から前記第1オブジェクトが検出されないこと、及び前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ることを検出した場合に、前記第1オブジェクトが前記列の先頭から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の末尾に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、及び前記第1オブジェクトの一つ前に位置する第2オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列の末尾から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列の端以外に位置する第1オブジェクトが前記第1オブジェクトのオブジェクト領域から検出されないこと、前記第1オブジェクトのオブジェクト領域へ前記第1オブジェクトの一つ後ろに位置する第2オブジェクトが入ること、及び前記第1オブジェクトの一つ前に位置する第3オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列から離脱したことを検出する、請求項8乃至10いずれか一項に記載の制御方法。 - 前記要素情報が示す前記オブジェクトの属性は、前記列におけるそのオブジェクトの位置を含み、
前記変化検出ステップにおいて、前記列に含まれていない第1オブジェクトと、前記列の末尾に位置する第2オブジェクトとの距離が所定距離以下であること、及び前記第1オブジェクトが静止していることを検出した場合に、前記第1オブジェクトが前記列に加わったことを検出する、請求項8乃至10いずれか一項に記載の制御方法。 - 請求項8乃至14いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017070824 | 2017-03-31 | ||
JP2017070824 | 2017-03-31 | ||
PCT/JP2018/012784 WO2018181484A1 (ja) | 2017-03-31 | 2018-03-28 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018181484A1 true JPWO2018181484A1 (ja) | 2020-02-13 |
JP7156269B2 JP7156269B2 (ja) | 2022-10-19 |
Family
ID=63677703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019509981A Active JP7156269B2 (ja) | 2017-03-31 | 2018-03-28 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (5) | US11151389B2 (ja) |
JP (1) | JP7156269B2 (ja) |
WO (1) | WO2018181484A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11704782B2 (en) * | 2018-10-03 | 2023-07-18 | The Toronto-Dominion Bank | Computerized image analysis for automatically determining wait times for a queue area |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175694A (ja) * | 1997-12-11 | 1999-07-02 | Omron Corp | 混雑報知装置 |
JP2010130383A (ja) * | 2008-11-28 | 2010-06-10 | Secom Co Ltd | 移動物体追跡装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3978834B2 (ja) | 1997-11-28 | 2007-09-19 | 松下電器産業株式会社 | 情報通信方法およびその装置 |
JP2001291144A (ja) | 2000-04-04 | 2001-10-19 | Toshiba Corp | 自動取引装置 |
JP2005216217A (ja) | 2004-02-02 | 2005-08-11 | Chuo Electronics Co Ltd | 行列の人数計測システムおよび人数計測方法 |
JP2005242896A (ja) | 2004-02-27 | 2005-09-08 | Oki Electric Ind Co Ltd | 待ち行列対応表示システム及び待ち行列解析装置 |
JP4402505B2 (ja) | 2004-04-27 | 2010-01-20 | グローリー株式会社 | 待ち時間案内システムおよび方法 |
US20080312871A1 (en) | 2004-11-02 | 2008-12-18 | Sensormatic Electronics Corporation | Line Monitoring System and Method |
JP2007317052A (ja) | 2006-05-29 | 2007-12-06 | Japan Airlines International Co Ltd | 行列の待ち時間の計測システム |
JP5418151B2 (ja) | 2009-10-30 | 2014-02-19 | 富士通株式会社 | 情報提供プログラム、および情報提供装置 |
JP2013109395A (ja) | 2011-11-17 | 2013-06-06 | Sharp Corp | 待ち行列管理装置、待ち行列管理方法および、待ち行列管理システム |
EP2849151A1 (de) * | 2013-09-13 | 2015-03-18 | Xovis AG | Verfahren zur Analyse von freien Warteschlangen |
JP5597781B1 (ja) * | 2014-03-26 | 2014-10-01 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
JP2015215787A (ja) | 2014-05-12 | 2015-12-03 | キヤノン株式会社 | 情報処理装置、待ち時間推定システム、情報処理方法及びプログラム |
JP6904677B2 (ja) * | 2016-08-30 | 2021-07-21 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2018
- 2018-03-28 US US16/498,949 patent/US11151389B2/en active Active
- 2018-03-28 WO PCT/JP2018/012784 patent/WO2018181484A1/ja active Application Filing
- 2018-03-28 JP JP2019509981A patent/JP7156269B2/ja active Active
-
2021
- 2021-09-22 US US17/482,123 patent/US11790659B2/en active Active
-
2023
- 2023-09-01 US US18/241,770 patent/US20230410522A1/en active Pending
- 2023-09-05 US US18/242,249 patent/US20230410524A1/en active Pending
- 2023-09-05 US US18/242,242 patent/US20230410523A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175694A (ja) * | 1997-12-11 | 1999-07-02 | Omron Corp | 混雑報知装置 |
JP2010130383A (ja) * | 2008-11-28 | 2010-06-10 | Secom Co Ltd | 移動物体追跡装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210110167A1 (en) | 2021-04-15 |
US20230410523A1 (en) | 2023-12-21 |
US20230410522A1 (en) | 2023-12-21 |
US20230410524A1 (en) | 2023-12-21 |
US20220004776A1 (en) | 2022-01-06 |
WO2018181484A1 (ja) | 2018-10-04 |
US11790659B2 (en) | 2023-10-17 |
US11151389B2 (en) | 2021-10-19 |
JP7156269B2 (ja) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI773797B (zh) | 用以追蹤真實空間之區域中的多關節主體之系統,方法及電腦程式產品 | |
JP6362674B2 (ja) | 映像監視支援装置、映像監視支援方法、およびプログラム | |
WO2019105163A1 (zh) | 目标人物的搜索方法和装置、设备、程序产品和介质 | |
KR102374776B1 (ko) | Cctv의 위치 정보 및 객체의 움직임 정보에 기초한 타겟 객체 재식별 시스템 및 방법 | |
JP5511035B2 (ja) | 広告配信対象者特定装置、および、広告配信装置 | |
US11379993B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR102198920B1 (ko) | 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템 | |
US20230410523A1 (en) | Information processing apparatus, control method, and program | |
WO2015061964A1 (en) | Simulataneous metadata extraction of moving objects | |
CN116088503A (zh) | 动态障碍物检测方法和机器人 | |
JP2021144741A (ja) | 情報処理システム、制御方法、及びプログラム | |
WO2022078134A1 (zh) | 一种人员流量分析方法和系统、电子设备和可读存储介质 | |
JP7115579B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11727580B2 (en) | Method and system for gathering information of an object moving in an area of interest | |
Bazo et al. | Baptizo: A sensor fusion based model for tracking the identity of human poses | |
EP2535860A2 (en) | Method for synchronising character information according to data-type classification | |
US11074696B2 (en) | Image processing device, image processing method, and recording medium storing program | |
Stovall et al. | Scalable object tracking in smart cities | |
JP6792195B2 (ja) | 画像処理装置 | |
KR102029860B1 (ko) | 실시간 다중 객체 추적 방법과 이를 수행하기 위한 장치 | |
CN112802347B (zh) | 通过交通路口车辆的行驶速度确定方法、装置和设备 | |
CN111832459A (zh) | 目标检测方法、装置、设备以及存储介质 | |
Sooraj et al. | Real-time traffic counter using mobile devices | |
JP2019176379A (ja) | 制御装置、監視システム、監視カメラ制御方法および監視プログラム | |
WO2024000558A1 (zh) | 目标跟踪方法、目标跟踪系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220919 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7156269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |