JP2021089778A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2021089778A JP2021089778A JP2021038064A JP2021038064A JP2021089778A JP 2021089778 A JP2021089778 A JP 2021089778A JP 2021038064 A JP2021038064 A JP 2021038064A JP 2021038064 A JP2021038064 A JP 2021038064A JP 2021089778 A JP2021089778 A JP 2021089778A
- Authority
- JP
- Japan
- Prior art keywords
- time point
- information
- tracking
- column
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
<概要>
図1は、実施形態1の情報処理装置(後述する図3における後述する情報処理装置2000)の動作の概要を説明するための図である。以下で説明する情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は以下の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては後述する。
オブジェクト列20に含まれるオブジェクト22の振る舞いは、オブジェクト列20全体の振る舞いの影響を受ける。例えば、或る時点でオブジェクト22が静止していても、その時点でそのオブジェクト22の前のオブジェクトが前に移動していれば、その直後にそのオブジェクト22も移動し始める蓋然性が高い。同様に、或る時点でオブジェクト22が移動していても、その時点でそのオブジェクト22の前のオブジェクトが静止していれば、その直後にそのオブジェクト22も静止する蓋然性が高い。
図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、例えば、生成部2020、列振る舞い推定部2040、推定位置算出部2060、及び更新部2080を有する。生成部2020は、動画フレーム14からオブジェクト列20を検出し、オブジェクト列20に含まれる各オブジェクト22を追跡対象オブジェクトとして、各追跡対象オブジェクトの位置を示す追跡情報を生成する。列振る舞い推定部2040は、第1時点の追跡情報を用いて、第1時点のオブジェクト列20の振る舞いを推定し、列振る舞い情報を生成する。推定位置算出部2060は、第1時点の追跡情報及び第1時点の列振る舞い情報に基づき、第1時点よりも後の第2時点における各追跡対象オブジェクトの推定位置を算出する。更新部2080は、第2時点の動画フレーム14から1つ以上のオブジェクト22を検出し、検出された各オブジェクト22の位置と、第2時点における各追跡対象オブジェクトの推定位置とに基づいて、追跡情報を更新する。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
カメラ10は、繰り返し撮像を行って時系列の動画フレーム14を生成することにより、動画データ12を生成する任意のカメラである。例えばカメラ10は、特定の施設や道路などを監視するために設けられている監視カメラである。
図5は、実施形態1の情報処理装置2000によって実行される処理の流れの概略を示すフローチャートである。情報処理装置2000は、動画フレーム14からオブジェクト列20の検出する(S102)。情報処理装置2000は、検出したオブジェクト列20に含まれるオブジェクト22を追跡対象オブジェクトとして、追跡情報を生成する(S104)。
情報処理装置2000は、処理対象とする1つ以上の動画フレーム14を取得する。情報処理装置2000が動画フレーム14を取得する方法は様々である。例えば情報処理装置2000は、カメラ10から送信される動画フレーム14を受信する。また例えば、情報処理装置2000は、カメラ10にアクセスし、カメラ10に記憶されている動画フレーム14を取得する。
生成部2020は、動画フレーム14からオブジェクト列20を検出する(S102)。また、その前提として、生成部2020は、動画フレーム14からオブジェクト22を検出する。動画フレーム14からオブジェクト22を検出する方法には、様々な方法を用いることができる。例えば生成部2020は、検出対象のオブジェクトの画像特徴を学習させた検出器を含む。人物をオブジェクト22として扱う場合、検出器には、人の画像特徴を学習させておく。また、車両をオブジェクト22として扱う場合、検出器には、車両の画像特徴を学習させておく。
生成部2020は、特定したオブジェクト列20について追跡情報を生成する(S104)。第1時点の追跡情報は、第1時点においてオブジェクト列20に含まれる追跡対象オブジェクトに関する情報を示す。追跡情報は、少なくとも、追跡対象オブジェクトの位置を示す。その他にも例えば、追跡情報は、追跡対象オブジェクトの状態、動き、特徴量、又は領域などを示す。
列振る舞い推定部2040は、第1時点の追跡情報を用いて、第1時点の列振る舞い情報を生成する(S108−1)。列振る舞い情報は、オブジェクト列20の振る舞いに関する情報である。
推定位置算出部2060は、第1時点の追跡情報及び第1時点の列振る舞い情報に基づき、第2時点における各追跡対象オブジェクトの推定位置を算出する(S108−2)。追跡情報に加えて列振る舞い情報を用いることにより、追跡対象オブジェクトの振る舞いがオブジェクト列20全体の振る舞いに合致するように、追跡対象オブジェクトの推定位置が算出される。
前述したように、追跡対象オブジェクトiが、追跡対象オブジェクトiが属する静止領域 s1 の前方に存在する移動領域 m1 の後方の所定範囲に位置する場合(S208:YES)、推定位置算出部2060は、第1時点における追跡対象オブジェクトiの位置及び動きに基づいて、第2時点における追跡対象オブジェクトiの推定位置を算出する(S210)。例えば推定位置算出部2060は、追跡対象オブジェクトiの動きを、移動領域 m1 の最後尾に位置する追跡対象オブジェクトの動きを表すベクトルに基づいて推定する。例えば、推定位置算出部2060は、追跡対象オブジェクトiの動きが、移動領域 m1 の最後尾に位置する追跡対象オブジェクトの速度ベクトル vo に対してパラメータα(0<α≦1)を掛けた αvo で表されると推定する。この場合、推定位置算出部2060は、以下の数式(2)を用いて、第2時点における追跡対象オブジェクトiの推定位置 p2 を算出する。
前述したように、追跡対象オブジェクトiが、追跡対象オブジェクトiが属する移動領域 m2 の前方に存在する静止領域 s2 の後方の所定範囲に位置する場合(S216:YES)、推定位置算出部2060は、第1時点の追跡情報が示す追跡対象オブジェクトiの動きに基づいて、第1時点以降の追跡対象オブジェクトiの動きを推定する。例えば推定位置算出部2060は、第1時点以降の追跡対象オブジェクトiの動きが、第1時点における追跡対象オブジェクトの速度ベクトル vi に対してパラメータβ(0<β≦1)を掛けた βvi で表されると推定する。この場合、推定位置算出部2060は、以下の数式(3)を用いて、第2時点における追跡対象オブジェクトiの推定位置 p2 を算出する。
更新部2080は、第2時点の動画フレーム14からオブジェクト22の検出を行う。この検出には、前述した生成部2020が有する検出器と同様の検出器を利用できる。検出器は、生成部2020と更新部2080のそれぞれに設けられていてもよいし、これらで共有するように設けられていてもよい。なお、更新部2080が利用する検出器は、オブジェクト列20に含まれると推定されるオブジェクト22に関する検出情報のみを出力するように構成されていてもよい。オブジェクト22がオブジェクト列に含まれるか否かを推定する技術には、既存の技術を利用することができる。
更新部2080は、静止状態の追跡対象オブジェクトについて優先的に対応付けを行い、その後に移動状態の追跡対象オブジェクトについて対応付けを行っている。まず第1のステップで、更新部2080は、アンカーとなる追跡対象オブジェクトについて対応付けを行う。ここで、アンカーとなる追跡対象オブジェクトとは、オブジェクト列20中でほとんど動かず、確実に対応付けられる追跡対象オブジェクトのことである。すなわち、アンカーとなる追跡対象オブジェクトは、静止状態の追跡対象オブジェクトである。アンカーとなる追跡対象オブジェクトには、動画フレーム14から検出されたオブジェクト22のうち、その追跡対象オブジェクトの推定位置と間の距離が閾値以下のものが対応付けられる。図13では、破線の楕円で囲った対応がこれに相当する。
更新部2080は、上記対応付けの結果に基づいて、追跡情報に示される追跡対象オブジェクトの情報を更新する(S108−4)。すなわち、第1時点の追跡情報が、第2時点の追跡情報に更新される。ここで、追跡情報の更新は、第1時点の追跡情報を記憶領域から削除せずに第2時点の追跡情報を記憶領域へ記憶させることで行われてもよいし、第1時点の追跡情報が記憶されている記憶領域を第2時点の追跡情報で上書きすることで行われてもよい。前者の場合、追跡情報の履歴が記憶領域に蓄積されていく。一方、後者の場合、追跡情報の履歴は蓄積されず、常に最新の追跡情報のみが記憶領域に記憶されていることになる。
更新部2080は、追跡対象オブジェクトに対応づけられたオブジェクト22の位置に基づいて、追跡対象オブジェクトの位置(テーブル200における位置204)を更新する。例えば更新部2080は、追跡情報の位置204を、その追跡対象オブジェクトに対応付けられたオブジェクト22の位置に更新する。その他にも例えば、更新部2080は、その追跡対象オブジェクトの第2時点における推定位置と、その追跡対象オブジェクトに対応付けられたオブジェクト22の位置とを統計処理(例えば重み付け加算)し、追跡情報の位置204を、統計処理の結果得られた位置に更新する。
更新部2080は、前述した更新後の追跡対象オブジェクトの位置(以下、更新位置)と、推定位置算出部2060によって推定された追跡対象オブジェクトの推定位置との差異に基づいて、追跡対象オブジェクトの動き(テーブル200における動き208)を更新する。こうすることで、推定位置算出部2060による推定にどの程度の誤差があったかを考慮して、追跡対象オブジェクトの動きが補正される。
更新部2080は、追跡対象オブジェクトの状態(テーブル200の状態206)を更新する。例えば更新部2080は、更新した追跡対象オブジェクトの速度の大きさ(速さ)が所定値(例えば0)以下である場合に、その追跡対象オブジェクトの状態206を静止状態に更新する。一方、更新部2080は、更新した追跡対象オブジェクトの速度の大きさが所定値より大きい場合に、その追跡対象オブジェクトの状態206を移動状態に更新する。
更新部2080は、第2時点の動画フレーム14から検出されたオブジェクト22の特徴量に基づいて、そのオブジェクト22と対応づけられた追跡対象オブジェクトの特徴量(テーブル200の特徴量210)を更新する。例えば更新部2080は、オブジェクト22の特徴量と、そのオブジェクト22に対応付けられた追跡対象オブジェクトについて追跡情報の特徴量210が示す特徴量とを統計処理(例えば、重み付け加算)し、その結果として得られた特徴量で、追跡情報が示すその追跡対象オブジェクトの特徴量210を更新する。その他にも例えば、更新部2080は、オブジェクト22に対応付けられた追跡対象オブジェクトについて追跡情報が示す特徴量210を、そのオブジェクト22の特徴量で置き換えてもよい。その他にも例えば、更新部2080は、追跡情報が一つの追跡対象オブジェクトについて複数の特徴量を示す場合(例えば、複数のテンプレートを保持する場合)、追跡情報が示す追跡対象オブジェクトの特徴量210の一つを、その追跡対象オブジェクトに対応づけられたオブジェクト22の特徴量で置き換えてもよい。
更新部2080は、追跡情報が示す追跡対象オブジェクトの領域(テーブル200の領域212)を更新する。例えば更新部2080は、追跡情報が示す追跡対象オブジェクトの領域212を、追跡対象オブジェクトの位置の変化に応じて移動させることで、追跡情報の領域212を更新する。その他にも例えば、更新部2080は、第2時点の動画フレーム14から検出されたオブジェクト22の領域(例えば外接矩形)で、そのオブジェクト22と対応づけられた追跡対象オブジェクトについて追跡情報が示す領域212を置き換えてもよい。
第1時点の追跡情報に示される追跡対象オブジェクトの中に、第2時点の動画フレーム14から検出されるオブジェクト22と対応づけられないものがあったとする(前述した未検知のケース)。これは、追跡対象オブジェクトに対応するオブジェクト22が、何らかの理由で第2時点の動画フレーム14から検出されなかったことを意味する。例えばオブジェクトを俯瞰するようにカメラ10が設置されている場合、カメラ10に近いオブジェクトによって他のオブジェクトが遮蔽されてしまうことがありうる。
1. 動画フレームからオブジェクトの列を検出し、前記検出された列に含まれる各オブジェクトを追跡対象オブジェクトとして、各追跡対象オブジェクトの位置を示す追跡情報を生成する生成手段と、
第1時点の前記追跡対象オブジェクトに関する前記追跡情報を用いて、前記第1時点の前記列の振る舞いを推定し、前記列の振る舞いに関する列振る舞い情報を生成する列振る舞い推定手段と、
前記第1時点の前記追跡情報及び前記列振る舞い情報に基づき、前記第1時点よりも後の第2時点における各前記追跡対象オブジェクトの推定位置を算出する推定位置算出手段と、
前記第2時点の動画フレームから1つ以上のオブジェクトを検出し、前記検出された各オブジェクトの位置と、前記第2時点における各追跡対象オブジェクトの推定位置とに基づいて、前記追跡情報に示される各前記追跡対象オブジェクトの情報を更新する更新手段と、を有する情報処理装置。
2. 前記更新手段は、前記第2時点における位置が推定された前記追跡対象オブジェクトと、前記第2時点の動画フレームから検出されたオブジェクトとを対応づけることで、その追跡対象オブジェクトに関する前記追跡情報を更新する、1.に記載の情報処理装置。
3. 前記列振る舞い推定手段は、全ての前記追跡対象オブジェクトが静止している静止状態、全ての前記追跡対象オブジェクトが移動している全体移動状態、及び一部の前記追跡対象オブジェクトが移動している一部移動状態の中の1つを前記列の状態として推定し、前記推定した列の状態を示す前記列振る舞い情報を生成する、1.又は2.に記載の情報処理装置。
4. 前記列振る舞い推定手段は、前記列の状態が前記一部移動状態である場合、前記列振る舞い情報に、前記追跡対象オブジェクトが移動している移動領域と、前記追跡対象オブジェクトが静止している静止領域とを互いに識別する情報を含める、3.に記載の情報処理装置。
5. 前記推定位置算出手段は、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトが移動すると推定して、その追跡対象オブジェクトの推定位置を算出する、4.に記載の情報処理装置。
6. 前記推定位置算出手段は、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトの動きの大きさを、その移動領域の動きの大きさ又はその移動領域に含まれる追跡対象オブジェクトの動きの大きさに基づいて推定する、5.に記載の情報処理装置。
7. 前記推定位置算出手段は、前記静止領域の後ろの所定範囲に位置していてなおかつ移動状態である前記追跡対象オブジェクトの動きを、前記追跡情報に示される動きの大きさよりも小さく推定して、その追跡対象オブジェクトの位置を算出する、4.乃至6.いずれか一つに記載の情報処理装置。
8. 前記更新手段は、前記追跡対象オブジェクトのうち、静止状態にある追跡対象オブジェクトについて優先的に対応づけを行う、1.乃至7.いずれか一つに記載の情報処理装置。
動画フレームからオブジェクトの列を検出し、前記検出された列に含まれる各オブジェクトを追跡対象オブジェクトとして、各追跡対象オブジェクトの位置を示す追跡情報を生成する生成ステップと、
第1時点の前記追跡対象オブジェクトに関する前記追跡情報を用いて、前記第1時点の前記列の振る舞いを推定し、前記列の振る舞いに関する列振る舞い情報を生成する列振る舞い推定ステップと、
前記第1時点の前記追跡情報及び前記列振る舞い情報に基づき、前記第1時点よりも後の第2時点における各前記追跡対象オブジェクトの推定位置を算出する推定位置算出ステップと、
前記第2時点の動画フレームから1つ以上のオブジェクトを検出し、前記検出された各オブジェクトの位置と、前記第2時点における各追跡対象オブジェクトの推定位置とに基づいて、前記追跡情報に示される各前記追跡対象オブジェクトの情報を更新する更新ステップと、を有する制御方法。
10. 前記更新ステップにおいて、前記第2時点における位置が推定された前記追跡対象オブジェクトと、前記第2時点の動画フレームから検出されたオブジェクトとを対応づけることで、その追跡対象オブジェクトに関する前記追跡情報を更新する、9.に記載の制御方法。
11. 前記列振る舞い推定ステップにおいて、全ての前記追跡対象オブジェクトが静止している静止状態、全ての前記追跡対象オブジェクトが移動している全体移動状態、及び一部の前記追跡対象オブジェクトが移動している一部移動状態の中の1つを前記列の状態として推定し、前記推定した列の状態を示す前記列振る舞い情報を生成する、9.又は10.に記載の制御方法。
12. 前記列振る舞い推定ステップにおいて、前記列の状態が前記一部移動状態である場合、前記列振る舞い情報に、前記追跡対象オブジェクトが移動している移動領域と、前記追跡対象オブジェクトが静止している静止領域とを互いに識別する情報を含める、11.に記載の制御方法。
13. 前記推定位置算出ステップにおいて、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトが移動すると推定して、その追跡対象オブジェクトの推定位置を算出する、12.に記載の制御方法。
14. 前記推定位置算出ステップにおいて、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトの動きの大きさを、その移動領域の動きの大きさ又はその移動領域に含まれる追跡対象オブジェクトの動きの大きさに基づいて推定する、13.に記載の制御方法。
15. 前記推定位置算出ステップにおいて、前記静止領域の後ろの所定範囲に位置していてなおかつ移動状態である前記追跡対象オブジェクトの動きを、前記追跡情報に示される動きの大きさよりも小さく推定して、その追跡対象オブジェクトの位置を算出する、12.乃至14.いずれか一つに記載の制御方法。
16. 前記更新ステップにおいて、前記追跡対象オブジェクトのうち、静止状態にある追跡対象オブジェクトについて優先的に対応づけを行う、9.乃至15.いずれか一つに記載の制御方法。
Claims (10)
- 動画フレームに映る列を構成する追跡対象オブジェクトの位置を示す第1時点の追跡情報を用いて、前記第1時点における前記列の振る舞いに関する列振る舞い情報を生成する列振る舞い情報生成手段と、
前記第1時点の前記追跡情報及び前記列振る舞い情報に基づき、前記第1時点よりも後の第2時点における前記追跡対象オブジェクトの推定位置を算出する推定位置算出手段と、
を有する情報処理装置。 - さらに、前記第2時点の動画フレームから検出された各オブジェクトの位置と、前記第2時点における各追跡対象オブジェクトの推定位置とに基づいて、前記追跡情報に示される前記追跡対象オブジェクトの情報を更新する更新手段と、
を有する請求項1に記載の情報処理装置。 - 前記更新手段は、前記第2時点における位置が推定された前記追跡対象オブジェクトと、前記第2時点の動画フレームから検出されたオブジェクトとを対応づけることで、その追跡対象オブジェクトに関する前記追跡情報を更新する、請求項2に記載の情報処理装置。
- 前記列振る舞い情報生成手段は、全ての前記追跡対象オブジェクトが静止している静止状態、全ての前記追跡対象オブジェクトが移動している全体移動状態、及び一部の前記追跡対象オブジェクトが移動している一部移動状態の中の1つを前記列の状態として推定し、前記推定した列の状態を示す前記列振る舞い情報を生成する、請求項1乃至3のいずれか一項に記載の情報処理装置。
- 前記列振る舞い情報生成手段は、前記列の状態が前記一部移動状態である場合、前記列振る舞い情報に、前記追跡対象オブジェクトが移動している移動領域と、前記追跡対象オブジェクトが静止している静止領域とを互いに識別する情報を含める、請求項4に記載の情報処理装置。
- 前記推定位置算出手段は、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトが移動すると推定して、その追跡対象オブジェクトの推定位置を算出する、請求項5に記載の情報処理装置。
- 前記推定位置算出手段は、前記移動領域の後ろの所定範囲に位置していてなおかつ静止状態である前記追跡対象オブジェクトの動きの大きさを、その移動領域の動きの大きさ又はその移動領域に含まれる追跡対象オブジェクトの動きの大きさに基づいて推定する、請求項6に記載の情報処理装置。
- 前記推定位置算出手段は、前記静止領域の後ろの所定範囲に位置していてなおかつ移動状態である前記追跡対象オブジェクトの動きを、前記追跡情報に示される動きの大きさよりも小さく推定して、その追跡対象オブジェクトの位置を算出する、請求項5乃至7のいずれか一項に記載の情報処理装置。
- コンピュータが、
動画フレームに映る列を構成する追跡対象オブジェクトの位置を示す第1時点の追跡情報を用いて、前記第1時点における前記列の振る舞いに関する列振る舞い情報を生成し、
前記第1時点の前記追跡情報及び前記列振る舞い情報に基づき、前記第1時点よりも後の第2時点における前記追跡対象オブジェクトの推定位置を算出する、
情報処理方法。 - コンピュータに、
動画フレームに映る列を構成する追跡対象オブジェクトの位置を示す第1時点の追跡情報を用いて、前記第1時点における前記列の振る舞いに関する列振る舞い情報を生成する処理、
前記第1時点の前記追跡情報及び前記列振る舞い情報に基づき、前記第1時点よりも後の第2時点における前記追跡対象オブジェクトの推定位置を算出する処理、
を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129221 | 2017-06-30 | ||
JP2017129221 | 2017-06-30 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526680A Division JP6852791B2 (ja) | 2017-06-30 | 2018-05-18 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021089778A true JP2021089778A (ja) | 2021-06-10 |
JP7115579B2 JP7115579B2 (ja) | 2022-08-09 |
Family
ID=64742904
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526680A Active JP6852791B2 (ja) | 2017-06-30 | 2018-05-18 | 情報処理装置、制御方法、及びプログラム |
JP2021038064A Active JP7115579B2 (ja) | 2017-06-30 | 2021-03-10 | 情報処理装置、情報処理方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526680A Active JP6852791B2 (ja) | 2017-06-30 | 2018-05-18 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11301692B2 (ja) |
JP (2) | JP6852791B2 (ja) |
WO (1) | WO2019003709A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11704782B2 (en) * | 2018-10-03 | 2023-07-18 | The Toronto-Dominion Bank | Computerized image analysis for automatically determining wait times for a queue area |
US20220114371A1 (en) * | 2020-10-09 | 2022-04-14 | Sensormatic Electronics, LLC | Queue monitoring in occlusion conditions through computer vision |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130383A (ja) * | 2008-11-28 | 2010-06-10 | Secom Co Ltd | 移動物体追跡装置 |
WO2017047060A1 (ja) * | 2015-09-14 | 2017-03-23 | 日本電気株式会社 | 行列検出システム、方法及び記録媒体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1807739B1 (en) * | 2004-11-02 | 2014-04-02 | Tyco Fire & Security GmbH | Line monitoring system and method |
JP4826315B2 (ja) * | 2006-03-31 | 2011-11-30 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
GB201306313D0 (en) * | 2013-04-08 | 2013-05-22 | Vision Semantics Ltd | Queue analysis |
US10740738B2 (en) * | 2013-07-29 | 2020-08-11 | Infrared Integrated Systems Ltd. | System and method for counting objects in a queue |
JP5683663B1 (ja) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法 |
US10339544B2 (en) * | 2014-07-02 | 2019-07-02 | WaitTime, LLC | Techniques for automatic real-time calculation of user wait times |
JP6597611B2 (ja) * | 2014-07-25 | 2019-10-30 | 日本電気株式会社 | 画像処理装置、監視システム、画像処理方法、及びプログラム |
-
2018
- 2018-05-18 JP JP2019526680A patent/JP6852791B2/ja active Active
- 2018-05-18 WO PCT/JP2018/019304 patent/WO2019003709A1/ja active Application Filing
- 2018-05-18 US US16/626,756 patent/US11301692B2/en active Active
-
2021
- 2021-03-10 JP JP2021038064A patent/JP7115579B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130383A (ja) * | 2008-11-28 | 2010-06-10 | Secom Co Ltd | 移動物体追跡装置 |
WO2017047060A1 (ja) * | 2015-09-14 | 2017-03-23 | 日本電気株式会社 | 行列検出システム、方法及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019003709A1 (ja) | 2020-08-06 |
JP6852791B2 (ja) | 2021-03-31 |
US11301692B2 (en) | 2022-04-12 |
WO2019003709A1 (ja) | 2019-01-03 |
US20200134323A1 (en) | 2020-04-30 |
JP7115579B2 (ja) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450146B2 (en) | Gesture recognition method, apparatus, and device | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
JP7342919B2 (ja) | 情報処理システム、制御方法、及びプログラム | |
US11270108B2 (en) | Object tracking method and apparatus | |
WO2016034008A1 (zh) | 一种目标跟踪方法及装置 | |
CN110991261A (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
JP7192143B2 (ja) | オンライン学習を利用した物体追跡のための方法およびシステム | |
JP7115579B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111382637A (zh) | 行人检测跟踪方法、装置、终端设备及介质 | |
JP6331270B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2021144741A (ja) | 情報処理システム、制御方法、及びプログラム | |
JP2020109644A (ja) | 転倒検出方法、転倒検出装置及び電子機器 | |
US20230410523A1 (en) | Information processing apparatus, control method, and program | |
CN111986229A (zh) | 视频目标检测方法、装置及计算机系统 | |
EP3951616A1 (en) | Identification information adding device, identification information adding method, and program | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
CN112446229A (zh) | 一种标志杆的像素坐标获取方法及装置 | |
JP2019200527A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20220230333A1 (en) | Information processing system, information processing method, and program | |
WO2023063950A1 (en) | Training models for object detection | |
CN115984895A (zh) | 手势识别方法及装置、计算机可读存储介质、终端 | |
CN116434156A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7115579 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |