JP2023010840A - 物体追跡方法、物体追跡装置、及びプログラム - Google Patents
物体追跡方法、物体追跡装置、及びプログラム Download PDFInfo
- Publication number
- JP2023010840A JP2023010840A JP2022185479A JP2022185479A JP2023010840A JP 2023010840 A JP2023010840 A JP 2023010840A JP 2022185479 A JP2022185479 A JP 2022185479A JP 2022185479 A JP2022185479 A JP 2022185479A JP 2023010840 A JP2023010840 A JP 2023010840A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- person
- tracking device
- moving image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000001514 detection method Methods 0.000 description 61
- 230000008569 process Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
少なくとも1つのコンピュータが、
第1物体を指定する要求を受け付け、
動画に映る前記第1物体を追跡し、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付け、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
ことを含む物体追跡方法が提供される。
第1物体を指定する要求を受け付ける受付手段と、
動画に映る前記第1物体を追跡する追跡手段と、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付ける関連付け手段と、を備え、
前記追跡手段は、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
物体追跡装置が提供される。
少なくとも1つのコンピュータを、
第1物体を指定する要求を受け付ける受付手段、
動画に映る前記第1物体を追跡する追跡手段、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付ける関連付け手段、として機能させ、
前記追跡手段は、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
プログラムが提供される。
図1は、本実施形態の物体追跡装置2000の動作の概要を例示する図である。図1は、物体追跡装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、物体追跡装置2000の動作を具体的に限定するものではない。
追跡中の人物が車に乗って移動し始めた場合などのように、追跡していた物体が他の物体の中に入って移動し始めてしまうと、追跡していた物体を直接追跡し続けることが難しくなる。人がバイクなどの上に乗って移動し始めた結果、その人が動画データから検出されなくなるケースについても同様である。
図2は、実施形態1の物体追跡装置2000の構成を例示する図である。物体追跡装置2000は、追跡処理部2020及び検出部2040を有する。追跡処理部2020は、動画データ12から検出される物体の追跡処理を行う。検出部2040は、動画データ12を用いて、第1物体20と第2物体30について所定条件が満たされたことを検出する。所定条件は、第1物体20が第2物体30の中に入った場合、又は第1物体20が第2物体30の上に乗った場合に満たされる。所定条件が満たされたことが検出されたら、追跡処理部2020は、第1物体20と関連付けて第2物体30の追跡処理を行う。
物体追跡装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、物体追跡装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
物体追跡装置2000は、様々なシーンで利用することができる。ここでは、物体追跡装置2000の利用シーンの具体例を説明する。
図6は、実施形態1の物体追跡装置2000によって実行される処理の流れを例示するフローチャートである。S102からS108は、第1物体20の追跡処理が繰り返し行われるループ処理Aである。最初に実行されるS102において、時刻iが初期化される。例えば初期化の際、時刻iは現在時刻に設定される。また、2回目以降に実行されるS102では、時刻iが1単位(例えば1フレーム)増加される。
物体追跡装置2000は、1つ以上のカメラ10それぞれから動画データ12を取得する。ここで、カメラによって生成された動画データを取得する技術には、既存の技術を利用することができる。例えば物体追跡装置2000は、各カメラ10とネットワークを介して接続されている。そして、各カメラ10は、新たな動画フレーム14を生成する度に、その動画フレーム14を物体追跡装置2000へ送信する。物体追跡装置2000は、送信された動画フレーム14を受信する。
物体の追跡処理を行うため、追跡処理部2020は、動画データ12を構成する各動画フレーム14から物体を検出する処理を行う。例えば追跡処理部2020は、動画データ12から、背景領域に含まれない画像領域(いわゆる前景領域)を検出し、検出した前景領域を物体として検出する。そして、追跡処理部2020は、検出した物体について、「動画データ12の識別子、物体の位置、物体の特徴量」という対応付けを示す情報を生成する。以下、検出した物体に関する情報を、検出情報と呼ぶ。検出情報は、動画データ12の識別子と共に又はそれに代えて、物体の検出時刻(動画データ12の生成時刻)を含んでもよい。なお、動画フレーム(すなわち画像)から物体を検出する具体的な技術については、既存の技術を利用することができる。
追跡処理部2020は、追跡対象となっている物体について、追跡処理を行う(S104、S112)。追跡処理とは、動画データ12からその物体の位置を継続的に特定する処理を意味する。より具体的には、物体の追跡処理は、複数の動画フレーム14それぞれから同一の物体を検出することで、複数の動画フレーム14にまたがって同一の物体の位置を特定すること(物体の位置の時系列変化を特定すること)によって実現される。なお、追跡処理部2020は、1つの動画データ12だけでなく、複数のカメラ10それぞれから得られる動画データ12にまたがって追跡対象の物体を追跡する。ここで、複数の動画フレーム14にまたがって同一の物体を検出する具体的な方法、及びその検出を複数の動画データ12にまたがって実現する具体的な方法については、既存の技術を利用することができる。
本実施形態の物体追跡装置2000では、動画データ12から検出された物体のうちの少なくとも1つが、第1物体20として扱われる。以下、第1物体20として扱われる物体を決定する方法について説明する。
検出部2040は、第1物体20と第2物体30について所定条件が満たされたことを検出する(S106)。前述したように、この所定条件は、第1物体20が第2物体30の中に入った場合、又は第1物体20が第2物体30の上に乗った場合に満たされる条件である。このような所定条件が満たされたことの検出は、例えば、1)第1物体20と第2物体30が互いに重なり、なおかつ2)第1物体20と第2物体30が離れることなく第1物体20が動画データ12から検出されなくなったことの検出を行うことで、実現することができる。そこで例えば、検出部2040は、以下のように処理により、所定条件が満たされたことを検出する。
検出部2040は、第1物体20が第2物体30と重なっているか否かを判定する(S204)。例えば検出部2040は、第1物体20を表す画像領域と第2物体30を表す画像領域の少なくとも一部が重なり合っている場合に、第1物体20が第2物体30と重なっていると判定する。
検出部2040は、第1物体20が第2物体30から離れたか否かを判定する(S210)。例えば検出部2040は、第1物体20と第2物体30との間に重なりがあると判定された後に生成される各動画フレーム14を用いて、第1物体20を表す画像領域と第2物体30を表す画像領域との間に重なりがあるか否かを判定する。そして、これらの画像領域に重なりがないと判定されたら、検出部2040は、第1物体20と第2物体30が離れたと判定する。一方、これらの画像領域に重なりがあると判定されたら、検出部2040は、第1物体20と第2物体30が離れていないと判定する。
検出部2040は、第1物体20が動画データ12から検出されなくなったか否かを判定する。例えば検出部2040は、第1物体20が第2物体30と重なっていると判定された後に生成された動画フレーム14の中から第1物体20が検出されなかったら、第1物体20が動画データ12から検出されなくなったと判定する。
なお、動画データ12から検出される物体の中には、第1物体20との間で所定条件を満たすことが考えられないものもある。すなわち、第1物体20がその中に入って移動したり、第1物体20がその上に乗って移動したりすることが考えられない物体が存在する例えば、銅像などの置物は、人がその中に入ったりその上に乗ったりして移動する物体には該当しない。そこで、動画データ12から検出された第1物体20以外の物体の全てを第2物体30として扱うのではなく、一定の条件を満たす物体のみを、第2物体30として扱うようにしてもよい。例えば第1物体20として人を扱う場合、第2物体30を乗り物に限定することが考えられる。
第1物体20と関連づけた第2物体30の追跡処理を開始した後、再度第1物体20を直接追跡できるようになることがある。例えば、図4の例において自動車50や電車60から人物40が降りて移動し始めた場合や、図5の例において、自動車50や電車60から荷物70が降ろされて人の手によって運ばれ始めた場合などである。
ここで、第1物体20が関連づけられている第2物体30から、第1物体20以外の物体が離れるケースがある。例えば、第1物体20が人であり、第2物体30が乗り物である場合に、第2物体30から第1物体20以外の人が降りるケースである。このような場合、第2物体30から離れた第1物体20以外の物体は、第1物体20と関連付けて追跡することが好適な物体である可能性がある。例えば第1物体20として事件の容疑者を追跡している場合、第1物体20と一緒に自動車に乗っている人物は、第1物体20の共犯者である可能性がある。
物体追跡装置2000は、第1物体20や第2物体30の追跡によって得られた種々の情報の出力を行う。この出力を行う機能構成部を、出力部と呼ぶ(図示せず)。例えば出力部は、第1物体20と関連づけられた第2物体30の追跡処理の結果も考慮して、第1物体20の位置の履歴を示す情報の生成・出力を行う。この情報を、追跡結果情報と呼ぶ。
図10は、実施形態2の物体追跡装置2000を例示する図である。図10は、実施形態2の物体追跡装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、実施形態2の物体追跡装置2000の動作を具体的に限定するものではない。
本実施形態の通知処理装置2000によれば、第1物体20との関係で所定の条件を満たす第2物体30が、第1物体20と関連付けて追跡される。こうすることで、第1物体20に加え、第1物体20と何らかの関連があると考えられる物体を追跡することができる。よって、物体のより柔軟な追跡を実現することができる。
実施形態2の物体追跡装置2000の機能構成は、実施形態1の物体追跡装置2000と同様に、図2で表される。ただし、実施形態2の検出部2040は、第1物体20との関係で所定の条件を満たす第2物体30を検出する。そして、追跡処理部2020は、このような第2物体30が検出されたら、その第2物体30に第1物体20を関連付けて、その第2物体30の追跡処理を行う。
実施形態2の物体追跡装置2000を実現する計算機のハードウエア構成は、例えば、実施形態1の物体追跡装置2000を実現する計算機のハードウエア構成と同様に、図3で表される。ただし、実施形態2の物体追跡装置2000を実現する計算機1000が有するストレージデバイス1080には、実施形態2の物体追跡装置2000が有する各機能構成部の機能を実現するプログラムモジュールが格納されている。
図11は、実施形態2の物体追跡装置2000によって実行される処理の流れを例示するフローチャートである。S302からS310は、繰り返し実行されるループ処理Cである。最初に実行されるS302において、時刻iが初期化される。例えば初期化の際、時刻iは現在時刻に設定される。また、2回目以降に実行されるS302では、時刻iが1単位(例えば1フレーム)増加される。
追跡処理部2020は、第1物体20との関係で所定の条件を満たす第2物体30を、第1物体20と関連付けて追跡する(S308)。そのために、検出部2040は、第1物体20との関係で所定の条件を満たす第2物体30を検出する(S306)。この所定の条件には、様々な条件を採用することができる。
実施形態2の物体追跡装置2000の出力部は、第1物体20や第2物体30の追跡によって得られた種々の情報の出力を行う。例えば出力部は、第1物体20と関連づけた追跡された第2物体30の追跡情報を出力する。こうすることで、第1物体20と何らかの関係を持った物体(人や物)の位置の履歴を把握することができる。例えば第1物体20として事件の容疑者を追跡していた場合、第1物体20と関連づけた第2物体30の追跡を行うことで、共犯者や容疑者によって運ばれていた物の行方を把握することができる。
1. 動画データから検出される物体の追跡処理を行う追跡処理部と、
前記動画データを用いて、前記追跡処理部によって追跡処理が行われている第1物体及び他の第2物体について所定条件が満たされたことを検出する検出部と、を有し、
前記追跡処理部は、前記所定条件が満たされたことが検出されたら、前記第1物体と関連づけて前記第2物体の追跡処理を行う、物体追跡装置。
2. 前記所定条件は、前記第1物体が前記第2物体の中に入った場合、又は前記第1物体が前記第2物体の上に乗った場合に満たされる条件である、1.に記載の物体追跡装置。
3. 前記所定条件は、前記第1物体と前記第2物体とが重なった後、前記第1物体が前記第2物体と離れることなく前記動画データから検出されなくなることである、2.に記載の物体追跡装置。
4. 前記検出部は、前記第1物体と関連づけて追跡処理が行われている前記第2物体を含む前記動画データを用いて、前記第1物体が前記第2物体から離れたことを検出し、
前記追跡処理部は、前記第2物体から離れた前記第1物体の追跡処理を行う、2.又は3.に記載の物体追跡装置。
5. 前記検出部は、前記第1物体と関連づけて追跡処理が行われている前記第2物体を含む前記動画データから前記第1物体を検出し、前記第1物体と前記第2物体とが重ならなくなったことを検出することで、前記第1物体が前記第2物体から離れたことを検出する、4.に記載の物体追跡装置。
6. 前記第1物体と前記第2物体はいずれも人であり、
前記所定の条件は、前記第1物体と前記第2物体が所定時間以上一緒にいたこと、前記第1物体と前記第2物体が会話をしたこと、前記第2物体が前記第1物体から物を受け取ったこと、前記第2物体が前記第1物体に物を渡したことのいずれか1つ以上である、1.に記載の物体追跡装置。
7. 前記第1物体は人であり、
前記第2物体は物であり、
前記所定の条件は、前記第2物体が前記第1物体によって放置されたという条件である、1.に記載の物体追跡装置。
8. 前記第1物体は物であり、
前記第2物体は人であり、
前記所定の条件は、前記第2物体が前記第1物体を持ったという条件である、1.に記載の物体追跡装置。
9. 前記第1物体と関連付けた前記第2物体の位置の履歴を含む情報、及びその第2物体の特徴を表す情報のうちのいずれか1つ以上を出力する出力部を有する、1.乃至8.いずれか一つに記載の物体追跡装置。
10. コンピュータによって実行される制御方法であって、
動画データから検出される物体の追跡処理を行う追跡処理ステップと、
前記動画データを用いて、前記追跡処理ステップによって追跡処理が行われている第1物体及び他の第2物体について所定条件が満たされたことを検出する検出ステップと、を有し、
前記追跡処理ステップにおいて、前記所定条件が満たされたことが検出されたら、前記第1物体と関連づけて前記第2物体の追跡処理を行う、制御方法。
11. 前記所定条件は、前記第1物体が前記第2物体の中に入った場合、又は前記第1物体が前記第2物体の上に乗った場合に満たされる条件である、10.に記載の制御方法。
12. 前記所定条件は、前記第1物体と前記第2物体とが重なった後、前記第1物体が前記第2物体と離れることなく前記動画データから検出されなくなることである、11.に記載の制御方法。
13. 前記検出ステップにおいて、前記第1物体と関連づけて追跡処理が行われている前記第2物体を含む前記動画データを用いて、前記第1物体が前記第2物体から離れたことを検出し、
前記追跡処理ステップにおいて、前記第2物体から離れた前記第1物体の追跡処理を行う、11.又は12.に記載の制御方法。
14. 前記検出ステップにおいて、前記第1物体と関連づけて追跡処理が行われている前記第2物体を含む前記動画データから前記第1物体を検出し、前記第1物体と前記第2物体とが重ならなくなったことを検出することで、前記第1物体が前記第2物体から離れたことを検出する、13.に記載の制御方法。
15. 前記第1物体と前記第2物体はいずれも人であり、
前記所定の条件は、前記第1物体と前記第2物体が所定時間以上一緒にいたこと、前記第1物体と前記第2物体が会話をしたこと、前記第2物体が前記第1物体から物を受け取ったこと、前記第2物体が前記第1物体に物を渡したことのいずれか1つ以上である、10.に記載の制御方法。
16. 前記第1物体は人であり、
前記第2物体は物であり、
前記所定の条件は、前記第2物体が前記第1物体によって放置されたという条件である、10.に記載の制御方法。
17. 前記第1物体は物であり、
前記第2物体は人であり、
前記所定の条件は、前記第2物体が前記第1物体を持ったという条件である、10.に記載の制御方法。
18. 前記第1物体と関連付けた前記第2物体の位置の履歴を含む情報、及びその第2物体の特徴を表す情報のうちのいずれか1つ以上を出力する出力ステップを有する、10.乃至17.いずれか一つに記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法をコンピュータに実行させるプログラム。
Claims (10)
- 少なくとも1つのコンピュータが、
第1物体を指定する要求を受け付け、
動画に映る前記第1物体を追跡し、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付け、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
ことを含む物体追跡方法。 - 前記所定の関係は、前記第1物体が前記第2物体の中に入ったこと、又は前記第1物体が前記第2物体に乗ったことを含む、
請求項1に記載の物体追跡方法。 - 前記所定の関係は、前記第1物体と前記第2物体とが重なった後、前記第1物体が前記第2物体と離れることなく前記動画から検出されなくなることを含む、
請求項1に記載の物体追跡方法。 - 前記第1物体と前記第2物体とを関連付けた後、前記第1物体が前記動画から検出されず、かつ、前記第2物体が検出される場合、前記第2物体を追跡する、
請求項1から3のいずれか一項に記載の物体追跡方法。 - 前記第2物体を追跡した後に前記第1物体を検出した場合、前記第1物体を追跡する、
請求項4に記載の物体追跡方法。 - 前記第1物体は人である、
請求項1から5のいずれか一項に記載の物体追跡方法。 - 前記第1物体は荷物である、
請求項1から5のいずれか一項に記載の物体追跡方法。 - 前記第2物体は乗り物である、
請求項1から7のいずれか一項に記載の物体追跡方法。 - 第1物体を指定する要求を受け付ける受付手段と、
動画に映る前記第1物体を追跡する追跡手段と、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付ける関連付け手段と、を備え、
前記追跡手段は、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
物体追跡装置。 - 少なくとも1つのコンピュータを、
第1物体を指定する要求を受け付ける受付手段、
動画に映る前記第1物体を追跡する追跡手段、
前記第1物体と、当該第1物体と所定の関係にある第2物体と、を関連付ける関連付け手段、として機能させ、
前記追跡手段は、
前記第1物体と前記第2物体とが検出されている場合、前記第1物体を追跡する、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022185479A JP7459916B2 (ja) | 2019-03-27 | 2022-11-21 | 物体追跡方法、物体追跡装置、及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013240 WO2020194584A1 (ja) | 2019-03-27 | 2019-03-27 | 物体追跡装置、制御方法、及びプログラム |
JP2021508534A JP7184161B2 (ja) | 2019-03-27 | 2019-03-27 | 物体追跡装置、制御方法、及びプログラム |
JP2022185479A JP7459916B2 (ja) | 2019-03-27 | 2022-11-21 | 物体追跡方法、物体追跡装置、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508534A Division JP7184161B2 (ja) | 2019-03-27 | 2019-03-27 | 物体追跡装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023010840A true JP2023010840A (ja) | 2023-01-20 |
JP7459916B2 JP7459916B2 (ja) | 2024-04-02 |
Family
ID=72609688
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508534A Active JP7184161B2 (ja) | 2019-03-27 | 2019-03-27 | 物体追跡装置、制御方法、及びプログラム |
JP2022185479A Active JP7459916B2 (ja) | 2019-03-27 | 2022-11-21 | 物体追跡方法、物体追跡装置、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508534A Active JP7184161B2 (ja) | 2019-03-27 | 2019-03-27 | 物体追跡装置、制御方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220189038A1 (ja) |
JP (2) | JP7184161B2 (ja) |
AR (1) | AR118524A1 (ja) |
TW (1) | TWI794593B (ja) |
WO (1) | WO2020194584A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102651190B1 (ko) * | 2023-07-20 | 2024-03-26 | 주식회사세오 | 용의자 추적 방법 및 그를 위한 장치 및 시스템 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102311798B1 (ko) * | 2019-12-12 | 2021-10-08 | 포항공과대학교 산학협력단 | 다중 객체 추적 방법 및 장치 |
US20230403463A1 (en) * | 2020-11-04 | 2023-12-14 | Sumitomo Electric Industries, Ltd. | Image data transmission apparatus, image data transmission method, and storage medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6570608B1 (en) * | 1998-09-30 | 2003-05-27 | Texas Instruments Incorporated | System and method for detecting interactions of people and vehicles |
JP2007134948A (ja) | 2005-11-10 | 2007-05-31 | Matsushita Electric Ind Co Ltd | 駐車車両搭乗者撮像装置 |
US20090290791A1 (en) * | 2008-05-20 | 2009-11-26 | Holub Alex David | Automatic tracking of people and bodies in video |
US9189280B2 (en) * | 2010-11-18 | 2015-11-17 | Oracle International Corporation | Tracking large numbers of moving objects in an event processing system |
TWI479431B (zh) * | 2012-04-03 | 2015-04-01 | Univ Chung Hua | 物件追蹤方法 |
US9852511B2 (en) * | 2013-01-22 | 2017-12-26 | Qualcomm Incoporated | Systems and methods for tracking and detecting a target object |
US20160188980A1 (en) * | 2014-12-30 | 2016-06-30 | Morphotrust Usa, Llc | Video Triggered Analyses |
JP6241796B2 (ja) | 2015-12-25 | 2017-12-06 | パナソニックIpマネジメント株式会社 | 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法 |
JP6833354B2 (ja) | 2016-06-10 | 2021-02-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2018087811A1 (ja) * | 2016-11-08 | 2018-05-17 | 株式会社日立製作所 | 交通システム、ダイヤ提案システム及び車両運行システム |
US10282720B1 (en) * | 2018-07-16 | 2019-05-07 | Accel Robotics Corporation | Camera-based authorization extension system |
-
2019
- 2019-03-27 WO PCT/JP2019/013240 patent/WO2020194584A1/ja active Application Filing
- 2019-03-27 US US17/439,922 patent/US20220189038A1/en active Pending
- 2019-03-27 JP JP2021508534A patent/JP7184161B2/ja active Active
-
2020
- 2020-03-06 TW TW109107403A patent/TWI794593B/zh active
- 2020-03-27 AR ARP200100874A patent/AR118524A1/es unknown
-
2022
- 2022-11-21 JP JP2022185479A patent/JP7459916B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102651190B1 (ko) * | 2023-07-20 | 2024-03-26 | 주식회사세오 | 용의자 추적 방법 및 그를 위한 장치 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
JP7459916B2 (ja) | 2024-04-02 |
US20220189038A1 (en) | 2022-06-16 |
TWI794593B (zh) | 2023-03-01 |
JPWO2020194584A1 (ja) | 2020-10-01 |
JP7184161B2 (ja) | 2022-12-06 |
AR118524A1 (es) | 2021-10-20 |
WO2020194584A1 (ja) | 2020-10-01 |
TW202109454A (zh) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10366586B1 (en) | Video analysis-based threat detection methods and systems | |
JP2023010840A (ja) | 物体追跡方法、物体追跡装置、及びプログラム | |
US11228715B2 (en) | Video surveillance system and video surveillance method | |
US20200175838A1 (en) | Eyeglasses-type wearable terminal, control method thereof, and control program | |
CA3160731A1 (en) | Interactive behavior recognizing method, device, computer equipment and storage medium | |
WO2014125882A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
WO2014061342A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6729793B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP6233624B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6127659B2 (ja) | 運転支援装置及び運転支援方法 | |
WO2009135253A1 (en) | A system and method for electronic surveillance | |
US11120838B2 (en) | Information processing apparatus, control method, and program | |
Rajendar et al. | Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection | |
KR101842488B1 (ko) | 원거리 동적 객체의 검지 및 추적을 기반으로 한 행동패턴인식기법이 적용된 지능형 감지시스템 | |
WO2015025705A1 (ja) | 映像処理装置、映像処理方法および映像処理プログラム | |
JP2024009906A (ja) | 監視装置、監視方法、およびプログラム | |
JP6927787B2 (ja) | 車載器および運転支援装置 | |
US20220019779A1 (en) | System and method for processing digital images | |
US20220406069A1 (en) | Processing apparatus, processing method, and non-transitory storage medium | |
CN113823072A (zh) | 人物追踪支援装置及人物追踪支援系统 | |
JP7347481B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20230032976A (ko) | 증강현실을 이용한 영상 감시 시스템 및 방법 | |
KR101692504B1 (ko) | 비콘 기반 지능형 영상 분석 시스템 및 방법 | |
KR20220107679A (ko) | 객체 추적 엣지 컴퓨팅 장치, 그 제어 방법, 및 서버 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459916 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |