JP2020149642A - 物体追跡装置および物体追跡方法 - Google Patents
物体追跡装置および物体追跡方法 Download PDFInfo
- Publication number
- JP2020149642A JP2020149642A JP2019049169A JP2019049169A JP2020149642A JP 2020149642 A JP2020149642 A JP 2020149642A JP 2019049169 A JP2019049169 A JP 2019049169A JP 2019049169 A JP2019049169 A JP 2019049169A JP 2020149642 A JP2020149642 A JP 2020149642A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- frame image
- image
- coordinate
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000005484 gravity Effects 0.000 claims abstract description 45
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 30
- 230000002093 peripheral effect Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 27
- 238000012937 correction Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
い。例えば、中心領域における差分の和が大きいほど、あるいは第2の座標に対する重みを大きく設定するとよい。これ以外にも、重み係数は、中心領域の差分の和の周辺領域の差分の和に対する比が大きいほど大きく設定したり、中心領域の差分の和と周辺領域の差分の和の和が大きいほど大きく設定したりしてもよい。第2の座標に対する重みは、第1の座標を第2の座標を用いて修正する際の修正効果の強さ、あるいは適用率とみなせる。
域の重心である第2の座標を求めるステップと、前記第1の座標と前記第2の座標とに基づいて、前記第2フレーム画像における前記対象物の位置を求めるステップと、を含む、ことを特徴とする物体追跡方法を提供する。
図1を参照して、本発明に係る物体追跡装置の適用例を説明する。人追跡装置1は、追跡対象エリア11の上方(例えば天井12など)に設置された魚眼カメラ10により得られた魚眼画像を解析して、追跡対象エリア11内に存在する人13を検出・追跡する装置である。この人追跡装置1は、例えば、オフィスや工場などにおいて、追跡対象エリア11を通行する人13の検出、認識、追跡などを行う。図1の例では、魚眼画像から検出された4つの人体それぞれの領域がバウンディングボックスで示されている。人追跡装置1の検出結果は、外部装置に出力され、例えば、人数のカウント、照明や空調など各種機器の制御、不審者の監視および動線分析などに利用される。
位置(差分重心)により修正することで、背景へのドリフトを抑制する。より具体的には前フレーム画像と現フレーム画像の差分画像に加えて、色ヒストグラム、追跡対象物の移動速度(向き及び速さ)、中心領域と周辺領域の差分の分布などを考慮して、差分重心の算出および差分重心による位置の修正効果の度合いを決定する。これにより、基本的な追跡性能の向上と、背景固着を抑制し、より精度の良い追跡を実現する。
図2を参照して、本発明の実施形態を説明する。図2は、本発明の実施形態に係る人追跡装置を適用した監視システムの構成を示すブロック図である。監視システム2は、魚眼カメラ10と人追跡装置1とを備えている。
レーム画像中から追跡対象の人物の位置を特定する。
図4は、監視システム2による人追跡処理の全体フローチャートである。図4に沿って人追跡処理の全体的な流れを説明する。
図5は、ステップS107の学習処理の詳細を示すフローチャートである。また、図9は学習処理および学習結果を用いた追跡処理を説明する図である。以下、図5および図9を参照して学習処理について説明する。
。例えば、前景領域902のサイズがターゲット領域904の全体サイズの所定の比率(例えば1/3)となるように、背景領域903のサイズが決定されている。なお、ターゲット領域は中心が追跡対象人物の位置となるように追跡処理の最後に更新されている(図6のステップS306)ので、ターゲット領域904の中心901は追跡対象人物の中心位置と等しい。
明度特徴量画像906を記憶部23に記憶する(S203)。
図6は、ステップS106の追跡処理の詳細を示すフローチャートである。また、図9は学習処理および学習結果を用いた追跡処理を説明する図である。以下、図6および図9を参照して追跡処理について説明する。
追跡部24は、現フレーム画像からターゲット領域905を切り出す(S301)。ここでは、T+1フレーム目が現フレーム画像であるとする。なお、ターゲット領域は中心が追跡対象人物の位置となるように前回の追跡処理の最後に更新されている(図6のステップS306)ので、Tフレーム目の画像のターゲット領域904の中心901は追跡対象人物の中心位置と等しい。ここでは、図9に示すように、Tフレーム目において特定された追跡対象人物の位置を中心とするターゲット領域904に対応するターゲット領域905が切り出される。
追跡部24は、ステップS305においてフレーム間の差分画像に基づく対象物の中心位置cを求め、ステップS304で求めた中心位置pを中心位置cにより修正する。図7は、ステップS305の処理の詳細を示すフローチャートである。以下、図7を参照して詳しく説明する。
二値化を行ってもよい。図10Aは二値化された調整済差分画像914の例を示す。図において白抜きで示した画素1001は差分がある画素(差分が閾値上の画素)である。差分がある画素1001の全体からなる領域が動きのある領域に該当する。
差分の重心=Σi(d(i)×w(i)×p(i)) ・・・(1)
ここで、p(i)が画素の座標(位置ベクトル)、d(i)は差分の有無(差分があれば1、なければ0)、w(i)は重みであり、総和(シグマ)は調整済差分画像の全体を対象とする。
差分の和=Σi(d(i)×w(i))・・・(2)
ここで、総和(シグマ)の対象は、中心領域または周辺領域である。
規化してもよい。言い換えると、式(2)で求められる値を中心領域または周辺領域の面積で割り算した値をsc,sbとしてもよい。
e=f(sc+sb)0,α×f(sc/sb)β,1 ・・・(3)
ここで、関数f(x)a,bは、図11に示すように、x<aのとき0、x>bのとき1、a≦x≦bのとき(x−a)/(b−a)をとる関数である。
P=(1−e)×p+e×c ・・・(4)
してもよいし、前フレームにおけるターゲット領域のサイズ、レンズ歪みの特性、カメラの視点、カメラの配置およびターゲット領域の画像における位置の少なくともいずれかに基づいて決定されてもよい。追跡処理完了後のターゲット領域の中心が追跡対象人物の中心位置であり、ターゲット領域中の前景領域が追跡対象人物の存在領域(バウンディングボックス)である。
次に、上記で説明を省略した修正処理中の他追跡対象領域のマスク処理(図7のS406)について説明する。上述したように、ステップS406のマスク処理は、調整済差分画像914において他の追跡対象物によって生じている差分を無視(除去)するためにマスク領域を設定する処理である。図8は、マスク処理S406の詳細を示すフローチャートである。この処理は、追跡処理S106において現在注目している追跡対象物以外の追跡対象物のそれぞれについて処理が繰り返される。図12Aにおいて、人物1201は現在注目している追跡対象人物であり、人物1202はそれ以外の追跡対象人物である。したがって、人物1202のそれぞれについて、以下のステップS501からS503の処理が繰り返される。
本実施形態では、魚眼画像を平面展開せずに用いる人追跡装置において、背景へのドリフトを抑制し、精度の高い人追跡が実現できる。ドリフトは、逐次学習を行う際に追跡対象以外の特徴を誤って学習することに起因して発生する追跡の失敗である。第1サブ追跡部25による物体追跡アルゴリズムは、対象物が存在する領域の近傍領域まで含めて局所的な特徴を学習する。したがって背景が複雑に変化する場合に、実際の対象物中心とは異なる位置を中心位置として認識することがある。このような誤差が逐次学習により蓄積され、最終的に誤って背景を追跡対象として認識してしまう場合がある。本実施形態においては、第1サブ追跡部25が求めた対象物の位置を、フレーム間の差分画像に基づいて求めた位置によって修正しているので、より精度良く対象物の位置を特定することができる
。特に、第1サブ追跡部25の相関フィルタによる追跡性能を極力損ねずに、かつ、相関フィルタによる追跡が適切に行われない可能性が高い、静止した複雑な背景下で激しく変化する対象の追跡が精度良く行えるようになる。
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
Short-Term Memory)のような深層学習モデルや、SVM(Support Vector Machine)のようなパターン認識モデルを利用して追跡を行ってもよい。また、第2サブ追跡部26は、差分に基づく動体検知手法であれば、上記以外の手法を採用してもよい。
(1)第1フレーム画像における対象物の位置を取得する取得手段(21)と、
前記第1フレーム画像の後のフレーム画像である第2フレーム画像から、前記対象物の位置を求める追跡手段(24)と、
を備える、物体追跡装置(1)であって、
前記追跡手段(24)は、
前記第2フレーム画像から抽出される特徴量に基づいて、第1の追跡アルゴリズムによって前記対象物の前記第2フレーム画像における第1の座標(p)を求める第1サブ追跡手段(25)と、
前記第1フレーム画像と前記第2フレーム画像のフレーム間の差分画像(913)に基づいて、動きのある領域の重心である第2の座標(c)を求める第2サブ追跡手段(26)と、
前記第1の座標(p)と前記第2の座標(c)とに基づいて、前記第2フレーム画像における前記対象物の位置(P)を求める位置特定手段(27)と、
を備える、
ことを特徴とする物体追跡装置(1)。
前記第1フレーム画像の後のフレーム画像である第2フレーム画像から、前記対象物の位置を求める追跡ステップ(S106)と、
を含む、物体追跡方法であって、
前記追跡ステップは、
前記第2フレーム画像から抽出される特徴量に基づいて、第1の追跡アルゴリズムによって前記対象物の前記第2フレーム画像における第1の座標(p)を求めるステップ(S304)と、
前記第1フレーム画像と前記第2フレーム画像のフレーム間の差分画像(913)に基づいて、動きのある領域の重心である第2の座標(c)を求めるステップ(S408)と、
前記第1の座標と前記第2の座標とに基づいて、前記第2フレーム画像における前記対象物の位置(P)を求めるステップ(S410)と、
を含む、ことを特徴とする物体追跡方法。
2:監視システム
10:魚眼カメラ
11:追跡対象エリア
12:天井
13:人
Claims (12)
- 第1フレーム画像における対象物の位置を取得する取得手段と、
前記第1フレーム画像の後のフレーム画像である第2フレーム画像から、前記対象物の位置を求める追跡手段と、
を備える、物体追跡装置であって、
前記追跡手段は、
前記第2フレーム画像から抽出される特徴量に基づいて、第1の追跡アルゴリズムによって前記対象物の前記第2フレーム画像における第1の座標を求める第1サブ追跡手段と、
前記第1フレーム画像と前記第2フレーム画像のフレーム間の差分画像に基づいて、動きのある領域の重心である第2の座標を求める第2サブ追跡手段と、
前記第1の座標と前記第2の座標とに基づいて、前記第2フレーム画像における前記対象物の位置を求める位置特定手段と、
を備える、
ことを特徴とする物体追跡装置。 - 前記第2サブ追跡手段は、
少なくとも第1フレーム画像を用いて生成された前記対象物を含む領域の色ヒストグラムを用いて、前記第2フレーム画像において前記対象物が存在する確からしさを表す尤度のマップを生成し、
前記第1フレーム画像と前記第2フレーム画像のフレーム間の差分画像に、前記尤度のマップを掛け合わせて調整済差分画像を生成し、
前記調整済差分画像において、差分の程度に基づいた画素領域の重心を前記第2の座標として求める、
請求項1に記載の物体追跡装置。 - 前記第2サブ追跡手段は、
前記調整済差分画像に対して、前記対象物が存在すると推測される位置を中心とする中心領域と、当該中心領域の周辺の周辺領域とを設定し、
中心領域にある画素と周辺領域にある画素とに異なる重みを与えて前記重心を求める、
請求項2に記載の物体追跡装置。 - 前記第2サブ追跡手段は、
前記調整済差分画像に対して、前記対象物が存在すると推測される位置を中心とする中心領域と、当該中心領域の周辺の周辺領域とを設定し、
前記中心領域における差分の和と、前記周辺領域における差分の和とに基づいて重み係数を決定し、
前記位置特定手段は、前記重み係数を用いた前記第1の座標と前記第2の座標の加重平均として決定される座標を前記対象物の位置として求める、
請求項2または3に記載の物体追跡装置。 - 前記第2サブ追跡手段は、前記調整済差分画像のうち注目している対象物以外の対象物が存在すると予測される領域を除外して、前記重心および前記差分の和を求める、
請求項4に記載の物体追跡装置。 - 前記対象物が存在すると推測される位置は、前記第1フレーム画像における前記対象物の位置と、前記第1フレーム画像における前記対象物の移動速度とに基づいて決定される、
請求項3から5のいずれか1項に記載の物体追跡装置。 - 前記位置特定手段は、前記第1サブ追跡手段によって求められる前記第1の座標の確からしさが第2閾値以上である場合は、そうでない場合よりも前記第2の座標に対する重みを小さくして、前記第1の座標と前記第2の座標の加重平均として決定される座標を前記対象物の位置として決定する、
請求項1から6のいずれか1項に記載の物体追跡装置。 - 前記位置特定手段は、前記第1の座標と前記第2の座標の差が第3閾値未満である場合は、そうでない場合よりも前記第2の座標に対する重みを小さくして、前記第1の座標と前記第2の座標の加重平均として決定される座標を前記対象物の位置として決定する、
請求項1から7のいずれか1項に記載の物体追跡装置。 - 前記第1の追跡アルゴリズムは、前記第1フレーム画像における前記対象物の近傍から得られる特徴量に基づく相関フィルタによって、前記第2フレーム画像における対象物の位置を求めるアルゴリズムである、
請求項1から8のいずれか1項に記載の物体追跡装置。 - 前記第1フレーム画像および前記第2フレーム画像は、魚眼カメラにより得られた魚眼画像である、
ことを特徴とする、請求項1から9のいずれか1項に記載の物体追跡装置。 - 第1フレーム画像における対象物の位置を取得する取得ステップと、
前記第1フレーム画像の後のフレーム画像である第2フレーム画像から、前記対象物の位置を求める追跡ステップと、
を含む、物体追跡方法であって、
前記追跡ステップは、
前記第2フレーム画像から抽出される特徴量に基づいて、第1の追跡アルゴリズムによって前記対象物の前記第2フレーム画像における第1の座標を求めるステップと、
前記第1フレーム画像と前記第2フレーム画像のフレーム間の差分画像に基づいて、動きのある領域の重心である第2の座標を求めるステップと、
前記第1の座標と前記第2の座標とに基づいて、前記第2フレーム画像における前記対象物の位置を求めるステップと、
を含む、ことを特徴とする物体追跡方法。 - 請求項11に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049169A JP7272024B2 (ja) | 2019-03-15 | 2019-03-15 | 物体追跡装置、監視システムおよび物体追跡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049169A JP7272024B2 (ja) | 2019-03-15 | 2019-03-15 | 物体追跡装置、監視システムおよび物体追跡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149642A true JP2020149642A (ja) | 2020-09-17 |
JP7272024B2 JP7272024B2 (ja) | 2023-05-12 |
Family
ID=72430669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019049169A Active JP7272024B2 (ja) | 2019-03-15 | 2019-03-15 | 物体追跡装置、監視システムおよび物体追跡方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7272024B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034547A (zh) * | 2021-04-07 | 2021-06-25 | 中国科学院半导体研究所 | 目标追踪方法、数字集成电路芯片、电子设备及存储介质 |
CN113223083A (zh) * | 2021-05-27 | 2021-08-06 | 北京奇艺世纪科技有限公司 | 一种位置确定方法、装置、电子设备及存储介质 |
CN114723606A (zh) * | 2022-03-21 | 2022-07-08 | 北京卓视智通科技有限责任公司 | 一种提升图像拼接质量的方法及系统 |
WO2022158201A1 (ja) * | 2021-01-22 | 2022-07-28 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2022190529A1 (ja) * | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 画像処理装置および画像処理方法 |
KR20220155041A (ko) * | 2021-05-14 | 2022-11-22 | 서울대학교산학협력단 | 이벤트 카메라 기반의 물체 추적 장치 및 방법 |
WO2023204193A1 (ja) * | 2022-04-19 | 2023-10-26 | 株式会社Nttドコモ | 物体検出装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005309740A (ja) * | 2004-04-21 | 2005-11-04 | Nippon Telegr & Teleph Corp <Ntt> | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 |
JP2007156771A (ja) * | 2005-12-05 | 2007-06-21 | Sony Corp | 画像検知追跡装置、画像検知追跡方法および画像検知追跡プログラム |
JP2009290831A (ja) * | 2008-06-02 | 2009-12-10 | Fujitsu Ltd | 画像追尾装置,画像追尾処理方法および画像追尾処理プログラム |
JP2013045152A (ja) * | 2011-08-22 | 2013-03-04 | Dainippon Printing Co Ltd | 動体追跡装置 |
JP2015076056A (ja) * | 2013-10-11 | 2015-04-20 | カシオ計算機株式会社 | 物体位置推定装置、物体位置推定方法、ならびに、プログラム |
JP2019036213A (ja) * | 2017-08-18 | 2019-03-07 | セコム株式会社 | 画像処理装置 |
-
2019
- 2019-03-15 JP JP2019049169A patent/JP7272024B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005309740A (ja) * | 2004-04-21 | 2005-11-04 | Nippon Telegr & Teleph Corp <Ntt> | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 |
JP2007156771A (ja) * | 2005-12-05 | 2007-06-21 | Sony Corp | 画像検知追跡装置、画像検知追跡方法および画像検知追跡プログラム |
JP2009290831A (ja) * | 2008-06-02 | 2009-12-10 | Fujitsu Ltd | 画像追尾装置,画像追尾処理方法および画像追尾処理プログラム |
JP2013045152A (ja) * | 2011-08-22 | 2013-03-04 | Dainippon Printing Co Ltd | 動体追跡装置 |
JP2015076056A (ja) * | 2013-10-11 | 2015-04-20 | カシオ計算機株式会社 | 物体位置推定装置、物体位置推定方法、ならびに、プログラム |
JP2019036213A (ja) * | 2017-08-18 | 2019-03-07 | セコム株式会社 | 画像処理装置 |
Non-Patent Citations (3)
Title |
---|
岩堀 祐之: "外観の類似する物体同士の交差に頑健な移動物体追跡手法", 画像ラボ 2011.6 第22巻 第6号, vol. 第22巻 第6号, JPN6023003684, 10 June 2011 (2011-06-10), JP, pages 13 - 18, ISSN: 0004982281 * |
椎名 雄飛: "差分情報に基づくパーティクルフィルタを用いた複雑環境下における物体追跡", 電子情報通信学会技術研究報告 VOL.111 NO.431, vol. PRMU2011-225, SP2011-140 (2012-02), JPN6023003682, 2 February 2012 (2012-02-02), JP, pages 173 - 178, ISSN: 0004982280 * |
武知 啓介: "確率的背景モデルを用いたパーティクルフィルタによる頑健な追跡", 画像の認識・理解シンポジウム(MIRU2011), vol. IS4-40, JPN6023003679, 20 July 2011 (2011-07-20), JP, pages 1552 - 1557, ISSN: 0004982282 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022158201A1 (ja) * | 2021-01-22 | 2022-07-28 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2022190529A1 (ja) * | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 画像処理装置および画像処理方法 |
JP2022140069A (ja) * | 2021-03-12 | 2022-09-26 | オムロン株式会社 | 画像処理装置および画像処理方法 |
JP7439784B2 (ja) | 2021-03-12 | 2024-02-28 | オムロン株式会社 | 画像処理装置および画像処理方法 |
CN113034547A (zh) * | 2021-04-07 | 2021-06-25 | 中国科学院半导体研究所 | 目标追踪方法、数字集成电路芯片、电子设备及存储介质 |
CN113034547B (zh) * | 2021-04-07 | 2024-02-06 | 中国科学院半导体研究所 | 目标追踪方法、数字集成电路芯片、电子设备及存储介质 |
KR20220155041A (ko) * | 2021-05-14 | 2022-11-22 | 서울대학교산학협력단 | 이벤트 카메라 기반의 물체 추적 장치 및 방법 |
KR102635416B1 (ko) * | 2021-05-14 | 2024-02-08 | 서울대학교산학협력단 | 이벤트 카메라 기반의 물체 추적 장치 및 방법 |
CN113223083A (zh) * | 2021-05-27 | 2021-08-06 | 北京奇艺世纪科技有限公司 | 一种位置确定方法、装置、电子设备及存储介质 |
CN113223083B (zh) * | 2021-05-27 | 2023-08-15 | 北京奇艺世纪科技有限公司 | 一种位置确定方法、装置、电子设备及存储介质 |
CN114723606A (zh) * | 2022-03-21 | 2022-07-08 | 北京卓视智通科技有限责任公司 | 一种提升图像拼接质量的方法及系统 |
WO2023204193A1 (ja) * | 2022-04-19 | 2023-10-26 | 株式会社Nttドコモ | 物体検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7272024B2 (ja) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
KR101071352B1 (ko) | 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법 | |
JP7334432B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
CN110008795B (zh) | 图像目标追踪方法及其系统与计算机可读取记录介质 | |
JP6654789B2 (ja) | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 | |
WO2020184207A1 (ja) | 物体追跡装置および物体追跡方法 | |
WO2021084972A1 (ja) | 物体追跡装置および物体追跡方法 | |
JP7255173B2 (ja) | 人検出装置および人検出方法 | |
US11948363B2 (en) | Person detection device and person detection method | |
CN105469054B (zh) | 正常行为的模型构建方法及异常行为的检测方法 | |
JP2007156655A (ja) | 変動領域検出装置及びその方法 | |
CN109636828A (zh) | 基于视频图像的物体跟踪方法及装置 | |
JP7188067B2 (ja) | 人検出装置および人検出方法 | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP7488674B2 (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
CN108230366B (zh) | 一种目标物的追踪方法 | |
CN116363753A (zh) | 一种基于运动历史图像的摔倒检测方法和装置、电子设备 | |
US12002371B2 (en) | Neuromorphic cameras for aircraft | |
JP7338174B2 (ja) | 物体検出装置および物体検出方法 | |
JP2023008030A (ja) | 画像処理システム、画像処理方法及び画像処理プログラム | |
KR20120088367A (ko) | 회전줌 카메라 기반 평균이동 알고리즘을 이용한 객체추적 시스템 | |
JP7488673B2 (ja) | 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム | |
JP6959444B2 (ja) | 計測情報処理装置 | |
WO2020240803A1 (ja) | 推定装置、推定方法、及び非一時的なコンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7272024 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |