JP6932098B2 - 追尾装置 - Google Patents
追尾装置 Download PDFInfo
- Publication number
- JP6932098B2 JP6932098B2 JP2018051548A JP2018051548A JP6932098B2 JP 6932098 B2 JP6932098 B2 JP 6932098B2 JP 2018051548 A JP2018051548 A JP 2018051548A JP 2018051548 A JP2018051548 A JP 2018051548A JP 6932098 B2 JP6932098 B2 JP 6932098B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- target
- center
- gravity
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、目標を追尾する追尾装置に関する。
従来、カメラで撮像した画像から目標を追尾する技術が提案されている。目標の例は、船舶又は車両である。特許文献1は、テンプレートマッチングを行って目標を追尾する技術を提案している。具体的には、特許文献1は、参照画像を捜索範囲上で移動させてテンプレートマッチングを行い、最も相関値の高い部分の位置を追尾位置と推定して目標を追尾する技術を開示している。しかしながら、特許文献1が開示している技術については、ユーザは目標を指定しなければならず、そのため事前に目標が検出されていなければならないという問題がある。
近年、深層学習分野の一般物体認識技術において、処理速度と物体検出精度とが良好であるSSD(Single Shot Multibox)又はYOLO(You Only Look Once)v2の技術が注目されている。当該技術は、自動目標検出に用いられている(例えば、非特許文献1及び非特許文献2参照)。
さらに、学習済みネットワークを利用して、ユーザが識別したい目標の学習画像を用意し、再学習することでユーザが識別したい目標を推論することができる転移学習が知られている。例えばSSD又はYOLOv2といった学習済みネットワークを用いて、転移学習することによって、様々な目標を検出することが可能である。そのため、目標を検出し、検出領域を切出し後、初期テンプレートを保存し、次フレーム以降についてはテンプレートマッチングにより目標を継続的に追尾することが可能となる。
Wei Liu, et al. "SSD: Single Shot MultiBox Detector", arXiv:1512.02325 2015.
Joseph Redmon, et al. "YOLO9000:Better,Faster,Stronger", arXiv:1612.08242 2016.
しかしながら、目標を離れた場所から撮像する場合、画像中の目標は小さくなる。このような場合、テンプレートに目標以外の背景が写り込むため、ドリフト現象により正しく目標を追尾できなくなるという問題がある。目標以外の背景の例は、海面である。また、複数の目標を検出しようとする場合、テンプレートマッチングでは計算負荷が大きくなる。テンプレートマッチングを利用せず、一般物体認識技術を画像全体に適用し、周期的に目標を検出し、バウンディングボックスの中心を追尾する手法も考えられる。しかしながら、画像全体に対して周期的に例えばSSD又はYOLOv2の推論処理を行う場合、計算負荷が大きくなるという問題がある。
本発明は、上記に鑑みてなされたものであって、計算負荷を小さくしつつ、目標を検出し、目標を安定して追尾することができる追尾装置を得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、時系列の画像を得る撮像部と、前記撮像部によって得られた画像における複数の特徴点の各々の位置と速度とを抽出する特徴量抽出部と、前記特徴量抽出部によって抽出された前記複数の特徴点の各々の位置と速度とをもとにクラスタリング処理を行って、前記複数の特徴点のうちの一部の複数の特徴点を特徴点群と特定するクラスタリング処理部とを有する。本発明は、前記クラスタリング処理部によって特定された前記特徴点群の重心の位置及び速度の推定値を算出すると共に、前記重心の位置の予測値を算出するクラスタ追尾部と、前記撮像部によって得られた画像から、前記クラスタ追尾部によって算出された前記予測値を含む部分画像を切出し、前記部分画像における目標を検出し、前記目標を含むバウンディングボックスの中心の、前記重心に対しての相対的な位置を算出する目標検出部とを更に有する。本発明は、前記クラスタリング処理部によって特定された前記特徴点群の前記重心の位置と前記目標検出部によって算出された前記相対的な位置とをもとに、前記目標の位置の推定値を算出する目標追尾部と、前記クラスタ追尾部によって算出された前記重心の速度の推定値と前記目標追尾部によって算出された推定値とを統合する統合部とを更に有する。
本発明は、計算負荷を小さくしつつ、目標を検出し、目標を安定して追尾することができるという効果を奏する。
以下に、本発明の実施の形態にかかる追尾装置を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態.
図1は、実施の形態にかかる追尾装置10の構成を示す図である。追尾装置10は、時系列の画像を得る撮像部1を有する。例えば、撮像部1は、目標からの可視光又は赤外光を撮像レンズにより集め、集められた光を撮像素子により電気信号に変換し、電気信号をアナログデジタル変換器によりデジタル信号に変換して、目標を含む画像を得る。目標を含む画像は、2次元画像である。以下では、「目標を含む画像」を「フレーム」と記載する。
図1は、実施の形態にかかる追尾装置10の構成を示す図である。追尾装置10は、時系列の画像を得る撮像部1を有する。例えば、撮像部1は、目標からの可視光又は赤外光を撮像レンズにより集め、集められた光を撮像素子により電気信号に変換し、電気信号をアナログデジタル変換器によりデジタル信号に変換して、目標を含む画像を得る。目標を含む画像は、2次元画像である。以下では、「目標を含む画像」を「フレーム」と記載する。
追尾装置10は、撮像部1によって得られたフレームにおける複数の特徴点の各々の位置と速度とを抽出する特徴量抽出部2を更に有する。なお、特徴量抽出部2は、複数のフレームについて特徴点マッチング処理を行うことにより、再現度があらかじめ決められた値より低い特徴点を除去してもよい。追尾装置10は、特徴量抽出部2によって抽出された複数の特徴点の各々の位置と速度とをもとにクラスタリング処理を行って、複数の特徴点のうちの一部の複数の特徴点を特徴点群と特定するクラスタリング処理部3を更に有する。
追尾装置10は、クラスタリング処理部3によって特定された特徴点群の重心の位置及び速度の推定値を算出すると共に、当該重心の位置の予測値を算出するクラスタ追尾部4を更に有する。予測値は、推定値に対応するフレームの後のフレームにおける当該重心の位置についての値である。
追尾装置10は、撮像部1によって得られた画像から、クラスタ追尾部4によって算出された予測値を含む部分画像を切出す目標検出部5を更に有する。例えば、予測値は特徴点群の重心であって、予測値が特徴点群の重心である場合、目標検出部5は、特徴点群の重心を含む部分画像を切出す。目標検出部5は、切出された部分画像における目標を検出し、目標を含むバウンディングボックスの中心の、特徴点群の重心に対しての相対的な位置を算出する。目標検出部5は、目標を検出する場合、SSD又はYOLOv2の技術を用いてもよい。目標検出部5は、一般物体認識技術を用いて、バウンディングボックスの中心を特定してもよい。
追尾装置10は、クラスタリング処理部3によって特定された特徴点群の重心の位置と、目標検出部5によって算出された相対的な位置とをもとに、状態推定処理により、目標の位置の推定値を算出する目標追尾部6を更に有する。追尾装置10は、クラスタ追尾部4によって算出された特徴点群の重心の速度の推定値と目標追尾部6によって算出された推定値とを統合する統合部7を更に有する。
次に、追尾装置10の動作の例を説明する。撮像部1は、時系列の画像を得る。特徴量抽出部2は、撮像部1によって得られたフレームにおける複数の特徴点の各々の位置と速度とを抽出する。図2は、実施の形態にかかる追尾装置10が有する特徴量抽出部2の動作の手順の例を示すフローチャートである。まず、特徴量抽出部2は、撮像部1によって得られたフレームを受け取る(S1)。
次に、特徴量抽出部2は、受け取ったフレームにおける複数の特徴点を検出する(S2)。特徴点の例は、当該フレームに含まれる目標の角の点である。次に、特徴量抽出部2は、例えばORB(Oriented FAST and Rotated BRIEF)又はA−KAZE(Accelerated KAZE)の手法を用いて特徴量を抽出する(S3)。抽出される特徴量は、回転と拡大又は縮小との双方又は一方とが行われない特徴点についての特徴量である。
次に、特徴量抽出部2は、nフレーム前の特徴点及び特徴量についての結果が存在するか否かを判定する(S4)。「nフレーム前」は、特徴量抽出部2がステップS2において検出した複数の特徴点を含むフレームより前の時間のフレームを意味する。nフレーム前の特徴点及び特徴量についての結果が存在しないと特徴量抽出部2によって判定された場合(S4でNo)、特徴量抽出部2の動作はステップS1に移行する。
特徴量抽出部2は、nフレーム前の特徴点及び特徴量についての結果が存在すると判定した場合(S4でYes)、ステップS2において検出した複数の特徴点を含むフレームと特徴点及び特徴量についての結果が存在するフレームとの二つのフレームにおいて対応点マッチングを行い、ステップS2において検出した複数の特徴点のうちの、目標以外で検出される特徴点を除去する(S5)。
特徴量抽出部2は、ステップS5の処理を行った後、上記の二つのフレームにおける互いに対応する点についてオプティカルフローを推定する(S6)。オプティカルフローは、速度を意味する。特徴量抽出部2は、ステップS6の処理を行った後、処理すべき次のフレームが存在するか否かを判断する(S7)。処理すべき次のフレームが存在すると特徴量抽出部2によって判断された場合(S7でYes)、特徴量抽出部2の処理はステップS1に移行する。処理すべき次のフレームが存在しないと特徴量抽出部2によって判断された場合(S7でNo)、特徴量抽出部2の処理は終了する。
クラスタリング処理部3は、特徴量抽出部2によって抽出された複数の特徴点の各々の位置と速度とをもとにクラスタリング処理を行って、抽出された当該複数の特徴点のうちの一部の複数の特徴点を特徴点群と特定する。クラスタリング処理の例は、k−means又は変分ベイズを用いる処理である。
図3は、実施の形態にかかる追尾装置10が有するクラスタリング処理部3の動作を説明するための第1図である。図3は、3隻の船を含むひとつのフレームを示している。更に言うと、図3は、第1の船31が第1の向き32に進んでいて、かつ第2の船33及び第3の船34が第1の向き32と逆の第2の向き35に進んでいる場合のフレームを示している。図3には、水平線36も示されている。図3では、中央から左に向かうむきが第1の向き32に対応しており、中央から右に向かうむきが第2の向き35に対応している。第1の船31、第2の船33及び第3の船34の各々は、目標の例である。
図4は、実施の形態にかかる追尾装置10が有するクラスタリング処理部3の動作を説明するための第2図である。図4は、特徴量抽出部2が検出した複数の特徴点を示している。複数の特徴点の各々は、黒く塗りつぶされた丸で示されている。図5は、実施の形態にかかる追尾装置10が有するクラスタリング処理部3の動作を説明するための第3図である。
図5は、図3に示される第1の船31についての複数の特徴点が第1の特徴点群51であると特定されており、図3に示される第2の船33及び第3の船34についての複数の特徴点が第2の特徴点群52であると特定されていることを示している。図5では、第1の特徴点群51は楕円形状の第1の破線51dの内側の複数の特徴点によって構成されるものである。第2の特徴点群52は楕円形状の第2の破線52dの内側の複数の特徴点によって構成されるものである。図5には、第1の特徴点群51の重心51cと、第2の特徴点群52の重心52cとが更に示されている。図5では、重心51c及び重心52cはいずれも、バツ印で示されている。
クラスタ追尾部4は、クラスタリング処理部3によって特定された特徴点群の重心が観測点であるとみなし、状態推定処理により、当該重心の位置及び速度の推定値を算出すると共に、当該重心の位置の予測値を算出する。クラスタ追尾部4は、当該重心の位置及び速度の推定値と当該重心の位置の予測値とを算出する際、GNN(Global Nearest Neighbor)、JPDA(Joint Probalistic Data Association)又はMHT(Muliple Hypothesis Tracking)の技術を用いてもよい。
目標検出部5は、撮像部1によって得られた画像から、クラスタ追尾部4によって算出された予測値を含む部分画像を切出す。例えば、予測値は特徴点群の重心である。図6は、実施の形態にかかる追尾装置10が有する目標検出部5の動作を説明するための第1図である。図6には、図3に示される第1の船31、第2の船33及び第3の船34も示されている。
図6は、図5に示される第1の特徴点群51の重心51cを含む第1の部分画像61と、図5に示される第2の特徴点群52の重心52cを含む第2の部分画像62とを示している。図6では、第1の部分画像61及び第2の部分画像62はいずれも、四角形の破線で示されている。例えば、目標検出部5は、撮像部1によって得られた画像から、図6に示される第1の部分画像61と、図6に示される第2の部分画像62とを切出す。
目標検出部5は、例えばSSD又はYOLOv2の技術により、切出された部分画像における目標を検出する。図7は、実施の形態にかかる追尾装置10が有する目標検出部5の動作を説明するための第2図である。図7は、図6に示される第1の部分画像61における第1の船31を示している。図7は、図6に示される第2の部分画像62における第2の船33及び第3の船34を更に示している。例えば、目標検出部5は、第1の部分画像61における第1の船31を検出すると共に、第2の部分画像62における第2の船33及び第3の船34を検出する。
目標検出部5は、例えば一般物体認識技術を用いて、目標を含むバウンディングボックスの中心を特定し、バウンディングボックスの中心の、特徴点群の重心に対しての相対的な位置を算出する。図7は、第1の部分画像61の内側において、第1の部分画像61を示す破線より太い破線で囲まれている第1バウンディングボックス71と、第1バウンディングボックス71の中心71cとを示している。図7には、第1の特徴点群51の重心51cも示されている。第1バウンディングボックス71の中心71cは、黒く塗りつぶされた三角形で示されている。
図7は、第2の部分画像62の内側において、第2の部分画像62を示す破線より太い破線で囲まれている第2バウンディングボックス72と、第2バウンディングボックス72の中心72cとを示している。図7は、第2の部分画像62の内側において、第2の部分画像62を示す破線より太い破線で囲まれている第3バウンディングボックス73と、第3バウンディングボックス73の中心73cとを示している。図7には、第2の特徴点群52の重心52cも示されている。第2バウンディングボックス72の中心72c及び第3バウンディングボックス73の中心73cはいずれも、黒く塗りつぶされた三角形で示されている。
目標追尾部6は、クラスタリング処理部3によって特定された特徴点群の重心の位置と、目標検出部5によって算出された相対的な位置とをもとに、状態推定処理により、目標の位置の推定値を算出する。
統合部7は、クラスタ追尾部4によって算出された特徴点群の重心の速度の推定値と目標追尾部6によって算出された推定値とを統合する。統合部7は、統合を行うことによって、目標の位置と速度とを特定する。図8は、実施の形態にかかる追尾装置10が有する統合部7の動作を説明するための図である。図8には、第1の特徴点群51の重心51cと、重心51cの速度81とを示す第1図80が示されている。第1図80には、第2の特徴点群52の重心52cと、重心52cの速度82とが、更に示されている。
図8には、第1バウンディングボックス71の中心71cを示す第2図84も示されている。中心71cは、X1軸とY1軸とで構成される2次元平面において示されている。図8には、第2バウンディングボックス72の中心72cと、第3バウンディングボックス73の中心73cとを示す第3図85も示されている。中心72c及び中心73cは、X2軸とY2軸とで構成される2次元平面において示されている。
統合部7は、第1図80に示される速度81と、第2図84に示される中心71cの位置とを統合して、目標のひとつである第1の船31の位置及び速度を特定する。統合部7は、第1図80に示される速度82と、第3図85に示される中心72cの位置とを統合して、目標のひとつである第2の船33の位置及び速度を特定する。統合部7は、第1図80に示される速度82と、第3図85に示される中心73cの位置とを統合して、目標のひとつである第3の船34の位置及び速度を特定する。
図8には、第1の船31、第2の船33及び第3の船34の各々の位置及び速度を示す第4図86が更に示されている。すなわち、統合部7は、第4図86に示されるように、第1図80において示される情報87と、第2図84において示される情報88とをもとに、目標のひとつである第1の船31の位置及び速度を特定する。統合部7は、第1図80において示される情報87と、第3図85において示される情報89とをもとに、目標のひとつである第2の船33の位置及び速度を特定する。統合部7は、第1図80において示される情報87と、第3図85において示される情報89とをもとに、目標のひとつである第3の船34の位置及び速度を特定する。
上述の通り、実施の形態にかかる追尾装置10は、撮像部1によって得られたフレームにおける複数の特徴点の各々の位置と速度とをもとにクラスタリング処理を行う。追尾装置10は、特徴点群の重心の速度と、目標を含むバウンディングボックスの中心の当該重心に対しての相対的な位置とを統合することにより、目標の位置と速度とを特定する。追尾装置10は、テンプレートマッチングを行うことなく、かつ画像全体に対して周期的に例えばSSD又はYOLOv2の推論処理を行わない。したがって、追尾装置10は、計算負荷を小さくしつつ、目標を検出し、目標を安定して追尾することができる。
図9は、実施の形態にかかる追尾装置10が有する特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7を構成する少なくとも一部の構成要素が処理回路91によって実現される場合の処理回路91を示す図である。つまり、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の機能の少なくとも一部は、処理回路91によって実現されてもよい。
処理回路91は、専用のハードウェアである。処理回路91は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらを組み合わせたものである。特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の一部は、残部とは別個の専用のハードウェアであってもよい。
図10は、実施の形態にかかる追尾装置10が有する特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部の機能がプロセッサ92によって実現される場合のプロセッサ92を示す図である。つまり、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部の機能は、メモリ93に格納されるプログラムを実行するプロセッサ92によって実現されてもよい。
プロセッサ92は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)である。図10には、メモリ93も示されている。
特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部の機能がプロセッサ92によって実現される場合、当該一部の機能は、プロセッサ92と、ソフトウェア、ファームウェア、又は、ソフトウェア及びファームウェアとの組み合わせによって実現される。
ソフトウェア又はファームウェアはプログラムとして記述され、メモリ93に格納される。プロセッサ92は、メモリ93に記憶されたプログラムを読み出して実行することにより、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部の機能を実現する。
特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部の機能がプロセッサ92によって実現される場合、追尾装置10は、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリ93を有する。
メモリ93に格納されるプログラムは、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の少なくとも一部が実行する手順又は方法をコンピュータに実行させるものであるともいえる。
メモリ93は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read-Only Memory)等の不揮発性もしくは揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク又はDVD(Digital Versatile Disk)等である。
特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の複数の機能について、当該複数の機能の一部を専用のハードウェアで実現し、当該複数の機能の残部をソフトウェア又はファームウェアで実現してもよい。このように、特徴量抽出部2、クラスタリング処理部3、クラスタ追尾部4、目標検出部5、目標追尾部6及び統合部7の複数の機能は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって実現することができる。
以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略又は変更することも可能である。
1 撮像部、2 特徴量抽出部、3 クラスタリング処理部、4 クラスタ追尾部、5 目標検出部、6 目標追尾部、7 統合部、10 追尾装置、31 第1の船、32 第1の向き、33 第2の船、34 第3の船、35 第2の向き、36 水平線、51 第1の特徴点群、51c,52c 重心、51d 第1の破線、52 第2の特徴点群、52d 第2の破線、61 第1の部分画像、62 第2の部分画像、71 第1バウンディングボックス、71c,72c,73c 中心、72 第2バウンディングボックス、73 第3バウンディングボックス、80 第1図、81,82 速度、84 第2図、85 第3図、86 第4図、87 第1図において示される情報、88 第2図において示される情報、89 第3図において示される情報、91 処理回路、92 プロセッサ、93 メモリ。
Claims (4)
- 時系列の画像を得る撮像部と、
前記撮像部によって得られた画像における複数の特徴点の各々の位置と速度とを抽出する特徴量抽出部と、
前記特徴量抽出部によって抽出された前記複数の特徴点の各々の位置と速度とをもとにクラスタリング処理を行って、前記複数の特徴点のうちの一部の複数の特徴点を特徴点群と特定するクラスタリング処理部と、
前記クラスタリング処理部によって特定された前記特徴点群の重心の位置及び速度の推定値を算出すると共に、前記重心の位置の予測値を算出するクラスタ追尾部と、
前記撮像部によって得られた画像から、前記クラスタ追尾部によって算出された前記予測値を含む部分画像を切出し、前記部分画像における目標を検出し、前記目標を含むバウンディングボックスの中心の、前記重心に対しての相対的な位置を算出する目標検出部と、
前記クラスタリング処理部によって特定された前記特徴点群の前記重心の位置と前記目標検出部によって算出された前記相対的な位置とをもとに、前記目標の位置の推定値を算出する目標追尾部と、
前記クラスタ追尾部によって算出された前記重心の速度の推定値と前記目標追尾部によって算出された推定値とを統合する統合部と
を備えることを特徴とする追尾装置。 - 前記特徴量抽出部は、複数の前記画像について特徴点マッチング処理を行うことにより、再現度があらかじめ決められた値より低い特徴点を除去する
ことを特徴とする請求項1に記載の追尾装置。 - 前記目標検出部は、一般物体認識技術を用いて、前記バウンディングボックスの中心を特定する
ことを特徴とする請求項1又は2に記載の追尾装置。 - 前記予測値は、前記特徴点群の前記重心であって、
前記目標検出部は、前記特徴点群の重心を含む前記部分画像を切出す
ことを特徴とする請求項1から3のいずれか1項に記載の追尾装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018051548A JP6932098B2 (ja) | 2018-03-19 | 2018-03-19 | 追尾装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018051548A JP6932098B2 (ja) | 2018-03-19 | 2018-03-19 | 追尾装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019164521A JP2019164521A (ja) | 2019-09-26 |
JP6932098B2 true JP6932098B2 (ja) | 2021-09-08 |
Family
ID=68064571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018051548A Active JP6932098B2 (ja) | 2018-03-19 | 2018-03-19 | 追尾装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6932098B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461160B (zh) * | 2019-11-11 | 2023-07-14 | 天津津航技术物理研究所 | 抗云雾、烟雾干扰红外成像导引头目标跟踪方法 |
CN112955712A (zh) * | 2020-04-28 | 2021-06-11 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、设备及存储介质 |
JPWO2023181229A1 (ja) * | 2022-03-24 | 2023-09-28 | ||
CN116580056B (zh) * | 2023-05-05 | 2023-11-17 | 武汉理工大学 | 一种船舶检测与跟踪方法、装置、电子设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4328259B2 (ja) * | 2004-04-21 | 2009-09-09 | 日本電信電話株式会社 | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 |
JP4449808B2 (ja) * | 2005-03-31 | 2010-04-14 | 日本ビクター株式会社 | 人物検出装置 |
JP2013058052A (ja) * | 2011-09-08 | 2013-03-28 | Dainippon Printing Co Ltd | 特徴点抽出装置、特徴点抽出方法、プログラム |
-
2018
- 2018-03-19 JP JP2018051548A patent/JP6932098B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019164521A (ja) | 2019-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932098B2 (ja) | 追尾装置 | |
WO2021072696A1 (zh) | 目标检测与跟踪方法、系统、可移动平台、相机及介质 | |
JP4733756B2 (ja) | 車両周辺監視装置 | |
JP4631096B2 (ja) | 車両周辺監視装置 | |
JP2020064046A (ja) | 車両位置決定方法及び車両位置決定装置 | |
US20200082560A1 (en) | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud | |
US20120257056A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN105654031B (zh) | 用于物体检测的系统和方法 | |
US9911204B2 (en) | Image processing method, image processing apparatus, and recording medium | |
JP2006071471A (ja) | 移動体高さ判別装置 | |
US11436815B2 (en) | Method for limiting object detection area in a mobile system equipped with a rotation sensor or a position sensor with an image sensor, and apparatus for performing the same | |
JP2010146494A (ja) | 車両周辺監視装置 | |
CN114926726B (zh) | 基于多任务网络的无人船感知方法及相关设备 | |
JP2017103688A5 (ja) | ||
CN108369739B (zh) | 物体检测装置和物体检测方法 | |
JP5082955B2 (ja) | 車両検出装置および方法、並びに、プログラム | |
JP2007278871A (ja) | 動き量計算装置 | |
JP2013069045A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
JP2017102832A (ja) | 車両ピッチ角推定装置 | |
JP2013182562A (ja) | 影検出装置 | |
JP5760523B2 (ja) | 走路推定装置及びプログラム | |
JP4151631B2 (ja) | 物体検出装置 | |
JP2007233487A (ja) | 歩行者検出方法、装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932098 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |