JP6260215B2 - 特徴点追跡装置、及び、特徴点追跡方法 - Google Patents
特徴点追跡装置、及び、特徴点追跡方法 Download PDFInfo
- Publication number
- JP6260215B2 JP6260215B2 JP2013235363A JP2013235363A JP6260215B2 JP 6260215 B2 JP6260215 B2 JP 6260215B2 JP 2013235363 A JP2013235363 A JP 2013235363A JP 2013235363 A JP2013235363 A JP 2013235363A JP 6260215 B2 JP6260215 B2 JP 6260215B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- point
- feature point
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
見え方に変化が生じると輝度映像の微分値が大きく変動するため、小領域内の起動映像の微分値から定めるコーナー度が敏感に変化する。さらに、検出されていたコーナー点のコーナー度が極大を示さなくなり、コーナー点が検出されにくくなる。よって、移動体が移動しながら長時間で追跡を行う場合には、途中でコーナー点が得られなくなり、追跡に失敗することがある。
第1時刻の画像の横方向微分値と縦方向微分値とに基づいて、前記第1時刻の画像内の点のコーナーらしさを示すコーナー度を前記第1時刻の画像内の点毎に算出するコーナー度算出部と、
前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の輝度値と、前記第2時刻の画像内の特徴点に対する前記第1時刻の画像における予測位置を中心とする第2の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の輝度値とに基づく輝度の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度に基づく総合一致度を算出し、前記総合一致度が最大となる前記第1の大きさの範囲の中心点を、前記第2時刻の画像内の特徴点に対する前記第1時刻の画像内の追跡位置とする照合処理部と、
を備える特徴点追跡装置とする。
実施形態に応じた具体的構成が適宜採用されてもよい。
画像において、物体の角をなす部分は、コーナー点としての特性、すなわち、コーナー度が局所的に極大値を取るという条件を満たさなくとも、コーナー度としては高い値を取る。そこで、本実施形態の方法は、特徴点の追跡において、着目位置を中心とする小領域内の輝度パターンの一致性に加えて、当該小領域内でコーナー度も高い値を示す箇所を最良一致箇所とする。従来の輝度パターンの一致性に基づく照合では、元の特徴点(コーナー点)を位置ずれなく追跡するための仕組みが無い。これに対して、本実施形態の方法は、画像の一致性とともに、コーナー度も高いことを考慮することで、元の特徴点の選定基準であるコーナーとしての特性を保証し、追跡結果としてコーナー点からのずれを抑えるものである。
図2は、実施形態1の特徴点追跡装置の構成例を示す図である。特徴点追跡装置100は、映像入力部102、映像DB(Data Base、データベース)104、コーナー度算出
部106、コーナー点検出部108、特徴点追加削除部110、特徴点DB112、照合処理部114を含む。
うな汎用のコンピュータまたはサーバマシンのような専用のコンピュータを使用して実現可能である。また、特徴点抽出装置100は、ワークステーション(WS、Work Station)、PDA(Personal Digital Assistant)のような専用または汎用のコンピュータ、あるいは、コンピュータを搭載した電子機器を使用して実現可能である。また、特徴点抽出装置100は、スマートフォン、携帯電話、カーナビゲーション装置のような専用または汎用のコンピュータ、あるいは、コンピュータを搭載した電子機器を使用して実現可能である。カーナビゲーション装置は、例えば、自動車等に搭載される。
Memory)やROM(Read Only Memory)を含む。
ドディスクドライブ(HDD、Hard Disk Drive)である。また、二次記憶装置1006
は、リムーバブルメディア、即ち可搬記録媒体を含むことができる。リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、あるいは、CD(Compact Disc)やDVD(Digital Versatile Disc)のようなディスク記録媒体である。
理部114としての機能を実現する。一方、映像DB104および特徴点DB112は、主記憶装置または二次記憶装置の記憶領域に設けられる。
トの組み合わせ、アナログ回路等がある。
図4は、特徴点抽出装置100の時系列での追跡処理の動作フローの例を示す図である。
する。映像の入力が終了した場合(S106;YES)、処理が終了する。映像の入力が終了していない場合(S106;NO)、処理がステップS101に戻って、繰り返される。
れるような係数を有する。
探索(走査)位置(sx,sy)を中心に幅2R、高さ2Rの映像比較用の小領域を設ける。照合処理部114は、当該小領域と同じ大きさの小領域を1時刻前での画像I1の追跡特徴点位置(Pxi,Pyi)を中心に設ける。照合処理部114は、探索範囲内の各走査位置において、小領域内の映像一致度S1(=定数−SAD(Sum of absolute difference)値)を算出する。SAD値は、小領域内での各位置での輝度差の絶対値和を表す。映像一致度S1は、定数からSAD値を引くことで、一致度が高いほど、大きな値を取るように調整している。映像一致度S1は、これに限定されず、例えば、SAD値の逆数でもよい。さらに、照合処理部114は、小領域内の各位置での輝度差に小領域の中心位置におけるコーナー度を掛けたものの総和S2(総合一致度)を算出する。そして、照合処理部114は、各走査位置において、S1が閾値TH以上の場合、一致性が十分で照合として信頼性が高いので、探索範囲内において総合一致度S2が最大となる位置(mx,my)を算出し、照合済特徴点リストMLISTに追加する。一方、照合処理部114は、総合一致度S1が閾値TH未満のときは、一致性が低く特徴点として信頼性が低いので、i番目の特徴点は追跡失敗とみなし、照合済特徴点リストMLISTに追加しない。
に進む。i1がPyi+R以下である場合(S1111;YES)、処理がS1112に進む。
S1308;YES)、処理がステップS1312に進む。Pxjが0以上、または、Pyjが0以上である場合(S1308;NO)、処理がステップS1309に進む。Pxjが0未満、かつ、Pyjが0未満であることは、当該座標で示される特徴点が無効点であることを示す。
である場合(S1402;YES)、処理がステップS1403に進む。
特徴点追跡装置100は、時系列で入力される画像からコーナー度を算出し、コーナー点を検出する。特徴点追跡装置100は、小領域の画像(輝度)の一致度と小領域の中心点のコーナー度とに基づいて総合一致度を算出し、特徴点を追跡する。特徴点追跡装置100は、小領域の輝度の一致度が高く、かつ、小領域の中心点のコーナー度が高い小領域の中心点を、追跡特徴点とすることで、特徴点を追跡する。
次に実施形態2について説明する。実施形態2は、実施形態1との共通点を有する。従って、主として相違点について説明し、共通点については、説明を省略する。
図21は、本実施形態の特徴点追跡装置の構成例を示す図である。特徴点追跡装置200は、映像入力部202、映像DB204、コーナー度算出部206、コーナー点検出部208、特徴点追加削除部210、特徴点DB212、照合処理部214を含む。照合処理部214は、仮追跡処理部222、真追跡処理部224を含む。
追跡処理部224は、仮追跡処理部222で求めた仮の対応位置を中心に局所的な範囲で1時刻前の映像と現時刻の映像とコーナー度とを用いて最良一致箇所を定める。
図22は、特徴点抽出装置200の時系列での追跡処理の動作フローの例を示す図である。
。
おいて、小領域内の映像一致度S1(=定数−SAD値)に小領域の中心位置におけるコーナー度Cを掛けたものの総和S2(総合一致度)を算出する。真追跡処理部224は、先の真追跡の探索範囲内を走査しながら、最大のS2値を与える位置を真の追跡位置(tx,ty)として取得する。
を判定する。j1がPxi+Rより大きい場合(S2132;NO)、処理がS2136に進む。j1がPxi+R以下である場合(S2132;YES)、処理がS2133に進む。
Myの領域が仮追跡での探索範囲となる。また、真追跡での探索範囲の一部を含む幅2R高さ2Rの領域が照合の小領域となる。
特徴点追跡装置200は、1時刻前の画像の特徴点を中心とする小領域と、現時刻の画像の予測位置を中心とする探索範囲内の点を中心とする小領域との輝度の一致度を算出する。特徴点追跡装置200は、輝度の一致点がもっとも大きい点を仮の追跡位置として取得する。特徴点追跡装置200は、仮の追跡位置を中心とする所定の領域内で、総合一致度S2が最大となる点を探索し、最大となる点を追跡位置とする。即ち、特徴点追跡装置200は、輝度の一致度を求める領域(範囲)を段階的に絞り込む。特徴点追跡装置200は、総合一致度S2を算出する範囲を小さくすることで、計算負荷を削減することができる。
次に実施形態3について説明する。実施形態3は、実施形態1、実施形態2との共通点を有する。従って、主として相違点について説明し、共通点については、説明を省略する。
図35は、特徴点抽出装置300の時系列での追跡処理の動作フローの例を示す図である。
、たとえば、画像の各位置(画素)でモノクロの8ビットの諧調を持つ格子状の映像データなどである。
量(g11,g12,g13)を算出する。コーナー度算出部306は、横方向エッジ画像Dxの画素値dx(x,y)及び縦方向エッジ画像Dyの画素値dy(x,y)を用いて、実施形態1のコーナー度算出部106と同様に、3変量(g11,g12,g13)を算出する。
特徴点追跡装置300は、入力画像からエッジ画像を生成する。特徴量追跡装置300は、エッジ画像を用いて、コーナー度算出処理、照合処理を行う。特徴点追跡装置300は、小領域のエッジ画像の一致度と小領域の中心点のコーナー度とに基づいて総合一致度を算出し、特徴点を追跡する。特徴点追跡装置100は、小領域のエッジ画像の一致度が高く、かつ、小領域の中心点のコーナー度が高い小領域の中心点を、追跡特徴点とすることで、特徴点を追跡する。
を評価して求めるので、対象の映り方の変化に対して敏感である。コーナー度分布のある位置に小領域を設けた場合、対象の移動によってその小領域内のコーナー度の分布パターンは大きく変化する。そのため、小領域内のすべての点のコーナー度を反映させると、例え、エッジ画像の一致度が大きくても、コーナー度が小さくなり総合一致度S2が低下する。
次に実施形態4について説明する。実施形態4は、実施形態1、実施形態2、実施形態3との共通点を有する。従って、主として相違点について説明し、共通点については、説明を省略する。
図36は、本実施形態の特徴点追跡装置の構成例を示す図である。特徴点追跡装置400は、映像入力部402、エッジ検出部403、映像DB404、コーナー度算出部406、コーナー点検出部408、特徴点追加削除部410、特徴点DB412、照合処理部414を含む。
図37は、特徴点抽出装置400の時系列での追跡処理の動作フローの例を示す図である。
特徴点追跡装置400は、1時刻前の画像の特徴点を中心とする小領域と、現時刻の画像の予測位置を中心とする探索範囲内の点を中心とする小領域とのエッジ画像の一致度を算出する。特徴点追跡装置200は、エッジ画像の一致点がもっとも大きい点を仮の追跡位置として取得する。特徴点追跡装置200は、仮の追跡位置を中心とする所定の領域内で、総合一致度S2が最大となる点を探索し、最大となる点を追跡位置とする。特徴点追跡装置400は、総合一致度S2を算出する範囲を小さくすることで、計算負荷を削減することができる。
102 映像入力部
104 映像DB
106 コーナー度算出部
108 コーナー点検出部
110 特徴点追加削除部
112 特徴点DB
114 照合処理部
200 特徴点追跡装置
202 映像入力部
204 映像DB
206 コーナー度算出部
208 コーナー点検出部
210 特徴点追加削除部
212 特徴点DB
214 照合処理部
222 仮追跡処理部
224 真追跡処理部
300 特徴点追跡装置
302 映像入力部
303 エッジ検出部
304 映像DB
306 コーナー度算出部
308 コーナー点検出部
310 特徴点追加削除部
312 特徴点DB
314 照合処理部
400 特徴点追跡装置
402 映像入力部
403 エッジ検出部
404 映像DB
406 コーナー度算出部
408 コーナー点検出部
410 特徴点追加削除部
412 特徴点DB
414 照合処理部
422 仮追跡処理部
424 真追跡処理部
Claims (10)
- 第1時刻の画像の横方向微分値と縦方向微分値とに基づいて、前記第1時刻の画像内の点のコーナーらしさを示すコーナー度を前記第1時刻の画像内の点毎に算出するコーナー度算出部と、
前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の輝度値と前記第2時刻の画像内の特徴点に対する前記第1時刻の画像における予測位置を中心とする第2の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の輝度値とに基づく輝度の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積による総合一致度を算出し、前記総合一致度が最大となる前記第1の大きさの範囲の中心点を、前記第2時刻の画像内の特徴点に対する前記第1時刻の画像内の追跡位置とする照合処理部と、
を備える特徴点追跡装置。 - 前記照合処理部は、前記輝度の一致度が最大となる前記第1の大きさの範囲の中心点を仮追跡点として算出し、
前記照合処理部は、前記総合一致度を、前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の輝度値と前記第1時刻の画像の前記仮追跡点を中心点とする第3の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の輝度値とに基づく輝度の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積により算出し、
前記第3の大きさの範囲は、前記第2の大きさの範囲よりも小さい
請求項1に記載の特徴点追跡装置。 - 第1時刻及び前記第1時刻の1時刻前である第2時刻の画像の横方向微分値を画素値とする横方向エッジ画像と縦方向微分値を画素値とする縦方向エッジ画像とを取得し、前記第1時刻の前記横方向エッジ画像と前記第1時刻の前記縦方向エッジ画像とに基づいて、前記第1時刻の画像内の点のコーナーらしさを示すコーナー度を前記第1時刻の画像内の点毎に算出するコーナー度算出部と、
前記第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の横方向微分値及び縦方向微分値と前記第2時刻の画像内の特徴点に対する前記第1時刻の画像における予測位
置を中心とする第2の大きさの範囲内の点を中心とする前記第1の大きさの範囲の横方向微分値及び縦方向微分値とに基づくエッジ形状の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積による総合一致度を算出し、前記総合一致度が最大となる前記第1の大きさの範囲の中心点を、前記第2時刻の画像内の特徴点に対する追跡位置とする照合処理部と、
を備える特徴点追跡装置。 - 前記照合処理部は、前記エッジ形状の一致度が最大となる前記第1の大きさの範囲の中心点を仮追跡点として算出し、
前記照合処理部は、前記総合一致度を、前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の横方向微分値及び縦方向微分値と前記第1時刻の画像の前記仮追跡点を中心点とする第3の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の横方向微分値及び縦方向微分値とに基づくエッジ形状の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積により算出し、
前記第3の大きさの範囲は、前記第2の大きさの範囲よりも小さい
請求項3に記載の特徴点追跡装置。 - 前記第1時刻の画像の横方向微分値を画素値とする横方向エッジ画像を生成し、前記第1時刻の画像の縦方向微分値を画素値とする縦方向エッジ画像を生成し、前記第2時刻の画像の横方向微分値を画素値とする横方向エッジ画像を生成し、前記第2時刻の画像の縦方向微分値を画素値とする縦方向エッジ画像を生成するエッジ検出部を備える請求項3または4に記載の特徴点追跡装置。
- コンピュータが、
第1時刻の画像の横方向微分値と縦方向微分値とに基づいて、前記第1時刻の画像内の点のコーナーらしさを示すコーナー度を前記第1時刻の画像内の点毎に算出し、
前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の輝度値と前記第2時刻の画像内の特徴点に対する前記第1時刻の画像における予測位置を中心とする第2の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の輝度値とに基づく輝度の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積による総合一致度を算出し、前記総合一致度が最大となる前記第1の大きさの範囲の中心点を、前記第2時刻の画像内の特徴点に対する前記第1時刻の画像内の追跡位置とする
ことを実行する特徴点追跡方法。 - コンピュータが、
前記輝度の一致度が最大となる前記第1の大きさの範囲の中心点を仮追跡点として算出し、
前記総合一致度を、前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の輝度値と前記第1時刻の画像の前記仮追跡点を中心点とする第3の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の輝度値とに基づく輝度の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積により算出することを実行し、
前記第3の大きさの範囲は、前記第2の大きさの範囲よりも小さい
請求項6に記載の特徴点追跡方法。 - コンピュータが、
第1時刻及び前記第1時刻の1時刻前である第2時刻の画像の横方向微分値を画素値とする横方向エッジ画像と縦方向微分値を画素値とする縦方向エッジ画像とを取得し、
前記第1時刻の前記横方向エッジ画像と前記第1時刻の前記縦方向エッジ画像とに基づいて、前記第1時刻の画像内の点のコーナーらしさを示すコーナー度を前記第1時刻の画像内の点毎に算出し、
前記第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の横方向微分値及び縦方向微分値と前記第2時刻の画像内の特徴点に対する前記第1時刻の画像における予測位置を中心とする第2の大きさの範囲内の点を中心とする前記第1の大きさの範囲の横方向微分値及び縦方向微分値とに基づくエッジ形状の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積による総合一致度を算出し、前記総合一致度が最大となる前記第1の大きさの範囲の中心点を、前記第2時刻の画像内の特徴点に対する追跡位置とする
ことを実行する特徴点追跡方法。 - コンピュータが、
前記エッジ形状の一致度が最大となる前記第1の大きさの範囲の中心点を仮追跡点として算出し、
前記総合一致度を、前記第1時刻の1時刻前である第2時刻の画像内の特徴点を中心とする第1の大きさの範囲の横方向微分値及び縦方向微分値と前記第1時刻の画像の前記仮追跡点を中心点とする第3の大きさの範囲内の点を中心点とする前記第1の大きさの範囲の横方向微分値及び縦方向微分値とに基づくエッジ形状の一致度、及び、前記第1時刻の画像内の前記第1の大きさの範囲の中心点におけるコーナー度、の積により算出することを実行し、
前記第3の大きさの範囲は、前記第2の大きさの範囲よりも小さい
請求項8に記載の特徴点追跡方法。 - コンピュータが、さらに、
前記第1時刻の画像の横方向微分値を画素値とする横方向エッジ画像を生成し、前記第1時刻の画像の縦方向微分値を画素値とする縦方向エッジ画像を生成し、前記第2時刻の画像の横方向微分値を画素値とする横方向エッジ画像を生成し、前記第2時刻の画像の縦方向微分値を画素値とする縦方向エッジ画像を生成する
こと実行する請求項8または9に記載の特徴点追跡方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013235363A JP6260215B2 (ja) | 2013-11-13 | 2013-11-13 | 特徴点追跡装置、及び、特徴点追跡方法 |
US14/536,936 US9734395B2 (en) | 2013-11-13 | 2014-11-10 | Tracking device and tracking method |
EP14192634.5A EP2874101A3 (en) | 2013-11-13 | 2014-11-11 | Tracking device, tracking method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013235363A JP6260215B2 (ja) | 2013-11-13 | 2013-11-13 | 特徴点追跡装置、及び、特徴点追跡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015095179A JP2015095179A (ja) | 2015-05-18 |
JP6260215B2 true JP6260215B2 (ja) | 2018-01-17 |
Family
ID=52006792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013235363A Expired - Fee Related JP6260215B2 (ja) | 2013-11-13 | 2013-11-13 | 特徴点追跡装置、及び、特徴点追跡方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9734395B2 (ja) |
EP (1) | EP2874101A3 (ja) |
JP (1) | JP6260215B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9437009B2 (en) * | 2011-06-20 | 2016-09-06 | University Of Southern California | Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters |
JP6657622B2 (ja) * | 2015-07-07 | 2020-03-04 | 株式会社リコー | 画像処理装置及び画像処理方法 |
EP3435330B1 (en) * | 2017-07-24 | 2021-09-29 | Aptiv Technologies Limited | Vehicule based method of object tracking |
CN108399381B (zh) * | 2018-02-12 | 2020-10-30 | 北京市商汤科技开发有限公司 | 行人再识别方法、装置、电子设备和存储介质 |
EP3576007B1 (en) | 2018-05-28 | 2023-09-20 | Aptiv Technologies Limited | Method for validation of obstacle candidate |
CN111127508B (zh) * | 2018-10-31 | 2023-05-02 | 杭州海康威视数字技术股份有限公司 | 一种基于视频的目标跟踪方法及装置 |
KR102060567B1 (ko) * | 2019-05-13 | 2019-12-30 | 호서대학교 산학협력단 | 심층신경망을 이용한 선박 주변 객체 인식 방법 및 시스템 |
KR102407044B1 (ko) * | 2021-04-09 | 2022-06-10 | 국방과학연구소 | 객체의 위험 추정 방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3684606B2 (ja) * | 1995-03-11 | 2005-08-17 | 日産自動車株式会社 | パターン認識方法 |
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
TWI258312B (en) * | 2001-03-22 | 2006-07-11 | Kuang-Yao Lo | Monitoring method for comparing image frames |
US7116823B2 (en) * | 2002-07-10 | 2006-10-03 | Northrop Grumman Corporation | System and method for analyzing a contour of an image by applying a Sobel operator thereto |
US20040100563A1 (en) * | 2002-11-27 | 2004-05-27 | Sezai Sablak | Video tracking system and method |
US7382897B2 (en) * | 2004-04-27 | 2008-06-03 | Microsoft Corporation | Multi-image feature matching using multi-scale oriented patches |
US20060182339A1 (en) * | 2005-02-17 | 2006-08-17 | Connell Jonathan H | Combining multiple cues in a visual object detection system |
US7639891B2 (en) * | 2005-12-23 | 2009-12-29 | Xerox Corporation | Corner sharpening using look-up table edge pixel identification |
US7565015B2 (en) * | 2005-12-23 | 2009-07-21 | Xerox Corporation | Edge pixel identification |
US8098889B2 (en) * | 2007-01-18 | 2012-01-17 | Siemens Corporation | System and method for vehicle detection and tracking |
JP2008194239A (ja) * | 2007-02-13 | 2008-08-28 | Toshiba Corp | 画像処理装置及びその方法 |
JP2009087238A (ja) | 2007-10-02 | 2009-04-23 | Fujitsu Ltd | 画像追尾プログラム、装置、及び方法 |
JP5048609B2 (ja) | 2008-08-01 | 2012-10-17 | 株式会社豊田中央研究所 | 対象物追跡装置及びプログラム |
JP4964852B2 (ja) * | 2008-09-24 | 2012-07-04 | 富士フイルム株式会社 | 画像処理装置、方法及びプログラム |
US8462987B2 (en) * | 2009-06-23 | 2013-06-11 | Ut-Battelle, Llc | Detecting multiple moving objects in crowded environments with coherent motion regions |
JP2011170554A (ja) | 2010-02-17 | 2011-09-01 | Fuji Electric Co Ltd | 物体認識装置、物体認識方法及び物体認識プログラム |
WO2012040099A1 (en) * | 2010-09-20 | 2012-03-29 | Qualcomm Incorporated | An adaptable framework for cloud assisted augmented reality |
US8744196B2 (en) * | 2010-11-26 | 2014-06-03 | Hewlett-Packard Development Company, L.P. | Automatic recognition of images |
US8582821B1 (en) * | 2011-05-23 | 2013-11-12 | A9.Com, Inc. | Tracking objects between images |
GB2506338A (en) * | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
-
2013
- 2013-11-13 JP JP2013235363A patent/JP6260215B2/ja not_active Expired - Fee Related
-
2014
- 2014-11-10 US US14/536,936 patent/US9734395B2/en active Active
- 2014-11-11 EP EP14192634.5A patent/EP2874101A3/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
US20150131858A1 (en) | 2015-05-14 |
US9734395B2 (en) | 2017-08-15 |
JP2015095179A (ja) | 2015-05-18 |
EP2874101A3 (en) | 2016-01-27 |
EP2874101A2 (en) | 2015-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6260215B2 (ja) | 特徴点追跡装置、及び、特徴点追跡方法 | |
JP6904346B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
US9076221B2 (en) | Removing an object from an image | |
KR101617681B1 (ko) | 히스토그램들을 갖는 다중 층 연결 요소들을 사용하는 텍스트 검출 | |
JP5685837B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム | |
JP5878924B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
US20100182480A1 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
JP2013122763A (ja) | 映像処理装置及び映像処理方法 | |
WO2017221644A1 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
CN107085699B (zh) | 信息处理设备、信息处理设备的控制方法和存储介质 | |
JP6351350B2 (ja) | 三次元モデル検索システム、及び三次元モデル検索方法 | |
EP2692140A2 (en) | Real-time depth extraction using stereo correspondence | |
JP2021521542A (ja) | 適応的前景マスクアップサンプリングに基づく一連のカラー画像フレームのオブジェクトセグメンテーション | |
CN104573085B (zh) | 图像检索方法、图像检索装置和终端 | |
WO2017170875A1 (ja) | 画像認識装置、及び画像認識プログラム | |
JP6326622B2 (ja) | 人物検出装置 | |
US9792675B1 (en) | Object recognition using morphologically-processed images | |
Kim et al. | Pothole detection method in asphalt pavement | |
US20250095285A1 (en) | Generation of a dense point cloud of a physical object | |
JP2010113562A (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
US8363941B2 (en) | Method and program for extracting silhouette image and method and program for constructing three dimensional model | |
Jaiswal et al. | Creative exploration of scaled product family 3D models using gesture based conceptual computer aided design (C-CAD) tool | |
Mashtalir et al. | Improved segmentation model to identify object instances based on textual prompts | |
KR101528906B1 (ko) | 이미지 처리 방법 및 장치 | |
Dinga | An Investigation of the Influences of Training Data Properties on Aerial Image Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6260215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |