JPWO2017145711A1 - 特徴量抽出方法及び特徴量抽出装置 - Google Patents
特徴量抽出方法及び特徴量抽出装置 Download PDFInfo
- Publication number
- JPWO2017145711A1 JPWO2017145711A1 JP2018501110A JP2018501110A JPWO2017145711A1 JP WO2017145711 A1 JPWO2017145711 A1 JP WO2017145711A1 JP 2018501110 A JP2018501110 A JP 2018501110A JP 2018501110 A JP2018501110 A JP 2018501110A JP WO2017145711 A1 JPWO2017145711 A1 JP WO2017145711A1
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature amount
- local
- local feature
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 53
- 238000004364 calculation method Methods 0.000 claims abstract description 26
- 230000008859 change Effects 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 28
- 230000005484 gravity Effects 0.000 claims description 14
- 230000003068 static effect Effects 0.000 abstract description 49
- 239000000284 extract Substances 0.000 abstract description 11
- 230000000007 visual effect Effects 0.000 description 48
- 238000000034 method Methods 0.000 description 31
- 238000002474 experimental method Methods 0.000 description 29
- 238000007796 conventional method Methods 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000012217 deletion Methods 0.000 description 6
- 230000037430 deletion Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Abstract
Description
本実施の形態では、人混みなどの動的環境下で取得した連続画像に含まれる局所特徴量を、動的物体からの動的な局所特徴量と静的物体からの安定した静的な局所特徴量とに分け、静的な局所特徴量のみを抽出する。これにより、正確なSLAMを行うことが可能となる。換言すれば、本実施の形態では、連続画像に含まれる局所特徴量から動的な局所特徴量のみを削除し、静的な局所特徴量を不変特徴量として抽出する。
まず、連続画像取得部11は、ロボット等の移動体が移動する間に、連続して撮影した連続画像を取得する。本実施の形態では、連続画像からPIRFが取得される。PIRFは、複数枚の連続画像から抽出される特徴量であるため、入力としては、連続する画像、すなわちビデオ画像が必要となる。PIRFで要求される連続画像とは、ある画像セットであって、一定のフレームで、例えば1秒毎に2フレームなど、毎秒毎に連続的に撮影されたビデオ画像をいう。すなわち、ビデオからキャプチャされた画像は一般的に連続的であり、PIRFにおける連続画像は、ビデオ画像を使用したものでなければならない。画像の取得率は、カメラの速度に応じて設定される。たとえば、カメラが車に搭載されていた場合、カメラの速度は1分間に約1000m/分であり、ビデオからキャプチャされる連続画像はおよそ50乃至100フレーム/秒となる。
局所特徴量抽出部12は、連続画像取得部11により取得した連続画像から、各特徴点における局所特徴量を抽出する。局所特徴量抽出部12は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する。
特徴量マッチング部13は、連続画像間で局所特徴のマッチングを行い、予め定めた枚数間で、連続してマッチングのとれている特徴を選択し、その中でマッチングを行った画像のうち最新の画像から抽出された特徴量とその座標を特徴量PIRFとして抽出・記述する。
(vfirst・v)/(vsecond・v)>θ
が成立する場合、マッチングのとれた特徴v'=vfirstと判定する。ここで、閾値θはたとえば0.6とすることができる。上記が成立しない場合は、画像Iaにおける特徴vにマッチングする特徴は、画像Ia+1には存在しないと判定する。
不変特徴量算出部14は、同一ウィンドウグループであるサブプレイス内においてマッチングがとれた局所特徴量の平均を求める。これらのベクトルのうち、サブプレイス内の最新の画像から抽出された特徴量とその座標によりPIRF辞書が構成される。全サブプレイス(ni−w+1)個から抽出された(ni−w+1)個のサブプレイスPIRF辞書(Dj i,j≦ni−w+1)をPIRF辞書(Di)に登録する。このPIRF辞書を構成する、マッチングがとれた局所特徴量の平均各がPIRFである。
実施例1:動的な特徴量の削除
ここでは、ICGM2.0の優位性の検証のために、動的な特徴量の削除の結果について評価する。実験環境は多くの人が行き交う環境を選んで行った。また、実験においては、PIRFの局所特徴量のマッチングに対する閾値ThrPIRFを65、ICGMの誤差率に関する閾値ThrICGMを0.7とした。ICGM2.0 についても、ThrPIRF=65、ThrICGM=0.7とした。
Precision=TP/(TP+FP) ・・・(5)
Recall=TP/(TP+FN) ・・・(6)
実験環境は鉄道の駅の地下改札前の屋内環境であり、非常な混雑が生じ、かつ、多くの人が行き交う動的環境である。図7に、実験経路を示す。実験では、この実験経路に従って実験者がカメラで連続画像を撮影し、その連続画像をもとにビジュアルオドメトリの作成と自己位置推定とを行った。図7の例では、約100m×約50mの領域において、一周が約200mの経路を用いた。また、点線が地図構築を行った1周目の経路を示し、実線が自己位置推定を行った2周目の経路を示している。
ビジュアルオドメトリに関するICGM2.0の優位性の評価を行うにあたり、比較対象を従来手法であるICGM、PIRF、及び、libviso2のみの場合(ICGM、PIRF、ICGM2.0のいずれも適用しない場合)とする。上述の通り、libviso2は本発明でも用いているが、libviso2によるビジュアルオドメトリの作成前にICGM2.0による動的な特徴量の削除が行われているので、ICGM2.0の有無によるビジュアルオドメトリの結果の変化を比較することで、その効果を把握することができる。
本実験においては、ICGM2.0の比較対象を、従来手法のICGM、PIRF、FABMAP2.0(M . Cummins, P. Newman, "Highly scalable appearance-only SLAM - FAB-MAP 2.0", The International Journal of Robotics, Systems and Science, 2009)とした。ICGMとPIRFとは、共に動的な特徴量を削除することを目的としている点で比較対象とする。また、FABMAP2.0は、現在のAppearance−only SLAMに関する研究の中でも高い精度の自己位置推定を実現している手法であるため、比較対象とした。図10に、表1と式(5)及び(6)から求められたPrecisionとRecallとを示す。また、表3に、Precisionを100%とするときのRecallと1画像あたりの計算時間とを示す。
実験環境は鉄道の駅前の屋外環境である。実験環境は非常に混雑し、多くの人が行き交う動的環境である。図11に実験経路を示す。実験ではこの実験経路に従って実験者がカメラで連続画像を撮影し、その連続画像をもとにビジュアルオドメトリの作成と自己位置推定を行った。図11の例では、約80m×約100mの領域において、一周が約230mの経路を用いた。また、赤色鎖線が地図構築を行った1周目の経路を示し、青色点線が自己位置推定を行った2周目の経路を示している。
ビジュアルオドメトリに関するICGM2.0の優位性の評価を行う。比較対象は屋内での評価実験と同様に、従来手法のICGM、PIRF、libviso2とする。図12に実験で作成されたビジュアルオドメトリを示す。また、表4に、各手法の誤差率と1画像あたりの計算時間を示す。
自己位置推定に関するICGM2.0の優位性の評価を行う。比較対象は、屋内での評価実験と同様に従来手法のICGM、PIRF、FABMAP2.0とする。図14に、表1と式(5)及び(6)から求められたPrecisionとRecallとを示す。また、表5にPrecisionを100%とするときのRecallと画像あたりの計算時間を示す。
本実施の形態にかかる特徴量抽出方法及び特徴量抽出装置は、実施の形態1にかかる特徴量抽出方法及び特徴量抽出装置の変形例であり、静的な特徴量の抽出精度を更に向上させるものである。実施の形態2にかかる特徴量抽出方法については、ここでは、ICGM2.5とも称する。
まず、図2のステップS3でマッチングされた特徴量から、上述したPIRFにより、動的な特徴量を削除する。
PIRFによって動的な特徴量を削除した後、残存している特徴量のそれぞれについて、連続画像の異なるフレーム間でのマッチング距離を算出する。そして、各特徴量のマッチング距離を計算し、マッチング距離の昇順に特徴量を並べ替える。
並べ替えた後の特徴量のうち、マッチング距離が小さい順に特徴量を所定の個数だけ選択する。
選択した特徴量を静的な特徴量であると仮定し、これを用いてICGMの重心計算を行う。また、実施の形態1で説明したICGMでの処理と同様に、動的な特徴量を削除する。
実施例4:動的な特徴量の削除
ここでは、ICGM2.5の優位性の検証のために、動的な特徴量の削除の結果について評価する。実施の形態1と同様に、実験環境は多くの人が行き交う環境を選んで行った。本実験で撮影に用いる機器は手持ちの単眼カメラであり、その解像度は1280×960ピクセル、連続画像のフレームレートは12fpsである。また、ICGMの誤差率に関する閾値ThrICGMを0.7、計算した重心の妥当さを測る閾値ThrCGを0.7とした。PIRFにより参照するフレーム数は、w=3である。単眼カメラの高さは地面から1.6m、ピッチ角は5.3°に設定される。また、マッチング距離を算出する際の特徴量のピクセルパッチサイズは31である。なお、計算環境を表6に示す。
実験環境は鉄道の駅の地下改札前の屋内環境であり、実施の形態1と同様である。また、計算条件についは、実施例4と同様である。図19に、屋内での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す。図19に示すとおり、通行人などの動く物体上にはほとんど特徴点は設定されておらず、高い精度で動的な特徴量が削除されていることがわかる。
ビジュアルオドメトリに関するICGM2.5の優位性の評価を行うにあたり、比較対象を、ICGM、ICGM2.0、PIRF、及び、libviso2のみの場合(ICGM、PIRF、ICGM2.0及びICGM2.5のいずれも適用しない場合)とする。
実験環境は鉄道の駅前の屋外環境である。計算条件については、実施例4及び5と同様である。図23に、屋外での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す。図23に示すとおり、通行人などの動く物体上にはほとんど特徴点は設定されておらず、高い精度で動的な特徴量が削除されていることがわかる。
ビジュアルオドメトリに関するICGM2.5の優位性の評価を行う。比較対象は屋内での評価実験と同様に、ICGM、ICGM2.0、PIRF及びlibviso2とする。図25に、屋外での評価実験で作成されたビジュアルオドメトリを示す。また、表8に、各手法の誤差率と1画像あたりの計算時間を示す。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
11 連続画像取得部
12 局所特徴量抽出部
13 特徴量マッチング部
14 不変特徴量算出部
Claims (5)
- 連続して撮影した連続画像を取得する連続画像取得工程と、
前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、
前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出工程と、を有する、
特徴量抽出方法。 - 前記不変特徴量算出工程において、
前記マッチングが取れた局所特徴量のそれぞれについてマッチング距離を算出し、
前記マッチングが取れた局所特徴量を、算出したマッチング距離に基づいて並べ替え、
前記マッチング距離が小さい順に、前記マッチングが取れた局所特徴量から所定の個数の局所特徴量を選択し、
選択した局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める、
請求項1に記載の特徴量抽出方法。 - 前記連続画像の第1のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、
前記第1のフレームに対して時間的に前又は後の前記連続画像の第2のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、
前記マッチングが取れた局所特徴量のそれぞれについて、前記第1のフレームにおいて求めた前記ベクトルと、前記第2のフレームにおいて求めた前記ベクトルと、の間の誤差が所定の閾値以下である場合に、対応する局所特徴量の平均を前記不変特徴量として求める、
請求項1又は2に記載の特徴量抽出方法。 - 連続して撮影した連続画像を取得する連続画像取得手段と、
前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、
前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出手段と、を有する、
特徴量抽出装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033208 | 2016-02-24 | ||
JP2016033208 | 2016-02-24 | ||
JP2016084534 | 2016-04-20 | ||
JP2016084534 | 2016-04-20 | ||
PCT/JP2017/004054 WO2017145711A1 (ja) | 2016-02-24 | 2017-02-03 | 特徴量抽出方法及び特徴量抽出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017145711A1 true JPWO2017145711A1 (ja) | 2018-04-05 |
JP6515259B2 JP6515259B2 (ja) | 2019-05-22 |
Family
ID=59685038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501110A Expired - Fee Related JP6515259B2 (ja) | 2016-02-24 | 2017-02-03 | 特徴量抽出方法及び特徴量抽出装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10366305B2 (ja) |
JP (1) | JP6515259B2 (ja) |
WO (1) | WO2017145711A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6931138B1 (ja) | 2018-06-27 | 2021-09-01 | ナイアンティック, インコーポレイテッドNiantic,Inc. | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル |
WO2020010620A1 (zh) * | 2018-07-13 | 2020-01-16 | 深圳市大疆创新科技有限公司 | 波浪识别方法、装置、计算机可读存储介质和无人飞行器 |
CN110728710B (zh) * | 2018-07-16 | 2023-10-27 | 株式会社理光 | 视觉里程计算方法、装置和计算机可读存储介质 |
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
US11899469B2 (en) | 2021-08-24 | 2024-02-13 | Honeywell International Inc. | Method and system of integrity monitoring for visual odometry |
CN115624755B (zh) * | 2022-12-08 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及计算机设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012064131A (ja) * | 2010-09-17 | 2012-03-29 | Tokyo Institute Of Technology | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 |
WO2014073204A1 (ja) * | 2012-11-06 | 2014-05-15 | 国立大学法人東京工業大学 | 特徴量抽出装置及び場所推定装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5305031B2 (ja) | 2009-08-31 | 2013-10-02 | トヨタ自動車株式会社 | 特徴量抽出装置及び方法、並びに位置推定装置及び方法 |
JP5557189B2 (ja) | 2010-03-31 | 2014-07-23 | トヨタ自動車株式会社 | 位置推定装置、位置推定方法及びプログラム |
JPWO2011145239A1 (ja) | 2010-05-19 | 2013-07-22 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
-
2017
- 2017-02-03 JP JP2018501110A patent/JP6515259B2/ja not_active Expired - Fee Related
- 2017-02-03 WO PCT/JP2017/004054 patent/WO2017145711A1/ja active Application Filing
- 2017-02-03 US US15/579,002 patent/US10366305B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012064131A (ja) * | 2010-09-17 | 2012-03-29 | Tokyo Institute Of Technology | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 |
WO2014073204A1 (ja) * | 2012-11-06 | 2014-05-15 | 国立大学法人東京工業大学 | 特徴量抽出装置及び場所推定装置 |
Non-Patent Citations (1)
Title |
---|
萱沼 徹: "人混みで手持ちの単眼カメラにより撮影した映像からの自律的地図構築と自己位置推定", 電子情報通信学会技術研究報告 マルチメディア・仮想環境基礎, vol. 114, no. 410, JPN6018046426, 15 January 2015 (2015-01-15), JP, pages 265 - 270, ISSN: 0003926920 * |
Also Published As
Publication number | Publication date |
---|---|
US10366305B2 (en) | 2019-07-30 |
JP6515259B2 (ja) | 2019-05-22 |
WO2017145711A1 (ja) | 2017-08-31 |
US20180173991A1 (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515259B2 (ja) | 特徴量抽出方法及び特徴量抽出装置 | |
Portmann et al. | People detection and tracking from aerial thermal views | |
Migdal et al. | Background subtraction using markov thresholds | |
JP6265499B2 (ja) | 特徴量抽出装置及び場所推定装置 | |
CN105930790A (zh) | 基于核稀疏编码的人体行为识别方法 | |
Saif et al. | Moving object detection using dynamic motion modelling from UAV aerial images | |
JP6280020B2 (ja) | 移動物体追跡装置 | |
JPWO2011145239A1 (ja) | 位置推定装置、位置推定方法及びプログラム | |
Saito et al. | People detection and tracking from fish-eye image based on probabilistic appearance model | |
JP5557189B2 (ja) | 位置推定装置、位置推定方法及びプログラム | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
Joshi et al. | Object detection, classification and tracking methods for video surveillance: A review | |
Bashar et al. | Multiple object tracking in recent times: A literature review | |
Wang et al. | Robust UAV-based tracking using hybrid classifiers | |
Qian et al. | 3D object recognition by geometric context and Gaussian-mixture-model-based plane classification | |
Hwang et al. | A novel part-based approach to mean-shift algorithm for visual tracking | |
JP2002133421A (ja) | 移動物体認識方法及び装置 | |
KR102424326B1 (ko) | 주목도 기반 객체 분할을 이용한 비지도 비디오 객체 분할장치 및 방법 | |
Yu | Moving target tracking based on improved Meanshift and Kalman filter algorithm | |
Mou et al. | Efficient visual odometry estimation using stereo camera | |
JP2017016356A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Alpatov et al. | Object tracking in the video sequence based on the automatic selection of the appropriate coordinate estimation method | |
JP2023008030A (ja) | 画像処理システム、画像処理方法及び画像処理プログラム | |
Wang et al. | Robust visual tracking via discriminative structural sparse feature | |
US20220245855A1 (en) | Trajectory linking apparatus, trajectory linking method, and non-transitory computer readable medium storing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515259 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |