JP6265499B2 - 特徴量抽出装置及び場所推定装置 - Google Patents
特徴量抽出装置及び場所推定装置 Download PDFInfo
- Publication number
- JP6265499B2 JP6265499B2 JP2014545574A JP2014545574A JP6265499B2 JP 6265499 B2 JP6265499 B2 JP 6265499B2 JP 2014545574 A JP2014545574 A JP 2014545574A JP 2014545574 A JP2014545574 A JP 2014545574A JP 6265499 B2 JP6265499 B2 JP 6265499B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- feature
- invariant
- matching
- feature quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
- G06V20/39—Urban scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/11—Technique with transformation invariance effect
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
図1は、本発明の実施の形態にかかる場所推定装置を示すブロック図である。場所推定装置10は、連続して撮影された連続画像からなる入力画像から位置不変特徴量を抽出する特徴量抽出部11、共通辞書12、マッチング部13、類似度算出部14及び場所認定部15を有する。また、特徴量抽出部11は、局所特徴量抽出部21、特徴量マッチング部22、対応特徴量選択部23、及び位置不変特徴量抽出部24を有する。
先ず、特徴量抽出部11が、入力画像Itから位置不変特徴量を抽出する処理について説明する。
CG0=(p0+p1)/2,CG1=(p’0+p’1)/2 ・・・(1)
位置不変特徴量が抽出されたならば、つづいて、マッチング部13が、共通辞書12を参照してマッチングスコアsmを求める(ステップS3)。共通辞書12は、環境内における連続する場所(プレイス)Lm、Lm+1、Lm+2・・それぞれについて、各プレイスの特徴量のセットであるモデルm、m+1、m+2・・を保持している。画像Itと、場所Lmのモデルmとのマッチングスコアsmは、式(2)により求められる。
sm=nm×num_appear ・・・(2)
(位置不変特徴量の抽出−一方向アプローチと両方向アプローチ)
実施の形態1では、位置不変特徴量を抽出する手法(ICGM)として、時刻tにおける画像Itと、時刻t−1における画像It−1とを使用する方法について説明した。これを一方向アプローチと称する。実施の形態2では、より効果的に位置不変特徴量を抽出できる手法について説明する。以下、これを両方向アプローチと称する。
λα=TDuration/TDisappear ・・・(7)
s=4・tan(η)tan(θ)・d2 ・・・(8)
s’=4・tan(η)tan(θ)・(d−TDuration・ν)2 ・・・(9)
λβ=TDuration・ν/d ・・・(11)
次に、実施の形態3として、実施の形態1及び実施の形態2として示した特徴量抽出手法、及び場所認識手法を、実際の環境に適用した実験例を開示する。併せて、本発明の効果について説明する。
この実験は、ICGMにより抽出される特徴量の精度を確認するための実験である。複数の画像から、ICGM及びSURFを使用して特徴量を抽出し、これらの特徴量の複数の画像間でマッチングが取れているかを比較する。
以下の実験は、ICGMを、SLAM(Simultaneous Localization and Mapping)に適用したものである。特許文献3及び非特許文献1の同様の実験においては、PIRFにより抽出された特徴量が使用されたが、本実験ではICGMにより抽出された特徴量を使用する。
この実験に使用するデータセットは、手持ちカメラを使用し、毎秒0.5フレームのレートで撮影された画像である(解像度は480*320にリサイズした)。この実験では、撮影時の環境は混雑してはいなかったものの、いくつかの動的な物体(車、人間)が存在していた(図12)。学習データの取得のため撮影したルートは約170メートルであり、学習時間は9.5分であった。
上述したように、本発明においては、画像から場所同定ができ、辞書のオンライン更新が可能である。そこで、例えば、携帯の動画撮影機能と組み合わせると、以下のような応用が可能である。
実施の形態5では、画像の歪みや、回転(rotation)、剪断変形(shearing)、平行移動(translation)、拡大縮小(scaling)等に対しても頑健な位置不変特徴量を抽出し、より精度の高い場所推定を実現する手法を提案する。
カメラのレンズ特性が、画像の歪みを引き起こすことがある。画像からより精度の高い対応特徴量、及び位置不変特徴量を抽出するためには、画像にこのような歪みのないことが好ましい。
上述の実施の形態では、対応特徴量選択部23が対応特徴量のセットを抽出する処理について説明した。ところで、対応特徴量のセットには、真に対応するものでないのに、誤って対応特徴量と判定された特徴量の組も含まれ得る。発明者は、このように誤ってマッチするものと判断された特徴量の組を排除するための追加的手法として、順序制約を開発した。
上述の実施の形態では、位置不変特徴量抽出部24が、位置不変特徴量を抽出する処理について説明したが、発明者は、より高精度な位置不変特徴量の計算を行う為の手法として、面積制約を開発した。
まず、対応特徴量のセットW,W’を入力する。ここで、W,W’は、いずれも上述の順序制約により抽出されたものであることが好ましい。
まず、特徴量のセットWtmp、W’tmpの初期値を、W,W’とする。このWtmp、W’tmpのそれぞれについて、重心o,o’、総面積SΣ、S’Σを式(14)、(15)により計算する。また、Wtmpのサイズ、すなわちWtmpに含まれる特徴量の数を、SizePreviousとして保存する。
Wtmp、W’tmpに含まれる対応特徴量i,i’の組に着目し、
かかる処理ののち、Wtmpのサイズと、Step1で保存したSizePreviousとを比較する。ここで、両者のサイズが同じであれば、除去すべき対応特徴量はすべて除去されたものとして、処理を終了する。一方、両者のサイズが異なる場合は、対応特徴量の除去はまだ進行中であるから、Step1に戻り処理を続行する。
まず、対応特徴量のセットW,W’およびWtmp、W’tmpを入力する。ここで、W,W’は、アルゴリズム2に入力されたものと同じ対応特徴量のセットである。またWtmp、W’tmpは、アルゴリズム2の出力である。
まず、Wtmp、W’tmpのそれぞれについて、重心o,o’、総面積SΣ、S’Σを式(14)、(15)により計算する。また、Wtmpのサイズ、すなわちWtmpに含まれる特徴量の数を、SizePreviousとして保存する。
W、W’に含まれる対応特徴量i,i’の組に着目し、i,i’がWtmp、W’tmpに含まれていない場合は、AveDevを式(17)により計算する。ここでAveDev<TACであれば、対応特徴量i,i’の組は、信頼できる重心o,o’により、アフィン変換されたものと判定されたことになる。よって、i,i’をWtmp、W’tmpにそれぞれ繰り入れる。かかる判定処理を、W、W’に含まれる対応特徴量すべてについて実施する。
かかる処理ののち、Wtmpのサイズと、Step1で保存したSizePreviousとを比較する。ここで、両者のサイズが同じであれば、救済すべき位置不変特徴量はすべて救済されたものとして、処理を終了する。このとき、Wtmp、W’tmpの内容をWAC、W’ACとして出力する。一方、両者のサイズが異なる場合は、位置不変特徴量の救済はまだ進行中であるから、Step1に戻り処理を続行する。
上述の一連の処理により、精度の高い位置不変特徴量のセットWACが得られる。これを用いることによって、より精度の高い場所推定が可能となる。
最後に、実施の形態5として示した特徴量抽出手法、及び場所認識手法を、実際の環境に適用した実験例を開示する。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
11 特徴量抽出部
12 共通辞書
13 マッチング部
14 類似度算出部
15 場所認定部
21 局所特徴量抽出部
22 特徴量マッチング部
23 対応特徴量選択部
24 位置不変特徴量抽出部
Claims (14)
- 入力画像から位置不変特徴量を抽出する特徴量抽出手段と、
各登録場所と位置不変特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング手段と、
マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出手段と、
前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する場所認定手段とを有し、
前記特徴量抽出手段は、
連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、
前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、
前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、
前記位置不変特徴量抽出手段は、前記対応特徴量のうち、前記入力画像内に存在する他の前記対応特徴量に対する相対位置の変化が所定のしきい値以下である前記対応特徴量を、前記位置不変特徴量として抽出する
場所推定装置。 - 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれにおいて、既に抽出された前記位置不変特徴量の重心と、前記対応特徴量の1つとにより形成されるベクトルを定義し、
連続画像からなる入力画像それぞれにおいて形成された前記ベクトルの差分が、所定のしきい値以下であった場合、前記対応特徴量の1つを、前記位置不変特徴量として新たに抽出し、
前記重心を、前記重心と前記新たな位置不変特徴量との重心で更新する処理を、
すべての前記対応特徴量について繰り返し実行する
請求項1記載の場所推定装置。 - 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれに存在し、互いに対応する前記対応特徴量の組を2組ランダムに選択し、
連続画像からなる入力画像それぞれにおいて、2つの対応特徴量により形成されるベクトルを定義し、
前記ベクトルの差分が、所定のしきい値以下であった場合、これらの前記対応特徴量を、前記位置不変特徴量として最初に抽出する
請求項1記載の場所推定装置。 - 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)又はSURF(Speed Up Robustness Features)の少なくともいずれか一方の特徴量である
請求項1記載の場所推定装置。 - 前記位置不変特徴量抽出手段は、時刻tに撮影された画像と、前記tより前である時刻t−1に撮影された画像と、から抽出される第1の位置不変特徴量と、前記時刻tにかかる画像と、前記tより後である時刻t+1に撮影された画像と、から抽出される第2の位置不変特徴量と、の論理和を、前記位置不変特徴量として出力する
請求項1記載の場所推定装置。 - 前記対応特徴量選択手段は、所定の前記対応特徴量と、他の前記対応特徴量と、の相対距離に基づいて、前記特徴量マッチング手段による前記マッチングの誤りを検査し、誤って前記マッチングされた前記対応特徴量を除去する
請求項1記載の場所推定装置。 - 前記位置不変特徴量抽出手段は、前記対応特徴量に関係するアフィン不変量を検出することにより、前記位置不変特徴量を抽出する
請求項1記載の場所推定装置。 - 連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、
前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、
前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、
前記位置不変特徴量抽出手段は、前記対応特徴量のうち、前記入力画像内に存在する他の前記対応特徴量に対する相対位置の変化が所定のしきい値以下である前記対応特徴量を、前記位置不変特徴量として抽出する
特徴量抽出装置。 - 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれにおいて、既に抽出された前記位置不変特徴量の重心と、前記対応特徴量の1つとにより形成されるベクトルを定義し、
連続画像からなる入力画像それぞれにおいて形成された前記ベクトルの差分が、所定のしきい値以下であった場合、前記対応特徴量の1つを、前記位置不変特徴量として新たに抽出し、
前記重心を、前記重心と前記新たな位置不変特徴量との重心で更新する処理を、
すべての前記対応特徴量について繰り返し実行する
請求項8記載の特徴量抽出装置。 - 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれに存在し、互いに対応する前記対応特徴量の組を2組ランダムに選択し、
連続画像からなる入力画像それぞれにおいて、2つの対応特徴量により形成されるベクトルを定義し、
前記ベクトルの差分が、所定のしきい値以下であった場合、これらの前記対応特徴量を、前記位置不変特徴量として最初に抽出する
請求項8記載の特徴量抽出装置。 - 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)又はSURF(Speed Up Robustness Features)の少なくともいずれか一方の特徴量である、
請求項8記載の特徴量抽出装置。 - 前記位置不変特徴量抽出手段は、時刻tに撮影された画像と、前記tより前である時刻t−1に撮影された画像と、から抽出される第1の位置不変特徴量と、前記時刻tにかかる画像と、前記tより後である時刻t+1に撮影された画像と、から抽出される第2の位置不変特徴量と、の論理和を、前記位置不変特徴量として出力する
請求項8記載の特徴量抽出装置。 - 前記対応特徴量選択手段は、所定の前記対応特徴量と、他の前記対応特徴量と、の相対距離に基づいて、前記特徴量マッチング手段による前記マッチングの誤りを検査し、誤って前記マッチングされた前記対応特徴量を除去する
請求項8記載の特徴量抽出装置。 - 前記位置不変特徴量抽出手段は、前記対応特徴量に関係するアフィン不変量を検出することにより、前記位置不変特徴量を抽出する
請求項8記載の特徴量抽出装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012244540 | 2012-11-06 | ||
JP2012244540 | 2012-11-06 | ||
PCT/JP2013/006550 WO2014073204A1 (ja) | 2012-11-06 | 2013-11-06 | 特徴量抽出装置及び場所推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014073204A1 JPWO2014073204A1 (ja) | 2016-09-08 |
JP6265499B2 true JP6265499B2 (ja) | 2018-01-24 |
Family
ID=50684329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014545574A Active JP6265499B2 (ja) | 2012-11-06 | 2013-11-06 | 特徴量抽出装置及び場所推定装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9396396B2 (ja) |
EP (1) | EP2922022B1 (ja) |
JP (1) | JP6265499B2 (ja) |
WO (1) | WO2014073204A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9898677B1 (en) | 2015-10-13 | 2018-02-20 | MotionDSP, Inc. | Object-level grouping and identification for tracking objects in a video |
KR102465332B1 (ko) * | 2015-12-29 | 2022-11-11 | 에스케이플래닛 주식회사 | 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 |
JP6515259B2 (ja) * | 2016-02-24 | 2019-05-22 | Soinn株式会社 | 特徴量抽出方法及び特徴量抽出装置 |
CN107515006A (zh) * | 2016-06-15 | 2017-12-26 | 华为终端(东莞)有限公司 | 一种地图更新方法和车载终端 |
JP7046506B2 (ja) * | 2017-06-12 | 2022-04-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN108256463B (zh) * | 2018-01-10 | 2022-01-04 | 南开大学 | 基于esn神经网络的移动机器人场景识别方法 |
CN110471407B (zh) * | 2019-07-02 | 2022-09-06 | 无锡真源科技有限公司 | 一种模组自动调节的自适应定位系统及方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4672175B2 (ja) * | 2000-05-26 | 2011-04-20 | 本田技研工業株式会社 | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP2010033447A (ja) * | 2008-07-30 | 2010-02-12 | Toshiba Corp | 画像処理装置および画像処理方法 |
KR101591471B1 (ko) * | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법 |
JP2010115307A (ja) | 2008-11-12 | 2010-05-27 | Sozosha:Kk | モイスチャ処理装置 |
JP2010238008A (ja) * | 2009-03-31 | 2010-10-21 | Fujitsu Ltd | 映像特徴抽出装置、及びプログラム |
JP5305031B2 (ja) | 2009-08-31 | 2013-10-02 | トヨタ自動車株式会社 | 特徴量抽出装置及び方法、並びに位置推定装置及び方法 |
JP5557189B2 (ja) | 2010-03-31 | 2014-07-23 | トヨタ自動車株式会社 | 位置推定装置、位置推定方法及びプログラム |
US10108620B2 (en) * | 2010-04-29 | 2018-10-23 | Google Llc | Associating still images and videos |
US9098744B2 (en) | 2010-05-19 | 2015-08-04 | Tokyo Institute Of Technology | Position estimation device, position estimation method, and program |
-
2013
- 2013-11-06 US US14/440,768 patent/US9396396B2/en active Active
- 2013-11-06 EP EP13854124.8A patent/EP2922022B1/en active Active
- 2013-11-06 JP JP2014545574A patent/JP6265499B2/ja active Active
- 2013-11-06 WO PCT/JP2013/006550 patent/WO2014073204A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2014073204A1 (ja) | 2016-09-08 |
EP2922022A1 (en) | 2015-09-23 |
EP2922022B1 (en) | 2020-01-01 |
WO2014073204A1 (ja) | 2014-05-15 |
US9396396B2 (en) | 2016-07-19 |
EP2922022A4 (en) | 2016-10-12 |
US20150294157A1 (en) | 2015-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6265499B2 (ja) | 特徴量抽出装置及び場所推定装置 | |
US11144786B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
JP2019087229A (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP5771413B2 (ja) | 姿勢推定装置、姿勢推定システム、および姿勢推定方法 | |
CN111094895B (zh) | 用于在预构建的视觉地图中进行鲁棒自重新定位的系统和方法 | |
CN112991447A (zh) | 一种动态环境下视觉定位与静态地图构建方法及系统 | |
US9098744B2 (en) | Position estimation device, position estimation method, and program | |
US10366305B2 (en) | Feature value extraction method and feature value extraction apparatus | |
JP5557189B2 (ja) | 位置推定装置、位置推定方法及びプログラム | |
Piciarelli | Visual indoor localization in known environments | |
CN114608521B (zh) | 单目测距方法及装置、电子设备和存储介质 | |
KR20130023433A (ko) | Slam 기술 기반 이동 로봇의 지도를 관리하기 위한 장치 및 그 방법 | |
Terashima et al. | A visual-SLAM for first person vision and mobile robots | |
Poglitsch et al. | [POSTER] A Particle Filter Approach to Outdoor Localization Using Image-Based Rendering | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113916223B (zh) | 定位方法及装置、设备、存储介质 | |
Brauer et al. | Generative 2d and 3d human pose estimation with vote distributions | |
KR20210028538A (ko) | 가상 현실에서 인사이드 아웃 트래킹을 위한 imu 센서 데이터를 활용하는 가속 비전 기반 포즈 추정 방법 | |
JP2002109539A (ja) | 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法 | |
Kajiwara et al. | High-Speed Detection of Down Staircase for Visually Impaired People Using Illuminance of Point Pattern. | |
CN115775325B (zh) | 一种位姿确定方法及装置、电子设备和存储介质 | |
Johns et al. | Urban position estimation from one dimensional visual cues | |
CN112927291B (zh) | 三维物体的位姿确定方法、装置及电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20161020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6265499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |