JP6261811B2 - 第1の座標系と第2の座標系との間の運動を求める方法 - Google Patents

第1の座標系と第2の座標系との間の運動を求める方法 Download PDF

Info

Publication number
JP6261811B2
JP6261811B2 JP2017513572A JP2017513572A JP6261811B2 JP 6261811 B2 JP6261811 B2 JP 6261811B2 JP 2017513572 A JP2017513572 A JP 2017513572A JP 2017513572 A JP2017513572 A JP 2017513572A JP 6261811 B2 JP6261811 B2 JP 6261811B2
Authority
JP
Japan
Prior art keywords
posture
motion
coordinate system
key points
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017513572A
Other languages
English (en)
Other versions
JP2017528833A (ja
Inventor
ラマリンガム、スリクマール
リー、ジム・ヒー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2017528833A publication Critical patent/JP2017528833A/ja
Application granted granted Critical
Publication of JP6261811B2 publication Critical patent/JP6261811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Description

本発明は、包括的にはコンピュータービジョンに関し、より詳細には、特徴点対応を用いて路上の車両の2つの座標系間の運動を求めることに関する。ここで、各座標系は、カメラ、例えば、単眼カメラ又はステレオカメラのカメラ座標系に対応する。
ビジュアルオドメトリ(visual odometry)は、移動体、例えば、車両又はロボットの1つの位置から別の位置への運動を、例えば、その移動体に搭載された1つ又は複数のカメラによって取得された画像からの特徴を用いて求める問題について言及する。この運動を、点等の幾何学的プリミティブを用いて推定する、数多くの方法が知られている。例えば、5つ以上の点対応を用いて、1つの座標系内の2D点と別の座標系との対応を用いてこの運動を求めることができる(非特許文献1参照)。
また、先行するステレオ画像によって再構築された部分的な3D点クラウドに基づいて移動体の位置を推定するのに用いられる、2Dto3D姿勢推定法も存在する(非特許文献2参照)。
1つの方法は、ステレオカメラ間の運動を求めるのに反復最近傍点探索(ICP:iterative closest point)法において3Dto3D点対応を用いる(非特許文献3参照)。
コンピューティングビジュアルオドメトリのために、投票戦略(Voting strategies)が用いられてきており(特許文献1「Voting strategy for visual ego-motion from stereo」参照)、そして、カメラ姿勢を推定するために機械学習技法が用いられてきた(特許文献2「Method and device for calculating a camera or object pose」)。
米国特許出願公開第2012/0308114号明細書 国際公開第2014/130404号
Nister「An efficient solution to the five-point relative pose problem」PAMI, 2004 Kitt他「Visual odometry based on stereo image sequences with ransac-based outlier rejection scheme」IV, 2010 Milella他「Stereo-based ego-motion estimation using pixel tracking and iterative closest point」ICCVS, 2006
本発明の実施形態は、第1の座標系と第2の座標系との間で運動を求める方法を提供する。本方法は、トレーニングデータからコンパクトな姿勢遷移グラフを構築する。このグラフを用いて、いかなる明示的な運動又は姿勢決定も実行することなく、ビジュアルオドメトリを得ることができる。
通常、運動又は姿勢推定は、多項連立方程式を解くことを伴う。本方法は、姿勢を得るために、代数連立方程式を必要としない。その代わり、本方法は、単に、最良の運動のために姿勢遷移グラフを探索する。この姿勢遷移グラフにおいて、各ノードは2つの連続したカメラ位置間の可能な相対姿勢を表す。2つの相対姿勢間のエッジは、ビジュアルオドメトリを行っている間、連続したフレーム内に2つの相対姿勢を有する可能性を表す。
本方法は、3点又は5点姿勢推定等の運動推定技法を用いるビジュアルオドメトリの他の方法とは区別される。
本発明は、姿勢遷移グラフから補正運動を効率的に識別することができる、点対応に基づいた距離メトリックを求めるスコアリング関数を用いる。
本発明の実施形態による、本発明のビジュアルオドメトリ技法を用いて第1の座標系と第2の座標系との間の運動を求める方法のフロー図である。 本発明の実施形態による、3つの連続した画像及び2つの連続した相対姿勢の概略図である。 本発明の実施形態による、2つの連続したフレーム間の可能な相対姿勢の姿勢遷移グラフである。
図1に示されているように、本発明の実施形態は、第1の座標系と第2の座標系との間の運動を求める方法を提供する。例えば、本方法は、ビジュアルオドメトリの用途で用いることができ、ここで、本方法は、移動体110、例えば、車両又はロボットの1つの位置から別の位置への運動を、例えば、その移動体に搭載された1つ又は複数のカメラ120によって取得されたシーン130の画像からの特徴を用いて求める。
本方法は、トレーニングデータ110から構築されたコンパクト姿勢遷移グラフ300を用いる。図3を参照されたい。それによって、このグラフを用いて、いかなる明示的な運動又は姿勢の決定も実行することなく、ビジュアルオドメトリを得ることができる。
従来技術によるビジュアルオドメトリ法の大半は、ランダムサンプルコンセンサス(RANSAC)法において多項式を解くことによる、明示的な運動又は姿勢の決定を用いる。
本発明では、明示的な運動決定及びRANSACを用いない。本発明による手法は、点対応を直接求める代わりに、姿勢遷移グラフ及びこの点対応を用いて相対姿勢を「探索」する。
本方法への入力は、カメラによって取得された画像のシーケンス101であり、この画像のシーケンス101は較正されている。この画像のシーケンスから、キーポイントと、キーポイントの記述子とを抽出して合致キーポイントを求める(103)。
トレーニング中、姿勢遷移グラフ300をトレーニングデータ110から構築する(102)。姿勢遷移グラフ300は、可能な運動仮説を表す。このグラフにおいて、全てのノードは、例えば、車両110上に配置されたカメラ120によってシーン130から取得されたビデオ内の2つの連続した画像間の相対姿勢の候補を表す。2つのノードを接続している各エッジは、2つの連続した相対姿勢間の可能な運動を表す。
これを行うために、道路130上の移動体125、例えば、車両110上に搭載されたカメラによって取得された数千個のグラウンドトゥルース(ground truth)相対姿勢を用いる。これらの相対姿勢はクラスタリングされ、冗長姿勢を除去することによって圧縮される。この圧縮された姿勢のセットを用いて、1つの相対姿勢から別の相対姿勢への状態遷移を符号化するコンパクトグラフを構築する。
ビデオ内の全ての画像について、高速化ロバスト特徴(SURF:Speeded Up Robust Features)等の従来のキーポイント検出器を用いてキーポイントを検出する。また、ステップ103において、SURF記述子も抽出し、全ての連続した画像の対をマッチングする。
姿勢遷移グラフ内の全ての相対姿勢について、ステップ105に示すように整合性のとれた(一貫した矛盾しない)インライア(inlier)の合致数を特定する(104)。
インライア上のスコアリング関数を用いて、スコアをもたらす距離メトリックが求められる。この距離メトリックは、最良の運動106を特定し、この最良の運動106は出力することができる。
本方法は、当技術分野において既知の、バスによってメモリ及び入出力インターフェースに接続されたプロセッサにおいて実行することができる。
図2に示されているように、3つの連続した画像F(t−2)201、F(t−1)203、及びF(t)205がそれぞれ示されている。画像F(t−2)とF(t−1)との間の相対姿勢は、Pi202によって与えられる。同様に、F(t−1)とF(t)との間の相対姿勢は、Pj204によって与えられる。
図3に示されているように、トレーニング中の姿勢遷移グラフ300の構築に用いられる基本概念が記載されている。このグラフにおいて、全てのノードは、例えば、車両110上に配置されたカメラ120によって、シーン130から取得されたビデオ内の2つの連続した画像間の相対姿勢の候補を表す。2つのノードを接続する各エッジは、2つの連続した相対姿勢間の可能な運動を表す。
例えば、図3において、エッジ302は、相対姿勢Pm後に相対姿勢Prを有することに対応する可能な運動を表す。換言すると、図2に示されているように、3つの画像F(t−2)201、F(t−1)203、及びF(t)205が存在し、F(t−2)とF(t−1)との間の相対姿勢はPmであり、F(t−1)とF(t)との間の相対姿勢はPrであるようになっている。ノードPk304上のループ303は、双方が相対姿勢Pkに等しい2つの連続した相対姿勢が存在している可能性があることを示している。
姿勢遷移グラフは、トレーニングビデオシーケンス、すなわち、トレーニングデータ110を用いて構築される。分析的運動推定技法及びバンドル調整機構(bundle adjustment machinery)を用いて、連続したフレーム間の相対姿勢を得る。換言すると、グラウンドトゥルースを生成するために、従来の分析的相対及び絶対姿勢推定技法が用いられる。
また、全地球測位システム(GPS)及び/又は慣性測定ユニット(IMU)を用いてトレーニングデータのための相対姿勢情報を得ることができる。トレーニングデータからの全ての連続した画像の対からの相対姿勢をQiとする。ただしi={1,2,..,m}である。次に、全ての同様な相対姿勢が1つのクラスターに属するように、これらの姿勢をクラスタリングし、各クラスターから1つの代表の相対姿勢を用いる。これを行うことによって、相対姿勢Piのより小さなセットが得られる。ここでi={1,2,...,n}であり、n<<mである。
この相対姿勢のより小さなセットを用いることで、図2に示されている遷移グラフが以下の方法で構築される。すなわち、
1.n個のノードを初期化する。ここで、各ノードは、セット内の相対姿勢Pi、i={1,2,...,n}に対応する。
2.全ての連続した相対姿勢Qi及びQjについて、
a.圧縮されたセット内の最近接相対姿勢がPi及びPjの場合、PiからPjへのエッジを追加する。
b.圧縮されたセット内の最近接相対姿勢が双方ともPkの場合、ノードPkのための自己ループを追加する。
3つの連続した画像をF(t−2)、F(t−1)及びF(t)とする。F(t−2)とF(t−1)との間の相対姿勢は、Piによって与えられるものとする。F(t−1)とF(t)との間の現在の相対姿勢Pjを求めるために、以下のスコアリング関数を用いる。
スコア(Pj)=インライア(Pj)+ S×w(Pi,Pj)
ここで、Sは、インライアとwとの相対的重要度を調整するスケーリングパラメーターである。このパラメーターSは、学習することもできるし、手動で一定にすることもできる。インライア(Pj)は、相対姿勢Pjを用いて得られる。PiからPjへの状態遷移に対応する重みは、w(Pi,Pj)である。
本方法は、限定はしないが、モバイルロボット、ハンドヘルドデバイス及びドローンの正確な位置特定及びビジュアルオドメトリ等、自動運転用途における自動車を含む、複数の用途において用いることができる。

Claims (13)

  1. 第1の座標系と第2の座標系との間の運動を求める方法であって、
    移動体上に配置されたカメラによってシーンから取得された第1の画像から第1のキーポイントのセットを抽出するステップと、
    前記カメラによって前記シーンから取得された第2の画像から第2のキーポイントのセットを抽出するステップと、
    前記第1のキーポイントのセット及び前記第2のキーポイントのセットから、それぞれ第1の姿勢及び第2の姿勢を求めるステップと、
    スコアリング関数と、トレーニングデータから構築される姿勢遷移グラフとを用いて、前記第1の姿勢と前記第2の姿勢との間の各可能な運動のスコアを求めるステップであって、ここで、前記姿勢遷移グラフにおける各ノードは相対姿勢を表し、各エッジは2つの連続した相対姿勢間の運動を表す、ステップと、
    前記スコアに基づいて、前記第1の座標系と前記第2の座標系との間の前記運動として最良の運動を選択するステップと、
    を含み、前記ステップはプロセッサが実行する、方法。
  2. 前記第1及び第2のキーポイントは、高速化ロバスト特徴(SURF)を用いて得られる、請求項1に記載の方法。
  3. 前記姿勢遷移グラフは、前記カメラによって取得されたビデオシーケンスから得られたトレーニングデータを用いて構築される、請求項1に記載の方法。
  4. 前記姿勢遷移グラフ内で表される前記第1及び第2の姿勢は、分析的運動推定技法を用いて求められる、請求項1に記載の方法。
  5. 前記第1及び第2の姿勢は、全地球測位システム(GPS)を用いて求められる、請求項1に記載の方法。
  6. 前記第1及び第2の姿勢は、慣性測定ユニット(IMU)を用いて求められる、請求項1に記載の方法。
  7. 前記姿勢はクラスタリングされて同様の運動が除去され、コンパクトな姿勢遷移グラフが構築される、請求項1に記載の方法。
  8. 前記相対姿勢は、分析的運動推定技法及びバンドル調整機構を用いて得られる、請求項4に記載の方法。
  9. 前記スコアリング関数は、前記第1のキーポイントのセットと前記第2のキーポイントのセットとをマッチングすることから得られるインライアの数に応じて決まる、請求項1に記載の方法。
  10. 前記運動は、ビジュアルオドメトリのタスクに用いられる、請求項1に記載の方法。
  11. 前記運動は、前記シーンの3Dモデルを用いる位置特定のタスクに用いられる、請求項1に記載の方法。
  12. 前記移動体は車両である、請求項1に記載の方法。
  13. 前記移動体はロボットである、請求項1に記載の方法。
JP2017513572A 2015-06-30 2016-06-10 第1の座標系と第2の座標系との間の運動を求める方法 Active JP6261811B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/755,324 US9558424B2 (en) 2015-06-30 2015-06-30 On-road stereo visual odometry without explicit pose determinations
US14/755,324 2015-06-30
PCT/JP2016/068022 WO2017002637A1 (en) 2015-06-30 2016-06-10 Method for determining a motion between a first coordinate system and a second coordinate system

Publications (2)

Publication Number Publication Date
JP2017528833A JP2017528833A (ja) 2017-09-28
JP6261811B2 true JP6261811B2 (ja) 2018-01-17

Family

ID=56555663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513572A Active JP6261811B2 (ja) 2015-06-30 2016-06-10 第1の座標系と第2の座標系との間の運動を求める方法

Country Status (5)

Country Link
US (1) US9558424B2 (ja)
JP (1) JP6261811B2 (ja)
CN (1) CN107735797B (ja)
DE (1) DE112016002995T5 (ja)
WO (1) WO2017002637A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
DE102016211805A1 (de) * 2015-10-09 2017-04-13 Volkswagen Aktiengesellschaft Fusion von Positionsdaten mittels Posen-Graph
WO2018192984A1 (en) 2017-04-19 2018-10-25 Robert Bosch Gmbh Methods and systems for aligning a vehicle with a trailer
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
US10634777B2 (en) * 2018-05-30 2020-04-28 Ford Global Technologies, Llc Radar odometry for vehicle
DE102018117660A1 (de) 2018-07-20 2020-01-23 Man Truck & Bus Se Verfahren und system zum bestimmen einer position eines fahrzeugs
KR102559203B1 (ko) * 2018-10-01 2023-07-25 삼성전자주식회사 포즈 정보를 출력하는 방법 및 장치
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
CN112364785B (zh) * 2020-11-13 2023-07-25 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3467017B2 (ja) * 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
JP5745067B2 (ja) * 2010-09-24 2015-07-08 アイロボット・コーポレーション Vslam最適化のためのシステムおよび方法
US9020187B2 (en) * 2011-05-27 2015-04-28 Qualcomm Incorporated Planar mapping and tracking for mobile devices
US8744169B2 (en) 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
JP6086474B2 (ja) * 2012-11-26 2017-03-01 Kddi株式会社 情報端末装置
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9489743B2 (en) * 2013-03-13 2016-11-08 Mecommerce, Inc. Determining dimension of target object in an image using reference object
CN103247199B (zh) * 2013-05-15 2015-03-11 安徽三联交通应用技术股份有限公司 一种机动车移动位置和姿态的精确测量方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9495761B2 (en) * 2013-11-04 2016-11-15 The Regents Of The University Of California Environment mapping with automatic motion model selection
US20150286873A1 (en) * 2014-04-03 2015-10-08 Bruce L. Davis Smartphone-based methods and systems
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
US9436278B2 (en) * 2014-04-01 2016-09-06 Moju Labs, Inc. Motion-based content navigation
CN104457761B (zh) * 2014-11-18 2017-10-24 上海新跃仪表厂 基于多目视觉的相对位置和姿态的特征接力方法

Also Published As

Publication number Publication date
US20170004379A1 (en) 2017-01-05
DE112016002995T5 (de) 2018-03-15
WO2017002637A1 (en) 2017-01-05
CN107735797A (zh) 2018-02-23
JP2017528833A (ja) 2017-09-28
US9558424B2 (en) 2017-01-31
CN107735797B (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
JP6261811B2 (ja) 第1の座標系と第2の座標系との間の運動を求める方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN107990899B (zh) 一种基于slam的定位方法和系统
Hu et al. A sliding-window visual-IMU odometer based on tri-focal tensor geometry
US10395383B2 (en) Method, device and apparatus to estimate an ego-motion of a video apparatus in a SLAM type algorithm
Kneip et al. Robust real-time visual odometry with a single camera and an IMU
EP2116975B1 (en) Method and apparatus for vision based motion determination
US9959625B2 (en) Method for fast camera pose refinement for wide area motion imagery
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
CN109903330B (zh) 一种处理数据的方法和装置
CN109323709B (zh) 视觉里程计方法、装置和计算机可读存储介质
WO2022083038A1 (zh) 视觉定位方法及相关装置、设备和计算机可读存储介质
JP2007249592A (ja) 3次元物体認識システム
US20200319652A1 (en) Method and apparatus with ego motion information estimation
KR101942646B1 (ko) 영상 특징점 기반의 실시간 카메라 자세 추정 방법 및 그 장치
Caldato et al. ORB-ODOM: Stereo and odometer sensor fusion for simultaneous localization and mapping
CN113570716A (zh) 云端三维地图构建方法、系统及设备
US20180200614A1 (en) 6DoF Inside-Out Tracking Game Controller
Garro et al. Fast Metric Acquisition with Mobile Devices.
Hwang et al. Frame-to-frame visual odometry estimation network with error relaxation method
Lu et al. Taking me to the correct place: Vision-based localization for autonomous vehicles
Billy et al. Adaptive SLAM with synthetic stereo dataset generation for real-time dense 3D reconstruction
WO2019058487A1 (ja) 3次元復元画像処理装置、3次元復元画像処理方法及び3次元復元画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体
KR20230049969A (ko) 글로벌 측위 장치 및 방법
CN116823954B (zh) 铰接式车辆的位姿估计方法、装置、车辆及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170309

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6261811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250