JP2018128314A - 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法 - Google Patents

移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法 Download PDF

Info

Publication number
JP2018128314A
JP2018128314A JP2017020462A JP2017020462A JP2018128314A JP 2018128314 A JP2018128314 A JP 2018128314A JP 2017020462 A JP2017020462 A JP 2017020462A JP 2017020462 A JP2017020462 A JP 2017020462A JP 2018128314 A JP2018128314 A JP 2018128314A
Authority
JP
Japan
Prior art keywords
information
map information
feature point
environment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017020462A
Other languages
English (en)
Other versions
JP6882664B2 (ja
Inventor
藤田 卓志
Takushi Fujita
卓志 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017020462A priority Critical patent/JP6882664B2/ja
Priority to US15/888,147 priority patent/US10679072B2/en
Publication of JP2018128314A publication Critical patent/JP2018128314A/ja
Application granted granted Critical
Publication of JP6882664B2 publication Critical patent/JP6882664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】環境が変化しても短時間で移動体の位置を推定できる移動体位置推定システムの提供。
【解決手段】移動体位置推定端末装置及び情報格納装置を有する移動体位置推定システムであって、移動体位置推定端末装置が、移動体周辺の画像を取得する画像取得手段と、移動体の位置情報を含む撮影環境情報を取得する撮影環境情報取得手段と、画像の特徴点情報を取得する特徴点情報取得手段と、画像の特徴点情報及び撮影環境情報を対応付けた第一の地図情報のうち、撮影環境情報に対応する第二の地図情報を抽出して返送する要求を情報格納装置に送信し、第一の地図情報を情報格納装置に格納するために送信する制御を行う通信制御手段と、情報格納装置から返送された第二の地図情報に含まれる特徴点情報と、第一の地図情報に含まれる特徴点情報とを照合し、移動体の位置を推定する位置推定手段と、を有する移動体位置推定システムである。
【選択図】図10

Description

本発明は、移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法に関する。
近年では、自動運転車やロボット等の自律型移動体に関する開発が進められており、自律型移動体が目的地まで自律移動するために、地図情報に基づいて自律型移動体の位置を把握しながら移動する必要がある。このため、地図情報における自律型移動体の位置をリアルタイムで継続的に把握する目的で、様々な提案がされている。
例えば、車両に搭載した測距カメラを用いて車両の周辺の3次元画像を取得し、取得した3次元画像の特徴点と、既知の3次元画像の特徴点とを照合することにより、移動体の位置を推定する方法が提案されている(例えば、特許文献1及び2参照)。また、部屋の内部で使用される移動体において、移動体に搭載したカメラで天井方向を撮影した画像と、事前に照明等の異なる条件で天井方向を撮影した多数の画像とを比較して、移動体の位置を推定する方法が提案されている(例えば、特許文献3参照)。
特開2007−263657号公報 国際公開第2012/172870号パンフレット 特開2004−12429号公報
しかしながら、特許文献1及び特許文献2に記載の技術では、特徴点は天候などの条件により見え方が変化してしまい、新たに取得した3次元画像の特徴点と、既知の3次元画像の特徴点との照合が困難となり、位置推定ができなくなる場合があるという問題がある。また、特許文献3に記載の技術では、移動体に搭載したカメラで撮影した画像と、事前に異なる条件で撮影したすべての画像とを比較する必要があるため、演算処理時間がかかる場合があるという問題がある。
一つの側面では、環境が変化しても短時間で移動体の位置を推定できる移動体位置推定システムを提供することを目的とする。
一つの実施態様では、移動体位置推定システムは、移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の前記第二の環境地図情報とを照合して前記移動体の位置を推定する移動体位置推定端末装置と、前記移動体位置推定端末装置から送信された前記第一の環境地図情報を格納する情報格納装置と、を有する移動体位置推定システムであって、前記移動体位置推定端末装置が、前記移動体の周辺の前記画像を取得する画像取得手段と、前記画像取得手段が取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得手段と、前記画像取得手段と同期して、前記特徴点の周辺の前記撮影環境情報を取得する撮影環境情報取得手段と、前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の前記撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御手段と、前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定手段と、を有する。
一つの側面では、環境が変化しても短時間で移動体の位置を推定できる移動体位置推定システムを提供することができる。
図1は、本発明の一実施例に係る情報格納装置及び移動体位置推定端末装置を含む移動体位置推定システムの構成を示す説明図である。 図2は、カメラにより取得した画像の一例を示す説明図である。 図3は、図2の画像から抽出した特徴点群を示す説明図である。 図4は、図3に基づく環境地図の示す説明図である。 図5は、移動体位置推定端末装置の機能構成の一例を示す説明図である。 図6は、移動体位置推定端末装置のハードウェア構成の一例を示す説明図である。 図7は、情報格納装置の機能構成の一例を示す説明図である。 図8は、環境地図情報DBに格納される環境地図情報の一例を示す説明図である。 図9は、情報格納装置のハードウェア構成の一例を示す説明図である。 図10は、移動体位置推定端末装置が車両の位置を推定する流れの一例を示すフローチャートである。 図11は、情報格納装置が移動体位置推定端末装置と第一又は第二の環境地図情報を送受信する流れの一例を示すフローチャートである。
以下、本発明の一実施例を説明するが、本発明は、この実施例に何ら限定されるものではない。
なお、本発明の「移動体位置推定システム」は、「移動体位置推定端末装置」及び「情報格納装置」を有していることから、「移動体位置推定システム」全体について説明すると共に、「移動体位置推定端末装置」及び「情報格納装置」についても詳細に説明する。また、本発明の「移動体位置推定端末装置」における制御手段の各部が行う制御は、本発明の「移動体位置推定方法」を実施することと同義であるので、本発明の「移動体位置推定端末装置」の説明を通じて本発明の「移動体位置推定方法」の詳細についても明らかにする。
また、「移動体位置推定端末装置」は「車載装置」と称することもあり、「情報格納装置」は「サーバ装置」と称することもある。
(移動体位置推定システム)
図1は、本発明の一実施例に係る移動体位置推定端末装置100及び情報格納装置300を含む移動体位置推定システム10の構成を示す説明図である。なお、移動体位置推定端末装置100を実施すると移動体位置推定方法が実施される。
図1に示すように、移動体位置推定システム10は、移動体としての車両200に搭載されている移動体位置推定端末装置100のカメラにより車両200の周辺の画像を取得し、取得した画像の特徴点情報と、画像を取得したときの撮影環境情報とを対応付けた第一の環境地図情報を、ネットワーク400を介してデータベースとしての情報格納装置300に格納して蓄積する、いわゆる「コネクテッドカー」の形態になっている。移動体位置推定システム10は、情報格納装置300に蓄積した過去の第二の環境地図情報と、最新の第一の環境地図情報とに基づき、移動体位置推定端末装置100が車両200の位置を推定するシステムである。
従来から知られているSLAM(Simultaneous Localization and Mapping)という技術では、移動体の周辺を撮影した画像の特徴点などに基づいて環境地図を作成すると共に、作成した環境地図における自己位置を推定することが可能である。しかしながら、環境地図を最初に作成する際の天候が晴れで明るく、次に同じ場所に移動してきた際に天候が曇りで暗い場合、同一の位置において取得した画像の特徴点がそれぞれ異なってしまい、特徴点を照合できずに自己位置を推定することができない場合があるという問題がある。
これに対し、移動体位置推定システム10では、天候などの撮影環境が変化しても短時間で移動体の位置を推定できる。
具体的には、移動体位置推定システム10において、まず、移動体位置推定端末装置100は、車両200の周辺の画像を取得し、画像を取得したときの周辺の明るさや天候などの撮影環境情報と、取得した画像の特徴点情報とを対応付けた第一の環境地図情報を得る。
車両200の周辺の画像における特徴点情報は、特徴点の特徴量と、特徴点の3次元座標情報を含む位置情報と、を含む。
画像の特徴点は、図2に示すような、車両200の周辺を撮影した画像から、図3に示すような特徴点群を抽出することにより、図4に示すように抽出することができる。
次に、移動体位置推定端末装置100は、第一の環境地図情報の撮影環境情報に対応する第二の環境地図情報を返送する要求を情報格納装置300に送信し、情報格納装置300から返送された第二の環境地図情報に含まれる特徴点情報と、第一の環境地図情報に含まれる特徴点情報とを照合し、車両200の位置を推定する。
ここで、「第一の環境地図情報の撮影環境情報に対応する第二の環境地図情報」とは、第一の環境地図情報に係る画像を取得したときの撮影環境と同一又は類似する撮影環境で取得した画像に係る第二の環境地図情報を意味する。したがって、情報格納装置300は、第一の環境地図情報の撮影環境情報と完全に一致する撮影環境情報を含む第二の環境地図情報を抽出することが好ましいが、最も類似している第二の環境地図情報を抽出できればよく、所定の類似の範囲の第二の環境地図情報を抽出してもよい。
また、移動体位置推定端末装置100は、第一の環境地図情報を情報格納装置300に送信する。情報格納装置300は、受信した第一の環境地図情報をデータベースに格納して更新する。これにより、多様な撮影環境の環境地図情報を蓄積でき、かつ最新の環境地図情報に更新できるため、撮影環境が変化した場合であっても、第一及び第二の特徴点情報を照合しやすくなり、長期に安定した車両200の位置の推定ができる。
更に、情報格納装置300は、第一の環境地図情報の撮影環境情報に対応する第二の環境地図情報を返送する要求を移動体位置推定端末装置100から受信すると、第二の環境地図情報のデータベースから、第一の環境地図情報の撮影環境情報に基づいて抽出した第二の環境地図情報を移動体位置推定端末装置100に送信する。
このように、情報格納装置300が第二の環境地図情報のデータベースから第一の環境地図情報の撮影環境情報に基づいて第二の環境地図情報を抽出することにより、第二の環境地図情報のデータベースのすべての第二の環境地図情報を参照することなく、短時間で車両200の位置を推定でき、リアルタイム処理を実現しやすくなる。
なお、取得できる環境地図情報の量を多くして環境地図情報の更新頻度を高める観点から、移動体位置推定端末装置100を搭載する車両200を複数として多くすることが好ましい。また、情報格納装置300については複数であってもよい。
また、車両200としては、例えば、大型自動車、中型自動車、普通自動車、大型特殊自動車、小型特殊自動車、大型自動二輪車、普通自動二輪車などが挙げられ、自動運転システムにおける自動運転車が好ましい。
<移動体位置推定端末装置>
図5は、移動体位置推定端末装置100の機能構成の一例を示す説明図である。
図5に示すように、移動体位置推定端末装置100は、車両200の周辺の画像を取得し、画像を取得したときの第一の環境地図情報と、第一の環境地図情報より過去の第二の環境地図情報とを照合して車両200の位置を推定するものであり、移動体位置推定端末装置100は、画像取得手段101と、撮影環境情報取得手段102と、特徴点情報取得手段103と、通信制御手段104と、位置推定手段105と、通信手段106と、記憶手段107と、入力手段108と、出力手段109と、制御手段110と、を有する。
<<画像取得手段>>
画像取得手段101は、車両200に設置されたカメラにより車両200の周辺を撮影して画像を取得する(図10のS101)。
<<撮影環境情報取得手段>>
撮影環境情報取得手段102は、画像取得手段101と同期して、特徴点の周辺の撮影環境情報を取得する(図10のS102)。
<<特徴点情報取得手段>>
特徴点情報取得手段103は、画像取得手段101が取得した画像の特徴点に関する特徴点情報を取得する(図10のS103)。特徴点情報取得手段103は、画像取得手段101が取得した画像の特徴点に、車両200に対する相対位置座標を対応付ける。即ち、画像の特徴点情報には、特徴点の特徴量と、特徴点の位置情報としての、特徴点の車両200に対する相対位置座標(又は相対的方向)と、を含む。
特徴点の車両200に対する相対位置座標を取得する方法としては、例えば、測距カメラにより取得した距離情報に基づいて特徴点の位置情報を算出することができるが、これに限ることなく、他の方法でもよい。例えば、車両200の移動により生じる運動視差を用いたモーションステレオにより、車両200に対する特徴点の相対位置座標を求めることができる。
特徴点の特徴量を取得する方法としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、SURF(Speeded Up Robust Features)やRIFF(Rotation−Invariant Fast Feature)等の手法により得る方法などが挙げられる。
<<通信制御手段>>
通信制御手段104は、車両200の周辺における画像の特徴点情報と、特徴点の周辺の撮影環境情報とを対応付けて第一の環境地図情報として、第一の環境地図情報の撮影環境情報に対応する、第二の環境地図情報を抽出して返送する要求を情報格納装置300に送信し(図10のS106)、返送された第二の環境地図情報を情報格納装置300から受信する制御を行う。また、通信制御手段104は、第一の環境地図情報を情報格納装置300に格納するために送信する制御を行う(図10のS108)。
通信制御手段104が情報格納装置300に第二の環境地図情報を返送する要求をする頻度は、所定の時間間隔ごとに要求してもよく、所定の領域ごとに要求してもよい。
所定の領域ごとに要求する場合とは、例えば、車両200が駐車場の入口に移動してきたときに、駐車場全体の環境地図情報を返送する要求をするようにする。更に、駐車場にいる間に日が暮れてきたなどの撮影環境が変化した場合は、再度返送する要求をしてもよい。
<<位置推定手段>>
位置推定手段105は、情報格納装置300から受信した第二の環境地図情報に含まれる特徴点情報と、第一の環境地図情報に含まれる特徴点情報とを照合し、車両200の位置を推定する(図10のS107)。
具体的には、第二の環境地図情報に含まれる特徴点情報は、当該特徴点の位置情報として、例えば、緯度、経度、及び高度で定義される地球上での絶対位置座標を含む。一方、第一の環境地図情報に含まれる特徴点情報は、当該特徴点の位置情報として、特徴点の車両200に対する相対位置座標(又は相対的方向)の情報を含む。位置推定手段105は、第一の環境地図情報の特徴点情報と、第二の環境地図情報の特徴点情報との間で、特徴量が同一又は類似する特徴点同士を対応付け、対応付けられた特徴点の対について、第二の環境地図情報における当該特徴点の絶対位置座標に、第一の環境地図情報における特徴点の車両200に対する相対位置座標をあてはめて、車両200の絶対位置を推定する。このように推定された車両200の絶対位置座標に基づき、第一の環境地図情報に含まれる、車両200に対する相対位置座標を取得している全ての特徴点について、地球上での絶対位置座標を求めることができ、求めた特徴点の絶対位置座標を第二の環境地図情報のデータベースに格納する。
通信手段106は、通信制御手段104の指示に基づき、情報格納装置300にネットワーク400を介して各種情報や要求を送受信することができる。
記憶手段107は、制御手段110の指示に基づき、撮影環境情報と、画像の特徴点情報とを対応付けて環境地図情報として記憶する。
また、記憶手段107は、制御手段110の指示に基づき、移動体位置推定端末装置100にインストールされた各種プログラムや、プログラムを実行することにより生成されるデータ等を記憶する。
入力手段108は、制御手段110の指示に基づき、移動体位置推定端末装置100に対する各種指示を受け付ける。
出力手段109は、制御手段110の指示に基づき、移動体位置推定端末装置100の内部状態の表示を行う。
制御手段110は、記憶手段107に記憶された各種プログラムを実行し、移動体位置推定端末装置100全体を制御する。
なお、本実施例では、画像取得手段101、撮影環境情報取得手段102、特徴点情報取得手段103、通信制御手段104、及び位置推定手段105の各部と、制御手段110とを分離して説明したが、各部の機能の少なくともいずれかを制御手段110が有するようにしてもよい。
図6は、移動体位置推定端末装置100のハードウェア構成の一例を示す説明図である。
図6に示すように、移動体位置推定端末装置100は、カメラ101と、通信手段106と、記憶手段107と、入力手段108と、出力手段109と、制御手段110と、ROM(Read Only Memory)111と、RAM(Random Access Memory)112と、を有する。なお、移動体位置推定端末装置100の各手段は、バス113を介してそれぞれ通信可能に接続されている。
カメラ101は、車両200の周辺を撮影して画像を取得できれば特に制限はなく、例えば、ステレオカメラ、測距可能な単眼カメラなどの測距カメラが挙げられ、市販品を使用してもよい。カメラ101は、必ずしも測距機能を持つ必要は無く、通常のカメラであってよい。通常のカメラの場合、カメラ101を搭載した車両200が移動する際の移動量が既知であれば、同一のカメラで異なる時刻に撮影された複数の画像の間に運動視差が生じることを利用したモーションステレオの原理により、カメラ101から静止物体までの距離を求めることができる。
通信手段106は、図7に示した情報格納装置300の通信手段301と通信可能に接続されていれば特に制限はなく、適宜公知のものを用いることができ、例えば、テレマティクスを利用するための送受信機などが挙げられる。
記憶手段107は、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどのほか、CD(Compact Disc)ドライブ、DVD(Digital Versatile Disc)ドライブ、BD(Blu−ray(登録商標) Disc)ドライブなどの可搬記憶装置であってもよく、ネットワーク上のコンピュータ群であるクラウドの一部であってもよい。
入力手段108は、移動体位置推定端末装置100に対する各種要求を受け付けることができれば特に制限はなく、適宜公知のものを用いることができ、例えば、キーボード、マウス、タッチパネル、マイクなどが挙げられる。
出力手段109は、特に制限はなく、適宜公知のものを用いることができ、例えば、ディスプレイ、スピーカーなどが挙げられる。
制御手段110は、例えば、CPU(Central Processing Unit)などが挙げられる。ソフトウェアを実行するプロセッサはハードウェアである。
ROM111は、記憶手段140に記憶された各種プログラムを制御手段170が実行するために必要な各種プログラム、データ等を記憶する。具体的には、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラムなどを記憶する。
RAM112は、主記憶装置であり、記憶手段107に記憶された各種プログラムが制御手段110によって実行される際に展開される作業領域として機能する。RAM112としては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などが挙げられる。
<情報格納装置>
図7は、情報格納装置300の機能構成の一例を示す説明図である。
情報格納装置300は、移動体位置推定端末装置100が取得した第一の環境地図情報を格納する。
図7に示すように、情報格納装置300は、通信手段301と、格納手段302と、記憶手段303と、入力手段304と、出力手段305と、制御手段306と、を有する。
<<通信手段>>
通信手段301は、制御手段306の指示に基づき、第一の環境地図情報の撮影環境情報に対応する第二の環境地図情報を抽出して返送する要求を移動体位置推定端末装置100から受信し(図11のS201)、要求された第二の環境地図情報を移動体位置推定端末装置100に返送する(図11のS202)。また、通信手段301は、移動体位置推定端末装置100から第一の環境地図情報を受信する(図11のS203)。
<<格納手段>>
格納手段302は、移動体位置推定端末装置100から受信した第一の環境地図情報を、記憶手段303の環境地図情報データベース303aに格納する(図11のS204)。なお、データベースは「DB」と称することもある。
また、格納手段302が第一の環境地図情報を格納する前に、第一の環境地図情報に含まれる特徴点情報の信頼度を算出し、信頼度が高い特徴点情報のみを格納することが好ましい。特徴点情報には、誤差や誤りが含まれる可能性があるためである。
特徴点情報の信頼度を算出する方法としては、例えば、推定された誤差値に基づき信頼度を算出する方法、複数の移動体位置推定端末装置100から受信した特徴点情報を統計処理することにより信頼度を算出する方法などが挙げられる。特徴点情報の信頼度の算出は、情報格納装置300側で行ってもよく、移動体位置推定端末装置100側で行ってもよい。
記憶手段303は、環境地図情報DB303aを有し、制御手段306の指示に基づき、移動体位置推定端末装置100にインストールされた各種プログラムや、プログラムを実行することにより生成されるデータ等を記憶する。
図8は、環境地図情報DB303aに格納される環境地図情報の一例を示す説明図である。
図8に示すように、環境地図情報DB303aには、本実施例では、環境地図情報は、特徴点情報及び撮影環境情報を含み、特徴点情報として「特徴点の位置情報、特徴量」の項目の情報と、撮影環境情報として「撮影日時、撮影位置情報、撮影対象物の明るさの情報、天候情報」の項目の情報とを対応付けて格納する。
「特徴点の位置情報」は、本実施例では、緯度、経度、及び高度で定義される地球上での絶対位置座標の情報である。
「特徴量」は、例えば、SURFやRIFFなどの手法により得られた特徴量の情報である。
「撮影日時」は、カメラ101で車両200の周辺を撮影して画像を取得した日時の情報である。
「撮影位置情報」は、本実施例では、当該特徴点情報を取得した画像を撮影した時点でのカメラ101の位置であり、例えば、緯度、経度、及び高度の値で定義される。の位置情報と車両200の位置情報とに基づき算出された相対位置座標であり、特徴点と車両200との3次元座標における位置関係を示す。
「撮影対象物の明るさの情報」は、本実施例では、取得した画像の輝度に基づき、0から100までの数値として算出される情報である。
「天候情報」は、本実施例では、外部の天気情報から入手される情報であり、画像取得時の特徴点の周辺の天候の情報である。外部の天気情報に基づき、「晴れ」、「曇り」、「雨」、及び「雪」の項目のいずれかが選択される。
なお、本実施例では、撮影環境情報として「撮影日時、撮影位置情報、撮影対象物の明るさの情報、天候情報」の項目の情報としたが、これに限ることなく、例えば、画像全体の輝度平均値、画像全体の輝度のヒストグラム、画像全体の色のヒストグラムなどが挙げられる。
入力手段304は、制御手段306の指示に基づき、ユーザからの各種要求を受け付ける。
出力手段305は、制御手段306の指示に基づき、ユーザが必要とする画像、音声などを出力する。
制御手段306は、第一の環境地図情報の撮影環境情報に対応する第二の環境地図情報を抽出する。即ち、制御手段306は、第一の環境地図情報に係る画像を取得したときの撮影環境と同一又は類似する撮影環境で取得した画像に係る第二の環境地図情報を抽出する。
第一の環境地図情報の撮影環境情報と、第二の環境地図情報の撮影環境情報が同一又は類似か否かを判定する方法としては、例えば、撮影環境情報に含まれる各情報に基づき、類似度を算出して所定の値以上の撮影環境情報であれば類似すると判定する方法などが挙げられる。
また、制御手段306は、記憶手段303に記憶された各種プログラムを実行し、移動体位置推定端末装置100全体を制御する。
なお、本実施例では、格納手段302と、制御手段306とを分離して説明したが、格納手段302の機能を制御手段110が有するようにしてもよい。
図9は、情報格納装置300のハードウェア構成の一例を示す説明図である。
図9に示すように、情報格納装置300は、通信手段301と、記憶手段303と、入力手段304と、出力手段305と、制御手段306と、ROM307と、RAM308と、を有する。なお、情報格納装置300の各手段は、バス309を介してそれぞれ通信可能に接続されている。
通信手段301は、図5に示した移動体位置推定端末装置100の通信手段106と通信可能に接続されていれば特に制限はなく、適宜公知のものを用いることができ、例えば、テレマティクスを利用するための送受信機などが挙げられる。
記憶手段303は、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどのほか、CDドライブ、DVDドライブ、BDドライブなどの可搬記憶装置であってもよく、ネットワーク上のコンピュータ群であるクラウドの一部であってもよい。
入力手段304は、ユーザからの各種要求を受け付けることができれば特に制限はなく、適宜公知のものを用いることができ、例えば、タッチパネル、マイクなどが挙げられる。
出力手段305は、特に制限はなく、適宜公知のものを用いることができ、例えば、ディスプレイ、スピーカーなどが挙げられる。
制御手段306は、例えば、CPUなどが挙げられる。
ROM307は、記憶手段303に記憶された各種プログラムを制御手段306が実行するために必要な各種プログラム、データ等を記憶する。具体的には、BIOSやEFI等のブートプログラムなどを記憶する。
RAM308は、主記憶装置であり、記憶手段303に記憶された各種プログラムが制御手段306によって実行される際に展開される作業領域として機能する。RAM308としては、例えば、DRAM、SRAMなどが挙げられる。
次に、本実施例において、移動体位置推定システム10が行う各処理のフローについて説明する。
図10は、移動体位置推定端末装置100が車両200の位置を推定する流れを示すフローチャートである。
以下、図10に示すフローチャートにしたがって図1及び図5を参照しながら、移動体位置推定端末装置100が車両200の位置を推定する流れについて説明する。
ステップS101では、画像取得手段101は、カメラにより車両200の周辺を撮影して画像を取得すると処理をS102に移行させる。
ステップS102では、撮影環境情報取得手段102は、画像取得手段101と同期して、車両200に周辺の撮影環境情報を取得すると処理をS103に移行させる。
なお、位置情報以外の撮影環境情報は、画像取得手段101が取得した車両200の周辺の画像に基づいて算出してもよく、外部からの情報に基づいてもよい。
また、車両200に周辺の撮影環境情報とは、車両200の周辺を撮影した画像における特徴点の周辺の撮影環境情報を意味する。
ステップS103では、特徴点情報取得手段103は、画像取得手段101が取得した画像における特徴点情報を取得すると処理をS104に移行させる。
ステップS104では、記憶手段107は、制御手段110に指示に基づき、特徴点の周辺の撮影環境情報と、画像の特徴点情報とを対応付けて環境地図情報として記憶する。
ステップS105では、制御手段110は、第一の環境地図情報の撮影環境情報に対応する、第二の環境地図情報を情報格納装置300から受信したか否かを判定する。制御手段110は、第二の環境地図情報を情報格納装置300から受信したと判定すると処理をS107に移行させ、情報格納装置300から取得していないと判定すると処理をS106に移行させる。
ステップS106では、通信制御手段104は、S102で取得した撮影環境情報に対応する、第二の環境地図情報を抽出して返送する要求を情報格納装置300に送信し、返送された第二の環境地図情報を情報格納装置300から受信する制御を行うと処理をS107に移行させる。
ステップS107では、位置推定手段105は、情報格納装置300から受信した第二の環境地図情報に含まれる特徴点情報と、S103で取得した第一の環境地図情報に含まれる特徴点情報とを照合し、車両200の位置を推定すると処理をS108に移行させる。
ステップS108では、通信制御手段104は、第一の環境地図情報を情報格納装置300に格納するために送信する制御を行うと処理をS109に移行させる。
ステップS109では、制御手段110は、処理を継続するか否か判定する。制御手段110は、処理を継続すると判定すると処理をS101に戻し、処理を継続しないと判定すると本処理を終了させる。
図11は、情報格納装置300が移動体位置推定端末装置100と第一又は第二の環境地図情報を送受信する流れの一例を示すフローチャートである。
以下、図11に示すフローチャートにしたがって図1、図5、及び図7を参照しながら、情報格納装置300が移動体位置推定端末装置100と第一又は第二の環境地図情報を送受信する流れについて説明する。
ステップS201では、制御手段306は、通信手段301が、移動体位置推定端末装置100の通信制御手段104から、第一の環境地図情報の撮影環境情報に対応する、第二の環境地図情報を返送する要求を受信したか否かと判定する。制御手段306は、通信手段301が第二の環境地図情報を返送する要求を受信したと判定すると処理をS202に移行させ、要求がないと判定すると処理をS203に移行させる。
ステップS202では、制御手段306は、通信手段301に指示し、移動体位置推定端末装置100から要求された第二の環境地図情報を返送すると処理をS203に移行させる。
ステップS203では、制御手段306は、通信手段301が移動体位置推定端末装置100から第一の環境地図情報を受信したか否かを判定する。制御手段306は、通信手段301が第一の環境地図情報を受信したと判定すると処理をS204に移行させ、受信していないと判定すると処理をS205に移行させる。
ステップS204では、格納手段302は、移動体位置推定端末装置100から受信した第一の環境地図情報を、記憶手段303の環境地図情報DB303aに格納すると処理をS205に移行させる。
ステップS205では、制御手段306は、処理を継続するか否か判定する。制御手段306は、処理を継続すると判定すると処理をS201に戻し、処理を継続しないと判定すると本処理を終了させる。
なお、本実施例では、移動体として車両200としたが、これに限ることなく、例えば、ロボット、ドローンなどとしてもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定する移動体位置推定端末装置と、
前記移動体位置推定端末装置から送信された前記第一の環境地図情報を格納する情報格納装置と、
を有する移動体位置推定システムであって、
前記移動体位置推定端末装置が、
前記移動体の周辺の前記画像を取得する画像取得手段と、
前記画像取得手段が取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得手段と、
前記画像取得手段と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得手段と、
前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の前記撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御手段と、
前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定手段と、
を有することを特徴とする移動体位置推定システム。
(付記2)
前記撮影環境情報が、撮影日時、撮影対象物の明るさの情報、及び天候情報の少なくともいずれかが含まれる付記1に記載の移動体位置推定システム。
(付記3)
前記撮影対象物の明るさの情報が、取得した前記画像の輝度に基づいて算出される付記2に記載の移動体位置推定システム。
(付記4)
前記天候情報が、外部の天気情報から入手される付記2から3のいずれかに記載の移動体位置推定システム。
(付記5)
前記特徴点情報取得手段が、前記画像取得手段が取得した前記画像の前記特徴点に、前記移動体に対する相対位置座標を対応付け、
前記位置推定手段が、前記第一の環境地図情報の前記特徴点情報と、既に前記特徴点の絶対位置座標が定められた前記第二の環境地図情報の前記特徴点情報との間で、同一又は類似する前記特徴点同士を対応付け、対応付けた前記特徴点の対について、前記第二の環境地図情報における前記特徴点の前記絶対位置座標に、前記第一の環境地図情報における前記特徴点の前記移動体に対する前記相対位置座標をあてはめて、前記移動体の位置を推定する付記1から4のいずれかに記載の移動体位置推定システム。
(付記6)
移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定すると共に、前記第一の環境地図情報を情報格納装置に送信して格納させる移動体位置推定端末装置であって、
前記移動体の周辺の前記画像を取得する画像取得手段と、
前記画像取得手段が取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得手段と、
前記画像取得手段と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得手段と、
前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の前記撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御手段と、
前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定手段と、
を有することを特徴とする移動体位置推定端末装置。
(付記7)
移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定する移動体位置推定端末装置から前記第一の環境地図情報を受信し、前記第一の環境地図情報を格納する情報格納装置であって、
前記移動体の周辺における前記画像の特徴点に関する特徴点情報と、前記特徴点の周辺の撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記移動体位置推定端末装置から受信し、要求された前記第二の環境地図情報を前記移動体位置推定端末装置に送信すると共に、前記移動体位置推定端末装置が受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記第一の環境地図情報を受信する通信手段と、
受信した前記第一の環境地図情報を格納する格納手段と、
を有することを特徴とする情報格納装置。
(付記8)
移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定すると共に、前記第一の環境地図情報を情報格納装置に格納する移動体位置推定方法であって、
前記移動体の周辺の前記画像を取得する画像取得工程と、
前記画像取得工程で取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得工程と、
前記画像取得工程と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得工程と、
前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御工程と、
前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定工程と、
を含むことを特徴とする移動体位置推定方法。
10 移動体位置推定システム
100 移動体位置推定端末装置(車載装置)
101 画像取得手段(カメラ)
102 撮影環境情報取得手段
103 特徴点情報取得手段
104 通信制御手段
105 位置推定手段
200 車両(移動体)
300 情報格納装置(サーバ装置)
301 通信手段
302 格納手段

Claims (8)

  1. 移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定する移動体位置推定端末装置と、
    前記移動体位置推定端末装置から送信された前記第一の環境地図情報を格納する情報格納装置と、
    を有する移動体位置推定システムであって、
    前記移動体位置推定端末装置が、
    前記移動体の周辺の前記画像を取得する画像取得手段と、
    前記画像取得手段が取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得手段と、
    前記画像取得手段と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得手段と、
    前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の前記撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御手段と、
    前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定手段と、
    を有することを特徴とする移動体位置推定システム。
  2. 前記撮影環境情報が、撮影日時、撮影対象物の明るさの情報、及び天候情報の少なくともいずれかが含まれる請求項1に記載の移動体位置推定システム。
  3. 前記撮影対象物の明るさの情報が、取得した前記画像の輝度に基づいて算出される請求項2に記載の移動体位置推定システム。
  4. 前記天候情報が、外部の天気情報から入手される請求項2から3のいずれかに記載の移動体位置推定システム。
  5. 前記特徴点情報取得手段が、前記画像取得手段が取得した前記画像の前記特徴点に、前記移動体に対する相対位置座標を対応付け、
    前記位置推定手段が、前記第一の環境地図情報の前記特徴点情報と、既に前記特徴点の絶対位置座標が定められた前記第二の環境地図情報の前記特徴点情報との間で、同一又は類似する前記特徴点同士を対応付け、対応付けた前記特徴点の対について、前記第二の環境地図情報における前記特徴点の前記絶対位置座標に、前記第一の環境地図情報における前記特徴点の前記移動体に対する前記相対位置座標をあてはめて、前記移動体の位置を推定する請求項1から4のいずれかに記載の移動体位置推定システム。
  6. 移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定すると共に、前記第一の環境地図情報を情報格納装置に送信して格納させる移動体位置推定端末装置であって、
    前記移動体の周辺の前記画像を取得する画像取得手段と、
    前記画像取得手段が取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得手段と、
    前記画像取得手段と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得手段と、
    前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の前記撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御手段と、
    前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定手段と、
    を有することを特徴とする移動体位置推定端末装置。
  7. 移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定する移動体位置推定端末装置から前記第一の環境地図情報を受信し、前記第一の環境地図情報を格納する情報格納装置であって、
    前記移動体の周辺における前記画像の特徴点に関する特徴点情報と、前記特徴点の周辺の撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記移動体位置推定端末装置から受信し、要求された前記第二の環境地図情報を前記移動体位置推定端末装置に送信すると共に、前記移動体位置推定端末装置が受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記第一の環境地図情報を受信する通信手段と、
    受信した前記第一の環境地図情報を格納する格納手段と、
    を有することを特徴とする情報格納装置。
  8. 移動体の周辺の画像を取得し、前記画像を取得したときの第一の環境地図情報と、前記第一の環境地図情報より過去の第二の環境地図情報とを照合して前記移動体の位置を推定すると共に、前記第一の環境地図情報を情報格納装置に格納する移動体位置推定方法であって、
    前記移動体の周辺の前記画像を取得する画像取得工程と、
    前記画像取得工程で取得した前記画像の特徴点に関する特徴点情報を取得する特徴点情報取得工程と、
    前記画像取得工程と同期して、前記特徴点の周辺の撮影環境情報を取得する撮影環境情報取得工程と、
    前記移動体の周辺における前記画像の前記特徴点情報と、前記特徴点の周辺の撮影環境情報とを対応付けて前記第一の環境地図情報として、前記第一の環境地図情報の前記撮影環境情報に対応する、前記第二の環境地図情報を抽出して返送する要求を前記情報格納装置に送信し、返送された前記第二の環境地図情報を受信する制御を行うと共に、前記第一の環境地図情報を前記情報格納装置に格納するために送信する制御を行う通信制御工程と、
    前記情報格納装置から受信した前記第二の環境地図情報に含まれる前記特徴点情報と、前記第一の環境地図情報に含まれる前記特徴点情報とを照合し、前記移動体の位置を推定する位置推定工程と、
    を含むことを特徴とする移動体位置推定方法。

JP2017020462A 2017-02-07 2017-02-07 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法 Active JP6882664B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017020462A JP6882664B2 (ja) 2017-02-07 2017-02-07 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法
US15/888,147 US10679072B2 (en) 2017-02-07 2018-02-05 Moving-object position estimating system, information processing apparatus and moving-object position estimating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017020462A JP6882664B2 (ja) 2017-02-07 2017-02-07 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法

Publications (2)

Publication Number Publication Date
JP2018128314A true JP2018128314A (ja) 2018-08-16
JP6882664B2 JP6882664B2 (ja) 2021-06-02

Family

ID=63037242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017020462A Active JP6882664B2 (ja) 2017-02-07 2017-02-07 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法

Country Status (2)

Country Link
US (1) US10679072B2 (ja)
JP (1) JP6882664B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061048A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020144624A (ja) * 2019-03-06 2020-09-10 謙太 中村 自動運転車両の停車位置通知システム、及び車両停止範囲登録方法
WO2020183659A1 (ja) * 2019-03-13 2020-09-17 学校法人 千葉工業大学 情報処理装置および移動ロボット
WO2020255408A1 (ja) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント 撮影データ生成装置、撮影データ生成方法及びプログラム
EP3798982A1 (en) 2019-09-27 2021-03-31 Fujitsu Limited Adjustment value calculation method
WO2023037570A1 (ja) * 2021-09-09 2023-03-16 日立Astemo株式会社 車載処理装置、車両制御装置、及び自己位置推定方法
WO2023100230A1 (ja) * 2021-11-30 2023-06-08 日産自動車株式会社 駐車支援方法及び駐車支援装置
WO2023238344A1 (ja) * 2022-06-09 2023-12-14 日産自動車株式会社 駐車支援方法及び駐車支援装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6932058B2 (ja) * 2017-10-11 2021-09-08 日立Astemo株式会社 移動体の位置推定装置及び位置推定方法
JP7127303B2 (ja) * 2018-03-09 2022-08-30 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
WO2020008754A1 (ja) * 2018-07-06 2020-01-09 ソニー株式会社 情報処理装置、最適時間推定方法、自己位置推定方法及びプログラムを記録した記録媒体
JP7115325B2 (ja) 2019-01-09 2022-08-09 トヨタ自動車株式会社 サーバ、車載装置、車両、プログラム、及び情報提供方法
WO2020230325A1 (ja) * 2019-05-16 2020-11-19 三菱電機株式会社 情報処理装置、情報処理方法、及び、情報処理プログラム
CN112116654A (zh) * 2019-06-20 2020-12-22 杭州海康威视数字技术股份有限公司 一种车辆位姿确定方法、装置及电子设备
KR20190121275A (ko) * 2019-10-07 2019-10-25 엘지전자 주식회사 실내 측위 시스템, 장치 및 방법
US20230326048A1 (en) * 2022-03-24 2023-10-12 Honda Motor Co., Ltd. System, information processing apparatus, vehicle, and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508163A (ja) * 2012-02-10 2015-03-16 アイシス イノベーション リミテッド センサの位置を推定する方法及び関連装置
JP2015152991A (ja) * 2014-02-12 2015-08-24 株式会社デンソーアイティーラボラトリ 自己位置推定装置及び自己位置推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004012429A (ja) 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd 自己位置/姿勢同定装置、及び自己位置/姿勢同定方法
JP2007263657A (ja) 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP5472538B2 (ja) 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
CN107466220A (zh) * 2015-04-10 2017-12-12 亚科布奇Hf航空股份公司 加热装置
JP6897668B2 (ja) * 2016-03-30 2021-07-07 ソニーグループ株式会社 情報処理方法および情報処理装置
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508163A (ja) * 2012-02-10 2015-03-16 アイシス イノベーション リミテッド センサの位置を推定する方法及び関連装置
JP2015152991A (ja) * 2014-02-12 2015-08-24 株式会社デンソーアイティーラボラトリ 自己位置推定装置及び自己位置推定方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061048A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020144624A (ja) * 2019-03-06 2020-09-10 謙太 中村 自動運転車両の停車位置通知システム、及び車両停止範囲登録方法
JP6993366B2 (ja) 2019-03-06 2022-01-13 謙太 中村 自動運転車両の停車位置通知システム、及び車両停止範囲登録方法
JPWO2020183659A1 (ja) * 2019-03-13 2021-11-25 学校法人千葉工業大学 情報処理装置および移動ロボット
WO2020183659A1 (ja) * 2019-03-13 2020-09-17 学校法人 千葉工業大学 情報処理装置および移動ロボット
JP7133251B2 (ja) 2019-03-13 2022-09-08 学校法人千葉工業大学 情報処理装置および移動ロボット
WO2020255408A1 (ja) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント 撮影データ生成装置、撮影データ生成方法及びプログラム
JPWO2020255408A1 (ja) * 2019-06-21 2020-12-24
JP7195430B2 (ja) 2019-06-21 2022-12-23 株式会社ソニー・インタラクティブエンタテインメント 撮影データ生成装置、撮影データ生成方法及びプログラム
EP3798982A1 (en) 2019-09-27 2021-03-31 Fujitsu Limited Adjustment value calculation method
US11467001B2 (en) 2019-09-27 2022-10-11 Fujitsu Limited Adjustment value calculation method
WO2023037570A1 (ja) * 2021-09-09 2023-03-16 日立Astemo株式会社 車載処理装置、車両制御装置、及び自己位置推定方法
WO2023100230A1 (ja) * 2021-11-30 2023-06-08 日産自動車株式会社 駐車支援方法及び駐車支援装置
WO2023238344A1 (ja) * 2022-06-09 2023-12-14 日産自動車株式会社 駐車支援方法及び駐車支援装置

Also Published As

Publication number Publication date
JP6882664B2 (ja) 2021-06-02
US10679072B2 (en) 2020-06-09
US20180225524A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6882664B2 (ja) 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法
CN107990899B (zh) 一种基于slam的定位方法和系统
US10949712B2 (en) Information processing method and information processing device
CN111325796B (zh) 用于确定视觉设备的位姿的方法和装置
US10740964B2 (en) Three-dimensional environment modeling based on a multi-camera convolver system
US8903644B2 (en) Digest for localization or fingerprinted overlay
WO2018104563A3 (en) Method and system for video-based positioning and mapping
JP2017520063A5 (ja)
US20160238394A1 (en) Device for Estimating Position of Moving Body and Method for Estimating Position of Moving Body
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
US20190213790A1 (en) Method and System for Semantic Labeling of Point Clouds
WO2018193254A1 (en) Distributed device mapping
US20220230350A1 (en) Position recognition method and system based on visual information processing
US20210041259A1 (en) Methods and Systems for Determining Geographic Orientation Based on Imagery
CN113587928B (zh) 导航方法、装置、电子设备、存储介质及计算机程序产品
US11656365B2 (en) Geolocation with aerial and satellite photography
US11561553B1 (en) System and method of providing a multi-modal localization for an object
KR102490520B1 (ko) Gps정보 및 라이다 신호를 기초로 형성되는 컬러 맵 생성 장치 및 그 제어방법
KR102299902B1 (ko) 증강현실을 제공하기 위한 장치 및 이를 위한 방법
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
KR20210051002A (ko) 포즈 추정 방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
JP2021184115A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7444292B2 (ja) 検出システム、検出方法、及びプログラム
US20240133704A1 (en) Methods and Systems for Determining Geographic Orientation Based on Imagery
US11250275B2 (en) Information processing system, program, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6882664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150