JP6790417B2 - 情報処理装置及び情報処理サーバ - Google Patents
情報処理装置及び情報処理サーバ Download PDFInfo
- Publication number
- JP6790417B2 JP6790417B2 JP2016070596A JP2016070596A JP6790417B2 JP 6790417 B2 JP6790417 B2 JP 6790417B2 JP 2016070596 A JP2016070596 A JP 2016070596A JP 2016070596 A JP2016070596 A JP 2016070596A JP 6790417 B2 JP6790417 B2 JP 6790417B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- map
- unit
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Description
1.本開示に係る背景
1.1.ニューラルネットワークとは
1.2.ニューラルネットワークを利用した運転制御
1.3.自動運転制御に係るリファレンス地図
2.実施形態
2.1.リファレンス地図更新の概要
2.2.本実施形態に係るシステム構成例
2.3.本実施形態に係る情報処理サーバ10
2.4.本実施形態に係る情報処理装置20
2.5.情報処理装置20による整合性判定の流れ
2.6.整合性判定の詳細
2.7.新部分地図の生成に係る流れ
2.8.不整合予測に基づくコマンドの送信
2.9.不整合予測に基づく運転制御
2.10.三次元地図生成の詳細
2.11.物体表面生成地図及びテクスチャ投影地図
2.12.本実施形態に係る物体属性付加地図
3.ハードウェア構成例
4.まとめ
[1.1.ニューラルネットワークとは]
ニューラルネットワークとは、人間の脳神経回路を模したモデルであり、人間が持つ学習能力をコンピュータ上で実現しようとする技法である。上述したとおり、ニューラルネットワークは学習能力を有することを特徴の一つとする。ニューラルネットワークでは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によりシナプスの結合強度を変化させることで、問題に対する解決能力を獲得することが可能である。すなわち、ニューラルネットワークは、学習を重ねることで、問題に対する解決ルールを自動的に推論することができる。
ここで、ニューラルネットワークを利用した自律制御について、例を挙げて説明する。近年、ユーザ操作に依らず自律的に動作する種々の装置が開発されている。上記のような装置には、例えば、運転者による制御を要しない自動運転車がある。自動運転車は、各種のセンサにより取得した情報から周囲の環境を認識し、認識した環境に応じて、自律走行を実現する。
以上説明したように、自動運転AIを搭載する自動運転車は、搭載されるカメラ等のセンサから取得した観測情報に基づいて周囲環境を認識し、自律運転を行うことができる。また、上記のような自動運転制御では、周囲環境のリファレンスとなる三次元地図(以下、リファレンス地図、とも呼ぶ)を用いることで、より精度の高い運転制御を実現することが可能となる。すなわち、自動運転車は、リファレンス地図を参照し、観測情報とのマッチングを図ることで、周囲環境の認識や自己位置同定の精度を向上させることができる。ここで、上記のリファレンス地図は、例えば、画像情報を含む複数の観測情報から生成された三次元地図であってよい。
[2.1.リファレンス地図更新の概要]
まず、本実施形態に係るリファレンス地図の更新について概要を説明する。本実施形態に係るリファレンス地図の更新では、自動運転車などに搭載される情報処理装置20が、リファレンス地図と実世界との不整合を検出し、不整合を検出した単位空間において観測した観測情報を情報処理サーバに送信することができる。また、本実施形態に係る情報処理サーバは、情報処理装置20から送信された不整合に係る情報に基づいて、不整合が検出された単位空間に係る観測情報を要求するコマンド発行し複数の情報処理装置20に送信することができる。
次に、本実施形態に係るシステム構成例について説明する。図4を参照すると、本実施形態に係るシステムは、情報処理サーバ10、複数の情報処理装置20a及び20b、及び複数の移動体30a及び30bを備える。また、情報処理サーバ10と情報処理装置20a及び20bとは、ネットワーク40を介して、互いに通信が行えるように接続される。
次に、本実施形態に係る情報処理サーバ10について詳細に説明する。本実施形態に係る情報処理サーバ10は、情報処理装置20から受信した実世界の単位空間において取得された観測情報に基づいてリファレンス地図を更新する機能を有する。また、情報処理サーバ10は、複数の情報処理装置20に、上記の観測情報を要求する機能を有する。図5は、本実施形態に係る情報処理サーバ10及び情報処理装置20の機能ブロック図である。図5を参照すると、本実施形態に係る情報処理サーバ10は、地図生成部110及び装置通信部120を備える。
地図生成部110は、リファレンス地図の生成に係る機能を有する。上記のリファレンス地図は、例えば、三次元地図であってよい。地図生成部110は、特に、本実施形態においては、後述する装置通信部120が受信した観測情報に基づいてリファレンス地図を生成する機能を有してよい。具体的には、地図生成部110は、観測情報に基づいて新たな三次元地図を生成し上記のリファレンス地図を更新してよい。また、地図生成部110は、観測情報に基づいて物体認識を行い、認識した物体の属性情報を上記の三次元地図に付加することができる。
装置通信部120は、一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する機能を有する。また、装置通信部120は、地図生成部110が生成した上記のコマンドを少なくとも1つの情報処理装置20に送信する機能を有する。
次に、本実施形態に係る情報処理装置20について詳細に説明する。本実施形態に係る情報処理装置20は、移動体30が観測した観測情報を取得する機能を有する。また、情報処理装置20は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、取得した観測情報を情報処理サーバ10に送信する機能を有する。図5を参照すると、本実施形態に係る情報処理装置20は、判定部210、移動設定部220、観測情報取得部230、及びサーバ通信部240を備える。
判定部210は、実世界の単位空間において取得した観測情報に基づいてリファレンス地図と実世界との整合性を判定する機能を有する。具体的には、判定部210は、単位空間において取得した観測情報から検出した特徴点と、リファレンス地図に記述された特徴点とをマッチングし、上記の整合性を判定してよい。この際、判定部210は、リファレンス地図とのマッチングを確認した単位空間の一部領域における観測情報から検出した特徴点とリファレンス地図に記述された特徴点との距離に基づいて、上記の整合性を判定することができる。なお、判定部210による不整合判定の詳細については後述する。
移動設定部220は、移動体30の目的地を設定する機能を有する。ここで、本実施形態に係る移動設定部220は、情報処理装置20の様態に応じた機能を有してよい。例えば、情報処理装置20が自動運転AIである場合、移動設定部220は、情報処理サーバ10から発行されるコマンドに含まれる単位空間の座標情報に基づいて、当該単位空間に移動体30を移動させることができる。
観測情報取得部230は、一または複数のセンサから実世界の単位空間に係る観測情報を取得する機能を有する。ここで、上記の観測情報には、深度情報が含まれてよい。上記の深度情報は、例えば、移動体30が備えるRGB−Dカメラやレーザーレンジファインダーから得られる情報であってよい。
サーバ通信部240は、観測情報取得部230が取得した観測情報を情報処理サーバ10に送信する機能を有する。また、サーバ通信部240は、情報処理装置20から発行されるコマンドを受信する機能を有する。
次に、本実施形態に係る整合性判定の流れについて詳細に説明する。上述したとおり、本実施形態に係る情報処理装置20は、実世界の単位空間において取得した観測情報に基づいて、リファレンス地図と実世界との整合性を判定することができる。
以上、本実施形態に係る整合性判定の流れについて説明した。続いて、本実施形態に係る整合性判定の詳細について詳細に説明する。図7は、本実施形態の整合性判定に係る入出力の概念図である。図7を参照すると、判定部210は、入力される観測情報に基づいて、リファレンス地図と実世界との整合性判定結果を出力することができる。なお、図7においては、判定部210が有する各機能を機能B1〜B7として示している。
図7を参照すると、判定部210は、入力情報から動物体を除去する機能を有する(機能B1)。この際、入力される情報は、RGBD画像やレーザーレンジファインダー情報であってよい。また、上記の動物体は、自律的に移動する歩行者や車などの物体であってよい。判定部210が入力情報から動物体を除去することで、整合性判定に使用する地形情報のみを抽出することができる。
また、判定部210は、機能B1から出力される動物体を除去したRGBD画像などに基づいて特徴点を検出し記述する機能を有する(機能B2)。この際、判定部210は、例えば、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)などを用いて特徴点の検出を行ってもよい。また、例えば、判定部210は、Harrisのコーナー検出法などを用いることもできる。
また、判定部210は、機能B2から出力される複数のRGBD画像に係る特徴点の記述に基づいて、各特徴点のマッチングを行う機能を有する(機能B3)。この際、判定部210は、複数のRGBD画像間で対応関係にある特徴点をマッチングする。この際、判定部210は、特徴点検出に用いた手法に対応したマッチングを行ってよい。例えば、特徴点検出にSIFTやSURFを用いた場合、判定部210は検出した特徴点に係る特徴量ベクトルに基づいて、上記のマッチングを行ってもよい。
また、判定部210は、機能B3から出力されるマッチング情報に基づいて、特徴点の三次元座標を算出し、当該特徴点の三次元座標から各RGBD画像に対応したカメラパラメータを算出する機能を有する(機能B4)。ここで、上記のカメラパラメータは、カメラの有する自由度のベクトルや各種の内部パラメータを含んでよい。例えば、本実施形態に係るカメラパラメータは、カメラの位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx、Φy、Φz)と、であってよい。また、本実施形態に係るカメラパラメータは、例えば、焦点距離、F値、せん断係数などの内部パラメータを含んでよい。
また、判定部210は、機能B4から出力されるカメラパラメータに基づいて、投影誤差の最小化を行う機能を有する(機能B5)。具体的には、判定部210は、各カメラパラメータと各特徴点の位置分布を最小化する統計処理を行う。
また、判定部210は、機能B5から出力される誤差の最小化されたカメラパラメータ及び特徴点の三次元座標に基づいて、観測情報の三次元空間射影を行う機能を有する(機能B6)。すなわち、判定部210は、移動体30から取得した画像情報に係る特徴点を三次元空間上に射影した三次元地図(以下、観測点地図、とも呼ぶ)を得ることができる。
また、判定部210は、機能B6から出力される三次元空間射影の情報に基づいて、当該三次元空間における特徴点の距離計算を行う機能を有する。すなわち、判定部210は、三次元空間においてリファレンス地図に記述される特徴点と観測情報から検出された特徴点との距離を算出する。ここで、算出された距離が所定の閾値以上である場合、判定部210は、リファレンス地図と実世界との不整合を判定してよい。
次に、本実施形態に係る新部分地図の生成について詳細に説明する。本実施形態に係る情報処理サーバ10は、受信したリファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、複数の情報処理装置20に、単位空間に係る観測情報を要求するコマンドを送信することができる。また、本実施形態に係る情報処理サーバ10は、情報処理装置20から受信した複数の観測情報に基づいて、当該観測情報が観測された単位空間に係る新たな三次元部分地図を生成することができる。
図8を用いた説明では、情報処理サーバ10が、不整合に係る観測情報を受信したことに基づいて、観測情報を要求するコマンド(以下、単に、コマンド、とも呼ぶ)を送信する場合を例に説明した。一方、本実施形態に係る情報処理サーバ10は、不整合予測に基づいて上記のコマンドを送信してもよい。図9は、情報処理サーバ10による不整合予測に基づくコマンドの送信について説明するためのフローチャートである。
以上、本実施形態に係る不整合予測に基づくコマンドの送信について説明した。続いて、本実施形態に係る不整合予測に基づく運転制御について詳細に説明する。本実施形態に係る情報処理装置20は、情報処理サーバ10による不整合予測の結果に基づいて、移動体30の運転制御を行ってよい。より具体的には、情報処理装置20の移動設定部220は、リファレンス地図の最新性に基づいて移動体30の運転モードを変更することができる。すなわち、移動設定部220は、不整合の度合いに基づいて運転制御のモードを変更する制御部として機能する。
次に、本実施形態に係る三次元地図生成の詳細について説明する。上述したとおり、本実施形態に係る情報処理サーバ10の地図生成部110は、受信した情報処理装置20からの観測情報に基づいて、リファレンス地図を生成することができる。この際、地図生成部110は、観測情報に基づいた特徴点地図及び観測点地図を含む1次地図と、1次地図に付加情報を加えた2次地図と、を生成することができる。ここで、上記の2次地図には、物体認識地図、セグメンテーション地図、物体属性付加地図、物体表面生成地図、及びテクスチャ投影地図などが含まれてよい。
上述したとおり、本実施形態に係る地図生成部110は、受信した観測情報に基づいて、三次元地図を生成することができる。ここで、地図生成部110は、受信した複数の観測情報に対し、特徴点検出(機能B10)、特徴点マッチング(機能B11)、カメラパラメータ算出(機能B12)、及び投影誤差最小化(機能B13)に係る処理を行ってよい。地図生成部110は、上記の一連の処理により、単位空間の三次元特徴点地図を生成することができる。
また、本実施形態に係る110は、生成した1次地図に対し付加情報を加えて2次地図を生成することができる。具体的には、地図生成部110は、生成した1次地図に対し物体認識情報を付加した物体認識地図、及びセグメンテーション地図を生成することができる。
次に、本実施形態に係る物体表面生成地図及びテクスチャ投影地図について詳細に説明する。本実施形態に係る地図生成部110は、1次地図にセグメンテーション処理を施したセグメンテーション地図に基づいて、物体表面の生成を行うことができる。また、地図生成部110は、生成した物体表面にテクスチャを投影することができる。
次に、本実施形態に係る物体属性付加地図について詳細に説明する。上述したとおり、本実施形態に係る地図生成部110は、生成した1次地図と物体認識の結果に基づいて、物体属性付加地図を生成することができる。
次に、本開示に係る情報処理サーバ10及び情報処理装置20に共通するハードウェア構成例について説明する。図13は、本開示に係る情報処理サーバ10及び情報処理装置20のハードウェア構成例を示すブロック図である。図13を参照すると、情報処理サーバ10及び情報処理装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力装置879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示に係る情報処理サーバ10は、情報処理装置20から受信した実世界の単位空間において取得された観測情報に基づいてリファレンス地図を更新する機能を有する。また、情報処理サーバ10は、複数の情報処理装置20に、上記の観測情報を要求する機能を有する。また、本開示に係る情報処理装置20は、移動体が観測した観測情報を取得する機能を有する。また、情報処理装置20は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、取得した観測情報を情報処理サーバ10に送信する機能を有する。係る構成によれば、実世界の変化に応じた地図情報の動的更新をより精度高く実現することが可能となる。
(1)
一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、
リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて、前記単位空間において取得した前記観測情報を送信する通信部と、
を備える、
情報処理装置。
(2)
前記単位空間において取得した前記観測情報に基づいて前記リファレンス地図と前記実世界との整合性を判定する判定部、
をさらに備え、
前記通信部は、前記判定部による判定結果に基づいて、前記単位空間において取得した前記観測情報を送信する、
前記(1)に記載の情報処理装置。
(3)
前記判定部は、前記単位空間において取得した前記観測情報から検出した特徴点と、前記リファレンス地図に記述された特徴点とをマッチングし、前記整合性を判定する、
前記(2)に記載の情報処理装置。
(4)
前記判定部は、前記リファレンス地図とのマッチングを確認した単位空間の一部領域における前記観測情報から検出した特徴点と前記リファレンス地図に記述された特徴点との距離に基づいて、前記整合性を判定する、
前記(2)または(3)に記載の情報処理装置。
(5)
前記リファレンス地図は三次元地図である、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記観測情報は、深度情報を含む、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記観測情報は、位置情報または姿勢情報のうち少なくともいずれかを含む、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記通信部は、サーバから発行されるコマンドを受信し、前記コマンドに基づいて前記単位空間において取得した前記観測情報を送信する、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
移動体の目的地を設定する移動設定部、
をさらに備える、
前記(8)に記載の情報処理装置。
(10)
前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記単位空間に前記移動体を移動させ、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
前記(9)に記載の情報処理装置。
(11)
前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記移動体の移動予定経路を変更し、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
前記(9)に記載の情報処理装置。
(12)
前記移動設定部は、移動コストまたは安全確保のうち少なくともいずれかに基づいて、前記移動体の目的地を変更するか否かを判定する、
前記(9)〜(11)のいずれかに記載の情報処理装置。
(13)
一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する通信部と、
前記観測情報に基づいてリファレンス地図を生成する地図生成部と、
を備え、
前記観測情報は、前記リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて送信される、
情報処理サーバ。
(14)
前記地図生成部は、前記不整合に係る情報に基づいて前記単位空間に係る観測情報を要求するコマンドを生成し、
前記通信部は、少なくとも1つの情報処理装置に前記コマンドを送信する、
前記(13)に記載の情報処理サーバ。
(15)
前記不整合に係る情報は、前記情報処理装置から送信される前記観測情報を受信したこと、を含み、
前記地図生成部は、前記情報処理装置から送信される前記観測情報を受信したことに基づいて前記コマンドを生成する、
前記(14)に記載の情報処理サーバ。
(16)
前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合予測に基づいて前記コマンドを発行する、
前記(14)または(15)に記載の情報処理サーバ。
(17)
前記地図生成部は、前記観測情報に基づいて新たな三次元地図を生成し前記リファレンス地図を更新する、
前記(13)〜(16)のいずれかに記載の情報処理サーバ。
(18)
前記地図生成部は、前記観測情報に基づいて物体認識を行い、認識した物体の属性情報を前記三次元地図に付加する、
前記(17)に記載の情報処理サーバ。
(19)
前記地図生成部は、前記観測情報に基づいてセグメンテーション処理を実施し、前記セグメンテーション処理の結果を前記三次元地図に付加する、
前記(17)または(18)に記載の情報処理サーバ。
(20)
前記地図生成部は、前記セグメンテーション処理の結果に基づいて物体表面生成またはテクスチャ投影を実施し、物体表面生成地図またはテクスチャ投影地図を生成する、
前記(19)に記載の情報処理サーバ。
110 地図生成部
120 装置通信部
20 情報処理装置
210 判定部
220 移動設定部
230 観測情報取得部
240 サーバ通信部
30 移動体
Claims (19)
- 一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、
リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて、前記単位空間において取得した前記観測情報を送信する通信部と、
を備え、
前記通信部は、サーバにより前記不整合が予測された不整合予測を含む不整合に係る情報に基づいて前記サーバから発行されるコマンドを受信し、前記コマンドに基づいて前記単位空間において取得した前記観測情報を送信する、
情報処理装置。 - 前記単位空間において取得した前記観測情報に基づいて前記リファレンス地図と前記実世界との整合性を判定する判定部、
をさらに備え、
前記通信部は、前記判定部による判定結果に基づいて、前記単位空間において取得した前記観測情報を送信する、
請求項1に記載の情報処理装置。 - 前記判定部は、前記単位空間において取得した前記観測情報から検出した特徴点と、前記リファレンス地図に記述された特徴点とをマッチングし、前記整合性を判定する、
請求項2に記載の情報処理装置。 - 前記判定部は、前記リファレンス地図とのマッチングを確認した単位空間の一部領域における前記観測情報から検出した特徴点と前記リファレンス地図に記述された特徴点との距離に基づいて、前記整合性を判定する、
請求項3に記載の情報処理装置。 - 前記リファレンス地図は三次元地図である、
請求項1に記載の情報処理装置。 - 前記観測情報は、深度情報を含む、
請求項1に記載の情報処理装置。 - 前記観測情報は、位置情報または姿勢情報のうち少なくともいずれかを含む、
請求項3に記載の情報処理装置。 - 移動体の目的地を設定する移動設定部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記単位空間に前記移動体を移動させ、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
請求項8に記載の情報処理装置。 - 前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記移動体の移動予定経路を変更し、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
請求項8に記載の情報処理装置。 - 前記移動設定部は、移動コストまたは安全確保のうち少なくともいずれかに基づいて、前記移動体の目的地を変更するか否かを判定する、
請求項8に記載の情報処理装置。 - 一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する通信部と、
前記観測情報に基づいてリファレンス地図を生成する地図生成部と、
を備え、
前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合を予測した不整合予測を含む不整合に係る情報に基づいて前記単位空間に係る前記観測情報を要求するコマンドを生成し、前記観測情報は、前記コマンドに応じて送信される、
情報処理サーバ。 - 前記通信部は、少なくとも1つの情報処理装置に前記コマンドを送信する、
請求項12に記載の情報処理サーバ。 - 前記不整合に係る情報は、前記情報処理装置から送信される前記観測情報を受信したこと、を含み、
前記地図生成部は、前記情報処理装置から送信される前記観測情報を受信したことに基づいて前記コマンドを生成する、
請求項13に記載の情報処理サーバ。 - 前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合予測に基づいて前記コマンドを発行する、
請求項12に記載の情報処理サーバ。 - 前記地図生成部は、前記観測情報に基づいて新たな三次元地図を生成し前記リファレンス地図を更新する、
請求項12に記載の情報処理サーバ。 - 前記地図生成部は、前記観測情報に基づいて物体認識を行い、認識した物体の属性情報を前記三次元地図に付加する、
請求項16に記載の情報処理サーバ。 - 前記地図生成部は、前記観測情報に基づいてセグメンテーション処理を実施し、前記セグメンテーション処理の結果を前記三次元地図に付加する、
請求項16に記載の情報処理サーバ。 - リファレンス地図と実世界の単位空間との不整合が予測された不整合予測を含む不整合に係る情報を受信する受信部と、
前記不整合の度合いに基づいて運転制御のモードを変更する制御部と、
を備える、
情報処理装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070596A JP6790417B2 (ja) | 2016-03-31 | 2016-03-31 | 情報処理装置及び情報処理サーバ |
CN201680083931.XA CN108780615A (zh) | 2016-03-31 | 2016-12-27 | 信息处理设备 |
US16/069,734 US20190025071A1 (en) | 2016-03-31 | 2016-12-27 | Information processing device |
PCT/JP2016/088891 WO2017168900A1 (ja) | 2016-03-31 | 2016-12-27 | 情報処理装置 |
EP16897115.8A EP3438953A4 (en) | 2016-03-31 | 2016-12-27 | INFORMATION PROCESSING DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070596A JP6790417B2 (ja) | 2016-03-31 | 2016-03-31 | 情報処理装置及び情報処理サーバ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017181870A JP2017181870A (ja) | 2017-10-05 |
JP6790417B2 true JP6790417B2 (ja) | 2020-11-25 |
Family
ID=59963890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016070596A Active JP6790417B2 (ja) | 2016-03-31 | 2016-03-31 | 情報処理装置及び情報処理サーバ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190025071A1 (ja) |
EP (1) | EP3438953A4 (ja) |
JP (1) | JP6790417B2 (ja) |
CN (1) | CN108780615A (ja) |
WO (1) | WO2017168900A1 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6882664B2 (ja) * | 2017-02-07 | 2021-06-02 | 富士通株式会社 | 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法 |
US10663303B2 (en) * | 2017-06-12 | 2020-05-26 | Panasonic Intellectual Property Management Co., Ltd. | System and method for dynamically authenticating map data using blockchains |
US11796343B2 (en) | 2017-11-27 | 2023-10-24 | Mitsubishi Electric Corporation | Map maintenance system and map maintenance method |
JP2019105684A (ja) * | 2017-12-11 | 2019-06-27 | 株式会社デンソー | 交差点内の走行軌道データ生成装置、交差点内の走行軌道データ生成プログラム及び記憶媒体 |
US11269352B2 (en) * | 2017-12-15 | 2022-03-08 | Baidu Usa Llc | System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS) |
US11450026B2 (en) | 2017-12-27 | 2022-09-20 | Sony Corporation | Information processing apparatus, information processing method, and mobile object |
CN108225348B (zh) | 2017-12-29 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 地图创建以及运动实体定位的方法和装置 |
JP2019152924A (ja) * | 2018-02-28 | 2019-09-12 | 学校法人立命館 | 自己位置同定システム、車両、及び処理装置 |
US10657388B2 (en) * | 2018-03-13 | 2020-05-19 | Honda Motor Co., Ltd. | Robust simultaneous localization and mapping via removal of dynamic traffic participants |
US11106211B2 (en) | 2018-04-02 | 2021-08-31 | Sony Group Corporation | Vision-based sample-efficient reinforcement learning framework for autonomous driving |
EP3809399B1 (en) | 2018-06-12 | 2024-07-31 | Mitsubishi Electric Corporation | Map generation device and map generation system |
SG11201811261SA (en) * | 2018-06-14 | 2020-01-30 | Beijing Didi Infinity Technology & Development Co Ltd | Systems and methods for updating a high-resolution map based on binocular images |
RU2764483C1 (ru) * | 2018-07-02 | 2022-01-17 | Ниссан Мотор Ко., Лтд. | Способ помощи при вождении и устройство помощи при вождении |
JP6973964B2 (ja) | 2018-07-04 | 2021-12-01 | 日産自動車株式会社 | 走行支援方法及び走行支援装置 |
CN111238465B (zh) * | 2018-11-28 | 2022-02-18 | 台达电子工业股份有限公司 | 地图建置设备及其地图建置方法 |
CN109672730B (zh) * | 2018-12-17 | 2021-07-06 | 北京百度网讯科技有限公司 | 远程控制方法、装置、设备及计算机可读存储介质 |
US11193789B2 (en) * | 2018-12-21 | 2021-12-07 | Here Global B.V. | Method, apparatus, and computer program product for identifying at-risk road infrastructure |
US11194847B2 (en) * | 2018-12-21 | 2021-12-07 | Here Global B.V. | Method, apparatus, and computer program product for building a high definition map from crowd sourced data |
CN109606384B (zh) * | 2018-12-29 | 2021-04-20 | 百度在线网络技术(北京)有限公司 | 车辆控制方法、装置、设备和存储介质 |
CN109781122B (zh) * | 2019-01-31 | 2022-03-01 | 北京经纬恒润科技股份有限公司 | 高精度地图更新方法及装置 |
JP7245084B2 (ja) * | 2019-03-15 | 2023-03-23 | 日立Astemo株式会社 | 自動運転システム |
JP6921343B2 (ja) | 2019-03-18 | 2021-08-18 | 三菱電機株式会社 | 地図情報補正装置、移動体、地図情報補正システム、地図情報補正方法、地図情報補正プログラム、制御回路および記憶媒体 |
US20200326203A1 (en) * | 2019-04-15 | 2020-10-15 | Qualcomm Incorporated | Real-world traffic model |
WO2020226085A1 (ja) * | 2019-05-09 | 2020-11-12 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7039536B2 (ja) * | 2019-09-05 | 2022-03-22 | 株式会社 ミックウェア | 地図情報処理システム |
JP2021064237A (ja) * | 2019-10-16 | 2021-04-22 | ソニー株式会社 | 情報処理装置と情報処理方法およびプログラム |
US11280630B2 (en) * | 2019-11-27 | 2022-03-22 | Zoox, Inc. | Updating map data |
EP4107484A1 (en) * | 2020-02-20 | 2022-12-28 | TomTom Global Content B.V. | Generating map change data |
JP7205515B2 (ja) * | 2020-04-06 | 2023-01-17 | トヨタ自動車株式会社 | 地図更新システム、データ送信装置、およびデータ送信方法 |
US20230332916A1 (en) | 2020-12-04 | 2023-10-19 | Mitsubishi Electric Corporation | Dynamic map generation device, learning device, dynamic map generation method, and learning method |
EP4092383A1 (en) * | 2021-05-19 | 2022-11-23 | NextBillion.ai Pte. Ltd. | Customized digital map generation |
WO2023171336A1 (ja) * | 2022-03-11 | 2023-09-14 | ソニーグループ株式会社 | 学習方法、情報処理装置、および記録媒体 |
KR102618997B1 (ko) * | 2023-07-13 | 2023-12-29 | 주식회사포앤텍 | 정밀도로지도 제작을 위한 mms 데이터 기반의 도로시설물 위치 확인 시스템 |
KR102618996B1 (ko) * | 2023-07-17 | 2023-12-28 | 주식회사포앤텍 | 정밀도로지도 제작을 위한 mms 이미지 데이터의 처리시스템 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002054934A (ja) * | 2000-08-11 | 2002-02-20 | Denso Corp | 道路地図情報更新システム |
JP4380151B2 (ja) * | 2002-12-20 | 2009-12-09 | 株式会社デンソー | 地図評価システム、及び、地図評価装置 |
JP4459717B2 (ja) * | 2004-05-26 | 2010-04-28 | 富士フイルム株式会社 | 地図更新システム |
US7706971B2 (en) * | 2005-07-21 | 2010-04-27 | The Boeing Company | System and method for data mapping and map discrepancy reporting |
JP5227065B2 (ja) * | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
JP5216690B2 (ja) * | 2009-06-01 | 2013-06-19 | 株式会社日立製作所 | ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム |
JP2011002794A (ja) * | 2009-06-22 | 2011-01-06 | Nikon Corp | レンズユニット及びカメラボディ |
JP2011027594A (ja) * | 2009-07-27 | 2011-02-10 | Toyota Infotechnology Center Co Ltd | 地図データ検証システム |
CN101694392B (zh) * | 2009-09-29 | 2015-03-18 | 北京四维图新科技股份有限公司 | 一种导航终端的地图更新方法、导航终端及系统 |
JP5471626B2 (ja) * | 2010-03-09 | 2014-04-16 | ソニー株式会社 | 情報処理装置、マップ更新方法、プログラム及び情報処理システム |
JP5452442B2 (ja) * | 2010-10-25 | 2014-03-26 | 株式会社日立製作所 | ロボットシステム及び地図更新方法 |
JP2012127896A (ja) * | 2010-12-17 | 2012-07-05 | Kumamoto Univ | 移動体位置測定装置 |
US9423506B2 (en) * | 2011-09-16 | 2016-08-23 | Saab Ab | Tactical differential GPS |
CN104508719B (zh) * | 2012-07-17 | 2018-02-23 | 日产自动车株式会社 | 驾驶辅助系统以及驾驶辅助方法 |
US9633564B2 (en) * | 2012-09-27 | 2017-04-25 | Google Inc. | Determining changes in a driving environment based on vehicle behavior |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
JP6281496B2 (ja) * | 2013-02-01 | 2018-02-21 | ソニー株式会社 | 情報処理装置、端末装置、情報処理方法及びプログラム |
EP3098689B1 (en) * | 2014-01-23 | 2019-04-03 | Sony Corporation | Image display device and image display method |
JP5813181B1 (ja) * | 2014-06-24 | 2015-11-17 | アイサンテクノロジー株式会社 | 衛星測位地図表示システム |
JP6344763B2 (ja) * | 2014-07-11 | 2018-06-20 | アルパイン株式会社 | 電子装置、路車間通信システム、現在位置補正方法および現在位置補正プログラム |
JP6683127B2 (ja) * | 2014-08-01 | 2020-04-15 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
WO2016017253A1 (ja) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
CN105204520B (zh) * | 2015-09-17 | 2018-07-06 | 深圳市十方联智科技有限公司 | 一种无人飞行器的控制方法 |
-
2016
- 2016-03-31 JP JP2016070596A patent/JP6790417B2/ja active Active
- 2016-12-27 CN CN201680083931.XA patent/CN108780615A/zh active Pending
- 2016-12-27 EP EP16897115.8A patent/EP3438953A4/en not_active Ceased
- 2016-12-27 WO PCT/JP2016/088891 patent/WO2017168900A1/ja active Application Filing
- 2016-12-27 US US16/069,734 patent/US20190025071A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN108780615A (zh) | 2018-11-09 |
EP3438953A4 (en) | 2019-04-10 |
WO2017168900A1 (ja) | 2017-10-05 |
US20190025071A1 (en) | 2019-01-24 |
EP3438953A1 (en) | 2019-02-06 |
JP2017181870A (ja) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6790417B2 (ja) | 情報処理装置及び情報処理サーバ | |
US11150660B1 (en) | Scenario editor and simulator | |
JP6972392B2 (ja) | 自律走行シミュレーションのための時間伸縮法 | |
JP6992182B2 (ja) | 自律走行車両運行管理計画 | |
US11927952B2 (en) | Adaptive multi-network vehicle architecture | |
JP2022065083A (ja) | 物理的環境の変化に応答して自律車両をナビゲートするための適応マッピング | |
CN112829769B (zh) | 自动驾驶车辆的混合规划系统 | |
US20220146277A1 (en) | Architecture for map change detection in autonomous vehicles | |
CA3139481A1 (en) | Systems and methods for actor motion forecasting within a surrounding environment of an autonomous vehicle | |
WO2022087751A1 (en) | Method and system for graph neural network based pedestrian action prediction in autonomous driving systems | |
US11670088B2 (en) | Vehicle neural network localization | |
JPWO2019188391A1 (ja) | 制御装置、制御方法、並びにプログラム | |
KR20220052846A (ko) | Lidar를 사용한 대상체 식별 | |
EP4213107A1 (en) | Continuous learning machine using closed course scenarios for autonomous vehicles | |
US20230056589A1 (en) | Systems and methods for generating multilevel occupancy and occlusion grids for controlling navigation of vehicles | |
JP7462837B2 (ja) | 低信頼度の物体検出条件における車両動作のための注釈及びマッピング | |
JP7135690B2 (ja) | 情報処理装置および方法、プログラム、並びに移動体制御システム | |
JP2022539557A (ja) | テレオペレータに連絡するための技法 | |
WO2021187299A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2021193103A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240087450A1 (en) | Emergency vehicle intent detection | |
US20240317260A1 (en) | Perception system with an occupied space and free space classification | |
WO2022059489A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240317255A1 (en) | Planning systems for autonomous vehicles | |
US20240142998A1 (en) | Autonomous vehicle cabin and controller to manage a fleet of robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190329 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190521 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6790417 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |