JP6897668B2 - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP6897668B2
JP6897668B2 JP2018508398A JP2018508398A JP6897668B2 JP 6897668 B2 JP6897668 B2 JP 6897668B2 JP 2018508398 A JP2018508398 A JP 2018508398A JP 2018508398 A JP2018508398 A JP 2018508398A JP 6897668 B2 JP6897668 B2 JP 6897668B2
Authority
JP
Japan
Prior art keywords
feature point
information
information processing
feature
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018508398A
Other languages
English (en)
Other versions
JPWO2017168899A1 (ja
Inventor
啓 福井
啓 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017168899A1 publication Critical patent/JPWO2017168899A1/ja
Application granted granted Critical
Publication of JP6897668B2 publication Critical patent/JP6897668B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Description

本開示は、情報処理方法および情報処理装置に関する。
近年、地図情報を利用した種々のサービスが提案されている。また、実世界において観測した情報に基づいて三次元地図を生成する手法も提案されている。上記のような三次元地図を利用した装置には、例えば、特許文献1に記載のナビゲーション装置がある。
国際公開第2005/038402号
しかし、特許文献1に記載の三次元地図は、実世界における環境を充分に考慮していないため、状況によっては、特許文献1に記載の三次元地図を用いて自己位置推定を行うことが困難な場合がある。
そこで、本開示では、実世界の環境に応じたより精度の高い位置情報を提供することが可能な情報処理方法および情報処理装置を提案する。
本開示によれば、プロセッサが、単位エリア周辺において収集された観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成すること、を含む、情報処理方法が提供される。
また、本開示によれば、取得された画像情報から特徴点及び前記特徴点に係る局所特徴量を抽出する演算部と、収集された観測情報に基づいて特徴点リストを取得する通信部と、を備え、前記演算部は、前記局所特徴量と前記特徴点リストに基づいて自己位置推定を行い、前記特徴点リストは、前記観測情報の観測地点を含む単位エリアに関連付いた前記特徴点の三次元座標位置、及び前記特徴点に係る局所特徴量を含む、情報処理装置が提供される。
また、本開示によれば、単位エリア周辺において収集された観測情報を受信する通信部と、前記観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成するリスト生成部、を備える、情報処理装置が提供される。
以上説明したように本開示によれば、実世界の環境に応じたより精度の高い位置情報を提供することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係る自動運転車の周辺環境を模式的に示した図である。 本開示に係る自動運転車が認識する周囲環境のイメージ図である。 本開示に係る特徴点の信頼度について説明するための概念図である。 本開示に係る環境状況に影響される特徴点の信頼度について説明するための図である。 本開示に係る環境状況に影響される特徴点の信頼度について説明するための図である。 本開示に係る環境状況に影響される特徴点の信頼度について説明するための図である。 本開示に係る室内空間における特徴点の観測を説明するための図である。 本開示の実施形態に係るシステム構成例である。 同実施形態に係る情報処理サーバの機能ブロック図である。 同実施形態に係る情報処理装置の機能ブロック図である。 同実施形態の推奨特徴点リストの生成に係る入出力の概念図である。 同実施形態の推奨特徴点リストのデータ構成例である。 同実施形態のデータ選択部に係る入出力の概念図である。 同実施形態の使用データ判定に係る流れを示すフローチャートである。 同実施形態の特徴点抽出部に係る入出力の概念図である。 同実施形態のリスト生成部に係る入出力の概念図である。 同実施形態の奨特徴点リスト生成に係る流れを示すフローチャートである。 同実施形態に係る近傍単位エリアから観測され得る特徴点について説明するための図である。 同実施形態に係る報処理装置による自己位置推定の流れを示すフローチャートである。 同実施形態の演算部に係る入出力の概念図である。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の概要
1.1.特徴点を用いた自己位置推定
1.2.特徴点追跡による自動運転
1.3.特徴点の信頼度
2.実施形態
2.1.本実施形態に係るシステム構成例
2.2.情報処理サーバ10
2.3.情報処理装置20
2.4.推奨特徴点リスト生成の概要
2.5.使用データ選択の詳細
2.6.三次元地図生成の詳細
2.7.推奨特徴点リスト生成の詳細
2.8.本実施形態に係る作用効果
2.9.情報処理装置20の自己位置推定
3.ハードウェア構成例
4.まとめ
<1.本開示の概要>
<<1.1.特徴点を用いた自己位置推定>>
近年、地図情報を利用する種々の装置が開発されている。上記のような装置の代表的な例としては、ナゲーション装置が挙げられる。一般的に、ナゲーション装置は、GPSにより取得した座標情報と保有する地図情報とに基づいて、経路ナビゲーションなどの機能を実行することができる。
しかし、上記のようなナビゲーション装置は、GPS測位が行えない場所では現在位置を正確に把握することが困難である。また、室内などにおいては、特に信号が受信しづらいため、本来の機能を発揮することが難しい。
一方、自己位置推定を行う手法として、SLAM(Simultaneous Localization and Mapping)などの技術が知られている。SLAMとは、自己位置推定と環境地図生成を同時に行う手法である。SLAMでは、カメラなどのセンサから取得した観測情報から特徴点を抽出し当該特徴点を追跡することで、上記の自己位置推定と環境地図生成を行うことが可能である。
しかし、SLAMでは、追跡する特徴点の選択が自己位置推定の精度に大きく影響することが知られている。例えば、自律移動する動物体に係る特徴点や、他と混同しやすい特徴点を選択した場合、誤差の蓄積を招き自己位置を正しく推定することが困難となる。このため、自己位置推定においては、信頼度の高い特徴点をいかに選択するか、が重要な鍵となる。すなわち、自己位置推定や、自己位置推定に基づく制御を行う装置にとっては、信頼度の高い特徴点情報が求められている。
<<1.2.特徴点追跡による自動運転>>
ここで、特徴点を用いた自己位置推定を行う装置について、具体例を挙げて説明する。上記のような装置には、例えば、自動運転車がある。自動運転車は、各種のセンサにより取得した情報から周囲の環境を認識し、認識した環境に応じて自律走行を実現することができる。この際、適切な運転制御を実現するためには、精度の高い自己位置推定を行うことが求められる。
図1A及び図1Bは、自動運転車による周囲環境の認識について説明するための図である。図1Aは、実世界における自動運転車AV1の周囲環境を模式的に示した図である。図1Aを参照すると、自動運転車AV1の周囲には、動物体DO1〜DO4と静物体SO1〜4が存在している。ここで、動物体DO1〜DO4は、動的に移動する物体であってよく、図1Aに示す一例においては、それぞれ車両、自転車、または歩行者として示されている。また、静物体SO1〜4は、自律的に移動しない物体であってよく、同図の一例では、それぞれ信号機、看板、街路樹、または建物として示されている。
次に、図1Bを参照して、自動運転車AV1が認識する周囲環境の例について説明する。図1Bは、自動運転車AV1が認識する周囲環境を模式的に示した図である。図1Bに示すように、自動運転車AV1は、例えば、画像情報を含む観測情報に基づいて検出した特徴点により周囲環境を認識することができる。このため、図1Bでは、動物体DO1〜DO4及び静物体SO1〜4は、それぞれ自動運転車AV1が検出した特徴点の集合により表されている。このように、自動運転車AV1は、搭載されるカメラ等からの情報を基に検出した物体の特徴点を追跡することで、周囲の環境を認識することができる。
しかし、この際、自動運転車AV1が信頼度の低い特徴点に基づいて自己位置推定を行うと、推定位置と現実位置とに乖離が生じる可能性がある。この場合、自動運転車AV1は、適切な運転制御を行うことができず、事故を引き起こす可能性も考えられる。このため、安全確保の観点からも、より精度の高い自己位置推定を行うことが求められる。
<<1.3.特徴点の信頼度>>
以上、特徴点を用いた自己位置推定と、自己位置推定を行う装置の具体例について説明した。本開示に係る情報処理方法および情報処理装置は、上記で説明したような特徴点の信頼度に着目して発想されたものであり、特徴点の信頼度に基づいた推奨特徴点リストを生成することが可能である。また、本開示に係る推奨特徴点リストは、特徴点の局所特徴量を併せて有することを特徴の一つとする。
ここで、本開示に係る特徴点の信頼度について説明する。本開示において、信頼度の高い特徴点とは、単位エリアにおいてより多くの観測点から観測され得る特徴点であってもよい。すなわち、本開示における信頼度の高い特徴点とは、観測実績の高い特徴点ともいえる。また、本開示における信頼度の高い特徴点は、後述する投影誤差最小化や特徴点の追跡において、他の特徴点と混同しにくい特徴点であってもよい。
図2は、本開示に係る特徴点の信頼度について説明するため概念図である。図2には、単位エリアA1において観測される特徴点F1及びF2と、観測地点L1〜L4とが示されている。ここで、観測地点L1〜L4から特徴点F1またはF2に伸びる矢印は、それぞれの観測地点L1〜L4から特徴点F1またはF2が観測できることを表している。
すなわち、図2に示す一例では、観測地点L1及びL2からは特徴点F1及びF2の両方が観測でき、観測地点L3及びL4からは特徴点F1のみが観測できることを示している。この際、本開示においては、特徴点F1は特徴点F2と比較して信頼度が高いといえる。
このように、本開示に係る情報処理方法では、より多くの観測地点から観測され得る特徴点を信頼度の高い特徴点として定義することもできる。
一方、同一の単位エリアにおける同一の特徴点であっても、環境状況によって信頼度が左右されることがある。図3A〜図3Cは、環境状況に影響される特徴点の信頼度について説明するための図である。ここで、図3A〜図3Cは、例えば、自動運転車の車載カメラにより取得された画像を示す例であってよい。また、図3A〜図3Cは、同一の観測地点から同一の視点で撮影された画像を示す例であってよい。
図3Aは、快晴の状態で撮影された画像の例を示している。図3Aを参照すると、画像中には、ビルに係る特徴点F3と高層タワーに係る特徴点F4とが示されている。すなわち、図3Aに示す画像を取得した観察地点においては、快晴の場合、特徴点F3及びF4の両方が観察され得ることがわかる。
一方、図3Bは、雨天の状態で撮影された画像の例を示している。図3Bを参照すると、画像中には、ビルに係る特徴点F3のみが示されている。図3Bに示す一例では、雲により高層タワーの頂上部が遮られており、特徴点F4は観測されていない。すなわち、図3Bに示す画像を取得した観察地点においては、雨天の場合、特徴点F3のみが観察され得ることがわかる。
また、図3Cは、夜間において撮影された画像の例を示している。図3Cを参照すると、画像中には、高層タワーに係る特徴点F4のみが示されている。図3Cに示す一例では、光の量が少ないためビルの頂上部が明瞭に撮影できておらず、特徴点F3は観測されていてない。すなわち、図3Cに示す画像を取得した観測地点においては、夜間の場合、特徴点F4のみが観察され得ることがわかる。
以上説明したように、同一の単位エリアにおいても、環境状況によって観測され得る特徴点は異なる。このため、本開示に係る情報処理方法では、環境状態に応じた推奨特徴点リストを生成してよい。例えば、本開示に係る情報処理方法では、快晴、雨天、または夜間などの環境状態ごとに推奨特徴点リストを生成することが可能である。これにより、環境状態に応じた信頼度の高い特徴点情報を提供することが可能となる。
また、本開示に係る情報処理方法では、室外のみならず室内における推奨特徴点リストを生成することができる。図4は、室内空間における特徴点の観測を説明するための図である。図4は、例えば、空港において撮影された画像の例であってもよい。
図4を参照すると、画像中には、植木に係る特徴点F5が示されている。室内空間においては、建造物の構造上、類似した風景が連続することが多い。また、異なる階であっても、同一構造を取る建造物が多い。このため、室内空間においては、建造物の構造とは独立した静物体に係る特徴点を信頼度が高い特徴点として想定することも可能である。この際、本開示に係る情報処理方法では、観測された情報から物体認識などを行うことで、特徴点に係る物体の特性を識別してもよい。
以上、本開示に係る特徴点の信頼度について説明した。上述したように、本開示に係る情報処理方法では、特徴点の信頼度に基づいた推奨特徴点リストを生成し、各種の装置に提供することが可能である。ここで、上記の装置は、例えば、自動運転車を制御する自動運転AIや、ナビゲーション装置、自己位置推定に基づいて仮想現実や拡張現実に係る機能を提供するHMD(Head Mounted Display)などが含まれてよい。
上述した各種の装置は、本開示に係る情報処理方法により生成される推奨特徴点リストを用いることで、より精度の高い自己位置推定を行うことが可能となる。また、本開示に係る推奨特徴点リストには、特徴点に係る局所特徴量が含まれているため、特徴量抽出に係る処理負担を低減することができる。さらには、現在位置からの推奨特徴点の逆引きが容易になるという効果を奏する。
<2.実施形態>
<<2.1.本実施形態に係るシステム構成例>>
まず、本実施形態に係るシステム構成例について説明する。図5を参照すると、本実施系形態に係るシステムは、情報処理サーバ10と、複数の情報処理装置20a及び20bと、移動体30と、を備える。また、情報処理サーバ10と、情報処理装置20a及び20bと、は通信が行えるようにネットワーク40を介して接続される。
ここで、本実施形態に係る情報処理サーバ10は、単位エリア周辺において収集された観測情報に基づいて特徴点リストを生成する情報処理装置であってよい。本実施形態に係る情報処理サーバ10は、上述したとおり、環境状況に応じた特徴点リストを生成することができる。なお、上記の単位エリアは、屋内空間におけるエリアであってもよい。
また、本実施形態に係る情報処理装置20は、情報処理サーバ10から取得した特徴点リストに基づいて自己位置推定を行う種々の装置であってよい。図4に示す一例では、情報処理装置20aは、後述する移動体30に搭載される自動運転AIであってよい。また、情報処理装置20bは、眼鏡型のウェアラブル装置であってよい。
一方、本実施形態に係る情報処理装置20は、図5に示す例に限定されない。本実施形態に係る情報処理装置20は、例えば、ナビゲーション装置、HMD、または各種のロボットなどであってもよい。本実施形態に係る情報処理装置20は、自己位置推定を行う種々の装置として定義できる。
また、移動体30は、情報処理装置20を搭載する車両などの移動体であってよい。移動体30は、例えば、自動運転AIとしての機能を有する情報処理装置20が制御する自動運転車であってもよい。この際、移動体30は、室外を走行する自動運転車であってもよいし、例えば空港などにおいて室内を走行する特殊車両であってもよい。また、本実施形態に係る移動体30は車両に限定されず、例えばドローンを含む無人航空機(UAV:Unmanned Aerial Vehicle)などであってもよい。
また、本実施形態に係る移動体30は、実世界において観測した観測情報を情報処理装置20に引き渡す機能を有する。ここで、上記の観測情報には、例えば、RGB−Dカメラ、レーザーレンジファインダー、GPS、Wi―Fi(登録商標)、地磁気センサ、気圧センサ、加速度センサ、ジャイロセンサ、または振動センサなどにより取得される情報が含まれてよい。
また、ネットワーク40は、情報処理サーバ10と情報処理装置20を接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係るシステム構成例について説明した。以降の説明では、本実施形態に係る情報処理サーバ10と情報処理装置20の機能構成上の特徴について述べる。
<<2.2.情報処理サーバ10>>
次に本実施形態に係る情報処理サーバ10について詳細に説明する。本実施形態に係る情報処理サーバ10は、単位エリア周辺において収集された観測情報を受信する機能を有してよい。また、情報処理サーバ10は、上記の観測情報から検出した特徴点の三次元座標と、上記特徴点の局所特徴量と、を関連付けた特徴点リストを生成することができる。また、ここで、上記の特徴点リストは、環境情報に関連付いた特徴点リストであってよい。
図6は、本実施形態に係る情報処理サーバ10の機能ブロック図である。図6を参照すると、本実施形態に係る情報処理サーバ10は、データ選択部110、特徴点抽出部120、リスト生成部130、及び装置通信部140を備える。
(データ選択部110)
データ選択部110は、本実施形態に係る特徴点リストの生成に際し、元となる観測情報の選択を行う機能を有する。具体的には、データ選択部110は、単位エリアと環境情報とに基づいて、特徴点リストの生成に用いる観測情報を選択してよい。
また、データ選択部110は、道路地図を含む、地図情報、単位エリアにおける通行履歴や歩行履歴に基づいて、特徴点リストを生成する対象となる単位エリアを選択してもよい。なお、データ選択部110によるデータ選択の詳細については後述する。
(特徴点抽出120)
特徴点抽出部120は、データ選択部110が選択した観測情報に基づいて、単位エリアに係る特徴点地図を生成する機能を有する。具体的には、特徴点抽出部120は、上記の特徴点地図を生成するために、複数の観測情報から特徴点を検出し、当該特徴点のマッチングを行う機能を有する。
また、特徴点抽出部120は、特徴点のマッチング結果に基づいて、カメラパラメータの算出を行ってよい。さらに、特徴点抽出部120は、算出したカメラパラメータに基づいて、投影誤差の最小化処理を行うことができる。特徴点抽出部120による特徴点地図生成の詳細については、後述する。
(リスト生成部130)
リスト生成部130は、特徴点抽出部120が生成した特徴点地図に基づいて、特徴点リストを生成する機能を有する。より具体的には、リスト生成部130は、単位エリアごとに特徴点を順位付けした推奨特徴点リストを生成することができる。
この際、リスト生成部130は、特徴点の投影誤差、または観測情報の観測地点に係る位置誤差などに基づいて、上記の順位付けを行ってもよい。すなわち、リスト生成部130は、より誤差の小さい特徴点を信頼度が高い特徴点として抽出することができる。
また、リスト生成部130は、特徴点に係る観測情報の数に基づいて上記の順位付けを行ってもよい。すなわち、リスト生成部130は、より多くの観測情報から抽出される特徴点を信頼度が高い特徴点として抽出することができる。
さらに、リスト生成部130は、特徴点リストを生成する単位エリアの近傍に位置する別の単位エリアにおいて観測された、特徴点に係る観測情報の数に基づいて、上記の順位付けを行ってもよい。すなわち、リスト生成部130は、近傍の単位エリアからも観察され得る特徴点を信頼度が高い特徴点として抽出することができる。なお、リスト生成部130による推奨特徴点リスト生成の詳細については後述する。
(装置通信部140)
装置通信部140は、情報処理装置20との通信を実現する機能を有する。具体的には、本実施形態に係る装置通信部140は、単位エリア周辺において収集された観測情報を、情報処理装置20から受信する機能を有する。また、装置通信部140は、情報処理装置20からの要求に基づいて、推奨特徴点リストを情報処理装置20に送信する機能を有する。
以上、本実施形態に係る情報処理サーバ10の機能構成について説明した。上述したとおり、本実施形態に係る情報処理サーバ10は、取得した観測情報に基づいて、単位エリアと環境情報とに応じた推奨特徴点リストを生成することができる。また、上記の推奨特徴点リストは、特徴点に係る局所特徴量を有する。本実施形態に係る情報処理サーバ10が有する上記の機能によれば、信頼度の高い特徴点情報を提供することが可能となり、情報処理装置20による自己位置推定の精度を効果的に高めることができる。
<<2.3.情報処理装置20>>
次に、本実施形態に係る情報処理装置20について詳細に説明する。本実施形態に係る情報処理装置20は、自己位置推定を行う各種の装置であってよい。このため、本実施形態に係る情報処理装置20は、取得された画像情報から特徴点及び当該特徴点に係る局所特徴量を抽出する機能を有する。また、情報処理装置20は、収集された観測情報に基づいて特徴点リストを取得する機能を有する。
また、本実施形態に係る情報処理装置20は、抽出した局所特徴量と上記の特徴点リストに基づいて自己位置推定を行う機能を有する。ここで、上記の特徴点リストとは、情報処理サーバ10により生成される推奨特徴点リストであってよい。すなわち、上記の特徴点リストは、観測情報の観測地点を含む単位エリアに関連付いた特徴点の三次元座標位置と、当該特徴点に係る局所特徴量と、を含んだリストであってよい。
図7は、本実施形態に係る情報処理装置20の機能ブロック図である。図7を参照すると、本実施形態に係る情報処理装置20は、演算部210、機能制御部220、及びサーバ通信部230を備える。
(演算部210)
演算部210は、取得された画像情報から、特徴点と当該特徴点に係る局所特徴量と、を抽出する機能を有する。また、演算部210は、上記の画像情報を取得した撮像部(図示しない)のカメラパラメータを算出する機能を有する。ここで、上記のカメラパラメータは、三次元座標位置、姿勢情報、速度、角速度、3軸回転姿勢、3軸回転速度、及び3軸回転加速度などを含んでよい。
本実施形態に係る演算部210は、上記のカメラパラメータ算出において、情報処理サーバ10から取得された推奨特徴点リストを参照することで、処理に係る効率を大幅に改善することが可能である。
(機能制御部220)
機能制御部220は、演算部210が算出したカメラパラメータに基づいて情報処理装置20の動作を制御する機能を有する。すなわち、機能制御部220は、上記のカメラパラメータに基づいて情報処理装置20の特性に応じた種々の動作を制御してよい。
例えば、情報処理装置20が自動運転AIである場合、機能制御部220は、移動体30の動作を制御する動作制御部としての機能を有してよい。すなわち、この場合、機能制御部220は、自己位置推定の結果に基づいて、移動体30の運転制御を行うことができる。
また、例えば、情報処理装置20が仮想現実や拡張現実に係る機能を有するHMDなどである場合、機能制御部220は、上記のカメラパラメータに基づいて、仮想現実または拡張現実に係る表示制御を行う表示制御部としての機能を有してよい。すなわち、この場合、機能制御部220は、自己位置推定の結果に基づいて、仮想オブジェクトなどの表示制御を行うことができる。
また、例えば、情報処理装置20がナビゲーション機能を有する装置である場合、機能制御部220は、上記のカメラパラメータに基づいて、移動体30に係る経路ナビゲーションを行うナビゲーション部としての機能を有してよい。すなわち、この場合、機能制御部220は、自己位置推定の結果に基づいて、精度の高いナビゲーションを実現することができる。
(サーバ通信部230)
サーバ通信部230は、収集された観測情報に基づいて情報処理サーバ10から推奨特徴点リストを取得する機能を有する。ここで、情報処理装置20が自動運転AIやナビゲーション装置である場合、上記の観測情報は、移動体30に備えられたセンサから取得された観測情報であってよい。また、情報処理装置20がHMDやウェアラブル装置である場合、上記の観測情報は、情報処理装置20が備える各種のセンサにより取得される観測情報であってよい。
また、サーバ通信部230は、収集された環境情報にさらに基づいて、上記の推奨特徴点リストを取得できてよい。この際、取得される推奨特徴点リストは、環境情報に関連付いた特徴点リストであってよい。
また、上記の環境情報は、情報処理装置20や移動体30が備える各種のセンサから取得される情報であってもよいし、サーバ通信部230がネットワークを介して取得した情報であってもよい。サーバ通信部230は、例えば、インターネット上から取得した気象情報に基づいて、情報処理サーバ10に推奨特徴点リストを要求することができる。
以上、本実施形態に係る情報処理装置20について詳細に説明した。上述したとおり、本実施形態に係る情報処理装置20は、取得した観測情報と環境情報とに基づいて、情報処理サーバ10から推奨特徴点リストを受信することができる。また、情報処理装置20は、上記の推奨特徴点リストを用いて、精度の高い自己位置推定を実現することができる。本実施形態に係る情報処理装置20によれば、自己位置推定に基づく制御を大幅に改善することが可能となる。
<<2.4.推奨特徴点リスト生成の概要>>
次に、本実施形態に係る推奨特徴点リストの生成について概要を説明する。上述したとおり、本実施形態に係る情報処理サーバ10は、収集した観測情報に基づいて単位エリアに係る推奨特徴点リストを生成することができる。この際、本実施形態に係る情報処理サーバ10は、環境情報に関連付いた推奨特徴点リストを生成してよい。
ここで、上記の環境情報は、天候、照明環境、大気状態、時刻、または日付などに係る情報を含んでよい。上記の天候には、例えば、雨、雪、霧、雲の状態などが含まれてよい。本実施形態に係る情報処理サーバ10は、例えば、同一の単位エリアに対して、雨天の環境に関連付いた推奨特徴点リストや、夜間の環境に関連付いた推奨特徴点リストなどの複数のリストを生成することができる。
情報処理装置20は、現在の環境状態に応じた上記の推奨特徴点リストを取得することで、雨天時に観測可能な特徴点や、夜間に観測可能な特徴点のリストを参照することが可能となり、自己位置推定に係る精度を向上させることができる。
図8は、本実施形態の情報処理サーバ10による推奨特徴点リストの生成に係る入出力データを示す概念図である。図8を参照すると、本実施形態に係る情報処理サーバ10は、入力される各種の情報に基づいて、単位エリア及び環境情報に関連付いた推奨特徴点リストを出力することができる。
ここで、情報処理サーバ10に入力される情報には、観測情報、制御情報、地図情報、及び環境情報などが含まれてよい。
上記の観測情報には、例えば、RGDB画像や、レーザーレンジファインダー情報が含まれてよい。また、観測情報には、GPS、Wi−Fi、地磁気センサ、気圧センサ、温度センサ、加速度センサ、ジャイロセンサ及び振動センサなどから得た情報が含まれてよい。上記の観測情報は、移動体30や情報処理装置20に備えられるセンサから取得されてよい。
また、上記の制御情報は、例えば、移動体30の制御に係る情報を含んでよい。具体的には、制御情報には、速度情報や操舵情報が含まれてよい。情報処理サーバ10は、制御情報を、観測情報の観測地点に係る位置推定に用いることができる。
また、上記の地図情報には、例えば、三次元地図や道路地図などの情報が含まれてよい。ここで、三次元地図とは、三次元特徴点地図であってもよいし、ポリゴン化された三次元モデル地図であってもよい。本実施形態に係る三次元地図は、静物体に係る特徴点群により示される地図に限定されず、各特徴点の色情報や、物体認識結果に基づく属性情報及び物性情報などが付加された種々の地図であってよい。
また、上記の環境情報は、上述したとおり、天気予報を含む気象情報や時間情報を含んでよい。また、室内空間に係る推奨特徴点リストを生成する場合、環境情報には、照明環境などの情報が含まれてよい。
以上、情報処理サーバ10に入力される各種の情報について説明した。本実施形態に係る情報処理サーバ10は、上記の各種の情報に基づいて、単位エリア及び環境情報に関連付いた推奨特徴点リストを出力することができる。
この際、情報処理サーバ10は、図8に示すように、データ選択部110による使用データの選択、特徴点抽出部120による特徴点地図生成、リスト生成部130による推奨特徴点の抽出、を順に処理することで、上記の推奨特徴点リストを出力してよい。
図9は、上記の処理を経て情報処理サーバ10により出力される推奨特徴点リストのデータ構成例である。図9を参照すると、本実施形態に係る推奨特徴点リストは、単位エリア座標、ID、特徴点座標、及び特徴量ベクトルなどの情報を含んでよい。図9を参照すると、単位エリア座標及び特徴点座標は、X軸、Y軸、及びZ軸による三次元座標により表されている。この際、単位エリアに係る空間の大きさは、図9に示されるような一点の座標点から所定の距離を含むように設計されてもよい。また、単位エリアに係る空間の大きさは、複数の座標地点により定義されてもよい。この場合、推奨特徴点リストにおける単位エリア座標は、複数の座標点により定義されてもよい。
また、図9に示すように、本実施形態に係る推奨特徴点リストは、特徴点に係る局所特徴量ベクトルを含んでいる。ここで、局所特徴量ベクトルは、局所特徴量を抽出する際に用いられる局所記述子などに応じたデータ型であってよい。例えば、局所特徴量の抽出にSIFT(Scale Invariant Feature Transform)が用いられる場合、局所特徴量ベクトルは、128次元の特徴量ベクトルで表されてよい。また、後述するニューラルネットワークを用いて局所特徴量を抽出する場合においては、当該ニューラルネットワークに出力使用に応じたベクトルで表されてよい。
以上、本実施形態に係る推奨特徴点リストのデータ構成例について説明した。本実施形態に係る情報処理サーバ10は、上記で説明したような推奨特徴点リストを生成することで、情報処理装置20により自己位置推定の精度を向上させることが可能である。
<<2.5.使用データ選択の詳細>>
次に、本実施形態に係るデータ選択部110による使用データの選択について詳細に説明する。上述したとおり、本実施形態に係るデータ選択部110は、推奨特徴点リストを生成する対象の単位エリア、及び環境状態に基づいて、使用するデータの選択を行うことができる。図10は、本実施形態に係るデータ選択部110に係る入出力を説明する概念図である。
図10を参照すると、本実施形態に係るデータ選択部110は、入力される情報に基づいて、推奨特徴点リストの生成に用いる使用データを選択することができる。すなわち、本実施形態に係るデータ選択部110は、入力情報に基づいて、対象の単位エリア及び環境状態に適合する観測情報を選別する機能を有する。なお、データ選択部110に入力される各種の情報については、図8を用いて説明した入力情報と共通であるため、説明を省略する。また、図10においては、データ選択部110が有する使用データ選択機能が機能B1として示されている。
以下、図11を参照して、本実施形態に係る使用データ判定の流れについて詳細に説明する。図11は、本実施形態の使用データ判定に係る流れを示すフローチャートである。
図11を参照すると、データ選択部110は、まず、対象単位エリア及び対象環境の設定を行う(S1101)。この際、データ選択部110は、道路情報を含む地図情報、通行情報、または歩行履歴などに基づいて対象となる単位エリアの設定を行ってもよい。すなわち、本実施形態に係る情報処理サーバ10は、交通量や歩行者の多いエリアを対象単位エリアとして重点的に設定することで、より価値の高い推奨特徴点リストを生成することができる。なお、この場合、上記の情報は、入力される道路地図や三次元地図に含まれる情報であってよい。
また、本実施形態に係るデータ選択部110は、ユーザによる入力に基づいて、対象単位エリア及び対象環境を設定してもよい。この場合、ユーザは単位エリアに係る座標位置や、天候及び時刻などの情報を任意に入力することが対象の設定を行うことができる。
次に、データ選択部110は、取得された観測情報の環境適合判定を行う(S1102)。この際、データ選択部110は、例えば、観測情報に紐付いた観測時間などに基づいて上記の環境適合判定を行ってもよい。また、データ選択部110は、入力された天気予報を含む気象情報に基づいて、環境適合判定を行うことができる。
また、気象情報の入力がない場合においては、データ選択部110は、観測情報に含まれる各種のセンサ情報から天候などを認識し環境適合判定を行ってもよい。データ選択部110は、例えば、取得した画像情報から天候を判断してもよい。
ここで、観測情報が対象環境に適合しない場合(S1102:非適合)、データ選択部110は、当該観測情報を非選択とし(S1106)、次の観測情報に係る使用判定に移行してよい。
一方、観測情報が対象環境に適合する場合(S1102:適合)、データ選択部110は、続いて、観測位置の推定を行う(S1103)。すなわち、データ選択部110は、観測情報が取得された位置の推定を行ってよい。
この際、入力情報に観測時に係るGPS情報が含まれている場合、データ選択部110は、当該GPS情報用いて、おおまかな観測位置と向きを推定することができる。一方、観測時に係るGPS情報が入力されていない場合、データ選択部110は、直前のGPS情報や、地図情報、制御情報に基づいて、おおまかな観測位置と向きを推定することができる。ここで、上記の制御情報は、上述したとおり、例えば、移動体30から取得される速度情報や操舵情報であってよい。
例えば、データ選択部110は、トンネル内を移動体30が300メートル走行したことを検出し、直前のGPS情報に基づいて上記の観測位置を推定することができる。また、データ選択部110は、Wi−Fi情報に基づいて、おおまかな観測位置を推定することも可能である。データ選択部110が有する上記の機能によれば、トンネル内、屋内、地下、マルチパス環境などにおいて取得された観測情報に係るおおまかな観測位置を推定することが可能となる。
観測位置の推定が完了すると、続いて、データ選択部110は、推定した観測位置と対象となる単位エリアとの距離を算出し、観測位置に係る適合判定を行う(S1104)。この際、データ選択部110は、観測位置と対象となる単位エリアとの距離が所定の閾値ε以上である場合(S1104:No)、対象となる単位エリアに係る観測情報ではないと判定し、データの非選択を決定してよい(S1106)。
一方、観測位置と対象となる単位エリアとの距離が所定の閾値εより小さい場合(S1104:Yes)、データ選択部110は、対象となる単位エリアに係る観測情報であると判定し、当該観測情報を選択してよい(S1105)。
以上、本実施形態に係るデータ選択部110による使用データ選択の詳細について説明した。上述したとおり、本実施形態に係るデータ選択部110は、取得した観測情報を含む入力情報に基づいて、推奨特徴点リストの生成に用いる観測情報を選択することができる。
<<2.6.三次元地図生成の詳細>>
次に、本実施形態に係る三次元地図生成の詳細について説明する。本実施形態に係る特徴点抽出部120は、データ選択部110が選択した観測情報に基づいて、特徴点地図を生成することができる。図12は、特徴点抽出部120に係る入出力の概念図である。なお、図12においては、特徴点抽出部120が有する各機能が機能B2〜B5として示されている。
(特徴点検出)
図12を参照すると、特徴点抽出部120は、データ選択部110が選択した複数の観測情報から特徴点を検出し記述する機能を有する(機能B2)。この際、特徴点抽出部120は、例えば、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの局所記述子を用いて特徴点の検出を行ってよい。また、例えば、特徴点抽出部120は、Harrisのコーナー検出法などを用いることもできる。
(特徴点マッチング)
また、特徴点抽出部120は、機能B2から出力される複数の観測情報に係る特徴点の記述に基づいて、各特徴点のマッチングを行う機能を有する(機能B3)。この際、特徴点抽出部120は、複数の観測情報間で対応関係にある特徴点をマッチングする。この際、特徴点抽出部120は、特徴点検出に用いた手法に対応したマッチングを行ってよい。例えば、特徴点検出にSIFTやSURFを用いた場合、特徴点抽出部120はそれぞれの局所記述子で広く用いられる手法を利用して、上記のマッチングを行ってもよい。
また、特徴点抽出部120は、特徴点マッピングの際、観測情報に含まれるGPS、地磁気センサ、Wi−Fi、気圧センサ、加速度センサ、ジャイロセンサ、及び振動センサにより取得されたセンサ情報を用いてよい。特徴点抽出部120は、上記のセンサ情報から算出したおおまかな位置情報を用いることで、特徴点マッピングを効率化することができる。
(カメラパラメータの算出)
また、特徴点抽出部120は、機能B3から出力されるマッチング情報に基づいて、特徴点の三次元座標を算出し、当該特徴点の三次元座標から各観測情報に対応したカメラパラメータを算出する機能を有する(機能B4)。ここで、上記のカメラパラメータは、カメラの有する自由度のベクトルや各種の内部パラメータを含んでよい。例えば、本実施形態に係るカメラパラメータは、カメラの位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx、Φy、Φz)と、であってよい。また、本実施形態に係るカメラパラメータは、例えば、焦点距離、F値、せん断係数などの内部パラメータを含んでよい。
この際、特徴点抽出部120は、連続するフレーム(RGBD画像)間における特徴点の位置、カメラ間の位置ベクトル、カメラの3軸回転ベクトル、及び各カメラ間位置と特徴点とを結ぶベクトルなどの相対値を連続的に算出してよい。特徴点抽出部120は、エピポーラ幾何に基づくエピポーラ方程式を解くことで上記の算出を行うことができる。
また、特徴点抽出部120は、カメラパラメータの算出の際、上述したセンサ情報から算出したおおまかな位置情報を用いることで、カメラパラメータの算出を効率化することができる。
(投影誤差最小化)
また、特徴点抽出部120は、機能B4から出力されるカメラパラメータに基づいて、投影誤差の最小化を行う機能を有する(機能B5)。具体的には、特徴点抽出部120は、各カメラパラメータと各特徴点の位置分布を最小化する統計処理を行う。
この際、特徴点抽出部120は、誤差の大きい特徴点を検出し当該特徴点を削除することで、投影誤差の最小化を行うことができる。特徴点抽出部120は、例えば、Levenberg−Marquardt法により最小自乗法の最適解を推定してもよい。これにより、特徴点抽出部120は、誤差を収束したカメラ位置、カメラ回転行列、特徴点の三次元座標を求めることができる。
以上、本実施形態に係る特徴点地図生成の詳細について説明した。上述したとおり、本実施形態に係る特徴点抽出部120は、データ選択部110が選択した観測情報に基づいて、特徴点地図を生成することができる。すなわち、本実施形態に係る特徴点抽出部120は、対象の単位エリア及び対象の環境に係る特徴点地図を生成することが可能である。なお、ここで、上記の特徴点地図には、特徴点に係る三次元座標位置とその誤差、及びカメラ位置とその誤差が含まれてよい。
<<2.7.推奨特徴点リスト生成の詳細>>
次に、本実施形態に係る推奨特徴点リスト生成の詳細について説明する。図13は、本実施形態のリスト生成部130に係る入出力の概念図である。図13を参照すると、本実施形態に係るリスト生成部130は、入力された特徴点地図に基づいて、単位エリア及び環境情報に関連付いた推奨特徴点リストを出力している。ここで、上記の特徴点地図は、特徴点抽出部120により生成された特徴点地図であってよい。なお、図13においては、リスト生成部130が有する推奨特徴点リスト生成機能が機能B6として示されている。
以下、図14を参照して、本実施形態に係る推奨特徴点リスト生成の流れについて詳細に説明する。図14は、本実施形態の推奨特徴点リスト生成に係る流れを示すフローチャートである。
図14を参照すると、リスト生成部130は、まず特徴点地図に記述される特徴点の順位付けを行う(S1201)。この際、リスト生成部130は、特徴点地図が有する特徴点の投影誤差及びカメラ位置誤差に基づいて、上記の順位付けを行ってもよい。すなわち、本実施形態に係るリスト生成部130は、投影誤差やカメラ位置誤差がより少ない特徴点を信頼度が高い特徴点として判定することができる。
また、リスト生成部130は、単位エリアの性質に応じた特徴点の順位付けを行ってもよい。例えば、リスト生成部130は、特徴点地図に基づく物体認識の結果に基づいて、より信頼度の高い特徴点を選択することもできる。例えば、リスト生成部130は、室内に係る単位空間においては、建造物とは独立した静物体に係る特徴点を信頼度が高い特徴点として判定することもできる。
また、リスト生成部130は、特徴点が観測された観測情報の数に基づいて上記の順位付けを行うことができる。すなわち、本実施形態に係るリスト生成部130は、単位エリア内においてより多くの観測地点から観測され得る特徴点を信頼度が高い特徴点として判定することができる。
また、リスト生成部130は、対象単位エリア近傍に位置する別の単位エリアにおいて観測された観測情報の数に基づいて、上記の順位付けを行うこともできる。図15は、近傍の単位エリアから観測され得る特徴点について説明するための図である。
図15には、複数の単位エリアA2〜A5が示されており、単位エリアA2には特徴点F6が存在している。また、単位エリアA3〜A5には、それぞれ観測地点L5〜L7が示されている。ここで、単位エリア2は、推奨特徴点リストを生成する対象の単位エリアであってよい。
図15を参照すると、近傍の単位エリアに該当する単位エリアA3〜A5における観測地点L5〜7からは、対象単位エリアである単位エリアA2に存在する特徴点F6が観測できることがわかる。
本実施形態に係るリスト生成部130は、図15に示すように、対象単位エリアの近傍に位置する単位エリアからの観測情報に基づいて、特徴点の順位付けを行ってよい。すなわち、リスト生成部130は、より多くの範囲において観測され得る特徴点を信頼度が高い特徴点として判定することができる。リスト生成部130が近傍単位エリアにおいて取得された観測情報に基づいて上記の順位付けを行うことで、例えば、対象単位エリアに進入してくる移動体30が観測し得る特徴点を推奨特徴点リストに含めることができる。これにより、移動体30に搭載される情報処理装置20は、移動体30の移動方向に存在する特徴点情報に基づいた制御を行うことが可能となる。
再び図14を用いて説明を続ける。特徴点の順位付けを行った後、リスト生成部130は、上記の順位付けに基づいてN個の特徴点を推奨特徴点リストに登録する(S1202)。ここで、登録される特徴点の数は、予め定められた所定の数であってよい。なお、上記の所定の数は、対象単位エリアの大きさや性質などに応じて動的に設定されてもよい。また、上記の所定の数は、対象環境の性質に応じて動的に設定されてもよい。
次に、リスト生成部130は、位置誤差に係る判定を行う(S1203)。この際、リスト生成部130は、図11に示すステップS1103において推定した位置情報と特徴点抽出時に算出した位置情報とを比較してよい。
ここで、上記の位置誤差が所定の閾値εよりも大きい場合(S1203:Yes)、リスト生成部130は、さらにm個の特徴点を推奨特徴点リストに登録してよい(S1204)。位置誤差が大きい単位エリアはGPS情報が取得しづらいなど位置推定が困難なことが想定されるため、リスト生成部130は、上記のような単位エリアに対し重点的に特徴点を登録することがでる。
また、リスト生成部130は、SLAMなどの技術を用いて、例えばGPSによる高精度な位置情報を取得可能な地点Xから別の地点Yに係る自己位置同定を連続的に行い、取得される誤差から各特徴点の信頼度を逆算することもできる。また、この際、リスト生成部130は、同一の経路において採用する特徴点の組み合わせを変更し、複数回上記の処理を行ってもよい。この場合、リスト生成部130は、採用する特徴点の組み合わせにより誤差の結果が変化することを利用して、特徴点の信頼度を逆算することができる。
一方、上記の位置誤差が所定の閾値ε以下である場合(S1203:No)、リスト生成部130は、局所特徴量の記述を行う(S1205)。なお、ここで、本実施形態に係る局所特徴量とは、画像上における特徴点の見え方を記述するベクトルであってよい。すなわち、本実施形態に係る局所特徴量とは、画像中における局所領域の特徴をベクトルにより表したものである。
また、この際、リスト生成部130は、ニューラルネットワークを用いた特徴量抽出器などにより上記の局所特徴量を記述してもよい。ここで、上記の特徴量抽出器は、ディープラーニング(Deep Learning:深層学習)や強化学習などにより局所特徴量に係る記述能力を獲得した学習器であってよい。
上記の特徴量抽出器は、例えば、世界中から取得された特徴点データから異なる特徴量を見分ける学習を行うことで、局所特徴量に係る記述能力を獲得することが可能である。また、特徴量抽出器は、上記の学習により、照明などを含む環境変化による見え方の違いを吸収することが可能であり、精度の高特徴量記述を実現することができる。
なお、上記ではニューラルネットワークによる学習について説明したが、本実施形態に係る特徴量抽出器は係る例に限定されない。本実施形態に係る特徴量抽出器は、入力と出力の関係から法則性を獲得する学習器であってよい。
また、本実施形態に係るリスト生成部130は、上記の特徴量抽出器に依らず、局所記述子を用いて、局所特徴量を記述することもできる。この場合、リスト生成部130は、上述したSIFTやSURFなどの局所記述子を用いて、局所特徴量を記述してもよい。
以上、本実施形態に係る推奨特徴点リスト生成の詳細について説明した。上述したとおり、本実施形態に係るリスト生成部130は、特徴点地図に記述される特徴点の順位付けを行い、より信頼度の高い特徴点を推奨特徴点リストに登録することができる。
<<2.8.本実施形態に係る作用効果>>
以上、本実施形態に係る情報処理サーバ10が有する機能について詳細に説明した。上述したとおり、本実施形態に係る情報処理サーバ10は、対象単位エリア及び対象環境に基づいて、使用する観測情報の選択を行うことができる。また、情報処理サーバ10は、対象単位エリアかつ対象環境に該当する観測情報を用いて特徴点地図を生成することができる。また、情報処理サーバ10は、特徴点地図に記述される特徴点を順位付けし、信頼度の高い特徴点を推奨特徴点リストに含めることができる。
本実施形態に係る情報処理サーバ10が有する上記の機能によれば、情報処理装置20の自己位置推定に係る手順削減を実現し、また、高精度の自己位置推定を実現することが可能となる。また、本実施形態に係る推奨特徴点リストによれば、特徴量情報に基づく安定的な自己位置推定を実現することが可能となる。また、本実施形態に係る推奨特徴点リストによれば、現在位置からの推奨特徴点の逆引きが容易となり、情報処理装置20が行う制御の精度を向上させることが可能である。
<<2.9.情報処理装置20の自己位置推定>>
次に、本実施形態に係る情報処理装置20の自己位置推定について説明する。上述したとおり、本実施形態に係る情報処理装置20は、情報処理サーバ10から受信した推奨特徴点リストを利用して自己位置推定を行うことができる。
以下、図16を参照して、本実施形態に係る情報処理装置20による自己位置推定の流れについて説明する。図16は、本実施形態に係る情報処理装置20による自己位置推定の流れを示すフローチャートである。
図16を参照すると、まず、情報処理装置20のサーバ通信部230は、取得された観測情報、制御情報、環境情報を情報処理サーバ10に送信する(S1301)。ここで、上記の観測情報は、情報処理装置20や移動体30に備えられる各種のセンサから取得された情報であってよい、また、上記の制御情報には、移動体30の速度情報や操舵情報が含まれてもよい。
続いて、サーバ通信部230は、情報処理サーバから推奨特徴点リストを受信する(S1302)。この際、上記の推奨特徴点リストは、ステップS1301で送信した観測情報などに基づいて送信されてよい。すなわち、情報処理装置20は、単位エリアや環境状態に応じた推奨特徴点リストを取得することができる。
次に、演算部210は、ステップS1303で受信した推奨特徴点リストを用いて自己位置推定を行う(S1303)。この際、演算部210は、三次元位置、姿勢情報、速度、加速度、3軸回転姿勢、3軸回転速度、3軸回転加速度などを含むカメラパラメータを算出することができる。
続いて、機能制御部220は、ステップS1303で算出されたカメラパラメータに基づいて各種の制御を実行する。情報処理装置20は、上記のカメラパラメータに基づいて、移動体30の動作制御を行うことができる(S1304)。
また、情報処理装置20は、上記のカメラパラメータに基づいて、仮想現実や拡張現実に係る表示制御を行うことができる(S1305)。
また、情報処理装置20は、上記のカメラパラメータに基づいて、ナビゲーションに係る制御を行うことができる(S1306)。
なお、上記で示したステップS1304〜S1306に示される処理は同時に実行されてもよい。また、情報処理装置20は、ステップS1304〜S1306に係る処理のいずれかを実行してもよい。
以上、本実施形態に係る情報処理装置20の自己位置推定の流れについて説明した。次に、図17を用いて情報処理装置20の演算部210に係る入出力について説明する。
図17を参照すると、本実施形態に係る演算部210は、入力される各種の情報に基づいて、カメラパラメータを出力することがわかる。この際、演算部210は、情報処理サーバ10から取得した推奨特徴点リストを用いて特徴点のマッピングを行うことができる。なお、上記のパラメータには、図16を用いて説明した各種の情報が含まれてよい。
また、図17においては、演算部210が有する各機能が機能B7〜B10として示されている。すなわち、演算部210は、特徴点記述機能(B7)、特徴点マッチング機能(B8)、カメラパラメータ算出機能(B9)、及び投影誤差最小化機能(B10)を有してよい。上記の機能B7〜B10については、図12で示した機能B2〜B5と同様の機能であってよいため、ここでは説明を省略する。
以上、本実施形態に係る情報処理装置20の自己位置推定について述べた。上述したとおり、本実施形態に係る情報処理装置20は、単位エリア及び環境状態に応じた推奨特徴点リストを取得することができる。また、情報処理装置20は、取得した推奨特徴点リストを用いてカメラパラメータの算出を行うことができる。本実施形態に係る情報処理装置20が有する上記の機能によれば、自己位置推定に係る処理負担を軽減し、かつ精度の高い自己位置推定を実現することが可能となる。
<3.ハードウェア構成例>
次に、本開示に係る情報処理サーバ10及び情報処理装置20に共通するハードウェア構成例について説明する。図18は、本開示に係る情報処理サーバ10及び情報処理装置20のハードウェア構成例を示すブロック図である。図18を参照すると、情報処理サーバ10及び情報処理装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力装置879)
出力装置879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<4.まとめ>
以上説明したように、本開示に係る情報処理サーバ10は、対象単位エリア及び対象環境に基づいて、使用する観測情報の選択を行うことができる。また、情報処理サーバ10は、対象単位エリアかつ対象環境に該当する観測情報を用いて特徴点地図を生成することができる。また、情報処理サーバ10は、特徴点地図に記述される特徴点を順位付けし、信頼度の高い特徴点を推奨特徴点リストに含めることができる。また、本開示に係る情報処理装置20は、単位エリア及び環境状態に応じた推奨特徴点リストを取得することができる。また、情報処理装置20は、取得した推奨特徴点リストを用いてカメラパラメータの算出を行うことができる。係る構成によれば、実世界の状態に応じたより精度の高い位置情報を提供することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
プロセッサが、単位エリア周辺において収集された観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成すること、
を含む、
情報処理方法。
(2)
前記特徴点リストを生成することは、環境情報に関連付いた前記特徴点リストを生成すること、
をさらに含む、
前記(1)に記載の情報処理方法。
(3)
前記環境情報は、天候、照明環境、大気状態、時刻、または日付のうち少なくともいずれかに係る情報を含む、
前記(2)に記載の情報処理方法。
(4)
前記特徴点リストを生成することは、前記単位エリアごとに前記特徴点を順位付けした特徴点リストを生成すること、
をさらに含む、
前記(1)〜(3)のいずれかに記載の情報処理方法。
(5)
前記特徴点リストを生成することは、前記特徴点の投影誤差、または前記観測情報の観測地点に係る位置誤差のうち少なくとも一方に基づいて、前記順位付けを行うこと、
をさらに含む、
前記(4)に記載の情報処理方法。
(6)
前記特徴点リストを生成することは、前記特徴点に係る観測情報の数に基づいて、前記順位付けを行うこと、
をさらに含む、
前記(4)または(5)に記載の情報処理方法。
(7)
前記特徴点リストを生成することは、前記特徴点リストを生成する単位エリアの近傍に位置する別の単位エリアにおいて観測された、前記特徴点に係る観測情報の数に基づいて、前記順位付けを行うこと、
をさらに含む、
前記(4)〜(6)のいずれかに記載の情報処理方法。
(8)
前記単位エリアは、屋内空間におけるエリアである、
前記(1)〜(7)のいずれかに記載の情報処理方法。
(9)
前記特徴点リストを生成することは、地図情報、通行履歴、または歩行履歴のうち少なくともいずれかに基づいて選択した単位エリアに係る前記特徴点リストを生成すること、
をさらに含む、
前記(1)〜(7)のいずれかに記載の情報処理方法。
(10)
情報処理装置からの要求に基づいて、前記特徴点リストを前記情報処理装置に送信すること、
をさらに含む、
前記(1)〜(9)のいずれかに記載の情報処理方法。
(11)
取得された画像情報から特徴点及び前記特徴点に係る局所特徴量を抽出する演算部と、
収集された観測情報に基づいて特徴点リストを取得する通信部と、
を備え、
前記演算部は、前記局所特徴量と前記特徴点リストに基づいて自己位置推定を行い、
前記特徴点リストは、前記観測情報の観測地点を含む単位エリアに関連付いた前記特徴点の三次元座標位置、及び前記特徴点に係る局所特徴量を含む、
情報処理装置。
(12)
前記通信部は、収集された環境情報にさらに基づいて前記特徴点リストを取得し、
前記特徴点リストは、前記環境情報に関連付いた特徴点リストである、
前記(11)に記載の情報処理装置。
(13)
前記演算部は、前記画像情報を取得した撮像部のカメラパラメータを算出し、
前記カメラパラメータは、三次元座標位置、姿勢情報、速度、加速度、3軸回転姿勢、3軸回転速度、または3軸回転加速度のうち少なくともいずれかを含む、
前記(11)または(12)に記載の情報処理装置。
(14)
前記カメラパラメータに基づいて移動体の動作を制御する動作制御部、
をさらに備える、
前記(13)に記載の情報処理装置。
(15)
前記カメラパラメータに基づいて仮想現実または拡張現実のうち少なくともいずれかに係る表示制御を行う表示制御部、
をさらに備える、
前記(13)または(14)に記載の情報処理装置。
(16)
前記カメラパラメータに基づいて移動体に係る経路ナビゲーションを行うナビゲーション部、
をさらに備える、
前記(13)〜(15)のいずれかに記載の情報処理装置。
(17)
単位エリア周辺において収集された観測情報を受信する通信部と、
前記観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成するリスト生成部、
を備える、
情報処理装置。
10 情報処理サーバ
110 データ選択部
120 特徴点抽出部
130 リスト生成部
140 装置通信部
20 情報処理装置
210 演算部
220 機能制御部
230 サーバ通信部
30 移動体
40 ネットワーク

Claims (9)

  1. プロセッサが、単位エリア周辺において収集された観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成すること、
    を含
    前記特徴点リストを生成することは、前記単位エリアごとに前記特徴点を順位付けした特徴点リストを生成すること、をさらに含み、
    前記特徴点リストを生成することは、前記特徴点リストを生成する単位エリアの近傍に位置する別の単位エリアにおいて観測された、前記特徴点に係る観測情報の数に基づいて、前記順位付けを行うこと、をさらに含む、
    情報処理方法。
  2. 前記特徴点リストを生成することは、環境情報に関連付いた前記特徴点リストを生成すること、
    をさらに含む、
    請求項1に記載の情報処理方法。
  3. 前記環境情報は、天候、照明環境、大気状態、時刻、または日付のうち少なくともいずれかに係る情報を含む、
    請求項2に記載の情報処理方法。
  4. 前記特徴点リストを生成することは、前記特徴点の投影誤差、または前記観測情報の観測地点に係る位置誤差のうち少なくとも一方に基づいて、前記順位付けを行うこと、
    をさらに含む、
    請求項1〜3のいずれか1項に記載の情報処理方法。
  5. 前記特徴点リストを生成することは、前記特徴点に係る観測情報の数に基づいて、前記順位付けを行うこと、
    をさらに含む、
    請求項1〜4のいずれか1項に記載の情報処理方法。
  6. 前記単位エリアは、屋内空間におけるエリアである、
    請求項1〜のいずれか1項に記載の情報処理方法。
  7. 前記特徴点リストを生成することは、地図情報、通行履歴、または歩行履歴のうち少なくともいずれかに基づいて選択した単位エリアに係る前記特徴点リストを生成すること、
    をさらに含む、
    請求項1〜のいずれか1項に記載の情報処理方法。
  8. 情報処理装置からの要求に基づいて、前記特徴点リストを前記情報処理装置に送信すること、
    をさらに含む、
    請求項1〜のいずれか1項に記載の情報処理方法。
  9. 単位エリア周辺において収集された観測情報を受信する通信部と、
    前記観測情報から検出した特徴点の三次元座標と、前記特徴点の局所特徴量と、を関連付けた特徴点リストを生成するリスト生成部、
    を備え
    前記リスト生成部は、前記単位エリアごとに前記特徴点を順位付けした特徴点リストを生成し、
    前記リスト生成部は、前記特徴点リストを生成する単位エリアの近傍に位置する別の単位エリアにおいて観測された、前記特徴点に係る観測情報の数に基づいて、前記順位付けを行う
    情報処理装置。
JP2018508398A 2016-03-30 2016-12-27 情報処理方法および情報処理装置 Active JP6897668B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016068929 2016-03-30
JP2016068929 2016-03-30
PCT/JP2016/088890 WO2017168899A1 (ja) 2016-03-30 2016-12-27 情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2017168899A1 JPWO2017168899A1 (ja) 2019-02-07
JP6897668B2 true JP6897668B2 (ja) 2021-07-07

Family

ID=59963882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018508398A Active JP6897668B2 (ja) 2016-03-30 2016-12-27 情報処理方法および情報処理装置

Country Status (4)

Country Link
US (1) US10949712B2 (ja)
EP (1) EP3438925A4 (ja)
JP (1) JP6897668B2 (ja)
WO (1) WO2017168899A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6882664B2 (ja) * 2017-02-07 2021-06-02 富士通株式会社 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法
JP6894725B2 (ja) * 2017-03-09 2021-06-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
US10424079B2 (en) * 2017-04-05 2019-09-24 Here Global B.V. Unsupervised approach to environment mapping at night using monocular vision
JP2019074532A (ja) * 2017-10-17 2019-05-16 有限会社ネットライズ Slamデータに実寸法を付与する方法とそれを用いた位置測定
IL274426B2 (en) 2017-11-14 2024-01-01 Magic Leap Inc Discovering and describing a fully complex point of interest using homographic processing
JP6783742B2 (ja) * 2017-11-24 2020-11-11 Kddi株式会社 パラメータ特定装置及びパラメータ特定方法
JP2019149621A (ja) * 2018-02-26 2019-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10816984B2 (en) 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
JP2019197350A (ja) * 2018-05-09 2019-11-14 株式会社日立製作所 自己位置推定システム、自律移動システム及び自己位置推定方法
JP6766843B2 (ja) * 2018-05-17 2020-10-14 株式会社Soken 自己位置推定装置
WO2020102417A1 (en) 2018-11-15 2020-05-22 Magic Leap, Inc. Systems and methods for performing self-improving visual odometry
US11694303B2 (en) * 2019-03-19 2023-07-04 Electronics And Telecommunications Research Institute Method and apparatus for providing 360 stitching workflow and parameter
CN110348463B (zh) * 2019-07-16 2021-08-24 北京百度网讯科技有限公司 用于识别车辆的方法和装置
US11640677B2 (en) 2019-10-15 2023-05-02 Alarm.Com Incorporated Navigation using selected visual landmarks
JPWO2021117552A1 (ja) * 2019-12-10 2021-06-17
CN115552477A (zh) 2020-05-01 2022-12-30 奇跃公司 采用施加的分层归一化的图像描述符网络
DE102021000652A1 (de) 2021-02-09 2022-08-11 Mercedes-Benz Group AG Verfahren zur Prädikation verkehrsführungsrelevanter Parameter
WO2023090213A1 (ja) 2021-11-18 2023-05-25 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP2023150740A (ja) * 2022-03-31 2023-10-16 株式会社アイシン 自己位置誤差推定装置及び自己位置誤差推定方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (ja) * 2003-10-21 2005-04-28 Waro Iwane ナビゲーション装置
DE112006003380T5 (de) * 2005-12-16 2008-10-16 Ihi Corporation Verfahren und Vorrichtung für die Positionsabgleichung von dreidimensionalen Formdaten
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US8189925B2 (en) * 2009-06-04 2012-05-29 Microsoft Corporation Geocoding by image matching
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5505723B2 (ja) * 2010-03-31 2014-05-28 アイシン・エィ・ダブリュ株式会社 画像処理システム及び位置測位システム
KR101686171B1 (ko) * 2010-06-08 2016-12-13 삼성전자주식회사 영상 및 거리 데이터를 이용한 위치 인식 장치 및 방법
KR20120071203A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 운전자의 시야 확보 장치 및, 운전자의 시야 확보 방법
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8195394B1 (en) * 2011-07-13 2012-06-05 Google Inc. Object detection and classification for autonomous vehicles
US20140323148A1 (en) * 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
JP6129981B2 (ja) * 2013-10-01 2017-05-17 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
US9365214B2 (en) * 2014-01-30 2016-06-14 Mobileye Vision Technologies Ltd. Systems and methods for determining the status of a turn lane traffic light
JP6394005B2 (ja) * 2014-03-10 2018-09-26 株式会社リコー 投影画像補正装置、投影する原画像を補正する方法およびプログラム
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9958864B2 (en) * 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
CN107554430B (zh) * 2017-09-20 2020-01-17 京东方科技集团股份有限公司 车辆盲区可视化方法、装置、终端、系统及车辆
US10970553B2 (en) * 2017-11-15 2021-04-06 Uatc, Llc Semantic segmentation of three-dimensional data

Also Published As

Publication number Publication date
US20190019062A1 (en) 2019-01-17
JPWO2017168899A1 (ja) 2019-02-07
US10949712B2 (en) 2021-03-16
EP3438925A1 (en) 2019-02-06
WO2017168899A1 (ja) 2017-10-05
EP3438925A4 (en) 2019-04-17

Similar Documents

Publication Publication Date Title
JP6897668B2 (ja) 情報処理方法および情報処理装置
US11328158B2 (en) Visual-inertial positional awareness for autonomous and non-autonomous tracking
US11592845B2 (en) Image space motion planning of an autonomous vehicle
US11749124B2 (en) User interaction with an autonomous unmanned aerial vehicle
US10410328B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
US10366508B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
KR102434580B1 (ko) 가상 경로를 디스플레이하는 방법 및 장치
JP6790417B2 (ja) 情報処理装置及び情報処理サーバ
US11415986B2 (en) Geocoding data for an automated vehicle
WO2022062480A1 (zh) 移动设备的定位方法和定位装置
Magree et al. Monocular visual mapping for obstacle avoidance on UAVs
Magree et al. Monocular visual mapping for obstacle avoidance on UAVs
US11328612B2 (en) System, method, and apparatus for drone positioning control
JP4624000B2 (ja) 複合人工知能装置
WO2021117543A1 (ja) 情報処理装置、情報処理方法、プログラム
US11947354B2 (en) Geocoding data for an automated vehicle
Hernández et al. Visual SLAM with oriented landmarks and partial odometry
JP7327083B2 (ja) 領域切り出し方法および領域切り出しプログラム
CN112700546A (zh) 一种室外大规模三维地图的构建系统与方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R151 Written notification of patent or utility model registration

Ref document number: 6897668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151