WO2019111702A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2019111702A1
WO2019111702A1 PCT/JP2018/042922 JP2018042922W WO2019111702A1 WO 2019111702 A1 WO2019111702 A1 WO 2019111702A1 JP 2018042922 W JP2018042922 W JP 2018042922W WO 2019111702 A1 WO2019111702 A1 WO 2019111702A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
unit
vehicle
advance
information processing
Prior art date
Application number
PCT/JP2018/042922
Other languages
English (en)
French (fr)
Inventor
辰吾 鶴見
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/767,432 priority Critical patent/US11531354B2/en
Publication of WO2019111702A1 publication Critical patent/WO2019111702A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

本技術は、移動体の自己位置を高精度に求めることができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 マップ生成部は、移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、障害物の属性がラベリングされた属性付き占有格子地図を生成し、位置推定部は、属性付き占有格子地図と、あらかじめ用意された属性付き占有格子地図である事前地図とにおける、非動体の形状および属性についてのマッチングにより、移動体の位置を推定する。本技術は、車載用の車両制御システムに適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、移動体の自己位置を高精度に求めることができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
 近年、車両やロボットなどの、自律移動する移動体の自己位置を求めるための様々な手法が提案されている。
 例えば、特許文献1には、平らな壁面や一定の高さの障害物などの、移動体周囲における環境構造を用いることで、移動体の自己位置を推定する手法が開示されている。
特開2011-8320号公報
 しかしながら、特許文献1の手法においては、環境構造の形状を利用して移動体の自己位置を推定しているため、似たような形状の環境構造が存在する場所では、自己位置を誤る可能性があった。
 本技術は、このような状況に鑑みてなされたものであり、移動体の自己位置を高精度に求めることができるようにするものである。
 本技術の一側面の情報処理装置は、移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成するマップ生成部と、前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性についてのマッチングにより、前記移動体の位置を推定する位置推定部とを備える。
 本技術の一側面の情報処理方法は、情報処理装置が、移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する情報処理方法である。
 本技術の一側面のプログラムは、コンピュータに、移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する処理を実行させるプログラムである。
 本技術の一側面においては、移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図が生成され、前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置が推定される。
 本技術の一側面によれば、移動体の自己位置を高精度に求めることが可能となる。
本実施の形態に係る車両制御装置の構成例を示すブロック図である。 自己位置推定処理について説明するフローチャートである。 車両の周囲の環境の例を示す図である。 ラベル付きOccupancy Mapの例を示す図である。 エッジ画像の例を示す図である。 事前マップの例を示す図である。 ラベル付きOccupancy Mapと事前マップとのマッチングについて説明する図である。 ラベル付きOccupancy Mapの他の例を示す図である。 エッジ画像の他の例を示す図である。 事前マップの他の例を示す図である。 事前マップ生成処理について説明するフローチャートである。 事前マップ生成処理について説明するフローチャートである。 車両制御装置の他の構成例を示すブロック図である。 自動運転制御処理について説明するフローチャートである。 車両制御装置のさらに他の構成例を示すブロック図である。 ウェイポイント修正処理について説明するフローチャートである。 移動体制御システムの構成例を示すブロック図である。 コンピュータの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態(自己位置を推定する構成)
 2.事前マップの生成方法
 3.第2の実施の形態(自動運転を行う構成)
 4.第3の実施の形態(ウェイポイントを修正する構成)
 5.移動体制御システムの例
 6.その他
<1.第1の実施の形態>
(車両制御装置の構成例)
 図1は、本技術を適用した第1の実施の形態の車両制御装置の構成例を示すブロック図である。
 図1の車両制御装置10は、自動車などの車両に搭載され、いわゆる電子制御装置(ECU)などの一部として構成される。車両制御装置10は、車両に搭載されたカメラ11やLiDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)12からの信号に基づいて、車両の位置を推定する。
 カメラ11は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどの固体撮像素子を備え、車両の前方を撮像する。撮像された画像は車両制御装置10に出力される。
 LiDAR12は、ToF(Time of Flight)方式を利用して、車両の前方にレーザ光を投光し、障害物で反射した反射光を受光することで、車両の前方にある障害物までの距離を測定する。測定結果として得られた距離情報は車両制御装置10に出力される。
 なお、カメラ11をステレオカメラとして構成することで、カメラ11が取得した車両の前方の奥行き方向の情報を距離情報として、車両制御装置10に出力されるようにしてもよい。この場合、LiDAR12を省略することができる。
 次に、車両制御装置10の詳細な構成について説明する。
 車両制御装置10は、デプスデータ生成部21、セマンティックセグメンテーション部22、ビジュアルオドメトリ部23、マップ生成部24、エッジ抽出部25、位置推定部26、および事前マップ記憶部27を備える。
 デプスデータ生成部21は、カメラ11からの画像と、LiDAR12(またはカメラ11)からの距離情報に基づいて、カメラ11の撮像範囲内にある障害物までの距離を示すデプスデータ(距離画像)を生成する。生成されたデプスデータは、マップ生成部24に供給される。
 セマンティックセグメンテーション部22は、ディープラーニングなどの機械学習によるセマンティックセグメンテーションにより、カメラ11からの画像について、画素単位で被写体の属性を判定し、各画素に対してその属性をラベリングする。
 被写体の属性としては、例えば、自車両の周囲の空間に存在する他の車両(他車両)、バイク、自転車、人(歩行者)、ビルなどの建物、街路樹、信号機、電柱などがある。被写体の属性がラベリングされた画像データは、セマンティックセグメンテーションデータとして、マップ生成部24に供給される。
 ビジュアルオドメトリ部23は、カメラ11からの画像について、フレーム間の差分に基づいて、画像上の特徴点の座標の変位を検知することにより、移動している自車両の速度、位置、および方向を算出する。算出された速度、位置、方向を示す運動データは、マップ生成部24に供給される。
 マップ生成部24は、デプスデータ生成部21、セマンティックセグメンテーション部22、およびビジュアルオドメトリ部23からの各データを用いて、属性付き占有格子地図を生成し、エッジ抽出部25に供給する。属性付き占有格子地図は、自車両の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図(Occupancy Grid Map)に、その障害物の属性がラベリングされたデータである。
 占有格子地図においては、自車両を基準とする一定の範囲内の領域が、格子状に複数のセルに分割され、各セルに障害物が存在するか否かを示す値が設定される。これにより、占有格子地図は、障害物が存在する領域、障害物が存在しないフリースペース、障害物が存在するか定かではない未知の領域に区分される。
 そして、属性付き占有格子地図においては、占有格子地図の障害物が存在する領域に、セマンティックセグメンテーションデータに基づいた属性が付与される。
 このようにして得られた属性付き占有格子地図を、以下においては、ラベル付きOccupancy Mapという。
 エッジ抽出部25は、マップ生成部24からのラベル付きOccupancy Mapにおいて、障害物のうちの非動体とフリースペースとの間のエッジ部分を抽出する。
 ここでいう非動体は、ビルなどの建物、街路樹、信号機、電柱といった通常移動することのない障害物をいう。したがって、ラベル付きOccupancy Mapにおいて、移動する可能性のある他車両、バイク、自転車、人などの動体の属性が付与された障害物は考慮されなくなる。
 エッジ部分が抽出されたラベル付きOccupancy Map(以下、エッジ画像という)は、位置推定部26に供給される。
 位置推定部26は、ラベル付きOccupancy Mapと、事前マップ記憶部27に記憶されている事前マップ(事前地図)とにおける、非動体の形状および属性についてのマッチングにより、自車両の位置(自己位置)を推定する。事前マップは、あらかじめ用意されたラベル付きOccupancy Mapであり、世界座標系の座標を示すものであってもよいし、ローカル座標系の座標を示すものであってもよい。事前マップは、地図データを提供するベンダなどによって生成されたり、車両自体が事前に走行することで生成されたりする。
 具体的には、位置推定部26は、エッジ抽出部25からのエッジ画像と、事前マップ記憶部27に記憶されている事前マップにおける非動体とフリースペースとの間のエッジ部分とにおける、非動体の形状および属性についてのマッチングを行う。マッチングを行うことにより、緯度と経度を表す位置情報、さらには車両の姿勢を表す姿勢情報が得られる。
 また、位置推定部26は、マッチングの結果として得られた位置情報を、ビジュアルオドメトリ部23からの運動データに基づいてフィルタリングする。ここでは、例えばカルマンフィルタを用いることで、自己位置を予測した予測結果と、得られた位置情報とを比較し、重み付け加算する処理が行われる。また、パーティクルフィルタを用いた処理が行われるようにしてもよい。この場合、ビジュアルオドメトリ部23により算出された速度の予測結果を用いて、パーティクルフィルタの各パーティクルの位置を更新し、各位置における事前マップとのマッチング結果を尤度としてパーティクルを生成し、最終的な位置を求める処理が行われる。
(自己位置推定処理)
 次に、図2のフローチャートを参照して、車両制御装置10により実行される自己位置推定処理について説明する。図2の処理は、車両の走行中、カメラ11からの画像が車両制御装置10に出力されることで実行される。
 なお、図2の処理は、カメラ11による撮像のフレームレートと同期して繰り返し実行されてもよいし、所定のフレーム数を周期として繰り返し実行されてもよい。
 ステップS11において、マップ生成部24は、デプスデータ、運動データ、およびセマンティックセグメンテーションデータを用いて、ラベル付きOccupancy Mapを生成する。
 デプスデータ、運動データ、およびセマンティックセグメンテーションデータは、それぞれデプスデータ生成部21、ビジュアルオドメトリ部23、およびセマンティックセグメンテーション部22により生成され、マップ生成部24に供給される。
 図3は、あるタイミングでの走行中の車両の周囲の環境の例を示す図である。
 図3上側には、自車両C0を含む自車両C0の進行方向の環境を示す鳥瞰図が、図3下側には、自車両C0から見た進行方向の環境を示す正面図が示されている。つまり、図3上側の鳥瞰図においては、図中上方向が、自車両C0の進行方向となり、図3下側の正面図においては、図中奥行き方向が、自車両C0の進行方向となる。
 図3の例では、自車両C0の前方には、2台の他車両C1,C2が走行しており、そのさらに前方には、2台の他車両C3,C4と、バイクM1が走行している。自車両C0が走行する道路の左側には、建物B1が建ち、街路樹W1が植えられている。また、自車両C0が走行する道路の右側には、建物B2が建ち、街路樹W2が植えられている。
 このような環境において得られた画像と距離情報に基づいて生成されたデプスデータ、運動データ、およびセマンティックセグメンテーションデータにより、図4に示されるラベル付きOccupancy Mapが生成される。
 図4に示されるラベル付きOccupancy Map30においては、障害物が存在しないフリースペースは白色で、障害物が存在するか定かではない未知の領域は灰色で、障害物が存在する領域は黒色で、それぞれ示されている。
 ラベル付きOccupancy Map30において、障害物が存在する領域のうち、他車両C1乃至C4に対応する領域a31乃至a34は、それぞれ属性が車両であることを示すラベル情報を有し、バイクM1に対応する領域a35は、属性がバイクであることを示すラベル情報を有している。
 また、ラベル付きOccupancy Map30において、建物B1,B2に対応する領域b31,b32は、それぞれ属性が建物であることを示すラベル情報を有し、街路樹W1,W2に対応する領域c31,c32は、それぞれ属性が街路樹であることを示すラベル情報を有している。
 図2のフローチャートに戻り、ステップS12において、エッジ抽出部25は、ラベル付きOccupancy Mapから、障害物のうちの非動体とフリースペースとの間のエッジ部分を抽出する。
 すなわち、図4のラベル付きOccupancy Map30において、動体である車両またはバイクのラベル情報を有する領域a31乃至a35を除いた障害物とフリースペースとの間のエッジ部分が抽出される。これにより、図5に示されるエッジ画像が生成される。
 図5に示されるエッジ画像40は、ラベル付きOccupancy Map30の領域b31,b32のエッジ部分であるエッジ領域E41,E42と、領域c31,c32のエッジ部分であるエッジ領域E43,E44を有する。エッジ領域E41,E42は、建物のラベル情報を有し、エッジ領域E43,E44は、街路樹のラベル情報を有している。
 すなわち、エッジ画像40は、ラベル付きOccupancy Map30における非動体の形状、および、その非動体の属性を示す情報となる。
 図2のフローチャートに戻り、ステップS13において、位置推定部26は、ラベル付きOccupancy Mapで表現された事前マップから、エッジ部分のデータを取得する。
 そして、ステップS14において、位置推定部26は、生成したラベル付きOccupancy Mapと事前マップのデータのマッチングを行うことで、自己位置を推定する。
 図6は、事前マップの例を示す図である。
 図6の事前マップ50は、ラベル付きOccupancy Mapで表現された事前マップにおいて、障害物(非動体)とフリースペースとの間のエッジ部分が抽出されたエッジ画像として示される。事前マップ50は、建物のラベル情報を有するエッジ領域E51と、街路樹のラベル情報を有するエッジ領域E52を有している。
 事前マップ50は、車両の走行中に生成されるラベル付きOccupancy Mapが示す範囲よりも十分に広い範囲を示す地図データである。したがって、図6の事前マップ50は、事前マップ記憶部27に記憶されている事前マップ50全体のうちの特定の位置のデータを示すものである。
 位置推定部26は、事前マップ50全体と、図5のエッジ画像40における、エッジ領域の形状およびラベル情報のマッチングを行う。そして、位置推定部26は、事前マップ50全体で、エッジ画像40におけるエッジ領域の形状およびラベル情報の一致度が最も高くなる位置を、自己位置とする。
 具体的には、図7に示されるように、事前マップ50全体において、エッジ画像40のエッジ領域E41,E42とエッジ領域E51、エッジ画像40のエッジ領域E43,E44とエッジ領域E52の形状およびラベル情報が一致する位置が、自己位置となる。
 以上の処理によれば、他車両や歩行者などの動体の影響を受けることなく、ラベル付きOccupancy Mapと事前マップとのマッチングを行うことができるので、自車両の自己位置を高精度に求めることが可能となる。
(マッチングの他の例)
 上述したラベル付きOccupancy Mapと事前マップとのマッチングにおいて、フリースペースのラベル情報をさらに用いるようにしてもよい。
 図8は、フリースペースにラベル情報を有するラベル付きOccupancy Mapの例を示している。
 図8に示されるラベル付きOccupancy Map30’においては、図4に示されるラベル付きOccupancy Map30のフリースペース(白色領域)に、領域d31,e31乃至e33がさらに設定されている。領域d31は、属性が車道であることを示すラベル情報を有し、領域e31乃至e33は、それぞれ属性が歩道であることを示すラベル情報を有している。これらのラベル情報は、セマンティックセグメンテーションに基づくものである。
 図8のラベル付きOccupancy Map30’においては、動体である車両とバイクのラベル情報を有する領域a31乃至a35を除いた障害物とフリースペースとの間のエッジ部分と、フリースペースに設定されている領域が有するラベル情報が抽出される。これにより、図9に示されるエッジ画像が生成される。
 図9に示されるエッジ画像40’は、図5に示されるエッジ画像40と同様のエッジ領域に加え、領域R41乃至R44を有している。領域R41は、ラベル付きOccupancy Map30’の領域d31に対応し、車道のラベル情報を有している。領域R42乃至R43は、ラベル付きOccupancy Map30’の領域e31乃至e33に対応し、歩道のラベル情報を有している。
 図10は、事前マップの他の例を示している。
 図10の事前マップ50’は、図6の事前マップ50と同様の領域に加え、車道のラベル情報を有する領域R51と、歩道のラベル情報を有するR52を有している。図10の事前マップ50’もまた、事前マップ全体のうちの特定の位置のデータを示すものである。
 そして、事前マップ50’全体と、図9のエッジ画像40’における、エッジ領域の形状およびラベル情報のマッチングが行われることで、自己位置が求められる。
 このようにして、ラベル付きOccupancy Mapと事前マップとのマッチングにおいて、フリースペースのラベル情報をさらに用いることで、マッチングの精度を高めることができ、自車両の自己位置をより高精度に求めることが可能となる。
 また、ラベル付きOccupancy Mapは、車両の周囲の空間を2次元空間で表現したものであるが、高さ方向についての複数のラベル付きOccupancy Mapを生成し、レイヤ構成を採ることで、車両の周囲の空間を3次元空間で表現するようにしてもよい。この場合、事前マップも同様の構成を採るようにし、ラベル付きOccupancy Mapと事前マップとのマッチングにおいては、レイヤ毎のマッチングが行われるようにする。
<2.事前マップの生成方法>
 ここで、事前マップの生成方法について説明する。
 上述したように、事前マップは、世界座標系の座標を示すものであってもよいし、ローカル座標系の座標を示すものであってもよく、手動運転により車両が事前に走行することで生成される。
(事前マップ生成処理の例1)
 まず、図11のフローチャートを参照して、世界座標系の事前マップ生成処理の例について説明する。図11の処理は、車両制御装置10、カメラ11、およびLiDAR12に加え、RTK-GPS(Real Time Kinematic GPS)測位が可能なセンサが搭載された車両が走行することで実現される。
 ステップS31において、マップ生成部24は、デプスデータ、RTK-GPSデータ、およびセマンティックセグメンテーションデータを用いて、ラベル付きOccupancy Mapを生成する。
 ここでは、ビジュアルオドメトリ部23により生成される運動データに代えて、RTK-GPS測位が可能なセンサにより取得されたRTK-GPSデータを用いて、ラベル付きOccupancy Mapが生成される。
 ステップS32において、エッジ抽出部25は、ラベル付きOccupancy Mapから、障害物のうちの非動体とフリースペースとの間のエッジ部分を抽出する。これにより、エッジ画像が生成される。
 ステップS33において、位置推定部26は、生成されたエッジ画像と、RTK-GPSデータから得られる自己位置を用いて、世界座標系に変換した自己位置を、地図データとして登録する。これにより、事前マップ記憶部27には、そのときの自車両の位置が、ラベル付きOccupancy Mapとして記憶される。
 さらに、ステップS34において、位置推定部26は、自動運転のための理想的な経路を求め、登録した事前マップ上にウェイポイントを設定する。
 ここでいうウェイポイントは、どのような道路を経路とするかを示す情報ではなく、道路(路面)上のどのレーンを走行するかなどを示す情報である。
 以上の処理により、動体の影響を受けない世界座標系の事前マップを生成することができる。
 なお、以上においては、ラベル付きOccupancy Mapを生成する際、RTK-GPSデータを用いるようにしたが、GNSS(Global Navigation Satellite System)を利用した他の測位によって得られた位置データを用いるようにしてもよい。
(事前マップ生成処理の例2)
 次に、図12のフローチャートを参照して、ローカル座標系の事前マップ生成処理の例について説明する。図11の処理は、車両制御装置10、カメラ11、およびLiDAR12が搭載された車両が走行することで実現される。
 ステップS51において、マップ生成部24は、デプスデータ、運動データ、およびセマンティックセグメンテーションデータを用いて、ラベル付きOccupancy Mapを生成する。
 ここでは、ビジュアルオドメトリ部23により生成される運動データを用いて、ラベル付きOccupancy Mapが生成される。
 ステップS52において、エッジ抽出部25は、ラベル付きOccupancy Mapから、障害物のうちの非動体とフリースペースとの間のエッジ部分を抽出する。これにより、エッジ画像が生成される。
 ステップS53において、位置推定部26は、生成されたエッジ画像と、運動データを積分して得られた相対的な自己位置を用いて、ローカル座標系に変換した自己位置を、地図データとして登録する。これにより、事前マップ記憶部27には、そのときの自車両の位置が、ラベル付きOccupancy Mapとして記憶される。
 さらに、ステップS54において、位置推定部26は、自動運転のための理想的な経路を求め、登録した事前マップ上にウェイポイントを設定する。
 以上の処理により、動体の影響を受けないローカル座標系の事前マップを生成することができる。
 上述した処理において、ウェイポイントは、生成した事前マップにおける障害物や道路の線形に基づいて設定されるようにすることができる。
 例えば、道路脇にある障害物が電柱の場合と、街路樹の場合とでは、街路樹の場合の方が、より道路中央寄りを走行するように、ウェイポイントが設定されるようにする。また、道路がカーブしている場合には、経路の曲率半径がより小さくなるように、ウェイポイントが設定されるようにする。
 なお、事前マップ生成処理において、ウェイポイントの設定は必ずしも行われる必要はなく、省略するようにしてもよい。
<3.第2の実施の形態>
 上述した事前マップ生成処理において設定されたウェイポイントに基づいて、車両の自動運転を実現することができる。そこで、以下においては、車両の自動運転を行う構成について説明する。
(車両制御装置の構成例)
 図13は、本技術を適用した第2の実施の形態の車両制御装置の構成例を示すブロック図である。
 図13の車両制御装置60は、図1の車両制御装置10と同様の構成に加え、経路設定部61と動作制御部62を備える。
 経路設定部61は、位置推定部26により推定された自己位置と、事前マップ記憶部27に記憶されている事前マップに設定されているウェイポイントとを用いて、自車両の走行経路(移動経路)を設定する。
 また、事前マップにウェイポイントが設定されていない場合には、経路設定部61は、マップ生成部24からラベル付きOccupancy Mapを取得し、例えば動体を避けるように、リアルタイムでウェイポイントを設定することで、走行経路を設定することもできる。
 設定された走行経路を示す経路情報は、動作制御部62に供給される。
 動作制御部62は、経路設定部61からの経路情報に基づいて、その経路情報で示される走行経路を走行するよう、自車両の動作を制御する。具体的には、動作制御部62は、車両が備える、操舵に関わるステアリング機構、制動に関わる制動装置、駆動(走行)に関わるエンジンや駆動モータといった各運転機構の動作を制御する。
 さらに、動作制御部62は、車両の前部に設けられるヘッドライトの照射を制御する。具体的には、動作制御部62は、走行経路を示す経路情報に基づいて、走行経路の先が光で照射されるように、ヘッドライトの照射角度を制御する。
 このようにして、動作制御部62により、車両の運転支援(自動運転)の制御が実現される。
(自動運転制御処理)
 次に、図14のフローチャートを参照して、車両制御装置60により実行される自動運転制御処理について説明する。
 なお、図14のフローチャートのステップS71乃至S74の処理は、図2のフローチャートのステップS11乃至S14の処理と同様であるので、その説明は省略する。
 ステップS74において自己位置が推定された後、ステップS75において、経路設定部61は、事前マップ記憶部27に記憶されている事前マップを参照し、その事前マップに設定されているウェイポイントに基づいて、自車両の走行経路を設定する。
 経路設定部61により参照される事前マップの範囲は、例えば、自己位置の推定の際にマッチングに用いられた位置を含む範囲などとされる。
 なお、事前マップにウェイポイントが設定されていない場合、経路設定部61は、マップ生成部24からラベル付きOccupancy Mapを取得し、リアルタイムでウェイポイントを設定することで、走行経路を設定する。
 ステップS76において、動作制御部62は、設定された走行経路を示す経路情報に基づいて、自車両の動作を制御することで、自動運転を制御する。
 以上のようにして、車両の自動運転を実現することができる。
 例えば、手動運転により一度走行した経路について、事前マップを生成するとともに、ウェイポイントを設定することで、それ以降は、自己位置を推定しながら、目的地まで自動で車両を走行させることが可能となる。
 これにより、例えば、自動運転によるバレーパーキングを実現することができる。
 まず、ユーザが、自宅のマンションのエントランスから近所の駐車場までの行程を、手動運転により車両を走行させることで、ウェイポイントが設定された事前マップが生成される。
 その後は、ユーザが、外出先から自宅のマンションのエントランスまで手動運転により車両を走行させ、車両を降りた場合であっても、車両は、自己位置の推定とウェイポイントが設定された事前マップとに基づいて、自動で駐車場まで移動することが可能となる。
<4.第3の実施の形態>
 上述した車両の自動運転により、事故につながるような危険な事象が発生するおそれのある箇所を走行する可能性がある。そこで、以下においては、危険を避けるようにウェイポイントの修正を行う構成について説明する。
(車両制御装置の構成例)
 図15は、本技術を適用した第3の実施の形態の車両制御装置の構成例を示すブロック図である。
 図15の車両制御装置70は、図13の車両制御装置60と同様の構成に加え、危険度判定部71を備える。
 危険度判定部71は、カメラ11からの画像、デプスデータ生成部21からのデプスデータ、および、マップ生成部24からのラベル付きOccupancy Mapに基づいて、走行中の車両の危険度を判定する。危険度は、事故につながるような危険な事象が発生する可能性を示す指標(値)とされる。
 例えば、カメラ11の撮像範囲内で、電柱の陰から子供が飛び出してきた場合、デプスデータにおいて、急激に距離情報が小さくなる領域が検知されたり、ラベル付きOccupancy Mapにおいて、障害物(動体)の動きの急激な変化が検知される。
 このような場合、危険度判定部71は、危険を察知したと判定し、その地点での危険度を算出する。そして、危険度判定部71は、事前マップ記憶部27に記憶されている事前マップにおけるその地点に、算出した危険度を設定する。
 危険度は、事前マップ上の地点ごとに累積される。したがって、同一の地点で繰り返し危険を察知したと判定される度に、その地点での危険度は加算され大きくなる。
 そして、危険度判定部71は、事前マップにウェイポイントが設定されている場合、事前マップに設定された危険度に基づいて、危険度の大きい地点を避けるように、ウェイポイントを修正する。
(ウェイポイント修正処理)
 次に、図16のフローチャートを参照して、車両制御装置70により実行されるウェイポイント修正処理について説明する。図16の処理は、車両の走行中(例えば自動運転中など)に実行される。また、ここでは、事前マップ記憶部27に記憶されている事前マップにウェイポイントが設定されているものとする。
 ステップS91において、危険度判定部71は、カメラ11からの画像、デプスデータ生成部21からのデプスデータ、および、マップ生成部24からのラベル付きOccupancy Mapに基づいて、危険を察知したか否かを判定する。
 ステップS91の処理は、危険を察知したと判定されるまで繰り返される。危険を察知したと判定されると、危険度判定部71は、その地点での危険度を算出し、処理はステップS92に進む。
 ステップS92において、危険度判定部71は、事前マップ記憶部27に記憶されている事前マップにおけるその地点に、算出した危険度を設定する。
 そして、ステップS93において、危険度判定部71は、事前マップに設定された危険度に基づいて、危険度の大きい地点を避けるように、ウェイポイントを修正する。
 以上の処理によれば、動的な障害物についての危険度が経験的に累積され、累積された危険度の大きさに基づいて、ウェイポイントが修正される。これにより、自動運転において、事故につながるような危険な事象が発生するおそれのある箇所を避けて走行することが可能となる。
<5.移動体制御システムの例>
 本技術は、車両以外の移動体を制御するシステムに適用することができる。例えば、図17に示されるような車両制御システムにも適用することができる。
 図17は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車外情報検出部141は、上述したデプスデータ生成部21、セマンティックセグメンテーション部22、および、ビジュアルオドメトリ部23に対応し、デプスデータ、運動データ、およびセマンティックセグメンテーションデータを生成する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 自己位置推定部132は、上述したエッジ抽出部25と位置推定部26に対応し、属性付き占有格子地図(ラベル付きOccupancy Map)と事前マップとのマッチングにより、自己位置を推定する。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況認識部153は、上述したマップ生成部24と危険度判定部71に対応し、ラベル付きOccupancy Mapを生成したり、危険度を判定する。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 以上のような構成に、本技術を適用することで、移動体の自己位置を高精度に求めることが可能となる。
<6.その他>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ910が接続されている。
 入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア211を駆動する。
 以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本技術は以下のような構成をとることができる。
(1)
 移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成するマップ生成部と、
 前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性についてのマッチングにより、前記移動体の位置を推定する位置推定部と
 を備える情報処理装置。
(2)
 前記マップ生成部は、前記空間におけるデプスデータ、前記移動体の運動データ、および、セマンティックセグメンテーションデータを用いて、前記属性付き占有格子地図を生成する
 (1)に記載の情報処理装置。
(3)
 前記属性付き占有格子地図において、前記非動体と前記障害物がないフリースペースとの間のエッジ部分を抽出したエッジ画像を生成するエッジ抽出部
 をさらに備え、
 前記位置推定部は、前記エッジ画像と、前記事前地図における前記エッジ部分とにおける前記マッチングにより、前記移動体の位置を推定する
 (2)に記載の情報処理装置。
(4)
 前記位置推定部は、前記マッチングの結果として得られる位置情報を、前記移動体の運動データに基づいてフィルタリングすることで、前記移動体の位置を推定する
 (3)に記載の情報処理装置。
(5)
 前記位置推定部は、カルマンフィルタを用いて前記移動体の位置を推定する
 (4)に記載の情報処理装置。
(6)
 推定された前記移動体の位置と、前記事前地図に設定されているウェイポイントに基づいて、前記移動体の移動経路を設定する経路設定部
 をさらに備える
 (1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 設定された前記移動体の前記移動経路に基づいて、前記移動体の動作を制御する動作制御部
 をさらに備える
 (6)に記載の情報処理装置。
(8)
 前記ウェイポイントは、前記移動体の事前の移動により、前記事前地図が生成されるのとともに、前記事前地図に登録される
 (6)または(7)に記載の情報処理装置。
(9)
 移動中の前記移動体の危険度を判定し算出する危険度判定部
 をさらに備え、
 前記危険度判定部は、前記事前地図における前記危険度を算出した位置に、前記危険度を設定する
 (6)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記危険度判定部は、前記事前地図に設定された前記危険度の大きさに基づいて、前記事前地図に登録されている前記ウェイポイントを修正する
 (9)に記載の情報処理装置。
(11)
 情報処理装置が、
 移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、
 前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する
 情報処理方法。
(12)
 コンピュータに、
 移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、
 前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する
 処理を実行させるプログラム。
 10 車両制御装置, 11 カメラ, 12 LiDAR, 21 デプスデータ生成部, 22 セマンティックセグメンテーション部, 23 ビジュアルオドメトリ部, 24 マップ生成部, 25 エッジ抽出部, 26 位置推定部, 27 事前マップ記憶部, 60 車両制御装置, 61 経路設定部, 62 動作制御部, 70 車両制御装置, 71 危険度判定部

Claims (12)

  1.  移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成するマップ生成部と、
     前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性についてのマッチングにより、前記移動体の位置を推定する位置推定部と
     を備える情報処理装置。
  2.  前記マップ生成部は、前記空間におけるデプスデータ、前記移動体の運動データ、および、セマンティックセグメンテーションデータを用いて、前記属性付き占有格子地図を生成する
     請求項1に記載の情報処理装置。
  3.  前記属性付き占有格子地図において、前記非動体と前記障害物がないフリースペースとの間のエッジ部分を抽出したエッジ画像を生成するエッジ抽出部
     をさらに備え、
     前記位置推定部は、前記エッジ画像と、前記事前地図における前記エッジ部分とにおける前記マッチングにより、前記移動体の位置を推定する
     請求項2に記載の情報処理装置。
  4.  前記位置推定部は、前記マッチングの結果として得られる位置情報を、前記移動体の運動データに基づいてフィルタリングすることで、前記移動体の位置を推定する
     請求項3に記載の情報処理装置。
  5.  前記位置推定部は、カルマンフィルタを用いて前記移動体の位置を推定する
     請求項4に記載の情報処理装置。
  6.  推定された前記移動体の位置と、前記事前地図に設定されているウェイポイントに基づいて、前記移動体の移動経路を設定する経路設定部
     をさらに備える
     請求項1に記載の情報処理装置。
  7.  設定された前記移動体の前記移動経路に基づいて、前記移動体の動作を制御する動作制御部
     をさらに備える
     請求項6に記載の情報処理装置。
  8.  前記ウェイポイントは、前記移動体の事前の移動により、前記事前地図が生成されるのとともに、前記事前地図に登録される
     請求項6に記載の情報処理装置。
  9.  移動中の前記移動体の危険度を判定し算出する危険度判定部
     をさらに備え、
     前記危険度判定部は、前記事前地図における前記危険度を算出した位置に、前記危険度を設定する
     請求項6に記載の情報処理装置。
  10.  前記危険度判定部は、前記事前地図に設定された前記危険度の大きさに基づいて、前記事前地図に登録されている前記ウェイポイントを修正する
     請求項9に記載の情報処理装置。
  11.  情報処理装置が、
     移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、
     前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する
     情報処理方法。
  12.  コンピュータに、
     移動体の周囲の空間における障害物の存在確率を格子毎に有する占有格子地図に、前記障害物の属性がラベリングされた属性付き占有格子地図を生成し、
     前記属性付き占有格子地図と、あらかじめ用意された前記属性付き占有格子地図である事前地図とにおける、非動体の形状および前記属性のマッチングにより、前記移動体の位置を推定する
     処理を実行させるプログラム。
PCT/JP2018/042922 2017-12-05 2018-11-21 情報処理装置、情報処理方法、およびプログラム WO2019111702A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/767,432 US11531354B2 (en) 2017-12-05 2018-11-21 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017233095 2017-12-05
JP2017-233095 2017-12-05

Publications (1)

Publication Number Publication Date
WO2019111702A1 true WO2019111702A1 (ja) 2019-06-13

Family

ID=66750881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/042922 WO2019111702A1 (ja) 2017-12-05 2018-11-21 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11531354B2 (ja)
WO (1) WO2019111702A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110849352A (zh) * 2019-11-21 2020-02-28 大连理工大学 一种利用红外、深度和双目相机融合构建栅格地图的方法
CN110849351A (zh) * 2019-11-21 2020-02-28 大连理工大学 一种利用深度相机和双目相机构建栅格地图的方法
WO2020213275A1 (ja) * 2019-04-15 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2020250725A1 (ja) * 2019-06-14 2020-12-17
WO2021049231A1 (ja) * 2019-09-11 2021-03-18 日立オートモティブシステムズ株式会社 占有格子地図管理装置
CN112824836A (zh) * 2019-11-21 2021-05-21 北京图森智途科技有限公司 移动工具碰撞检测方法及相关设备
WO2021166954A1 (ja) * 2020-02-19 2021-08-26 株式会社Nttドコモ マップデータ生成装置及び測位装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557049B1 (ko) * 2018-03-30 2023-07-19 한국전자통신연구원 Slam 기반 카메라 추적에서 라벨된 키프레임을 이용한 이미지 특징 매칭 방법 및 장치
US10672188B2 (en) * 2018-04-19 2020-06-02 Microsoft Technology Licensing, Llc Surface reconstruction for environments with moving objects
US11697410B2 (en) * 2019-03-07 2023-07-11 Toyota Jidosha Kabushiki Kaisha Vehicle-to-everything communication-based lane change collision avoidance warning
US11300959B2 (en) * 2019-08-30 2022-04-12 Huawei Technologies Co., Ltd. System and method for predictive path planning in autonomous vehicles
US11789155B2 (en) 2019-12-23 2023-10-17 Zoox, Inc. Pedestrian object detection training
US11462041B2 (en) * 2019-12-23 2022-10-04 Zoox, Inc. Pedestrians with objects
KR20210106690A (ko) * 2020-02-21 2021-08-31 현대자동차주식회사 도어 열림 제어 장치 및 그의 도어 열림 제어 방법
WO2023088125A1 (zh) * 2021-11-22 2023-05-25 珠海一微半导体股份有限公司 一种机器人提升障碍物标注精度的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090024251A1 (en) * 2007-07-18 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for estimating pose of mobile robot using particle filter
JP2011008320A (ja) * 2009-06-23 2011-01-13 Toyota Motor Corp 自律移動体、自己位置推定装置、およびプログラム
JP2011198098A (ja) * 2010-03-19 2011-10-06 Ihi Aerospace Co Ltd ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット
JP2011248445A (ja) * 2010-05-24 2011-12-08 Toyota Central R&D Labs Inc 可動物予測装置及びプログラム
WO2013150630A1 (ja) * 2012-04-05 2013-10-10 株式会社日立製作所 地図データ作成装置、自律移動システムおよび自律移動制御装置
US20150355639A1 (en) * 2006-07-05 2015-12-10 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
JP2017027213A (ja) * 2015-07-17 2017-02-02 トヨタ自動車株式会社 自律移動体及び自律移動体の位置推定方法
JP2017126101A (ja) * 2016-01-12 2017-07-20 株式会社Subaru 移動経路設定装置、移動経路設定方法及び移動経路設定プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10363940B2 (en) * 2013-08-01 2019-07-30 Nissan Motor Co., Ltd. Vehicle position attitude-angle estimation device and vehicle position attitude-angle estimation method
EP3070430B1 (en) * 2013-11-13 2019-08-14 Nissan Motor Co., Ltd. Moving body position estimation device and moving body position estimation method
JP6610339B2 (ja) * 2016-03-03 2019-11-27 株式会社デンソー 占有格子地図作成装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150355639A1 (en) * 2006-07-05 2015-12-10 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US20090024251A1 (en) * 2007-07-18 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for estimating pose of mobile robot using particle filter
JP2011008320A (ja) * 2009-06-23 2011-01-13 Toyota Motor Corp 自律移動体、自己位置推定装置、およびプログラム
JP2011198098A (ja) * 2010-03-19 2011-10-06 Ihi Aerospace Co Ltd ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット
JP2011248445A (ja) * 2010-05-24 2011-12-08 Toyota Central R&D Labs Inc 可動物予測装置及びプログラム
WO2013150630A1 (ja) * 2012-04-05 2013-10-10 株式会社日立製作所 地図データ作成装置、自律移動システムおよび自律移動制御装置
JP2017027213A (ja) * 2015-07-17 2017-02-02 トヨタ自動車株式会社 自律移動体及び自律移動体の位置推定方法
JP2017126101A (ja) * 2016-01-12 2017-07-20 株式会社Subaru 移動経路設定装置、移動経路設定方法及び移動経路設定プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213275A1 (ja) * 2019-04-15 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US11906970B2 (en) 2019-04-15 2024-02-20 Sony Group Corporation Information processing device and information processing method
JPWO2020250725A1 (ja) * 2019-06-14 2020-12-17
WO2020250725A1 (ja) * 2019-06-14 2020-12-17 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP7456442B2 (ja) 2019-06-14 2024-03-27 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2021049231A1 (ja) * 2019-09-11 2021-03-18 日立オートモティブシステムズ株式会社 占有格子地図管理装置
JPWO2021049231A1 (ja) * 2019-09-11 2021-03-18
JP7261892B2 (ja) 2019-09-11 2023-04-20 日立Astemo株式会社 占有格子地図管理装置
CN110849352A (zh) * 2019-11-21 2020-02-28 大连理工大学 一种利用红外、深度和双目相机融合构建栅格地图的方法
CN110849351A (zh) * 2019-11-21 2020-02-28 大连理工大学 一种利用深度相机和双目相机构建栅格地图的方法
CN112824836A (zh) * 2019-11-21 2021-05-21 北京图森智途科技有限公司 移动工具碰撞检测方法及相关设备
WO2021166954A1 (ja) * 2020-02-19 2021-08-26 株式会社Nttドコモ マップデータ生成装置及び測位装置

Also Published As

Publication number Publication date
US11531354B2 (en) 2022-12-20
US20200409387A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
WO2019111702A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7314798B2 (ja) 撮像装置、画像処理装置、及び、画像処理方法
JP7143857B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US11501461B2 (en) Controller, control method, and program
JP7320001B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
WO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
WO2019082670A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2019039281A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2019107143A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2020031812A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び移動体
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
US20240054793A1 (en) Information processing device, information processing method, and program
JP2022028092A (ja) 車両制御装置、車両制御方法、プログラム、及び、車両
WO2021060018A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、移動装置
WO2019078010A1 (ja) 情報処理装置、情報処理方法、移動体、及び、車両
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
JP2020101960A (ja) 情報処理装置、情報処理方法及びプログラム
WO2020158489A1 (ja) 可視光通信装置、可視光通信方法及び可視光通信プログラム
JP2022113054A (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
WO2020090250A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18887146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18887146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP