WO2020183892A1 - 情報処理装置及び情報処理方法、並びに移動体装置 - Google Patents
情報処理装置及び情報処理方法、並びに移動体装置 Download PDFInfo
- Publication number
- WO2020183892A1 WO2020183892A1 PCT/JP2020/000961 JP2020000961W WO2020183892A1 WO 2020183892 A1 WO2020183892 A1 WO 2020183892A1 JP 2020000961 W JP2020000961 W JP 2020000961W WO 2020183892 A1 WO2020183892 A1 WO 2020183892A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- information
- map
- vehicle
- external device
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3881—Tile-based structures
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/021—Means for detecting failure or malfunction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
- B60W2050/0292—Fail-safe or redundant systems, e.g. limp-home or backup systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4048—Field of view, e.g. obstructed view or direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle for navigation systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
車載センサのセンサ情報に基づいてマップ情報を作成する情報処理装置を提供する。 情報処理装置は、移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部を具備する。前記要求部は、前記作成部が作成した前記マップに含まれる死角の状況に基づいて、前記外部装置に情報を要求する。
Description
本明細書で開示する技術は、主に車載センサからのセンサ情報を処理する情報処理装置及び情報処理方法、並びに移動体装置に関する。
自動運転やADAS(Advanced Driver Assistance System)の実現のために、自車の周囲の環境、例えば道路の形状や、周辺車両、歩行者などの周囲の動物体など、さまざまな物体を検出する必要があり、また、晴天時の昼間に限らず、雨天ときや夜間などさまざまな環境で物体を検出する必要がある。このため、カメラ、ミリ波レーダー、レーザーレーダーなど、種類の異なる多くの外界認識センサが車両に搭載され始めている。
また、自動運転車や自律移動ロボットなどにおいて、外界認識センサの情報に基づいて、周辺の状況の認識に用いるローカルマップを作成して、障害物との衝突といった事故を回避する技術が知られている。ローカルマップは、占有格子地図(Occupancy Grid Map)若しくはグリッドマップとも呼ばれ、格子毎に物体が存在する確率を表す。
例えば、占有格子地図の一部を占めるように設定された複数のエリアのうち、一対の道路端で挟まれる領域と重複する部分を有するエリアに限定して、必要なメモリや計算量を抑制して占有格子地図を作成する装置について提案がなされている(特許文献1を参照のこと)。また、立体物が存在する回避領域と立体物の存在が不明な不明領域と立体物が存在しない安全領域とを識別可能なグリッドマップを作成して、自車が走行するように操舵角が制御されるようにした車両の運転支援システムについて提案がなされている(特許文献2を参照のこと)。
本明細書で開示する技術の目的は、車載センサのセンサ情報に基づいてマップ情報を作成する情報処理装置及び情報処理方法、並びに移動体装置を提供することにある。
本明細書で開示する技術の第1の側面は、
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
を具備する情報処理装置である。
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
を具備する情報処理装置である。
前記要求部は、前記センサの故障検知や、前記移動体の現在の位置情報を地図情報と比較した結果に基づいて、前記外部装置に対して情報を要求する。
また、前記要求部は、前記作成部が作成した前記マップに含まれる死角を補完するマップ情報、又は死角を補完するマップを作成するためのセンサ情報を、前記外部装置に要求する。
また、本明細書で開示する技術の第2の側面は、
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
前記作成ステップにおいて作成した前記マップの状態に基づいて、前記外部装置に情報を要求する要求ステップと、
前記要求ステップにおいて前記外部装置から取得した情報を前記作成した前記マップと合成する合成ステップと、
を有する情報処理方法である。
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
前記作成ステップにおいて作成した前記マップの状態に基づいて、前記外部装置に情報を要求する要求ステップと、
前記要求ステップにおいて前記外部装置から取得した情報を前記作成した前記マップと合成する合成ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第3の側面は、
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供部と、
を具備する情報処理装置である。
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供部と、
を具備する情報処理装置である。
前記提供部は、前記外部装置の位置情報とともに要求を受け取り、前記移動体の現在の位置情報から所定範囲に存在する前記外部装置に対して前記マップの情報を提供する。
また、本明細書で開示する技術の第4の側面は、
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供ステップと、
を有する情報処理方法である。
移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第5の側面は、
移動体本体部と、
前記移動体本体部に搭載された1以上のセンサと、
前記センサセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体本体の運転を制御する制御部と、
を具備する移動体装置である。
移動体本体部と、
前記移動体本体部に搭載された1以上のセンサと、
前記センサセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体本体の運転を制御する制御部と、
を具備する移動体装置である。
本明細書で開示する技術によれば、自分のセンサ情報に基づくマップ情報に含まれる死角を外部装置からの情報に基づいて補完する情報処理装置及び情報処理方法、並びに移動体装置を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本明細書で開示する技術によりもたらされる効果はこれに限定されるものではない。また、本明細書で開示する技術が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成例
図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダー、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
B.自動運転・ADASの障害
図1に示した車両制御システム100では、自動運転やADASの実現のために、カメラやレーダー、LiDARといった複数の外界認識センサからのセンサ情報に基づいて自車の周囲の環境(例えば、道路の形状や、周辺車両、歩行者などの情報)を取得しながら、周囲環境に応じて自車の走行に関する判断や制御を自動的に行うようになっている。具体的には、状況認識部153においてグリッドマップなどの状況認識用マップを作成して、道路の形状に拘わらずレーンを逸脱することなく、且つ、周辺車両や歩行者を始めさまざまな物体との衝突を回避しながら、自動運転やADASを実現する。
図1に示した車両制御システム100では、自動運転やADASの実現のために、カメラやレーダー、LiDARといった複数の外界認識センサからのセンサ情報に基づいて自車の周囲の環境(例えば、道路の形状や、周辺車両、歩行者などの情報)を取得しながら、周囲環境に応じて自車の走行に関する判断や制御を自動的に行うようになっている。具体的には、状況認識部153においてグリッドマップなどの状況認識用マップを作成して、道路の形状に拘わらずレーンを逸脱することなく、且つ、周辺車両や歩行者を始めさまざまな物体との衝突を回避しながら、自動運転やADASを実現する。
ところが、複数の外界認識センサのうち一部が故障やその他の原因により正確なセンサ情報を取得できなくなると、状況認識用マップは不完全となるため、自動運転やADASの実現が困難になってくる。
例えば、車両が自動運転中に、必要最低限の車載センサが動作しなくなった場合には、通常の自動運転を継続することが不可能になるが、センサ情報なしでは安全に路肩などの退避することすら困難である。この場合、一部の車載センサの故障や不良のために、車両制御システム100は正確で十分な状況認識用マップを作成することができない。
図2には、自動運転中の車両の一部の車載センサが故障した例を示している。同図において、車両200は、前後及び左右をそれぞれ撮影する3台のカメラ201~204を搭載しているが、自動運転中に左側を撮影するカメラ202が故障して、全く機能しなくなったとする。この場合、車両200は、自車左が死角になってしまうので、矢印Aで示す方向に進行して路肩に退避しようにも、安全を確保することができない。例えば、自転車210が、車両200の左側で路肩を矢印Bで示す方向に走行していると、車両200の死角に入っている。車両200が安全を確保できないまま路肩に退避すると、自転車210と巻き込み事故を起こすおそれがある。
また、必要な車載センサがすべて正常に動作していたとしても、周辺の壁などによって視野が狭められ、死角では十分な安全を確保できないことが懸念される。すなわち、周辺の環境に起因して、車両制御システム100は正確で十分な状況認識用マップを作成することができない。
図3には、自動運転中の車両が周囲の壁によって視野が狭められた様子を示している。同図において、車両300は、前方及び左右をそれぞれ撮影する3台のカメラ301~303を搭載している。しかしながら、十字路の交差点に差し掛かった付近では、周囲の壁351~354によって各カメラ301~303の視界が遮られるので、視野は参照番号360で示される左右の範囲に狭められる。このため、カメラ301~303がすべて正常に動作しているとしても、車両300の前方の左右それぞれに死角361及び362が発生する。
図3に示す例では、左方向から交差点に進入する自転車310や他の車両320は、交差点の直前でいきなり死角361から視野内に飛び出してくる。車両300が、このような十字路に接近したときに、車速を保ったまま自動運転を継続していると、自転車310や他の車両320と衝突事故を起こすリスクがある。言い換えれば、衝突事故を予防するには、車両300及び320の少なくとも一方は十分に徐行する必要がある。
C.自動運転・ADASのための情報補完
本明細書では、外界認識センサの少なくとも一部の故障や、車両の周囲の環境(交差点付近など)などに起因して、死角が発生する場合であっても、車両制御システム100が、外部から得られる情報を利用して、路肩退避などの事故の予防や安全運転の継続を実現するための技術について、以下で提案する。本明細書で提案する技術によれば、車両制御システム100は、図2や図3を参照しながら説明したような障害を取り除いて、自動運転若しくはADASを好適に実現することが可能になる。
本明細書では、外界認識センサの少なくとも一部の故障や、車両の周囲の環境(交差点付近など)などに起因して、死角が発生する場合であっても、車両制御システム100が、外部から得られる情報を利用して、路肩退避などの事故の予防や安全運転の継続を実現するための技術について、以下で提案する。本明細書で提案する技術によれば、車両制御システム100は、図2や図3を参照しながら説明したような障害を取り除いて、自動運転若しくはADASを好適に実現することが可能になる。
本実施形態では、車両制御システム100は、事故の予防や安全運転の継続に必要な情報を、自車の外部から取得する。具体的には、外界認識センサの故障や周囲環境などに起因して、状況認識用マップのうち死角となった領域の情報(若しくは、死角領域のマップ情報を生成するために必要なセンサ情報でもよい)である。
また、車両制御システム100は、基本的には、V2X通信を介して、事故の予防や安全運転の継続に必要な情報を取得できるものとする。V2X通信には、車車間(V2V)通信、路車間(V2I)通信、自車と家との間(V2H)の通信、及び、歩車間(V2P)通信などが含まれる(前述)。
以下では、便宜上、車両制御システム100が、V2V通信を利用して、自車の周囲(所定範囲内)で走行中の周辺車両から必要な情報を取得する実施例を中心に説明する。但し、車両制御システム100は、V2V以外のV2X通信を利用して、歩行者が携行するデジタルカメラや、走行中の道路に隣接する場所に設置された監視カメラや定点カメラなどから、必要な情報を取得するようにしてもよい。
C-1.車載センサ故障時の処理
この項では、車両の一部の車載センサが故障して自動運転を継続できなくなった車両が、周辺車両から取得した情報に基づいて、安全を確保しながら路肩に退避するための処理手順について説明する。
この項では、車両の一部の車載センサが故障して自動運転を継続できなくなった車両が、周辺車両から取得した情報に基づいて、安全を確保しながら路肩に退避するための処理手順について説明する。
図2に示したように、車両200が、自動運転中に左側を撮影するカメラ202が故障して、全く機能しなくなったために、路肩に退避する必要がある。ところが、カメラ202の故障のために死角となってしまった領域内では自転車210が走行しているので、車両200は、路肩に寄る際に、自転車210の巻き込みを回避しなければならない。
以下では、車両200が、周辺の車両220から取得した情報に基づいて、安全を確保しながら路肩に退避するようなシーンを想定している。周辺の車両220の車載カメラ221及び222は、それぞれ当該車両220の左前方及び右前方を撮影しているが、これらの撮影画像に基づいて車両200の死角を補う情報を取得することができる。
図4には、一部の車載センサが故障した車両が、安全を確保するための処理手順をフローチャートの形式で示している。この処理手順は、例えば図2中の車両200の自動運転を制御する車両制御システム100において、データ取得部102に含まれる、カメラやレーダー、LiDARといった複数の外界認識センサのうちいずれかの故障が検知されたことに応答して起動して、自動運転制御部112内で実施される。
まず、状況認識部153は、データ取得部102に含まれる車載センサのうち、故障していない残存センサからのセンサ情報だけを使って、状況認識用マップの作成を試みる(ステップS401)。
ここでは、状況認識用マップとして、グリッド毎の物体の存在確率を表すグリッドマップを作成することを想定している。故障したセンサからはセンサ情報が得られないために、死角領域を含んだ状況認識用マップが作成されることになる。以下では、センサの故障などにより死角となった領域のグリッドを「死角グリッド」、それ以外のグリッドを「非死角グリッド」と呼ぶことにする。図2に示した例では、車両200の左側が死角グリッドとなることが想定される。
状況予測部154は、状況認識部153において作成したグリッドマップに基づいて、自車の周囲の状況などの予測処理を行う。ここでは、状況予測部154は、グリッドマップのうち非死角グリッドに基づいて、自車の周囲の状況を予測することになる。そして、計画部134内では、ルート計画部161が、状況予測部154における予測結果などに基づいて、非死角グリッド上で、自車を路肩に退避するためのルートの生成を試行する(ステップS402)。
ここで、非死角グリッド上では(すなわち、死角を回避しながら)、自車を路肩に退避するルートを生成できない場合には(ステップS403のNo)、自動運転制御部112は、死角グリッドを補完するための情報要求を、通信部103を介してブロードキャスト送信する(ステップS404)。
この情報要求には、データ取得部102が受信したGNSS信号などに基づいて検出された自車の現在位置の情報を含むものとする。また、通信部103は、基本的にはV2V通信を利用して、周辺車両に向けて情報要求をブロードキャスト送信するが、V2V以外のV2X通信を利用して、車両以外(自車周辺の歩行者の所持端末や、監視カメラ、定点カメラなど)にも情報要求を行うようにしてもよい。また、周辺車両からは、死角グリッドを補完するための情報として、周辺車両で作成されたグリッドマップが返信されるものとする。
自動運転制御部112は、情報要求を送信した後、所定時間(例えば、3秒)だけ、周辺車両からの情報の受信を待機する(ステップS405)。
そして、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができた場合には(ステップS406のYes)、状況認識部153は、ステップS401で自車のセンサ情報に基づいて作成したグリッドマップと、周辺車両から受信したグリッドマップを合成する(ステップS407)。この合成処理により、自車のグリッドマップ内の死角グリッドが補完され、又は死角グリッドが収縮して、非死角グリッドが拡充されることが期待される。
なお、いずれかの外界認識センサの故障が検知された場合であっても、ステップS401で作成したグリッドマップ中で死角グリッドが占める割合が所定値以下の場合には、車を路肩に退避するルートを生成できなくても(ステップS403のNo)、後続のステップS404~S407をスキップして、周辺車両への情報要求を停止するようにしてもよい。車両は、ほぼ死角がないグリッドマップを取得することができたならば、敢えて周辺車両からの情報収集を繰り返し実施する必要はないからである。
その後、計画部134内では、ルート計画部161が、得られたグリッドマップの非死角グリッド上で、自車を路肩に退避するためのルートの生成を再度試行する(ステップS408)。
自車で作成したグリッドマップを用いて、非死角グリッド上で自車を路肩に退避するルートを生成することができた場合(ステップS403のYes)、並びに、自車及び周辺車両のグリッドマップを合成して得られた非死角グリッド上で自車を路肩に退避するルートを生成することができた場合(ステップS409のYes)には、動作制御部135はそのルートに従って、自車を路肩へ退避するような車両制御を実施して(ステップS410)、自車を路肩に停止させた状態で、本処理を終了する。
一方、自車及び周辺車両のグリッドマップを合成しても、非死角グリッド上で自車を路肩に退避するルートを生成することができない場合(ステップS409のNo)、又は、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができなかった場合には(ステップS406のNo)、安全を確保しながら自車を路肩に退避することを諦める。この場合、動作制御部135内では、加減速制御部172により、車速がゼロになるまで緩く減速するように駆動系システム108を制御して(ステップS411)、現車線のまま自車を停止させた状態で、本処理を終了する。
ステップS411の処理について補足しておく。一部の車載センサが故障した車両は、周辺車両からも死角を補うための有効な情報が得られないので、安全な路肩退避を諦め、やむを得ず現車線で停止する。ここで、周辺車両から情報が得られない状況は、言い換えれば周囲に車両が少ないので、現車線で停止しても被追突のリスクは低いと思料される。
図5には、車両が、周辺車両からの要求に応じて、状況認識用マップの情報を提供するための処理手順をフローチャートの形式で示している。この処理手順は、例えば図2中で、車両200の周辺を走行する車両220の自動運転を制御する車両制御システム100において、V2V通信を介して車両200から要求を受信したことに応答して起動して、自動運転制御部112内で実施される。
周辺車両からの情報要求には、その車両の現在位置の情報も含まれている(前述)。当該車両の状況認識部153は、現時点で認識した自車周辺の物体の情報と、情報要求元の車両の現在位置とを比較する(ステップS501)。ここで言う物体として、車両、自転車、歩行者、ガードレールなどが挙げられる。
そして、状況認識部153は、情報要求元の車両の近傍所定範囲内(例えば、300メートル以内)に物体があるか否かの情報があるかどうかをチェックする(ステップS502)。言い換えれば、情報要求元の車両が路肩に退避する際に、衝突する可能性のある物体が存在するかどうかをチェックする。
ここで、情報要求元の車両の近傍所定範囲内に物体があるか否かの情報がある場合には(ステップS502のYes)、当該車両の状況認識部153は、情報要求元の車両の近傍所定範囲内のグリッドマップを作成し(ステップS503)、そのグリッドマップを情報要求元の車両に送信して(ステップS504)、本処理を終了する。
また、情報要求元の車両の近傍所定範囲内で物体があるか否かの情報がない場合には(ステップS502のNo)、当該車両は、情報要求元の車両に対してグリッドマップを送信することなく、本処理を終了する。例えば、情報要求元の車両が遠過ぎて、当該車両の車載センサの有効範囲外の場合には、情報要求元の車両の近傍所定範囲内で物体があるか否かの情報がない。なお、情報要求元の車両側では、情報が得られなかった場合には、自車を路肩に退避することを諦めて、現車線で停止するが、周囲に車両が少ない状況と推測されるので、被追突のリスクは低い。
C-2.周囲の壁によって死角が発生したときの処理
この項では、自動運転中に交差点などに差し掛かって、周囲の壁によって視野が狭められた車両が、周辺車両から取得した情報に基づいて、徐行することなく交差点を通過するための処理手順について説明する。
この項では、自動運転中に交差点などに差し掛かって、周囲の壁によって視野が狭められた車両が、周辺車両から取得した情報に基づいて、徐行することなく交差点を通過するための処理手順について説明する。
図3に示したように、車両300は、すべての外界認識センサが正常に動作しているとしても、交差点では周囲の壁によって視野が狭められて、交差点の左方向並びに右方向に死角が生じる。交差点の直前で自転車310や他の車両320の飛び出しに備える必要がある。以下では、車両300が、左方向から交差点に近づいている車両320から取得した情報に基づいて、衝突を回避しながら交差点を通過するシーンを想定している。
周辺車両320の車載カメラ321~322が正常に動作していれば、交差点付近における車両300の死角を補うことができる。同様に、車両300の車載カメラ301~303が正常に動作していれば、交差点付近における車両320の死角を補うことができる。
図6には、自動運転中に交差点などに差し掛かって、周囲の壁によって視野が狭められた車両が、死角から飛び出してきた物体との衝突を回避しながら通過するための処理手順をフローチャートの形式で示している。この処理手順は、例えば図3中の車両300の自動運転を制御する車両制御システム100において、マップ解析部151が地図情報を解析して、死角が多いエリアに進入したと判定したことに応答して起動して、自動運転制御部112内で実施される。また、左方向から交差点に近づいている車両320においても、自動運転時に同様の処理が実施されることが想定される。
まず、状況認識部153は、データ取得部102に含まれる車載センサから取得されたセンサ情報に基づいて、自車周辺の状況認識用マップの作成を試みる(ステップS601)。ここでは、状況認識用マップとして、グリッド毎の物体の存在確率を表すグリッドマップを作成するものとする(同上)。交差点では、周囲の壁によって視野が狭められるため、グリッドマップに死角グリッドが含まれることが想定される。
そして、自動運転制御部112は、死角グリッドを補完するための情報要求を、通信部103を介してブロードキャスト送信する(ステップS602)。
この情報要求には、ステップS601で作成した自車周辺のグリッドマップと、データ取得部102が受信したGNSS信号などに基づいて検出された自車の現在位置の情報を含むものとする。また、通信部103は、基本的にはV2V通信を利用して、周辺車両に向けて情報要求をブロードキャスト送信するが、V2V以外のV2X通信を利用して、車両以外(自車周辺の歩行者の所持端末や、監視カメラ、定点カメラなど)にも情報要求を行うようにしてもよい。また、周辺車両からは、死角グリッドを補完するための情報として、周辺車両で同様に作成されたグリッドマップが返信されるものとする。
自動運転制御部112は、先行ステップS602で情報要求を送信した後、所定時間(例えば、3秒)だけ、周辺車両からの情報の受信を待機する(ステップS603)。
そして、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができた場合には(ステップS604のYes)、状況認識部153は、ステップS401で自車のセンサ情報に基づいて作成したグリッドマップと、周辺車両から受信したグリッドマップを合成する(ステップS605)。この合成処理により、自車のグリッドマップ内の死角グリッドが補完され、又は死角グリッドが収縮して、非死角グリッドが拡充されることが期待される。また、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができなかった場合には(ステップS604のNo)、周辺車両のグリッドマップとの合成を諦める。
その後、計画部134内では、ルート計画部161が、自車の予定進路を先行ステップS605で合成したグリッドマップと比較して(ステップS606)、自車の予定進路の近傍にまだ死角グリッドが残っているかどうかをチェックする(ステップS607)。
ここで、自車の予定進路の近傍に死角グリッドが存在する場合には(ステップS607のYes)、自転車310や他の車両320などの物体が死角グリッドから飛び出してくるのに備えるために、動作制御部135は、自車の徐行を実施する(ステップS608)。また、自車の予定進路の近傍に死角グリッドが存在しない場合には(ステップS607のNo)、動作制御部135は、徐行することなく、ルート計画部161が計画したルートに従って車両制御を実施する。
自車が死角の多いエリアを抜けるまでは(ステップS609のNo)、ステップS601に戻り、自動運転制御部112は、上記の処理を繰り返し実行する。また、自車が死角の多いエリアを抜けると(ステップS609のYes)、自動運転制御部112は、本処理を終了する。
なお、ステップS609では、死角の多いエリアを抜けたか否かの判定に代えて、ステップS605で合成したグリッドマップ中で死角グリッドが占める割合が所定値以下になったか否かを以って、本処理の終了を判定し若しくは周辺車両への情報要求を停止するようにしてもよい。車両は、ほぼ死角がないグリッドマップを取得することができたならば、敢えて周辺車両からの情報収集を繰り返し実施する必要はないからである。
C-3.死角の範囲に基づく情報要求の制御
上記のC-1項及びC-2項では、車両に搭載された外界認識センサの故障や、自車が交差点などの所定のエリア内に進入したときなど、あらかじめ決められた事象が自車に発生したに必ず起動して、少なくとも1回は周辺車両への情報要求が実施される。付言すれば、C-1項で説明した処理手順では、1回しか周辺車両への情報要求が行われない。
上記のC-1項及びC-2項では、車両に搭載された外界認識センサの故障や、自車が交差点などの所定のエリア内に進入したときなど、あらかじめ決められた事象が自車に発生したに必ず起動して、少なくとも1回は周辺車両への情報要求が実施される。付言すれば、C-1項で説明した処理手順では、1回しか周辺車両への情報要求が行われない。
そこで、この項では、グリッドマップ中で死角グリッドが占める割合(言い換えれば、グリッドマップのクオリティ)に基づいて周辺車両への情報要求を制御する処理手順について紹介する。
図11には、車両がクオリティ管理しながらグリッドマップを作成するための処理手順をフローチャートの形式で示している。
まず、状況認識部153は、データ取得部102に含まれる車載センサから取得されたセンサ情報に基づいて、自車周辺の状況認識用マップの作成を試みる(ステップS601)。ここでは、状況認識用マップとして、グリッド毎の物体の存在確率を表すグリッドマップを作成するものとする(同上)。
次いで、状況認識部153は、現在保持しているグリッドマップ中で死角グリッドが占める割合が所定値以下かどうかをチェックする(ステップS1102)。
そして、グリッドマップ中で死角グリッドが占める割合が所定値以下である場合には(ステップS1102のYes)、状況認識部153が現在のグリッドマップを出力して、本処理を終了する。その後、ルート計画部161は、このグリッドマップを使用して、自車の走行ルートを計画することになる。
一方、グリッドマップ中で死角グリッドが占める割合が所定値を超える場合には(ステップS1102のNo)、周辺車両で作成されたグリッドマップとの合成により、自車のグリッドマップのクオリティ向上を図る。
自動運転制御部112は、死角グリッドを補完するための情報要求を、通信部103を介してブロードキャスト送信する(ステップS1103)。この情報要求には、データ取得部102が受信したGNSS信号などに基づいて検出された自車の現在位置の情報を含むものとする。また、自車で現在保持しているグリッドマップを含めて情報要求を送信するようにしてもよい。また、通信部103は、基本的にはV2V通信を利用して、周辺車両に向けて情報要求をブロードキャスト送信するが、V2V以外のV2X通信を利用して、車両以外(自車周辺の歩行者の所持端末や、監視カメラ、定点カメラなど)にも情報要求を行うようにしてもよい。
自動運転制御部112は、先行ステップS1103で情報要求を送信した後、所定時間(例えば、3秒)だけ、周辺車両からの情報の受信を待機する(ステップS1104)。
そして、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができた場合には(ステップS1105のYes)、状況認識部153は、自車で現在保持しているグリッドマップと、周辺車両から受信したグリッドマップを合成する(ステップS1106)。
その後、ステップS1102に戻って、グリッドマップ中で死角グリッドが占める割合が所定値以下かどうかを、改めてチェックする(ステップS1102)。グリッドマップ中で死角グリッドが占める割合が所定値以下である場合には(ステップS1102のYes)、状況認識部153が現在のグリッドマップを出力して、本処理を終了する。
また、グリッドマップ中で死角グリッドが占める割合が所定値を超えて、グリッドマップのクオリティを確保できない場合には(ステップS1102のNo)、ステップS1103に進んで、周辺車両に情報要求して、グリッドマップの合成処理を繰り返し実行する。
また、所定時間内に周辺車両から死角グリッドを補完するための情報を受信することができず(ステップS1105のNo)、周辺車両で作成されたグリッドマップとの合成処理によりグリッドマップのクオリティを向上することができなかった場合にも、ステップS1102に戻って、周辺車両への情報要求並びにグリッドマップの合成処理を繰り返し実行する。
C-4.グリッドマップの合成処理
この項では、図4に示したフローチャート中のステップS407や、図6に示したフローチャート中のステップS605などで実施される、自車のグリッドマップと他者から取得したグリッドマップを合成する処理について説明する。
この項では、図4に示したフローチャート中のステップS407や、図6に示したフローチャート中のステップS605などで実施される、自車のグリッドマップと他者から取得したグリッドマップを合成する処理について説明する。
グリッドマップは、自車(若しくは、所定の対象物)の周辺について、グリッド毎に物体の存在確率を表したマップである。1つのグリッドは、例えば一辺が25センチメートルの正方形からなる。但し、グリッドのサイズは25センチメートルには限定されない。グリッドのサイズを小さくすれば粒度の細かいがデータ量の大きなマップ情報となり、グリッドのサイズを大きくすれば粒度が粗いがデータ量を削減したマップ情報となる。
また、本実施形態では、センサの故障や、壁などの物体によってセンサの視野が遮られたために、物体の存在確率を計算することができないグリッドを「死角グリッド」、それ以外のグリッドを「非死角グリッド」と呼んでいる(前述)。
例えば、グリッドに死角フラグを設定することによって、そのグリッドが死角フラグであること表すことができる。
状況認識部153においてグリッドマップを作成する際には、すべてのグリッドの死角フラグを設定しておき、外界認識センサのセンサ情報に基づいて物体の存在確率を計算することができたグリッドの死角フラグを解除して、非死角グリッドであることを表すことができる。
図7には、図2中の車両200のグリッドマップ700を例示している。同図において、車載カメラ202の故障のために車両200の左側に発生した死角グリッド701を斜線で示している。
車両200が図4に示した処理手順を実施するとともに、周辺車両220が図5に示した処理手順を実施することにより、車両200は、周辺車両220から提供されたグリッドマップを自車のグリッドマップを合成することによって、死角グリッドを補完することができる。
図2に示した例では、周辺車両220は車両200の後続車両であり、周辺車両220の左前方を撮影する車載カメラ221の撮影画像に基づいて作成されたグリッドマップを自車のグリッドマップと合成することによって、車両200の死角グリッド701を補完することができる。
図8には、車両200のグリッドマップを、周辺車両220から提供されたグリッドマップと合成した結果を例示している。車両200側からは、車載カメラ221の視野800内のセンサ情報に基づくグリッドマップが提供される。したがって、車両200及び周辺車両220の各グリッドマップを合成すると、図8に示すように、死角グリッド801が縮退して、自転車210を完全に検知できるようになる。この結果、車両200は、自転車210を回避しながら、路肩へ退避するルートを生成することができるようになる。
図9には、図3中の車両300のグリッドマップ900を例示している。同図において、十字路の交差点に差し掛かった付近では、周囲の壁351~354によって各カメラ301~303の視界が遮られるために、車両300の前方の左右それぞれに発生した死角グリッド901を斜線で示している。
車両300及び周辺車両320がそれぞれ図6に示した処理手順を実施することにより、車両300は、周辺車両320から提供されたグリッドマップを自車のグリッドマップを合成することによって、死角グリッドを補完することができる。
図3に示した例では、周辺車両320は、車両300の前方の十字路の交差点の左側から同交差点に進入してきている。したがって、周辺車両320の車載カメラ321及び322の撮影画像に基づいて作成されたグリッドマップを自車のグリッドマップと合成することによって、車両300の死角グリッド901を補完することができる。
図10には、車両300のグリッドマップを、周辺車両320から提供されたグリッドマップと合成した結果を例示している。車両300側からは、車載カメラ321及び322の視野1000内のセンサ情報に基づくグリッドマップが提供される。したがって、車両300及び周辺車両320の各グリッドマップを合成すると、図10に示すように、死角グリッド901が消滅して、自転車310を完全に検知できるようになる。この結果、車両300は、徐行することなく、自転車310を回避しながら、交差点を通過するルートを生成することができるようになる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、車載の外界認識センサに基づいて生成されるグリッドマップに関する実施形態を中心に説明してきたが、本明細書で開示する技術の適用範囲は車両に限定されない。例えば、ドローンなどの無人航空機、所定の作業空間(家庭、オフィス、工場など)を自律的に移動するロボット、船舶、航空機など、車両以外のさまざまなタイプの移動体装置に対して、同様に本明細書で開示する技術を適用することができる。もちろん、移動体装置に設置される情報端末や、移動型でないさまざまな装置に対しても、同様に本明細書で開示する技術を適用することができる。
また、外界認識センサに基づいて生成されるグリッドマップは、2次元マップに限定されず、例えば3次元マップであってもよい。3次元のグリッドマップによれば、同一平面内の状況だけでなく垂直方向の状況(例えば、上空又は下方から接近している障害物の状況)も把握することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
を具備する情報処理装置。
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
を具備する情報処理装置。
(2)前記要求部は、前記作成部が作成した前記マップに含まれる死角の状況に基づいて、前記外部装置に情報を要求する、
上記(1)に記載の情報処理装置。
上記(1)に記載の情報処理装置。
(3)前記要求部は、前記センサの故障検知に基づいて、前記外部装置に情報を要求する、
上記(1)に記載の情報処理装置。
上記(1)に記載の情報処理装置。
(4)前記要求部は、前記作成部が作成した前記マップによって前記移動体の自動運転を継続できない場合に、前記外部装置に情報を要求する、
上記(1)乃至(3)のいずれかに記載の情報処理装置。
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)前記要求部は、前記作成部が作成した前記マップに含まれる死角のために前記移動体を安全な場所に退避できない場合に、前記外部装置に情報を要求する、
上記(4)に記載の情報処理装置。
上記(4)に記載の情報処理装置。
(6)前記要求部は、前記移動体の現在の位置情報を地図情報と比較した結果に基づいて、前記外部装置に情報を要求する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
上記(1)又は(2)のいずれかに記載の情報処理装置。
(7)前記要求部は、前記移動体の現在の位置において死角が多いことが地図情報で示されている場合に、前記外部装置に情報を要求する、
上記(6)に記載の情報処理装置。
上記(6)に記載の情報処理装置。
(8)前記要求部は、前記作成部が作成した前記マップに含まれる死角を補完するマップ情報、又は死角を補完するマップを作成するためのセンサ情報を、前記外部装置に要求する、
上記(1)乃至(7)のいずれかに記載の情報処理装置。
上記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)前記要求部は、前記合成部による合成結果に基づいて、前記外部装置への情報の要求を制御する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)前記要求部は、前記合成部により前記外部装置から取得した情報を前記作成した前記マップと合成して、前記マップに含まれる死角が所定値以下になるまでは前記外部装置への要求を継続し、又は、前記マップに含まれる死角が所定値以下になったことに応答して前記外部装置への要求を停止する、
上記(9)に記載の情報処理装置。
上記(9)に記載の情報処理装置。
(11)前記要求部は、他の移動体に対して情報を要求する、
上記(1)乃至(10)のいずれかに記載の情報処理装置。
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)前記移動体は車両であり、
前記要求部は、車車間通信を介して他の車両に対して情報を要求する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
前記要求部は、車車間通信を介して他の車両に対して情報を要求する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体の運転を制御する制御部をさらに備える、
上記(1)乃至(12)のいずれかに記載の情報処理装置。
上記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)前記マップは、グリッド毎の物体の存在確率を表すグリッドマップであり、
前記作成部、前記要求部、及び前記合成部は、グリッド単位でマップの情報を処理する、
上記(1)乃至(13)のいずれかに記載の情報処理装置。
前記作成部、前記要求部、及び前記合成部は、グリッド単位でマップの情報を処理する、
上記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
前記作成ステップにおいて作成した前記マップの状態に基づいて、前記外部装置に情報を要求する要求ステップと、
前記要求ステップにおいて前記外部装置から取得した情報を前記作成した前記マップと合成する合成ステップと、
を有する情報処理方法。
前記作成ステップにおいて作成した前記マップの状態に基づいて、前記外部装置に情報を要求する要求ステップと、
前記要求ステップにおいて前記外部装置から取得した情報を前記作成した前記マップと合成する合成ステップと、
を有する情報処理方法。
(16)移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供部と、
を具備する情報処理装置。
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供部と、
を具備する情報処理装置。
(17)前記提供部は、前記外部装置の位置情報とともに要求を受け取り、前記移動体の現在の位置情報から所定範囲に存在する前記外部装置に対して前記マップの情報を提供する、
上記(16)に記載の情報処理装置。
上記(16)に記載の情報処理装置。
(18)前記移動体は車両であり、
前記提供部は、車車間通信を介して他の車両に対して前記マップの情報を提供する、
上記(16)又は(17)のいずれかに記載の情報処理装置。
前記提供部は、車車間通信を介して他の車両に対して前記マップの情報を提供する、
上記(16)又は(17)のいずれかに記載の情報処理装置。
(19)移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供ステップと、
を有する情報処理方法。
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供ステップと、
を有する情報処理方法。
(20)移動体本体部と、
前記移動体本体部に搭載された1以上のセンサと、
前記センサセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体本体の運転を制御する制御部と、
を具備する移動体装置。
前記移動体本体部に搭載された1以上のセンサと、
前記センサセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体本体の運転を制御する制御部と、
を具備する移動体装置。
100…車両制御システム
101…入力部、102…データ取得部、103…通信部
104…車内機器、105…出力制御部、106…出力部
107…駆動系制御部、108…駆動系システム
109…ボディ系制御部、110…ボディ系システム、111記憶部
112…自動運転制御部、121…通信ネットワーク
131…検出部、132…自己位置推定部、133…状況分析部
134…計画部、135…動作制御部
141…車外情報検出部、142…車内情報検出部
143…車両状態検出部
151…マップ解析部、152…交通ルール認識部
153…状況認識部、154…状況予測部
161…ルート計画部、162…行動計画部、163…動作計画部
171…緊急事態回避部、172…加減速制御部、173…方向制御部
200…車両、201~204…車載カメラ、210…自転車
220…周辺車両、221、222…車載カメラ
300…車両、301~303…車載カメラ、310…自転車
320…周辺車両
101…入力部、102…データ取得部、103…通信部
104…車内機器、105…出力制御部、106…出力部
107…駆動系制御部、108…駆動系システム
109…ボディ系制御部、110…ボディ系システム、111記憶部
112…自動運転制御部、121…通信ネットワーク
131…検出部、132…自己位置推定部、133…状況分析部
134…計画部、135…動作制御部
141…車外情報検出部、142…車内情報検出部
143…車両状態検出部
151…マップ解析部、152…交通ルール認識部
153…状況認識部、154…状況予測部
161…ルート計画部、162…行動計画部、163…動作計画部
171…緊急事態回避部、172…加減速制御部、173…方向制御部
200…車両、201~204…車載カメラ、210…自転車
220…周辺車両、221、222…車載カメラ
300…車両、301~303…車載カメラ、310…自転車
320…周辺車両
Claims (20)
- 移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
を具備する情報処理装置。 - 前記要求部は、前記作成部が作成した前記マップに含まれる死角の状況に基づいて、前記外部装置に情報を要求する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記センサの故障検知に基づいて、前記外部装置に情報を要求する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記作成部が作成した前記マップによって前記移動体の自動運転を継続できない場合に、前記外部装置に情報を要求する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記作成部が作成した前記マップに含まれる死角のために前記移動体を安全な場所に退避できない場合に、前記外部装置に情報を要求する、
請求項4に記載の情報処理装置。 - 前記要求部は、前記移動体の現在の位置情報を地図情報と比較した結果に基づいて、前記外部装置に情報を要求する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記移動体の現在の位置において死角が多いことが地図情報で示されている場合に、前記外部装置に情報を要求する、
請求項6に記載の情報処理装置。 - 前記要求部は、前記作成部が作成した前記マップに含まれる死角を補完するマップ情報、又は死角を補完するマップを作成するためのセンサ情報を、前記外部装置に要求する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記合成部による合成結果に基づいて、前記外部装置への情報の要求を制御する、
請求項1に記載の情報処理装置。 - 前記要求部は、前記合成部により前記外部装置から取得した情報を前記作成した前記マップと合成して、前記マップに含まれる死角が所定値以下になるまでは前記外部装置への要求を継続し、又は、前記マップに含まれる死角が所定値以下になったことに応答して前記外部装置への要求を停止する、
請求項9に記載の情報処理装置。 - 前記要求部は、他の移動体に対して情報を要求する、
請求項1に記載の情報処理装置。 - 前記移動体は車両であり、
前記要求部は、車車間通信を介して他の車両に対して情報を要求する、
請求項1に記載の情報処理装置。 - 前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体の運転を制御する制御部をさらに備える、
請求項1に記載の情報処理装置。 - 前記マップは、グリッド毎の物体の存在確率を表すグリッドマップであり、
前記作成部、前記要求部、及び前記合成部は、グリッド単位でマップの情報を処理する、
請求項1に記載の情報処理装置。 - 移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
前記作成ステップにおいて作成した前記マップの状態に基づいて、前記外部装置に情報を要求する要求ステップと、
前記要求ステップにおいて前記外部装置から取得した情報を前記作成した前記マップと合成する合成ステップと、
を有する情報処理方法。 - 移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供部と、
を具備する情報処理装置。 - 前記提供部は、前記外部装置の位置情報とともに要求を受け取り、前記移動体の現在の位置情報から所定範囲に存在する前記外部装置に対して前記マップの情報を提供する、
請求項16に記載の情報処理装置。 - 前記移動体は車両であり、
前記提供部は、車車間通信を介して他の車両に対して前記マップの情報を提供する、
請求項16に記載の情報処理装置。 - 移動体に搭載された1以上のセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成ステップと、
外部装置からの要求に応じて、前記作成部が作成したマップの少なくとも一部の情報を提供する提供ステップと、
を有する情報処理方法。 - 移動体本体部と、
前記移動体本体部に搭載された1以上のセンサと、
前記センサセンサによって取得されたセンサ情報に基づいて、前記移動体の周囲のマップを作成する作成部と、
前記作成部が作成した前記マップの状態に基づいて、外部装置に情報を要求する要求部と、
前記要求部が前記外部装置から取得した情報を前記作成した前記マップと合成する合成部と、
前記作成部が作成したマップ又は前記合成部による合成結果に基づいて、前記移動体本体の運転を制御する制御部と、
を具備する移動体装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/310,904 US11965754B2 (en) | 2019-03-13 | 2020-01-15 | Information processing apparatus, information processing method, and mobile body apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046554 | 2019-03-13 | ||
JP2019-046554 | 2019-03-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020183892A1 true WO2020183892A1 (ja) | 2020-09-17 |
Family
ID=72427230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/000961 WO2020183892A1 (ja) | 2019-03-13 | 2020-01-15 | 情報処理装置及び情報処理方法、並びに移動体装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11965754B2 (ja) |
WO (1) | WO2020183892A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024009725A1 (ja) * | 2022-07-05 | 2024-01-11 | 株式会社デンソー | 監視システム、監視装置、自律走行車両、監視方法、監視プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020183892A1 (ja) * | 2019-03-13 | 2020-09-17 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、並びに移動体装置 |
US11657625B2 (en) * | 2020-12-18 | 2023-05-23 | Toyota Research Institue, Inc. | System and method for determining implicit lane boundaries |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299676A (ja) * | 2007-05-31 | 2008-12-11 | Toyota Motor Corp | 死角情報要求/提供装置及びこれらを利用した車車間通信システム |
WO2018083999A1 (ja) * | 2016-11-01 | 2018-05-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 表示方法及び表示装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5729480B2 (ja) | 2011-10-03 | 2015-06-03 | トヨタ自動車株式会社 | 車両の運転支援システム |
JP6610339B2 (ja) | 2016-03-03 | 2019-11-27 | 株式会社デンソー | 占有格子地図作成装置 |
WO2020183892A1 (ja) * | 2019-03-13 | 2020-09-17 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、並びに移動体装置 |
DE102019107411A1 (de) * | 2019-03-22 | 2020-09-24 | Zf Active Safety Gmbh | Steuerungssystem und Steuerungsverfahren zur Pfadzuordnung von Verkehrsobjekten |
CN110304049B (zh) * | 2019-06-24 | 2020-11-24 | 浙江大学 | 环境主动感知型停车场自动泊车系统 |
JP2021174135A (ja) * | 2020-04-22 | 2021-11-01 | ソニーセミコンダクタソリューションズ株式会社 | 画像認識装置及び画像認識方法 |
US20230228588A1 (en) * | 2020-06-04 | 2023-07-20 | Lg Electronics Inc. | Route provision apparatus and route provision method therefor |
-
2020
- 2020-01-15 WO PCT/JP2020/000961 patent/WO2020183892A1/ja active Application Filing
- 2020-01-15 US US17/310,904 patent/US11965754B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299676A (ja) * | 2007-05-31 | 2008-12-11 | Toyota Motor Corp | 死角情報要求/提供装置及びこれらを利用した車車間通信システム |
WO2018083999A1 (ja) * | 2016-11-01 | 2018-05-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 表示方法及び表示装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024009725A1 (ja) * | 2022-07-05 | 2024-01-11 | 株式会社デンソー | 監視システム、監視装置、自律走行車両、監視方法、監視プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11965754B2 (en) | 2024-04-23 |
US20220099457A1 (en) | 2022-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020003776A1 (ja) | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 | |
JP7374098B2 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置 | |
US11501461B2 (en) | Controller, control method, and program | |
US11590985B2 (en) | Information processing device, moving body, information processing method, and program | |
US11377101B2 (en) | Information processing apparatus, information processing method, and vehicle | |
WO2020183892A1 (ja) | 情報処理装置及び情報処理方法、並びに移動体装置 | |
US11200795B2 (en) | Information processing apparatus, information processing method, moving object, and vehicle | |
JPWO2019039281A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
WO2020129687A1 (ja) | 車両制御装置、車両制御方法、プログラム、及び、車両 | |
JPWO2020009060A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 | |
WO2020241303A1 (ja) | 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法 | |
WO2019117104A1 (ja) | 情報処理装置および情報処理方法 | |
WO2022004423A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
WO2020129689A1 (ja) | 移動体制御装置、移動体制御方法、移動体、情報処理装置、情報処理方法、及び、プログラム | |
WO2023068116A1 (ja) | 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム | |
WO2023171401A1 (ja) | 信号処理装置、信号処理方法、および記録媒体 | |
WO2024009829A1 (ja) | 情報処理装置、情報処理方法および車両制御システム | |
JP7483627B2 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
WO2020116204A1 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
KR20230159450A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20770494 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20770494 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |