JP2019214319A - 認識処理装置、車両制御装置、認識処理方法、およびプログラム - Google Patents
認識処理装置、車両制御装置、認識処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2019214319A JP2019214319A JP2018113052A JP2018113052A JP2019214319A JP 2019214319 A JP2019214319 A JP 2019214319A JP 2018113052 A JP2018113052 A JP 2018113052A JP 2018113052 A JP2018113052 A JP 2018113052A JP 2019214319 A JP2019214319 A JP 2019214319A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- recognition target
- vehicle
- data table
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 49
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 21
- 230000002093 peripheral effect Effects 0.000 claims abstract description 8
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 19
- 230000009471 action Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
【課題】自車両の周辺に存在する認識対象の情報をより好適に集約管理することができる認識処理装置、車両制御装置、認識処理方法、およびプログラムを提供すること。【解決手段】認識処理装置において、自動運転車両の周辺状況を認識し、認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、付随する情報を処理する周辺状況認識部(132)と、前記第1認識対象を前記データテーブルの列または行である第1軸、前記第2認識対象を前記第1軸とは異なる第2軸として1つのデータテーブルで管理するデータテーブル管理部(138)とを備える。【選択図】図2
Description
本発明は、認識処理装置、車両制御装置、認識処理方法、およびプログラムに関する。
従来、車両の周囲における物標とレーンとの位置関係を認識する技術が開示されている(例えば、特許文献1)。特許文献1に記載の技術では、カメラ等による検出結果に基づいて車両の周囲の物標を取得し、地図データの有するレーン情報および車両の姿勢や位置等に基づいて車両の周囲のレーン配置情報を取得した上で、物標と車両のレーン位置から車両の走行位置を調整する。
しかしながら、従来の技術では、認識する物標のデータの管理方法については詳細に検討されていなかった。そのため、例えば、検出結果が撮像データである場合、撮像データの大部分を周期的に認識して更新する必要があるなど、処理負荷が大きくなる可能性があった。
本発明は、このような事情を考慮してなされたものであり、自車両の周辺に存在する認識対象の情報を、より好適に集約管理することができる車両制御装置、認識処理方法、およびプログラムを提供することを目的の一つとする。
この発明に係る認識処理装置、車両制御装置、認識処理方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る認識処理装置は、車両周辺の状況を認識する周辺状況認識部と、前記周辺状況認識部により認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理する認識処理部とを備えるものである。
(1):この発明の一態様に係る認識処理装置は、車両周辺の状況を認識する周辺状況認識部と、前記周辺状況認識部により認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理する認識処理部とを備えるものである。
(2):上記(1)の様態において、前記第1認識対象は、前記車両周辺の道路環境を含み、前記第2認識対象は、交通参加者または立体物標を含むものである。
(3):上記(1)または(2)の様態において、前記第2認識対象に付随する情報を、前記第1認識対象をデータテーブルの列または行のうち一方である第1軸、前記第2認識対象を前記データテーブルの列または行の他方である第2軸として、前記第2認識対象を前記第1認識対象に当てはめた前記データテーブルで管理するデータテーブル管理部を更に備えるものである。
(4):上記(3)の様態において、前記データテーブル管理部は、新たに前記認識処理部により前記第2認識対象の情報が認識された場合において、前記新たに認識された前記第2認識対象と同種の前記第2認識対象の情報を管理する行または列が存在しない場合、前記データテーブルの前記第2認識対象の情報を管理する項目を更新し、前記新たに認識された前記第2認識対象と同種の前記第2認識対象の情報を管理する他の行または列が既に存在する場合、前記データテーブルの行または列を新たに挿入して前記第2認識対象の情報を管理するものである。
(5):上記(3)または(4)の様態において、前記第1軸は、前記データテーブルの列であり、前記データテーブル管理部は、前記第1認識対象に関連する情報をレコードとして管理するものである。
(6):この発明の一態様に係る車両制御装置は、上記(1)から(5)のうちいずれか1項に記載の認識処理装置と、前記認識処理装置により認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転制御を実行する運転制御部とを備えるものである。
(7):この発明の一態様に係る認識処理方法は、コンピュータが、車両周辺の状況を認識し、認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理する、認識処理方法である。
(8):この発明の一態様に係るプログラムは、コンピュータに、車両周辺の状況を認識させ、認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理させる、プログラムである。
(1)〜(8)によれば、第1認識対象の自車の走行に伴って自車に対する相対的な変化が少ない情報と、第2認識対象の自車の走行に伴って前後方向に動き、自車に対する相対的な変化が起き易い情報とを分けて管理することができるため、自車両の周辺に存在する認識対象の情報を、より好適に集約管理することができる。また、処理負荷を軽減することができる。
また、(3)〜(5)によれば、認識する物標が多数である場合にも、データテーブルの更新によって認識された第1認識対象および第2認識対象の認識結果の関係を管理することで、処理負荷を削減することができる。また、データテーブルの更新によって認識された第1認識対象および第2認識対象の認識結果の関係を管理するという構成であることから、汎用性があり、ソフトウェア開発の負担を減らすことができる。
また、(5)によれば、認識対象の増減に応じてデータテーブルのレコードを挿入・削除して管理することから処理負荷をより軽減させることができる。
以下、図面を参照し、本発明の認識処理装置、車両制御装置、認識処理方法、およびプログラムの実施形態について説明する。
[全体構成]
図1は、実施形態に係る車両制御装置1の構成図である。車両制御装置1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
図1は、実施形態に係る車両制御装置1の構成図である。車両制御装置1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両制御装置1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両制御装置1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。車両制御装置1から物体認識装置16が省略されてもよい。
通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、例えば、周辺状況認識部132と、道路環境認識部134と、交通参加者認識部136と、データテーブル管理部138とを備える。周辺状況認識部132は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、周辺状況認識部132は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、周辺状況認識部132は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、周辺状況認識部132は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、周辺状況認識部132は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
周辺状況認識部132は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。周辺状況認識部132は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、周辺状況認識部132は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
周辺状況認識部132は、走行車線・走路境界、路側帯、歩道等(以下、道路環境と称する)と、自車両Mの周辺の交通参加者(他車両、自転車、歩行者等)に代表される物体とをそれぞれ区別して認識する。周辺状況認識部132は、例えば、認識された対象物の自車両Mの進行方向と同一方向の相対速度に基づいて、物体であるか道路環境であるかを区別してもよい。周辺状況認識部132は、例えば、認識された対象物の相対速度が自車両Mと異なる場合や、変化する場合に物体であると区別し、認識された対象物の相対速度が自車両Mとほぼ同じ場合に道路環境であると区別してもよい。なお、周辺状況認識部132は、一時停止線、横断歩道、道路標示、障害物、赤信号、料金所、その他の道路事象は、道路環境ではなく物体として認識する。
図3は、周辺状況認識部132の処理について説明するための図である。図3の例では、自車両Mは車線R1を走行中であり、走行方向左側に歩道WWと路側帯SRが位置し、走行方向右側に中央分離帯MSと他の車線R0とが位置する。周辺状況認識部132は、例えば、図3の例において、歩道WW、路側帯SR、中央分離帯MS、自車両Mが走行する車線R1の区画線LL1およびLR1、車線R1に隣接する車線R0の区画線であるLL0(LR1と同一の区画線であってもよい)およびLR0を認識し、道路環境として認識した認識結果を道路環境認識部134に出力し、交通参加者として認識した認識結果を交通参加者認識部136に出力する。道路環境認識部134と、交通参加者認識部136と、データテーブル管理部138については後述する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
図1に戻り、走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
上記説明した構成のうち、道路環境認識部134および交通参加者認識部136は認識処理部の一例であり、周辺状況認識部132と道路環境認識部134と交通参加者認識部136とデータテーブル管理部138を合わせたものが認識処理装置の一例であり、認識処理装置に更に行動計画生成部140と第2制御部160とを加えたものが車両制御装置の一例である。
[第1制御部の構成]
図2に戻り、道路環境認識部134は周辺状況認識部132により出力された認識結果を予め設定された道路環境の種別のうち該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。交通参加者認識部136は、周辺状況認識部132により出力された認識結果を予め設定された物体の種別のうち該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。また、交通参加者認識部136は、信号、交通標識などの立体物標を識別して該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。道路環境認識部134または交通参加者認識部136により出力される識別結果には、認識対象の状態の認識結果が含まれていてもよい。例えば、交通参加者認識部136は、周辺状況認識部132によって認識された他車両OV1を「他車両」であると識別し、識別結果「他車両」と、他車両OV1に関する他の認識結果(例えば、他車両OV1の相対速度や位置等)とをデータテーブル管理部138に出力する。
図2に戻り、道路環境認識部134は周辺状況認識部132により出力された認識結果を予め設定された道路環境の種別のうち該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。交通参加者認識部136は、周辺状況認識部132により出力された認識結果を予め設定された物体の種別のうち該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。また、交通参加者認識部136は、信号、交通標識などの立体物標を識別して該当する種別に当てはめ、当てはめた識別結果をデータテーブル管理部138に出力する。道路環境認識部134または交通参加者認識部136により出力される識別結果には、認識対象の状態の認識結果が含まれていてもよい。例えば、交通参加者認識部136は、周辺状況認識部132によって認識された他車両OV1を「他車両」であると識別し、識別結果「他車両」と、他車両OV1に関する他の認識結果(例えば、他車両OV1の相対速度や位置等)とをデータテーブル管理部138に出力する。
データテーブル管理部138は、道路環境認識部134または交通参加者認識部136から出力された識別結果に基づいて、データテーブルTに格納することで、各識別結果およびその識別結果に対応付けられた認識結果を管理する。データテーブルTは、目標軌道を生成する元となる情報である、周辺状況認識部132の認識した物体や道路環境の認識結果を一元管理する表である。データテーブルTは実表(テーブル)であってもよいし、複数の実表を参照する仮想表(ビュー)であってもよい。データテーブルTは、例えば、自車両Mの周辺にある物体の認識結果を縦軸方向に保持し、道路環境の認識結果を横軸方向に保持するよう設定される。行動計画生成部140は、データテーブルTに格納された認識結果に基づいて、目標軌道を生成し、第2制御部160に出力する。
データテーブル管理部138は、道路環境認識部134により出力された道路環境の認識結果、または交通参加者認識部136により出力された認識した物体の認識結果をデータテーブルTに反映させる。なお、データテーブル管理部138は、認識結果をデータテーブルTに出力する頻度を調整してもよい。データテーブル管理部138は、例えば、交通参加者認識部136が交通参加者(例えば、他車両)を認識した場合、周辺状況認識部132が最新の交通参加者の状況を認識する度に、その認識結果をデータテーブルTに反映することで、行動計画生成部140に最新の認識結果を出力することができ、行動計画生成部140がより確度の高い目標軌道を生成できる。一方、交通参加者認識部136が交通標識等の物体を認識した場合、周辺状況認識部132が最新の物体の状況を認識する度に、その認識結果をデータテーブルTに反映させたとしても、行動計画生成部140が生成する目標軌道の精度が向上する可能性は低い。したがって、交通参加者認識部136は、交通標識等の物体と比較して、交通参加者をより優先して認識して、その認識結果をデータテーブル管理部138に出力することが望ましい。
[データテーブル]
図3に戻り、データテーブル管理部138により生成されるデータテーブルTについて説明する。図3の例では、自車両Mは車線R1を走行中であり、走行方向左側に歩道WWと路側帯SRが位置し、走行方向右側に中央分離帯MSと他の車線R0とが位置する。道路環境認識部134は、例えば、図3の例において、歩道WW、路側帯SR、中央分離帯MS、自車線R1の区画線LL1およびLR1、車線R0の区画線であるLL0(LR1と同一の区画線であってもよい)およびLR0の認識結果を周辺状況認識部132によって出力され、その認識結果を識別して、識別結果をデータテーブル管理部138に出力する。また、交通参加者認識部136は、例えば、図3の例において、他車両OV1およびOV2、自転車B、交通標識TS、信号機SS、停止線SLの認識結果を周辺状況認識部132によって出力され、その認識結果を識別して、識別結果をデータテーブル管理部138に出力する。なお、以下では、認識結果の一例として自車両Mの中心点CPと物体または道路環境との距離をDIと称し、例えば、自車両Mと他車両OV1の距離をDI(OV1)と示す。また、以下では他車両OV1および他車両OV2を特に区別しない場合に「他車両OV」と称する場合がある。
図3に戻り、データテーブル管理部138により生成されるデータテーブルTについて説明する。図3の例では、自車両Mは車線R1を走行中であり、走行方向左側に歩道WWと路側帯SRが位置し、走行方向右側に中央分離帯MSと他の車線R0とが位置する。道路環境認識部134は、例えば、図3の例において、歩道WW、路側帯SR、中央分離帯MS、自車線R1の区画線LL1およびLR1、車線R0の区画線であるLL0(LR1と同一の区画線であってもよい)およびLR0の認識結果を周辺状況認識部132によって出力され、その認識結果を識別して、識別結果をデータテーブル管理部138に出力する。また、交通参加者認識部136は、例えば、図3の例において、他車両OV1およびOV2、自転車B、交通標識TS、信号機SS、停止線SLの認識結果を周辺状況認識部132によって出力され、その認識結果を識別して、識別結果をデータテーブル管理部138に出力する。なお、以下では、認識結果の一例として自車両Mの中心点CPと物体または道路環境との距離をDIと称し、例えば、自車両Mと他車両OV1の距離をDI(OV1)と示す。また、以下では他車両OV1および他車両OV2を特に区別しない場合に「他車両OV」と称する場合がある。
図4は、図3における自車両Mと周辺の認識対象との位置関係の例を示す図である。道路環境認識部134および交通参加者認識部136は、センシング結果から距離DIを導出してもよいし、所定の演算を行うことでセンシング結果から距離DIを導出してもよい。
周辺状況認識部132は、例えば、夜間や悪天候など、周辺状況認識部132の認識精度が基準より低いと想定される場合、予め設定された値を基準として所定の演算を行うことで、対象物と自車両Mとの距離を推定する。予め設定された値とは、例えば、一般的な車線幅Wr(例えば、3.5[m])や自車両Mの車幅Wmである。
以下、周辺状況認識部132が行う所定の演算について、具体例を挙げて説明する。図4に示す例において、周辺状況認識部132は、自車両Mと中央分離帯MSとの距離である距離DI(MS)を、車線幅Wrを用いて推定する。周辺状況認識部132は、中心点CPから車線LR1の距離が車線幅Wrの半分程度であり、さらに車線R0の車線幅Wrであると推定する。周辺状況認識部132は、距離DI(MS)が車線幅Wrの1.5倍の距離である、5.25[m]であると推定する。同様に、図4に示す例において、周辺状況認識部132は、自車両Mと路側帯SRとの距離である距離DI(SR)を、車線幅Wrの0.5倍である、1.725[m]であると推定する。
また、周辺状況認識部132は、距離DI(MS)および距離DI(SR)を所定の演算により導出した場合であっても、自車両Mと他車両OV2との距離DI(OV2)や自車両Mと停止線SLとの距離DI(SL)はセンシング結果から導出してもよい。
図5は、図3に示す環境を周辺状況認識部132、道路環境認識部134、および交通参加者認識部136が認識した結果を示すデータテーブルTの一例である。データテーブル管理部138は自車両Mの周辺の物体や道路環境の認識結果を図5に示すような1つのデータテーブルTにまとめて管理する。データテーブル管理部138は、例えば、認識した物体についての認識結果をデータテーブルTの列(カラム)の要素として保持させ、認識した道路環境についての認識結果をデータテーブルTの行(レコード)の要素として保持させる。以下の説明では、データテーブルTを構成する列名としてアルファベットを付与し、構成する行名として数字を付与して、列名を示すアルファベットと行名を示す数字とを組み合わせてセル(データテーブルTを構成する最小要素であり、項目の一例である)の位置を説明する。例えば、データテーブルTのE3セルは、E列(信号機)上の3行目(状況)には、「前方」の信号機が「青」であるという状況の情報が格納され、データテーブルTのA4セルは、A列(自車)上の4行目(歩道WW)には、自車両Mと歩道WWとの距離を示す「DI(WW)」という情報が格納される。
図5のA列には自車両に関する認識結果が格納される。例えば、図5のA1セルには自車両Mに関する認識結果の生成時間であるサンプリング時刻が格納され、A2セルには自車両Mの速度に関する情報が格納され、A3セルには自車両Mの状態に関する情報が格納される。図5のA4〜A8セルには、自車両Mの走行位置に関する情報や自車両M周辺の認識対象との距離等の認識結果がそれぞれ格納される。
以下、データテーブル管理部138がデータテーブルTを生成し、データテーブルTを構成するセルを更新する過程の一例について説明する。まず、データテーブル管理部138は、自車両Mの走行開始時、または自車両Mが走行を開始してから所定時間が経過したタイミングで、道路環境認識部134により出力された道路環境の認識結果からテーブルの列要素を抽出し、同時に交通参加者認識部136により出力された物体の認識結果からテーブルの行要素を抽出して、全てのセルが空の状態のデータテーブルTを用意する。道路環境認識部134は、例えば、自車両Mの周辺に複数の走行車線を認識した場合、自車両Mの進行方向と同じ方向の走行車線のうち、中央分離帯MSまたは対向車線と走行車線との境界を示す中央車線に近い車線から順に認識する。
次に、道路環境認識部134は、自車両Mの周辺の道路環境との距離DIを導出して、認識結果をデータテーブル管理部138に出力する。データテーブル管理部138は道路環境認識部134により出力された認識結果を、自車両Mを示すA列のうち、対応する道路環境を示す列のセルに格納する。例えば、データテーブル管理部138は道路環境認識部134により出力された自車両Mと歩道WWとの距離DI(WW)を、自車両Mを示すA列のうち、歩道WWを示す4行目であるA4セルに格納する。
また、交通参加者認識部136は、自車両Mの周辺の認識対象の物体との距離DIを導出して、認識結果をデータテーブル管理部138に出力する。データテーブル管理部138は交通参加者認識部136により出力された認識結果を、対応する物体および道路環境を示すセルに格納する。例えば、交通参加者認識部136は、他車両OV2を認識し、認識した結果をデータテーブル管理部138に出力する。次に、データテーブル管理部138は交通参加者認識部136により出力された他車両OV2の認識結果を、他車両を示すB列であって、車線R0を示す6行目であるB6セルに格納する。この際、交通参加者認識部136の認識結果と道路環境認識部134の認識結果とによって他車両OV2が走行する車線が車線R0であると導出されてもよいし、交通参加者認識部136が道路環境認識部134と同様に道路環境について認識してもよい。なお、図5に示す各セルには、サンプリング時刻、自車両Mの走行車線を示すフラグ、自車両Mの速度、周辺状況認識部132の認識した対象物の状態や距離DI以外の認識結果(例えば、対象物の相対速度、認識対象の車両が有人であるか無人であるか等)が格納されてもよい。
以下、データテーブル管理部138がデータテーブルTの行を生成する過程を、具体例を用いて説明する。図6は、図5に示したデータテーブルTのうち、図3における車線R1を示す7行目の行を抜粋した例である。
道路環境認識部134は、自車両Mの走行する車線が車線R1であることを認識して、認識結果をデータテーブル管理部138に出力する。次に、データテーブル管理部138は道路環境認識部134により出力された認識結果を、自車両を示すA列であり、且つ、車線R1を示す7行目であるA7セルに格納する。同様に、データテーブル管理部138は、道路環境認識部134により出力された自車両Mに関する認識結果を、A列の各セルを更新する。A7セルの「1」は、自車両Mが走行中であることを示すフラグである。
次に、交通参加者認識部136は、車線R1上(路面付近だけではなく、車線R1上の空間を含む)に存在する物体として、他車両OV1、停止線SLおよび信号機SSを認識し、それぞれの認識結果をデータテーブル管理部138に出力する。データテーブル管理部138は、他車両OV1の認識結果を、他車両を示すB列であり、且つ車線R1を示す7行目であるB7セルに格納する。同様に、データテーブル管理部138は、停止線SLの認識結果を、停止線を示すD列であり、且つ車線R1を示す7行目であるD7セルに格納し、信号機SSの認識結果を、信号機を示すE列であり、且つ車線R1を示す7行目であるE7セルに格納する。
道路環境認識部134および交通参加者認識部136は、同様に、その他の周辺の認識対象についての認識結果をデータテーブルTの対応付くセルに格納する。以上のように、データテーブル管理部138は、道路環境認識部134および交通参加者認識部136の認識結果をデータテーブルTに格納する。上述のように、データテーブル管理部138は、一般的な行指向型のリレーショナルデータベース(Relational Database)と同様に、データテーブルTをレコード単位で管理する。データテーブル管理部138は、レコード単位で管理することにより、識別結果および認証結果の増減に応じてデータテーブルTのレコードを挿入・削除するだけでよいことから、従来技術と比較して処理負荷を軽減することができる。また、データテーブル管理部138は一般的な行指向型のリレーショナルデータベースを用いて管理することができることから、汎用性がありソフトウェア開発の負担を減らすことができる。
[データテーブルTの更新]
以下、図7を用いてデータテーブル管理部138によるデータテーブルTの更新される例について説明する。図7は、周辺状況認識部132の処理について説明するための他の図である。図7の示す状況は、図3の示す状況と比較して、交通標識TSが認識対象ではなくなり、横断歩道CWが新たな認識対象となる点が異なる。また、図7の示す状況は、図3の示す状況と比較して、他車両OV2が走行車線を変更し、自車両Mと同一の車線を走行する点が異なる。また、図7の示す状況は、図3の示す状況と比較して、道路環境として交差点Jが新たに認識対象となる点が異なる。以下、これらの相違点がデータテーブルTにどのように格納されるかについて説明する。
以下、図7を用いてデータテーブル管理部138によるデータテーブルTの更新される例について説明する。図7は、周辺状況認識部132の処理について説明するための他の図である。図7の示す状況は、図3の示す状況と比較して、交通標識TSが認識対象ではなくなり、横断歩道CWが新たな認識対象となる点が異なる。また、図7の示す状況は、図3の示す状況と比較して、他車両OV2が走行車線を変更し、自車両Mと同一の車線を走行する点が異なる。また、図7の示す状況は、図3の示す状況と比較して、道路環境として交差点Jが新たに認識対象となる点が異なる。以下、これらの相違点がデータテーブルTにどのように格納されるかについて説明する。
図8は、図7に示す走行環境を周辺状況認識部132が認識した結果を示すデータテーブルTの一例である。図8に示すデータテーブルTは、図5に示す状態と比較して、G列(横断歩道)が追加される点が異なる。また、図8に示すデータテーブルTは、図5に示す状態と比較して、F7セルに格納された認識結果が削除される点が異なる。
交通参加者認識部136は、周辺状況認識部132によって新たに認識された横断歩道CRの認識結果をデータテーブル管理部138に出力する。データテーブル管理部138は、横断歩道CRに該当する列がデータテーブルTに存在しないと判定し、対応する列(G列)を挿入する。また、データテーブル管理部138は、自車両Mと横断歩道CRとの距離DI(CR)の認識結果を、横断歩道を示すG列であり、且つ車線R1を示す7行目であるG7セルに格納する。
また、交通参加者認識部136は、交通標識TSが認識対象ではなくなったことを、データテーブル管理部138に出力する。データテーブル管理部138は、交通標識TSを示す列Fを削除してもよいし、削除しなくてもよい。データテーブル管理部138は、例えば、周辺状況認識部132が自車両Mは市街地を走行中であると認識している場合に、近い将来(例えば、数分以内に)他の交通標識TSに遭遇する可能性が高いため、列Fを削除しないと選択する。また、データテーブル管理部138は、周辺状況認識部132による認識処理が開始された段階で用意される初期状態のデータテーブルTとして、交通参加者認識部136が認識可能な物体を示す列が全て備わるように設定してもよいし、自車両Mが走行する地域等に応じて標準的な列構成を予め定義してもよい。
図9は、図8に示すデータテーブルが更新される様子を示す図である。図9に示すデータテーブルTは、図8に示すデータテーブルTと比較して、対向車線RR0およびRR1に該当する行が2行挿入される点が異なる。
道路環境認識部134は、周辺状況認識部132によって新たに認識された対向車線RR0およびRR1の認識結果をデータテーブル管理部138に出力する。データテーブル管理部138は、対向車線RR0およびRR1に該当する行がデータテーブルTに存在しないと判定し、対応する列(10列および11列)を挿入する。
図10は、図9に示すデータテーブルがさらに更新される様子を示す図である。図10に示すデータテーブルTは、図9に示すデータテーブルTと比較して、車線R1に該当する行が1行挿入される点が異なる。
交通参加者認識部136は、他車両OV2が車線変更したことを認識し、データテーブル管理部138に認識結果を出力する。データテーブル管理部138は、図5に示すデータテーブルTにおいて他車両OV2に対応付けられたセルB6に格納された認識結果を、車線R1を示す7行目に移動させることができるか否かを判定する。図8に示すデータテーブルTには、B7セルに他車両OV2と同種の交通参加者である、他車両OV1の認識結果が既に格納されており、他車両OV2の認識結果を格納することはできない。したがって、データテーブル管理部138は、車線R1を示す行を挿入し、その挿入した行(図10の8行目)に他車両OV2についての認識結果を格納する。
データテーブル管理部138は、行を新たに挿入する場合、新しい行に認識結果を格納する列(図10のB列[他車両])以外の列のセル(図10のC列[自転車]〜G列[横断歩道])は空白のままでもよいし、それぞれのセルが対応する7行目のセルの論理アドレスを格納させてもよいし、それぞれのセルが対応する7行目のセルの値を複写して格納させてもよい。論理アドレスを格納させるとは、例えば、D8セルに、D7セルの論理アドレスを格納することである。
[データテーブルTの列削除]
以下、図11を用いてデータテーブル管理部138によるデータテーブルTの削除される例について説明する。図11は、図10のデータテーブルTの5行目から8行目を抜粋し、76〜8行目が更新される様子を、順を追って示す図である。データテーブル管理部138は、図11(a)に示すように、他車両OV1が車線R1から車線R0に車線変更した場合(不図示)、他車両OV1の認識結果をB7セルからB6セルに移動させる。
以下、図11を用いてデータテーブル管理部138によるデータテーブルTの削除される例について説明する。図11は、図10のデータテーブルTの5行目から8行目を抜粋し、76〜8行目が更新される様子を、順を追って示す図である。データテーブル管理部138は、図11(a)に示すように、他車両OV1が車線R1から車線R0に車線変更した場合(不図示)、他車両OV1の認識結果をB7セルからB6セルに移動させる。
このとき、データテーブル管理部138は、データテーブルTには車線R1に対応する行である8行目のレコードが存在するため、他車両OV1の認識結果を格納していた図11(b)のデータテーブルTの7行目を削除してもよいと判定する。
データテーブル管理部138は、削除対象となる行に自車両Mの存在を示すフラグが存在する場合、図11(c)に示すように自車両Mの存在を示すフラグ(A7セルの「1」)を同一の道路環境を示す他の列(A8セル)に転記する。同様に、データテーブル管理部138は、削除対象となる行に自車両Mに関連する認識結果が格納されている場合(D7、E7、G7の各セル)、図11(c)に示すように8行目の同列セルにそれぞれ転記した後、7行目のレコードを削除する。
このように、1つのデータテーブルT上で複数の認識対象の認識結果を管理する場合、第1制御部120は、周辺状況認識部132が複数の認識対象を認識する度に、データテーブル管理部138に1つのデータテーブルT内の認識結果に対応付けられたセルの格納内容を更新させることによって、各認識デバイスの記憶領域に対応付けられた個別の認識結果がそれぞれ更新され、行動計画生成部140が行動計画を生成する前にそれぞれの認識結果を集約するといった事前処理にかかっていた処理時間や処理負荷を削減することができる。特に、自車両Mまたは他車両OVの車線変更が頻繁に発生しないような走行環境において、認識結果に対応付けられたデータテーブルTのセルを更新することによってそれぞれの認識結果を随時管理する場面において、認識結果の管理に伴う処理負荷の削減が見込まれる。
[処理フロー]
図12および図13は、周辺状況認識部132による処理結果がデータテーブル管理部138によってデータテーブルTに格納される処理の流れの一例を示すフローチャートである。図12は道路環境認識部134による道路環境の認識結果を格納する過程を示すフローチャートである。図12に示すフローチャートの処理は、例えば、所定の周期或いは所定のタイミングで繰り返し実行されてよい。
図12および図13は、周辺状況認識部132による処理結果がデータテーブル管理部138によってデータテーブルTに格納される処理の流れの一例を示すフローチャートである。図12は道路環境認識部134による道路環境の認識結果を格納する過程を示すフローチャートである。図12に示すフローチャートの処理は、例えば、所定の周期或いは所定のタイミングで繰り返し実行されてよい。
まず、道路環境認識部134は、自車両M周辺の道路環境を認識する(ステップS100)。次に、道路環境認識部134は、認識した道路環境と自車両Mとの距離を導出し(ステップS102)、導出した距離を含む認識結果をデータテーブル管理部138に出力する(ステップS104)。データテーブル管理部138は、道路環境認識部134により出力された認識結果をセルに格納するために、データテーブルTの道路環境を示す行の更新が必要か否かを判定する(ステップS106)。データテーブル管理部138は、行の更新が必要でないと判定した場合、ステップS100に処理を戻す。データテーブル管理部138は、行の更新が必要であると判定した場合、道路環境認識部134により出力された認識結果が、データテーブルTの行を挿入または更新を要するものか、または道路環境の認識結果が不要になり行の削除を要するかを判定する(ステップS108)。データテーブル管理部138は、削除を要すると判定した場合、対応付けられた行を削除する(ステップS110)。データテーブル管理部138は、挿入または更新を要すると判定した場合、対応付けられた行が存在するか否かを判定する(ステップS112)。データテーブル管理部138は、対応付けられた行が既に存在すると判定した場合、対応付けられたセルに道路環境の認識結果を格納する(ステップS114)。データテーブル管理部138は、対応付けられた行が存在しないと判定した場合、認識結果を示す道路環境と対応付けられた行を挿入し(ステップS116)、ステップS114に処理を進める。以上、本フローチャートの処理を終了する。
図13は交通参加者認識部136による物体の認識結果を格納する過程を示すフローチャートである。図13に示すフローチャートの処理は、例えば、図12のフローチャートと同様に、所定の周期或いは所定のタイミングで繰り返し実行されてよい。
交通参加者認識部136は、自車両Mの周辺の交通参加者等の認識対象を認識する(ステップS200)。次に、交通参加者認識部136は、認識した物体と自車両Mとの距離を導出し(ステップS202)、導出した距離を含む認識結果をデータテーブル管理部138に出力する(ステップS204)。データテーブル管理部138は、交通参加者認識部136により出力された認識結果をセルに格納するために、データテーブルTの物体を示す列の更新が必要か否かを判定する(ステップS206)。データテーブル管理部138は、列の更新が必要でないと判定した場合、ステップS200に処理を戻す。データテーブル管理部138は、列の更新が必要であると判定した場合、道路環境認識部134により出力された物体の認識結果が、データテーブルTのセルを更新するか、または過去に認識した物体の認識結果が不要になりセルに格納された認識結果を削除するかを判定する(ステップS208)。データテーブル管理部138は、データテーブルTのセルに格納された認識結果を削除すると判定した場合、後述するステップS216の処理に進む。データテーブル管理部138は、データテーブルTのセルを更新すると判定した場合、道路環境認識部134により出力された物体の認識結果に対応する行のセルに認識結果が格納できるか否か、すなわち、他の認識結果が既にセルに格納されているか否かを判定する(ステップS210)。
ステップS210の処理において、他の認識結果がセルに格納されていないと判定された場合、対応づいた行に認識結果を格納する(ステップS212)。ステップS122の処理において、他の認識結果がセルに格納されていると判定された場合、対応づいた行を挿入し(ステップS214)、その行にステップS212の処理を行う。
ステップS208の処理において、データテーブルTのセルを削除すると判定した場合、データテーブル管理部138は、該当する行に自車両Mの存在を示すフラグがあるか否かを判定する(ステップS216)。データテーブル管理部138は、該当する行に自車両Mの存在を示すフラグがあると判定した場合、該当するセルが存在する行を削除する(ステップS218)。データテーブル管理部138は、該当する行に自車両Mの存在を示すフラグがないと判定した場合、該当するセルに格納された認識結果を削除する(ステップS220)。以上、本フローチャートの処理を終了する。
上述したように本実施形態の車両制御装置1によれば、データテーブル管理部138は、交通参加者認識部136により認識された交通参加者等の物体の認識結果をデータテーブルTの列として管理し、および道路環境認識部134により認識された道路環境の認識結果をデータテーブルTの行として管理して、物体および道路環境を示すデータテーブルT上のセルに各々の認識結果をより好適に集約管理することで、各認識デバイスの個別の認識結果をそれぞれ行動計画生成部140に出力し、その認識結果を統合するといった処理にかかっていた処理時間や処理負荷を削減することができる。
[ハードウェア構成]
図14は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、周辺状況認識部132、道路環境認識部134、交通参加者認識部136、およびデータテーブル管理部138が実現される。
図14は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、周辺状況認識部132、道路環境認識部134、交通参加者認識部136、およびデータテーブル管理部138が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
車両周辺の状況の認識対象を認識させ、
前記認識対象を前記車両との相対速度によらず認識され続ける第1認識対象と、前記第1認識対象に該当しない前記認識対象である第2認識対象とのいずれかに分類させ、前記第1認識対象および前記第2認識対象に付随する情報を処理させ、
前記第1認識対象を行または列の要素、前記第2認識対象を前記第1認識対象の要素とは異なる要素として、それぞれの情報を1つのデータテーブルで管理させ、
前記データテーブルに基づいて、前記車両の加減速および操舵の一部または全部を制御する
ように構成されている、車両制御装置。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
車両周辺の状況の認識対象を認識させ、
前記認識対象を前記車両との相対速度によらず認識され続ける第1認識対象と、前記第1認識対象に該当しない前記認識対象である第2認識対象とのいずれかに分類させ、前記第1認識対象および前記第2認識対象に付随する情報を処理させ、
前記第1認識対象を行または列の要素、前記第2認識対象を前記第1認識対象の要素とは異なる要素として、それぞれの情報を1つのデータテーブルで管理させ、
前記データテーブルに基づいて、前記車両の加減速および操舵の一部または全部を制御する
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両制御装置、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、70…車内カメラ、72…車内設備、72A…通知部、74…車内設備センサ、100…自動運転制御装置、120…第1制御部、130…認識部、132…周辺状況認識部、134…道路環境認識部、136…交通参加者認識部、138…データテーブル管理部、140…行動計画生成部、160…第2制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両
Claims (8)
- 車両周辺の状況を認識する周辺状況認識部と、
前記周辺状況認識部により認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理する認識処理部と、
を備える認識処理装置。 - 前記第1認識対象は、前記車両周辺の道路環境を含み、
前記第2認識対象は、交通参加者または立体物標を含む、
請求項1に記載の認識処理装置。 - 前記第2認識対象に付随する情報を、前記第1認識対象をデータテーブルの列または行のうち一方である第1軸、前記第2認識対象を前記データテーブルの列または行の他方である第2軸として、前記第2認識対象を前記第1認識対象に当てはめた前記データテーブルで管理するデータテーブル管理部を更に備える、
請求項1または2に記載の認識処理装置。 - 前記データテーブル管理部は、
新たに前記認識処理部により前記第2認識対象の情報が認識された場合において、
前記新たに認識された前記第2認識対象と同種の前記第2認識対象の情報を管理する行または列が存在しない場合、前記データテーブルの前記第2認識対象の情報を管理する項目を更新し、
前記新たに認識された前記第2認識対象と同種の前記第2認識対象の情報を管理する他の行または列が既に存在する場合、前記データテーブルの行または列を新たに挿入して前記第2認識対象の情報を管理する、
請求項3に記載の認識処理装置。 - 前記第1軸は、前記データテーブルの列であり、
前記データテーブル管理部は、前記第1認識対象に関連する情報をレコードとして管理する、
請求項3または4記載の認識処理装置。 - 請求項1から5のうちいずれか1項に記載の認識処理装置と、
前記認識処理装置により認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転制御を実行する運転制御部と、
を備える車両制御装置。 - コンピュータが、
車両周辺の状況を認識し、
認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理する、
認識処理方法。 - コンピュータに、
車両周辺の状況を認識させ、
認識された認識対象を、前記車両との相対速度によらず認識され続ける第1認識対象か、前記第1認識対象に該当しない前記認識対象である第2認識対象かに分類し、前記第1認識対象および前記第2認識対象に付随する情報をそれぞれ処理させる、
プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113052A JP2019214319A (ja) | 2018-06-13 | 2018-06-13 | 認識処理装置、車両制御装置、認識処理方法、およびプログラム |
CN201910499225.9A CN110654387A (zh) | 2018-06-13 | 2019-06-10 | 识别处理装置、车辆控制装置、识别处理方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113052A JP2019214319A (ja) | 2018-06-13 | 2018-06-13 | 認識処理装置、車両制御装置、認識処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019214319A true JP2019214319A (ja) | 2019-12-19 |
Family
ID=68919285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018113052A Pending JP2019214319A (ja) | 2018-06-13 | 2018-06-13 | 認識処理装置、車両制御装置、認識処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019214319A (ja) |
CN (1) | CN110654387A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112078593A (zh) * | 2020-07-24 | 2020-12-15 | 西安电子科技大学 | 基于多种网络协同模型的自动驾驶系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4663620B2 (ja) * | 2006-12-07 | 2011-04-06 | 日立オートモティブシステムズ株式会社 | 車載情報端末、地図サーバ、および車載システム |
WO2016151749A1 (ja) * | 2015-03-24 | 2016-09-29 | パイオニア株式会社 | 自動運転支援装置、制御方法、プログラム及び記憶媒体 |
JP6558733B2 (ja) * | 2015-04-21 | 2019-08-14 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム |
JP2017019421A (ja) * | 2015-07-13 | 2017-01-26 | 日立オートモティブシステムズ株式会社 | 周辺環境認識装置、及び周辺環境認識プログラム |
JP6550663B2 (ja) * | 2016-11-04 | 2019-07-31 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
-
2018
- 2018-06-13 JP JP2018113052A patent/JP2019214319A/ja active Pending
-
2019
- 2019-06-10 CN CN201910499225.9A patent/CN110654387A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112078593A (zh) * | 2020-07-24 | 2020-12-15 | 西安电子科技大学 | 基于多种网络协同模型的自动驾驶系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110654387A (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494121B2 (ja) | 車線変更推定装置、車線変更推定方法、およびプログラム | |
JP6601696B2 (ja) | 予測装置、予測方法、およびプログラム | |
JP6715959B2 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
WO2018158873A1 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
CN110087964B (zh) | 车辆控制系统、车辆控制方法及存储介质 | |
JPWO2018138769A1 (ja) | 車両制御装置、車両制御方法、および車両制御プログラム | |
JP2018154200A (ja) | 経路決定装置、車両制御装置、経路決定方法、およびプログラム | |
JP2019089516A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019159828A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP6586685B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
WO2019073511A1 (ja) | 車両制御装置、車両制御方法、及びプログラム | |
JP7098366B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019128612A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019137189A (ja) | 車両制御システム、車両制御方法、およびプログラム | |
JP2019159428A (ja) | 車両制御装置、車両制御方法及びプログラム | |
JPWO2019064490A1 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019053646A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019185112A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019156272A (ja) | 車両制御装置、車両制御方法、及びプログラム | |
JP2019064538A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP2019156271A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
WO2018142562A1 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
JP2019156133A (ja) | 車両制御装置、車両制御方法、及びプログラム | |
JP2019147486A (ja) | 車両制御システム、車両制御方法、およびプログラム | |
CN112677966A (zh) | 车辆控制装置、车辆控制方法及存储介质 |