JP2023111162A - 移動体制御装置、移動体制御方法、およびプログラム - Google Patents
移動体制御装置、移動体制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2023111162A JP2023111162A JP2022012859A JP2022012859A JP2023111162A JP 2023111162 A JP2023111162 A JP 2023111162A JP 2022012859 A JP2022012859 A JP 2022012859A JP 2022012859 A JP2022012859 A JP 2022012859A JP 2023111162 A JP2023111162 A JP 2023111162A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- image
- recognized
- unit
- action plan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000009471 action Effects 0.000 claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 238000005192 partition Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000009795 derivation Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000002485 combustion reaction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/25—Data precision
Abstract
【課題】より適切な移動体制御を実行することができる移動体制御装置、移動体制御方法、およびプログラムを提供すること。【解決手段】実施形態の移動体制御装置は、撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識する認識部130と、前記認識部130による認識結果に基づいて前記移動体の将来の行動計画を生成する行動計画生成部140と、前記行動計画生成部140により生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御する運転制御部160と、を備え、前記認識部130は、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、認識した物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする。【選択図】図2
Description
本発明は、移動体制御装置、移動体制御方法、およびプログラムに関する。
従来より、カメラ等の外界センサからの認識情報に基づいて車両の目標軌道を計画する車両制御装置において、外界センサから車両の周囲のオブジェクトを認識した場合に、外界センサの実検知範囲が広くなるような目標軌道を計画する技術が知られている(例えば、特許文献1参照)。
ところで、一般的にはカメラの解像度が高いほど認識性能が良くなるが、データ量が多くなるため画像処理に負荷がかかり、処理時間が長くなってしまう。また逆に、処理時間を短くするために解像度を低くした場合には物体を誤認識する可能性があるが、従来技術では誤認識された可能性が高い物体に対する処理について考慮されていない。そのため、移動体の周辺状況に応じた目標軌道が生成できず、適切な運転制御ができない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、より適切な移動体制御を実行することができる移動体制御装置、移動体制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係る移動体制御装置、移動体制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る移動体制御装置は、撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識する認識部と、前記認識部による認識結果に基づいて前記移動体の将来の行動計画を生成する行動計画生成部と、前記行動計画生成部により生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御する運転制御部と、を備え、前記認識部は、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、認識した物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、移動体制御装置である。
(1):この発明の一態様に係る移動体制御装置は、撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識する認識部と、前記認識部による認識結果に基づいて前記移動体の将来の行動計画を生成する行動計画生成部と、前記行動計画生成部により生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御する運転制御部と、を備え、前記認識部は、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、認識した物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、移動体制御装置である。
(2):上記(1)の態様において、前記認識部は、前記第1認識モードにより認識された前記物体の確度が閾値未満である場合に、前記第1画像から前記物体を含む第1部分画像領域を抽出し、抽出した第1部分画像領域に対して、前記第2画像よりもデータ量の多い第3画像を用いて認識を行う第2認識モードで前記物体を認識し、前記行動計画生成部は、前記第1認識モードにより認識された物体と、前記第2認識モードにより認識された物体とが異なる場合に、前記第2認識モードにより認識された物体の情報に基づいて前記行動計画を生成するものである。
(3):上記(1)または(2)の態様において、前記データ量は、解像度とフレームレートのうち少なくとも一方を含むものである。
(4):上記(1)~(3)のうち何れか一つの態様において、前記認識部による認識結果は、少なくとも前記物体の位置と、サイズと、種類とを含むものである。
(5):上記(1)~(4)のうち何れか一つの態様において、前記認識部は、前記第1認識モードにより認識された物体に他の移動体と、移動体が移動する領域を区画する区画線が含まれる場合、前記第1画像から前記区画線を含む第2部分画像領域を抽出し、抽出した第2部分画像領域に対して、前記第2画像よりもデータ量の多い第3画像を用いて認識を行う第2認識モードで前記区画線を認識し、認識された区画線と前記他の移動体との位置関係に基づいて前記他の移動体の位置を認識するものである。
(6):上記(5)の態様において、前記認識部は、前記移動体が移動する領域を区画する区画線を延伸させた仮想線と、前記他の移動体から所定距離以内に存在する区画線との位置関係に基づいて、前記他の移動体の位置を認識するものである。
(7):上記(2)の態様において、前記リスク領域が大きい他の物体は、前記第2画像から認識された物体よりも所定時間における移動量が大きいと予測される物体である。
(8):この発明の一態様に係る移動体制御方法は、コンピュータが、撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識し、認識結果に基づいて前記移動体の将来の行動計画を生成し、生成した行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御し、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、認識した前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、移動体制御方法である。
(9):この発明の一態様に係るプログラムは、コンピュータに、撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識させ、認識結果に基づいて前記移動体の将来の行動計画を生成させ、生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御させ、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識させ、認識された前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとさせる、プログラムである。
上記(1)~(9)の態様によれば、より適切な移動体制御を行うことができる。
以下、図面を参照し、本発明の移動体制御装置、移動体制御方法、およびプログラムの実施形態について説明する。なお、以下の説明では、移動体制御装置が、移動体に搭載されている例について説明する。移動体とは、例えば、車両、マイクロモビリティ、自律移動ロボット、船舶、ドローン等、自身が備える駆動機構によって移動可能な構造体をいう。移動体の制御には、例えば、少なくとも一時的に、移動体の操舵および速度のうち一方または双方を制御して、移動体を自律的に移動させる運転制御が含まれる。また、移動体の制御には、手動運転を主として、音声や表示等によって運転操作にアドバイスを行ったり、ある程度の干渉制御を行うことが含まれてもよく、移動体の乗員を保護する保護装置の作動を制御することが含まれてよい。以下の説明では、移動体は地上を移動する車両であることを前提とし、専ら車両に地上を移動させるための構成および機能について説明する。車両の運転制御には、例えば、LKAS(Lane Keeping Assistance System)や、ALC(Auto Lane Changing)、ACC(Adaptive Cruise Control)等の自動運転制御や、手動運転中における接触回避制御、緊急停止制御、車線逸脱回避制御等の運転支援制御といった種々の運転制御が含まれてよい。
(第1の実施形態)
[全体構成]
図1は、第1の実施形態に係る移動体制御装置を含む車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両M)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[全体構成]
図1は、第1の実施形態に係る移動体制御装置を含む車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両M)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ10は、「撮像部」の一例である。自動運転制御装置100は、「移動体制御装置」の一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される自車両Mの任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。また、カメラ10は、自車両Mの周辺を広角に(例えば360度で)撮像可能なカメラであってもよい。また、カメラ10は、複数のカメラを組み合わせて実現されてもよい。カメラ10が複数のカメラを有する場合、それぞれのカメラは異なる解像度やフレームレート(FPS;Frame Per Second)で撮像してもよい。
レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
LIDAR14は、自車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、HMI制御部170の制御により自車両Mの乗員に対して各種情報を出力する。また、HMI30は、乗員による入力操作を受け付ける受付部として機能してもよい。HMI30は、例えば、表示装置と、スピーカ、マイク、ブザー、キー、インジケータランプ等が含まれる。表示装置は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。また、車両センサ40には、車両Mの位置を取得する位置センサが含まれてよい。位置センサは、例えば、GPS(Global Positioning System)装置から位置情報(経度・緯度情報)を取得するセンサである。また、位置センサは、ナビゲーション装置50のGNSS(Global Navigation Satellite System)受信機51を用いて位置情報を取得するセンサであってもよい。
ナビゲーション装置50は、例えば、GNSS受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、ステアリングホイール、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
次に、自動運転制御装置100の説明に先立って、走行駆動力出力装置200、ブレーキ装置210、ステアリング装置220について説明する。走行駆動力出力装置200は、自車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、自動運転制御装置100(具体的には後述する第2制御部160)から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。
電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80のステアリングホイール82から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80のステアリングホイール82から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
次に、自動運転制御装置100について説明する。自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、HMI制御部170と、記憶部180とを備える。第1制御部120と、第2制御部160とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。第2制御部160は、「運転制御部」の一例である。
記憶部180は、上記の各種記憶装置、或いはSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部180は、例えば、プログラム、その他の各種情報等が格納される。上述の地図情報(第1地図情報54、第2地図情報62)は、記憶部180に格納されていてもよい。
図2は、第1の実施形態に係る第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。
認識部130は、自車両Mの周辺状況を認識する。認識部130は、例えば、第1取得部132と、認識モード設定部134と、物体認識部136と、リスク領域導出部138とを備える。
第1取得部132は、例えば、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果のデータを取得する。また、第1取得部132は、カメラ10により撮像された画像(以下、カメラ画像と称する)の座標系(例えば、前方視野角のカメラ座標系)を、自車両Mを上から見た自車両Mの位置を基準とする座標系(車両座標系、鳥瞰座標系)に変換する処理を行ってもよい。カメラ画像は、「第1画像」の一例であり、静止画像だけでなく動画像も含まれる。
認識モード設定部134は、第1取得部132により取得されたデータに対して物体認識部136により物体認識を行わせるときの認識モードを設定する。認識モードには、例えば、第1認識モードと、第1認識モードよりも物体認識に用いられるデータ量が多い第2認識モードとが含まれるが、データ量が異なる他の認識モードが含まれてもよい。例えば、第1取得部132により取得されたデータが、カメラ10により撮像された画像データ(以下、カメラ画像と称する)である場合、データ量には、画像の解像度(画素数)およびフレームレートのうち少なくとも一つが含まれる。また、データ量には、レーダ装置12やLIDAR14による検出結果の有無や、検出結果に対するデータ量(例えば、検出範囲、検出周期)が含まれてもよい。
認識モード設定部134は、複数の認識モードのうち、予め決められた認識モードを設定してもよく、物体認識部136による認識結果に基づいて認識モードを設定してもよい。例えば、認識モード設定部134は、物体認識部136により所定の物体が認識されていない場合や、認識された物体の確度が閾値以上である場合に、第1認識モードを設定する。所定の物体とは、自車両Mの運転制御に影響を及ぼす物体であり、例えば他車両(二輪車両も含む)や歩行者、自転車等の交通参加者や、自車両Mが走行する(移動体が移動する)領域を区画する区画線、縁石、中央分離帯等の道路構造物等が含まれる。確度とは、その物体の確からしさを示す指標値である。確度は、信頼度や尤度に言い換えてもよい。また、認識モード設定部134は、例えば、認識された物体の確度が閾値未満である場合に、第2認識モードを設定する。
また、認識モード設定部134は、第1取得部132により取得されたデータから、設定された認識モードに応じたデータを生成してもよい。例えば、認識モード設定部134は、第1認識モードを設定した場合に、カメラ画像の解像度(基準解像度)よりも解像度の低い(解像度の数値が小さい)第2画像を生成する。また、認識モード設定部134は、第2認識モードを設定した場合に、第2画像よりも解像度を高い第3画像を生成する。第3画像の解像度は、カメラ画像の解像度以下である。したがって、認識モード設定部134は、第3画像としてカメラ画像を用いてもよい。また、認識モード設定部134は、解像度を調整することに代えて(または加えて)、カメラ画像のフレームレートを調整した第2画像や第3画像を生成してもよい。フレームレートを調整する場合には、認識モード設定部134は、例えばカメラ画像のフレームレート(基準フレームレート)から所定間隔で画像フレームを間引くことでフレームレートが小さくする。
また、認識モード設定部134は、カメラ10により異なる解像度やフレームレートで撮像されている場合には、設定した認識モードに対応するカメラ画像を選定してもよい。
物体認識部136は、第1取得部132により取得されたカメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果のデータに対して、認識モード設定部134により設定された認識モードを用いてセンサフュージョン処理を行い、自車両Mから所定距離以内に存在する物体を認識する。物体には、例えば、他車両、歩行者、自転車等の交通参加者や、区画線、縁石、中央分離帯、道路標識、交通信号機、踏切、横断歩道等の道路構造物が含まれる。
例えば、物体認識部136は、認識モード設定部134により設定された認識モードに対応付けられたデータ量の画像を用いて所定の画像解析処理を行い、解析結果の画像情報に基づいて予め定義されたパターンマッチング用のモデル等を参照し、マッチング処理により画像に含まれる物体を認識する。画像解析処理には、例えば、隣接画素との輝度差が大きいエッジ点を抽出し、抽出したエッジ点を連ねて物体の輪郭を取得するエッジ抽出処理や、輪郭内の色や形状、サイズ等から特徴量を抽出する処理等が含まれる。モデルとは、例えば、解析結果または第1取得部132により取得されたデータを入力とし、画像に含まれる物体の種類(カテゴリ)等を出力するように学習したDNN(Deep Neural Network)等の学習済みモデルであるが、これに限定されるものではない。モデルは、例えば記憶部180に記憶されてもよく、通信装置20を介して外部装置から取得してもよい。また、モデルは、認識結果のフィードバック制御や外部装置からの更新データ等により適宜更新されてよい。
また、物体認識部136は、解析結果とモデルを用いたマッチング処理により、画像中の物体が、モデルで定義された物体(物体の種類)である確度を出力してもよい。確度は、例えば、モデルに定義されていてもよく、マッチング処理における合致度(類似度)等に基づいて設定されてもよい。
また、物体認識部136は、物体が認識された場合に、その物体の位置、速度(絶対速度、相対速度)、加速度(絶対加速度、相対加速度)、進行方向(移動他方向)等を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心等)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、領域で表されてもよい。物体の「状態」とは、例えば、物体が他車両等の他の移動体である場合に、他の移動体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、物体認識部136は、例えば、区画線が認識された場合に、自車両Mが走行している車線(走行車線)を認識してもよい。例えば、物体認識部136は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の区画線(道路区画線)のパターンとを比較することで、走行車線を認識する。なお、物体認識部136は、区画線に限らず、縁石、中央分離帯等を含む走路境界(道路境界)を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。
また、物体認識部136は、自車両Mの走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識してもよい。この場合、物体認識部136は、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識する。これに代えて、物体認識部136は、走行車線のいずれかの側端部(道路境界)に対する自車両Mの基準点の位置等を、走行車線に対する自車両Mの相対位置として認識してもよい。
リスク領域導出部138は、物体認識部136により認識された物体の周囲に潜在的に分布する、或いは潜在的に存在するリスクの領域(以下、リスク領域と称する)を導出する。リスクとは、例えば、物体が自車両Mに対して及ぼすリスクである。より具体的には、リスクは、例えば、物体の急な移動によって自車両Mに急な制動や操舵を強いるようなリスクである。また、リスクは、自車両Mが物体に及ぼすリスクであってもよい。以下、このようなリスクの高さを定量的な指標値として扱うものとし、その指標値を「リスクポテンシャル」と称して説明する。リスクポテンシャルが閾値以上の領域がリスク領域として導出される。また、リスク領域導出部138は、物体認識部136により認識された物体に対する確度に基づいて、リスク領域を調整してもよい。物体認識部136は、認識結果を行動計画生成部140に出力する。
行動計画生成部140は、認識部130による認識結果に基づいて自車両Mの将来の行動計画を生成する。例えば、行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、例えば、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、接触回避イベント、緊急停止イベント、テイクオーバーイベント等が含まれる。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。また、行動計画生成部140は、自車両Mの運転制御や所定のイベント等を実行する場合には、運転制御やイベントの実行を乗員に提案(リコメンド)し、その提案が承認された場合に対応する目標軌道を生成してもよい。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
第2制御部160は、例えば、第2取得部162と、速度制御部164と、操舵制御部166とを備える。第2取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
HMI制御部170は、HMI30により、自車両Mの乗員(運転者)に所定の情報を通知する。所定の情報には、例えば、自車両Mの運転制御や所定のイベントに関する情報が含まれる。例えば、HMI制御部170は、接触回避制御や緊急停止制御等を行う場合には、警告情報等をHMI30に出力させる。HMI制御部170は、上述した所定の情報を含む画像を生成し、生成した画像をHMI30の表示装置に表示させてもよく、所定の情報を示す音声を生成し、生成した音声をHMI30のスピーカから出力させてもよい。また、HMI制御部170は、例えば、HMI30により受け付けられた情報を通信装置20、ナビゲーション装置50、第1制御部120等に出力してもよい。
[認識結果に基づく行動計画の生成]
次に、認識部130による認識結果に基づく行動計画生成の具体例について説明する。なお、以下の説明では、主にカメラ画像に基づく物体認識について説明するが、レーダ装置12やLIDAR14の検出結果に基づく物体認識も実施される。
次に、認識部130による認識結果に基づく行動計画生成の具体例について説明する。なお、以下の説明では、主にカメラ画像に基づく物体認識について説明するが、レーダ装置12やLIDAR14の検出結果に基づく物体認識も実施される。
図3は、認識部130による認識結果に基づく行動計画の生成について説明するための図である。図3の例では、同一方向(図中X軸方向)に走行可能な二つの車線L1、L2が示されている。車線L1は区画線LM1とLM2とで区画され、車線L2は区画線LM2とLM3とで区画されている。また、図3の例では、車線L1の延伸方向(図中X軸方向)に向かってに速度VMで走行する自車両Mと、自車両Mの前方であって車線L1上を速度V1で移動する物体OB1が示されている。物体OB1は、歩行者であるものとする。
例えば、HMI30により自車両Mの乗員から自動運転制御の開始指示を受け付けた場合、認識モード設定部134は、初期認識モードとして第1認識モードを設定する。物体認識部136は、第1認識モードに対応付けられた第2画像を用いて自車両Mの周辺状況を認識し、物体OB1の位置、サイズ、種類等を認識する。また、物体認識部136は、認識した物体OB1の確度を取得したり、物体OB1の速度V1や移動方向をする。また、物体認識部136は、区画線LM1~LM3の位置、サイズ、種類を認識する。
リスク領域導出部138は、物体認識部136による認識結果に基づき、自車両Mと接触する可能性がある物体OB1のリスク領域を導出する。
図4は、物体ごとのリスク領域について説明するための図である。図4の例では、物体の一例として、歩行者、二輪車両(オートバイク)、四輪車両が示されている。以下では、説明の便宜上、歩行者OBa、二輪車両OBb、四輪車両OBcと称する場合がある。
リスク領域導出部138は、物体に近いほどリスクポテンシャルが高く、物体から離れるほどリスクポテンシャルが低くなるようなリスク領域を導出する。また、リスク領域導出部138は、自車両Mと物体との距離が近いほどリスクポテンシャルが高くなるように(言い換えると、距離が遠いほどリスクポテンシャルが低くなるように)調整してもよい。
また、リスク領域導出部138は、物体の種類に応じてリスク領域を調整してもよい。例えば、物体が歩行者OBaである場合と二輪車両OBbである場合とでは、認識時の位置や移動方向、速度(図4に示す速度VaとVb)が同じであっても、その後の所定時間における移動量は大きく異なる場合がある。また、歩行者OBaおよび二輪車両OBbと、四輪車両OBcとでは物体自体のサイズ(大きさ)が異なる。したがって、リスク領域導出部138は、物体の種類に応じてリスク領域を導出する。具体的には、リスク領域導出部138は、所定時間における移動量の予測値(以下、予測移動量)が大きいほど、リスク領域が大きくなるように調整する。上記調整に代えて(または加えて)、リスク領域導出部138は、物体のサイズが大きいほどリスク領域が大きくなるように調整する。
図4の例において、二輪車両OBbは、歩行者OBaよりも高速で移動することができ、予測移動量が大きい。そのため、二輪車両OBbのリスク領域RAbは、歩行者OBaのリスク領域RAaよりも大きくなっている。また、四輪車両OBcは、二輪車両OBbと予測移動量が同じであっても、二輪車両OB2よりもサイズが大きい。そのため、四輪車両OBcのリスク領域RAcは、リスク領域RAbより大きくなっている。このように、物体の種類に応じてリスク領域を導出することで、より迅速にリスク領域を導出することができる。
また、リスク領域導出部138は、物体の速度や移動方向によってリスク領域を調整してもよい。例えば、リスク領域導出部138は、物体の絶対速度や絶対加速度が大きいほどリスクポテンシャルを高くして、リスクポテンシャルに基づくリスク領域を導出してもよい。また、リスクポテンシャルは、物体の絶対速度や絶対加速度に代えて(または加えて)、自車両Mと物体との相対速度や相対加速度、TTC(Time to Collision)、接触予測位置等に応じて適宜決定されてもよい。また、リスクポテンシャルは、道路形状や渋滞度合、天候、時間帯等の周辺状況に応じて調整されてもよい。
ここで、物体認識部136は、認識した物体の確度が閾値以上であるか否かを判定し、閾値以上であると判定した場合は、リスク領域導出部138に認識した物体に対するリスク領域を導出させる。逆に確度が閾値以上でないと判定した場合(閾値未満であると判定した場合)、物体認識部136は、認識した物体よりもリスク領域が大きい他の物体が認識されたものとして、リスク領域導出部138にリスク領域を導出させる。リスク領域が大きい他の物体とは、例えば、認識した物体よりも予測移動量が大きい物体(例えば、認識した物体よりも高速で移動可能な物体)である。また、他の物体とは、例えば、物体の種類が異なる物体である。
例えば、物体認識部136は、確度が閾値未満の物体の種類が歩行者である場合には二輪車両とみなし、二輪車両である場合には四輪車両とみなす等、予め決められた他の物体が認識されたものとみなす。また、物体認識部136は、確度や物体の速度等に応じて他の物体を選択してもよい。この場合、物体認識部136は、確度が小さくなるほど、および/または、速度が大きくなるほど、リスク領域が大きくなるような物体を選択する。例えば、物体認識部136は、歩行者であると認識したときの確度が第1所定値未満である場合には二輪車両とみなし、確度が第1所定値よりも小さい第2所定値未満である場合には四論車両とみなす。
図3の例では、物体OB1を歩行者として認識した確度が閾値以上であるため、歩行者に対応付けられたリスク領域RAaが物体OB1の位置を基準に設定されている。図5は、物体OB1の認識確度が閾値未満である場合のリスク領域について説明するための図である。図5の例では、物体OB1を歩行者として認識した確度が閾値未満であるため、物体OB1を二輪車両とみなして、二輪車両に対応付けられたリスク領域RAbが物体OB1の位置を基準に設定されている。
行動計画生成部140は、リスク領域と自車両Mの将来の軌道とが接触しないように、リスク領域から所定距離だけ離れた位置を自車両Mが走行するように目標軌道を生成する。したがって、第1の実施形態では、物体OB1の認識確度が閾値以上である場合には図3に示すようにリスク領域RAaに基づく目標軌道K1が生成され、閾値未満である場合には図5に示すようにリスク領域RAbに基づく目標軌道K2が生成される。これにより、物体の存在は認識しているものの、物体の種類が特定しきれていない場合に、大きめのリスク領域を設定して、より安全性の高い目標軌道を生成することができる。また、上述した行動計画を生成することで、データ量の少ない画像を用いた高速な物体認識が可能になるため、周辺状況に応じた、より適切な自車両Mの運転制御が実現できる。
[第1の実施形態の処理フロー]
次に、第1の実施形態の自動運転制御装置100よって実行される処理の流れについて説明する。なお、以下のフローチャートの処理は、自動運転制御装置100によって実行される処理のうち、主に物体の認識結果に基づいてリスク領域に基づいて行動計画が生成される点を中心として説明する。以下に示す処理は、所定のタイミングで繰り返し実行されてよい。
次に、第1の実施形態の自動運転制御装置100よって実行される処理の流れについて説明する。なお、以下のフローチャートの処理は、自動運転制御装置100によって実行される処理のうち、主に物体の認識結果に基づいてリスク領域に基づいて行動計画が生成される点を中心として説明する。以下に示す処理は、所定のタイミングで繰り返し実行されてよい。
図6は、第1の実施形態における自動運転制御装置100よって実行される処理の流れの一例を示すフローチャートである。図6の例において、第1取得部132は、カメラ画像(第1画像)等を取得する(ステップS100)。次に、物体認識部136は、カメラ画像から生成された第2画像を用いた第1認識モードで自車両Mの周辺の物体認識を行う(ステップS102)。次に、物体認識部136は、物体を認識した場合に、認識した物体の確度が閾値以上であるか否かを判定する(ステップS104)。認識した物体の確度が閾値以上であると判定した場合、物体認識部136は、認識した通りの物体が認識されたものとする。また、認識した物体の確度が閾値未満であると判定した場合、物体認識部136は、認識した物体よりもリスク領域が大きい別の物体が認識されたものとする(ステップS108)。
次に、リスク領域導出部138は、物体認識部136により認識された物体に対するリスク領域を導出する(ステップS110)。次に、行動計画生成部140は、導出されたリスク領域等に基づいて目標軌道を生成する(ステップS112)。次に、第2制御部160は、生成された目標軌道に沿って自車両Mが走行するように、自車両Mの操舵および速度のうち、少なくとも一方を制御する運転制御を実行し、自車両Mを走行させる(ステップS114)。これにより、本フローチャートの処理は終了する。
以上の通り説明した第1の実施形態によれば、自動運転制御装置(移動体制御装置の一例)100において、カメラ(撮像部の一例)10により撮像された第1画像に基づいて自車両(移動体の一例)Mの周辺状況を認識する認識部130と、認識部130による認識結果に基づいて自車両Mの将来の行動計画を生成する行動計画生成部140と、行動計画生成部140により生成された行動計画に基づいて、自車両Mの操舵および速度のうち少なくとも一方を制御する運転制御部(第2制御部160)と、を備え、認識部130は、第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで自車両Mの周辺の物体を認識し、認識した物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとすることにより、より適切な移動体制御を実行することができる。
また、第1の実施形態によれば、例えば、解像度が低い画像を用いて第1認識モードで認識することで、認識結果をより早く得ることができ、認識結果の確度に応じたリスク領域に基づいて目標軌道が生成されるため、誤認識された可能性が高い物体が存在する場合であっても自車両Mの周辺状況に応じた、より適切な運転制御を実行することができる。また、第1の実施形態によれば、よりリアルタイムの認識結果が得られるため、例えば自車両Mと物体とが接近している場合に、接触回避や緊急停止等の運転制御の初動を早めることができ、より安全性の高い車両制御が実現できる。
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、第1の実施形態と比較して、認識結果の確度が閾値未満である場合に、カメラ画像のうち物体を含む部分画像領域(第1部分画像領域の一例)を抽出し、抽出した領域の画像を用いて第2認識モードで物体認識を行う点で相違する。したがって、以下では、主に上述した相違点を中心として説明する。なお、第2の実施形態では、第1の実施形態と同様の構成を適用することができるため、以下では第1の実施形態で示した自動運転制御装置100の構成を用いて説明する。後述する第3の実施形態でも同様とする。
次に、第2の実施形態について説明する。第2の実施形態は、第1の実施形態と比較して、認識結果の確度が閾値未満である場合に、カメラ画像のうち物体を含む部分画像領域(第1部分画像領域の一例)を抽出し、抽出した領域の画像を用いて第2認識モードで物体認識を行う点で相違する。したがって、以下では、主に上述した相違点を中心として説明する。なお、第2の実施形態では、第1の実施形態と同様の構成を適用することができるため、以下では第1の実施形態で示した自動運転制御装置100の構成を用いて説明する。後述する第3の実施形態でも同様とする。
[第2の実施形態の処理フロー]
図7は、第2の実施形態における自動運転制御装置100よって実行される処理の流れの一例を示すフローチャートである。図7に示す処理は、図6に示すステップS100~S114の後にステップS200~S212の処理が追加されている点で相違する。したがって、以下では、主にステップS200~S212の処理を中心として説明する。
図7は、第2の実施形態における自動運転制御装置100よって実行される処理の流れの一例を示すフローチャートである。図7に示す処理は、図6に示すステップS100~S114の後にステップS200~S212の処理が追加されている点で相違する。したがって、以下では、主にステップS200~S212の処理を中心として説明する。
図7の例において、ステップS114の処理後、物体認識部136は、認識した物体の確度が閾値以上であるか否かを判定する(ステップS200)。確度が閾値以上でない(閾値未満である)と判定した場合、物体認識部136は、認識した物体の位置情報に基づいて、カメラ画像から物体を含む部分画像領域を抽出するクロッピング処理を行う(ステップS202)。部分画像領域は、例えば、認識した物体の輪郭(周囲)を囲むバウンディングボックスである。また、部分画像領域は、物体の速度や移動方向、自車両Mからの相対位置に応じてバウンディングボックスの領域を調整してもよく、確度が小さくなるほど部分画像領域が大きくなるように調整されてもよい。
次に、物体認識部136は、抽出した部分画像領域に対し、第2画像よりもデータ量の多い第3画像を生成し、生成した第3画像を用いて第2認識モードで物体認識を行う(ステップS204)。なお、ステップS04の処理おいて、物体認識部136は、レーダ装置12やLIDAR14からのデータ量を多くして物体認識を行ってもよい。
次に、物体認識部136は、第1認識モードと第2認識モードとで認識結果が異なるか否かを判定する(ステップS206)。認識結果が異なるとは、例えば、認識した物体の位置、サイズ、種類のうち少なくとも1つが許容範囲を超えて異なる場合である。また上記に加えて、移動方向が所定角以上異なる場合や移動量が所定量以上異なる場合が含まれてよい。第1認識モードと第2認識モードとで認識結果が異なると判定された場合、リスク領域導出部138は、第2認識モードで認識された物体に対するリスク領域を導出する(ステップS208)。
次に、行動計画生成部140は、ステップS208の処理により導出されたリスク領域等に基づいて既存の目標軌道を調整する(ステップS210)。ステップS210の処理において、行動計画生成部140は、例えば、第1認識モードで認識された物体に対するリスク領域(以下、第1リスク領域と称する)よりも第2認識モードで認識されたリスク領域(以下、第2リスク領域と称する)の方が大きい場合に、第2のリスク領域を基準に目標軌道を生成する。また、行動計画生成部140は、第1リスク領域に対する第2リスク領域の拡大比率等に基づいて、すでに生成された目標軌道の調整量を制御してもよい。また、行動計画生成部140は、第1リスク領域よりも第2リスク領域が小さい場合に、第2リスク領域を基準に目標軌道を再生成してもよく、現在の目標軌道のままにしてもよい。第2リスク領域の方が小さい場合には、現在の目標軌道のままでも自車両Mと物体とが接する可能性は低いため、現在の目標軌道を維持することで、走行中の目標軌道の変更により自車両Mの挙動が一時的に大きくなることを抑制することができる。
ステップS210の処理後、第2制御部160は、生成された目標軌道に沿って自車両Mが走行するように運転制御を実行する(ステップS212)。これにより、本フローチャートの処理は、終了する。また、ステップS200の処理において、認識した物体の確度が閾値以上であると判定した場合、本フローチャートの処理は、終了する。
以上の通り説明した第2の実施形態によれば、第1の実施形態と同様の効果を奏する他、確度が閾値未満の場合に、物体を含む部分画像領域のデータ量を多くして物体認識を行うため、物体の位置、サイズ、種類の確度が向上し、より正確な物体認識が実現できる。したがって、認識結果に基づいて目標軌道を適切に修正することができ、より適切な運転制御を実行することができる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、第1の実施形態と比較して、物体と共に自車両Mが走行する車線(領域)を区画する区画線が認識された場合に、カメラ画像のうち区画線を含む部分画像領域(第2部分画像領域の一例)を抽出し、抽出した領域の画像を用いて第2認識モードで物体の位置を認識する点で相違する。したがって、以下では、主に上述した相違点を中心として説明する。
次に、第3の実施形態について説明する。第3の実施形態は、第1の実施形態と比較して、物体と共に自車両Mが走行する車線(領域)を区画する区画線が認識された場合に、カメラ画像のうち区画線を含む部分画像領域(第2部分画像領域の一例)を抽出し、抽出した領域の画像を用いて第2認識モードで物体の位置を認識する点で相違する。したがって、以下では、主に上述した相違点を中心として説明する。
図8は、車線を含む部分画像領域を第2認識モードで認識することについて説明するための図である。図8の例では、同一方向に進行可能な二つの車線において、自車両Mが車線L1を進行方向(図中X軸方向)に速度VMで走行し、物体OB2が自車両Mの前方であって車線L2上を進行方向に速度V2で走行しているものとする。物体OB2は、「他の移動体」の一例であり、具体的には他車両(四輪車両)である。
図8の例において、物体認識部136は、第2画像を用いた第1認識モードで自車両Mの周辺の物体を認識し、物体OB2と、区画線LM1、LM2a、LM2b、LM3を認識する。ここで、物体認識部136は、物体OB2の認識確度が閾値以上であるか否かを判定し、閾値以上でない(閾値未満である)と判定した場合、クロッピング処理等によってカメラ画像から区画線を含む部分画像領域を抽出し、抽出した部分画像領域に対して第3画像を用いた第2認識モードで物体認識を行う。部分画像領域は、例えば、区画線の輪郭を囲うバウンディングボックスでもよく、道路形状等の周辺状況や確度に応じて領域の大きさが調整されてもよい。また、部分画像領域は、複数の区画線を含む領域であってもよい。
例えば、物体認識部136は、第1認識モードで認識した全ての区画線を含む部分画像領域を抽出してもよく、一部の区画線を含む部分画像領域を抽出してもよい。一部の区画線とは、例えば、線の長さが所定長未満の区画線である。線が所定長未満である場合には区画線が途切れている可能性が高いため、その線を含む領域を対象に第3画像(高精度画像)で認識することで、より正確に区画線を認識することができる。
また、一部の区画線とは、自車両Mから見た物体OB2の位置を特定するために参照される区画線であってもよく、より具体的には、自車両Mと物体OB2との間に存在する区画線であってもよい。例えば、自車両Mの右側前方に物体OB2が存在する場合には、自車両Mの右側の区画線と、物体OB2の左側の区画線とを含む部分画像領域を抽出する。また、一部の区画線には、複数の区画線が含まれてもよい。図8の例では、部分画像領域として、区画線LM2aとLM2bの一部を含む部分画像領域PAが抽出されている。
物体認識部136は、抽出された部分画像領域PAに対応する第3画像を用いた第2認識モードで区画線の認識を行い、認識結果に基づいて自車両M付近の区画線と、物体OB2付近の区画線との位置関係を認識する。自車両M付近の区画線は、第3画像から認識することに代えて(または加えて)、車両センサ40から取得した自車両Mの位置情報に基づいて地図情報を参照することで取得してもよい。
物体認識部136は、自車両Mから最も近い右側に存在する区画線LM2a(自車線を区画する区画線)と、物体OB2から最も近い左側に存在する区画線2b(物体の走行車線を区画する区画線)との位置関係を認識する。図9は、区画線の位置関係を認識することについて説明するための図である。図9の例において、物体認識部136は、自車両Mの右側に存在する区画線LM2aを車線L1、L2の延伸方向(図中X軸方向)に沿って延長(延伸)させた仮想線VLを設定し、設定した仮想線VLと物体OB2の左側の区画線LM2bとの位置関係から、区画線LM2aとLM2bとが同一の区画線であるか否かを判定する。仮想線VLと区画線LM2bとの横位置(道路幅方向、Y軸方向)の距離Dが閾値未満である場合、物体認識部136は、区画線LM2aとLM2bとが同一の区画線であると認識する。また、距離Dが閾値以上である場合、物体認識部136は、区画線LM2aとLM2bとが同一の区画線ではない(異なる区画線である)と認識する。なお、自車両Mの右側や物体OB2の左側の区画線が複数ある場合には、区画線ごとに上述の判定を行ってよい。このように区画線の認識を行った後、物体認識部136は、第2認識モードによる区画線の認識結果に基づいて物体OB2の位置を認識する。これにより、より正確に物体OB2の位置を認識することができるため、物体OB2のリスク領域を適切な位置に割り当てて、より適切な目標軌道を生成することができる。
[第3の実施形態の処理フロー]
図10は、第3の実施形態における自動運転制御装置100よって実行される処理の流れの一例を示すフローチャートである。図10に示す処理は、図6に示すステップS100~S114と比較すると、ステップS108とステップS110との間にステップS300~S304の処理が追加されている点で相違する。したがって、以下では、主にステップS300~S304の処理を中心として説明する。
図10は、第3の実施形態における自動運転制御装置100よって実行される処理の流れの一例を示すフローチャートである。図10に示す処理は、図6に示すステップS100~S114と比較すると、ステップS108とステップS110との間にステップS300~S304の処理が追加されている点で相違する。したがって、以下では、主にステップS300~S304の処理を中心として説明する。
図10の例において、ステップS108の処理後、物体認識部136は、認識結果の物体に区画線が含まれるか否かを判定する(ステップS300)。区画線が含まれると判定された場合、物体認識部136は、区画線を含む部分画像領域を抽出し、抽出した部分画像領域に対して第3画像を用いて第2認識モードで区画線を認識し(ステップS302)、認識した車線の位置に基づいて物体の位置を認識する(ステップS304)。ステップS106またはS304の処理が終了後、ステップS110以降の処理が実行される。
以上の通り説明した第3の実施形態によれば、第1の実施形態と同様の効果を奏する他、第1認識モードによる認識結果に区画線が含まれる場合に、第2認識モードで区画線を高精度に認識し、認識した区画線の位置に基づいて、自車両Mから見た物体の位置を高精度に認識することができる。また、第3の実施形態によれば、歩行者や車両等の交通参加者と比較して、ある程度形状や大きさ等が限定される区画線のみを認識対象とするため、第1認識モードよりも高解像度の第2認識モードで認識処理した場合であっても、迅速に区画線を認識することができる。したがって、周辺状況に応じてより適切な目標軌道を生成することができる。
なお、第3の実施形態では、区画線に代えて(または加えて)、区画線以外の道路構造物(例えば、縁石、中央分離帯)等を認識してもよい。
上述した第1~第3の実施形態のそれぞれは、他の実施形態の一部または全部と組み合わせてもよい。例えば、第2の実施形態に対し、第3の実施形態の区画線認識を組み合わせることで、より適切な位置に、より適切なリスク領域を設定することができる。
上記説明した実施形態は、以下のように表現することができる。
コンピュータによって読み込み可能な命令を格納する記憶媒体と、
前記記憶媒体に接続されたプロセッサと、を備え、
前記プロセッサは、前記コンピュータによって読み込み可能な命令を実行することにより、
撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識し、
認識結果に基づいて前記移動体の将来の行動計画を生成し、
生成した行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御し、
前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、
認識した前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、
移動体制御装置。
コンピュータによって読み込み可能な命令を格納する記憶媒体と、
前記記憶媒体に接続されたプロセッサと、を備え、
前記プロセッサは、前記コンピュータによって読み込み可能な命令を実行することにより、
撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識し、
認識結果に基づいて前記移動体の将来の行動計画を生成し、
生成した行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御し、
前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、
認識した前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、
移動体制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…LIDAR、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、132…第1取得部、134…認識モード設定部、136…物体認識部、138…リスク領域導出部、140…行動計画生成部、160…第2制御部、162…第2取得部、164…速度制御部、166…操舵制御部、170…HMI制御部、180…記憶部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両
Claims (9)
- 撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識する認識部と、
前記認識部による認識結果に基づいて前記移動体の将来の行動計画を生成する行動計画生成部と、
前記行動計画生成部により生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御する運転制御部と、を備え、
前記認識部は、前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、認識した物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、
移動体制御装置。 - 前記認識部は、前記第1認識モードにより認識された前記物体の確度が閾値未満である場合に、前記第1画像から前記物体を含む第1部分画像領域を抽出し、抽出した第1部分画像領域に対して、前記第2画像よりもデータ量の多い第3画像を用いて認識を行う第2認識モードで前記物体を認識し、
前記行動計画生成部は、前記第1認識モードにより認識された物体と、前記第2認識モードにより認識された物体とが異なる場合に、前記第2認識モードにより認識された物体の情報に基づいて前記行動計画を生成する、
請求項1に記載の移動体制御装置。 - 前記データ量は、解像度とフレームレートのうち少なくとも一方を含む、
請求項1または2に記載の移動体制御装置。 - 前記認識部による認識結果は、少なくとも前記物体の位置と、サイズと、種類とを含む、
請求項1から3のうち何れか1項に記載の移動体制御装置。 - 前記認識部は、前記第1認識モードにより認識された物体に他の移動体と、移動体が移動する領域を区画する区画線が含まれる場合、前記第1画像から前記区画線を含む第2部分画像領域を抽出し、抽出した第2部分画像領域に対して、前記第2画像よりもデータ量の多い第3画像を用いて認識を行う第2認識モードで前記区画線を認識し、認識された区画線と前記他の移動体との位置関係に基づいて前記他の移動体の位置を認識する、
請求項1から4のうち何れか1項に記載の移動体制御装置。 - 前記認識部は、前記移動体が移動する領域を区画する区画線を延伸させた仮想線と、前記他の移動体から所定距離以内に存在する区画線との位置関係に基づいて、前記他の移動体の位置を認識する、
請求項5に記載の移動体制御装置。 - 前記リスク領域が大きい他の物体は、前記第2画像から認識された物体よりも所定時間における移動量が大きいと予測される物体である、
請求項1から6のうち何れか1項に記載の移動体制御装置。 - コンピュータが、
撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識し、
認識結果に基づいて前記移動体の将来の行動計画を生成し、
生成した行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御し、
前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識し、
認識した前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとする、
移動体制御方法。 - コンピュータに、
撮像部により撮像された第1画像に基づいて移動体の周辺状況を認識させ、
認識結果に基づいて前記移動体の将来の行動計画を生成させ、
生成された行動計画に基づいて、前記移動体の操舵および速度のうち少なくとも一方を制御させ、
前記第1画像のデータ量を少なくした第2画像を用いて認識を行う第1認識モードで前記移動体の周辺の物体を認識させ、
認識された前記物体の確度が閾値未満である場合に、認識した物体よりもリスク領域が大きい他の物体が認識されたものとさせる、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022012859A JP2023111162A (ja) | 2022-01-31 | 2022-01-31 | 移動体制御装置、移動体制御方法、およびプログラム |
CN202310091463.2A CN116513194A (zh) | 2022-01-31 | 2023-01-19 | 移动体控制装置、移动体控制方法及存储介质 |
US18/100,579 US20230242145A1 (en) | 2022-01-31 | 2023-01-24 | Mobile object control device, mobile object control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022012859A JP2023111162A (ja) | 2022-01-31 | 2022-01-31 | 移動体制御装置、移動体制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023111162A true JP2023111162A (ja) | 2023-08-10 |
Family
ID=87394621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022012859A Pending JP2023111162A (ja) | 2022-01-31 | 2022-01-31 | 移動体制御装置、移動体制御方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230242145A1 (ja) |
JP (1) | JP2023111162A (ja) |
CN (1) | CN116513194A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220013203A (ko) * | 2020-07-24 | 2022-02-04 | 현대모비스 주식회사 | 차량의 차선 유지 보조 시스템 및 이를 이용한 차선 유지 방법 |
-
2022
- 2022-01-31 JP JP2022012859A patent/JP2023111162A/ja active Pending
-
2023
- 2023-01-19 CN CN202310091463.2A patent/CN116513194A/zh active Pending
- 2023-01-24 US US18/100,579 patent/US20230242145A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN116513194A (zh) | 2023-08-01 |
US20230242145A1 (en) | 2023-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190146519A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200001867A1 (en) | Vehicle control apparatus, vehicle control method, and program | |
US11414079B2 (en) | Vehicle control system, vehicle control method, and storage medium | |
US20190286130A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2019048570A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11390275B2 (en) | Vehicle control device, vehicle control method, and program | |
US11106219B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190278285A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7117881B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11738742B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11634139B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190276029A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11390284B2 (en) | Vehicle controller, vehicle control method, and storage medium | |
US10854083B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20210070303A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20210070291A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11628862B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20230242145A1 (en) | Mobile object control device, mobile object control method, and storage medium | |
JP2019112007A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US20190095724A1 (en) | Surroundings monitoring device, surroundings monitoring method, and storage medium | |
US20220315053A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11453398B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11801838B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11840222B2 (en) | Vehicle control method, vehicle control device, and storage medium | |
US20220055615A1 (en) | Vehicle control device, vehicle control method, and storage medium |