JP6663406B2 - 車両制御装置、車両制御方法、およびプログラム - Google Patents

車両制御装置、車両制御方法、およびプログラム Download PDF

Info

Publication number
JP6663406B2
JP6663406B2 JP2017195362A JP2017195362A JP6663406B2 JP 6663406 B2 JP6663406 B2 JP 6663406B2 JP 2017195362 A JP2017195362 A JP 2017195362A JP 2017195362 A JP2017195362 A JP 2017195362A JP 6663406 B2 JP6663406 B2 JP 6663406B2
Authority
JP
Japan
Prior art keywords
vehicle
road
unit
lane marking
predetermined value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017195362A
Other languages
English (en)
Other versions
JP2019067345A (ja
Inventor
三浦 弘
弘 三浦
石川 誠
誠 石川
成光 土屋
成光 土屋
浩司 川邊
浩司 川邊
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2017195362A priority Critical patent/JP6663406B2/ja
Publication of JP2019067345A publication Critical patent/JP2019067345A/ja
Application granted granted Critical
Publication of JP6663406B2 publication Critical patent/JP6663406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0255Automatic changing of lane, e.g. for passing another vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • B62D6/001Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits the torque NOT being among the input parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • G06K9/00798Recognition of lanes or road borders, e.g. of lane markings, or recognition of driver's driving pattern in relation to lanes perceived from the vehicle; Analysis of car trajectory relative to detected road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0213Road vehicle, e.g. car or truck

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。
近年、車両を自動的に制御すること(以下、自動運転制御)について研究が進められている。自動運転制御において、カメラにより撮像された画像から道路区画線を認識し、認識した道路区画線に基づいて、車両を走行させる場合がある。
特許第4055653号公報 特開平11−203458号公報
しかしながら、画像から道路区画線が認識できない場合、車両が走行可能な領域を認識することができず、自動運転制御が実現することができないことがある
本発明は、このような事情を考慮してなされたものであり、より精度よく車両が走行可能な領域を認識することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
(1):車両の周辺を撮像する撮像部と、前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識する道路区画線認識部と、前記道路区画線認識部により認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御する運転制御部と、
電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出する物体検出部と、を備え、前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される所定値以上の反射率を有する物体の位置に基づいて、前記車両の少なくとも操舵を制御する車両制御装置である。
(2):(1)の車両制御装置であって、前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される、前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体の位置に基づいて、前記車両の少なくとも操舵を制御するものである。
(3):(2)の車両制御装置であって、前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される、前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体の位置に基づいて、道路の幅方向の端部の位置を推定し、前記端部の位置に基づいて、前記車両の少なくとも操舵を制御するものである。
(4):(2)の車両制御装置であって、前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できず、且つ地図情報に前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体と道路区画線との位置関係が記録されている場合に、前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体の位置と前記位置関係とに基づいて、前記車両の少なくとも操舵を制御するものである。
(5):(1)から(4)のうちいずれかに記載の車両制御装置であって、前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できず、且つ、地図情報に前記所定値以上の反射率を有する物体の位置が記録されている場合に、前記物体検出部により検出される、前記所定値以上の反射率を有する物体の位置に基づいて、前記車両の少なくとも操舵を制御するものである。
(6):撮像部が、車両の周辺を撮像し、道路区画線認識部が、前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識し、運転制御部が、前記道路区画線認識部により認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御し、
物体検出部が、電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出し、前記運転制御部が、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される所定値以上の反射率を有する物体の位置に基づいて、前記車両の少なくとも操舵を制御する車両制御方法である。
(7):車両の周辺を撮像する撮像部と、電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出する物体検出部と、を備える車両に搭載されるコンピュータに、前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識させ、前記認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御させ、前記道路区画線の位置が認識できない場合、前記物体検出部により検出される所定値以上の反射率を有する物体の位置に基づいて、前記車両の少なくとも操舵を制御させるプログラムである。
(1)〜(7)によれば、より精度よく車両が走行可能な領域を認識することができる。
実施形態に係る車両制御装置を利用した車両システム1の構成図である。 第1制御部120および第2制御部160の機能構成図である。 推奨車線に基づいて目標軌道が生成される様子を示す図である。 カメラ10により撮像された画像IM1の一例を示す図である。 道路区画線が認識できないと判定される場合の一例を示す図である。 所定の1走査処理が行われた際の処理結果の一例を示す図である。 実平面状の位置に変換されたデリニエータde1〜de4の位置の一例を示す図である。 設定部142の処理結果の一例を示す図である。 設定部142の処理結果の他の一例を示す図である。 両端にデリニエータが存在する道路が撮像された画像IM2の一例を示す図である。 実平面状の位置に変換されたデリニエータde1〜de8の位置の一例を示す図である。 走行可能な領域が設定される様子の一例を示す図である。 1つのデリニエータが存在する道路が撮像された画像IM3の一例を示す図である。 第2地図情報62に記憶された位置関係を概念的に示す図である。 設定部142の処理の一例を示す図である。 第1制御部120により実行される処理の流れを示すフローチャートである。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光などの電磁波を放射し、放射した電磁波が物体に当たって生じた反射波を検出する。ファインダ14は、反射波の検出結果に基づいて、対象までの距離や対象の種類等を検出する。検出結果とは、例えば、放射波の放射から反射波の検出までの時間や、反射波の光線量、放射した放射波に対する反射波の状態である反射率等である。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。反射波の検出結果に基づいて、対象までの距離や対象の種類等を検出する処理は、物体認識装置16または自動運転制御装置100において行われてもよい。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。
例えば、物体認識装置16は、カメラ10により撮像された画像に基づいて、道路区画線の位置を認識することができるか否かを判定する。道路区画線の位置を認識することができた場合は、物体認識装置16は、道路区間線の位置を示す情報を自動運転制御装置100に出力する。道路区画線の位置を認識することができなかった場合は、物体認識装置16は、道路区画線の位置を認識することができないことを示す情報を自動運転制御装置100に出力する。この判定処理の詳細については後述する[道路区画線の認識]で説明する。
通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部140に出力する。
また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。また、これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
また、認識部130は、上記の認識処理において、認識精度を導出し、認識精度情報として行動計画生成部140に出力してもよい。例えば、認識部130は、一定期間において、道路区画線を認識できた頻度に基づいて、認識精度情報を生成する。
また、認識部130は、物体認識装置16により出力されたファインダ14の検出結果を取得し、取得した検出結果に基づいて、車両の周辺の物体を検出する。車両の周辺の物体とは、例えば、道路区間線が認識されない場合において、車両が走行可能な領域を導出するのに利用される物体である。走行可能な領域を導出するのに利用される物体とは、ファインダ14により放射された放射波に対する反射波の指標である反射率が所定値以上の物体である。例えば、視線誘導施設(デリニエータ)や、反射率が所定値以上であるガードレールや、道路に沿って設けられた道路照明灯、標識、信号などを含む。以下の説明では、反射率が所定値以上の物体は、デリニエータであるものとして説明する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、前走車両を追い越す追い越しイベント、障害物との接近を回避するための制動および/または操舵を行う回避イベント、カーブを走行するカーブ走行イベント、交差点や横断歩道、踏切などの所定のポイントを通過する通過イベント、車線変更イベント、合流イベント、分岐イベント、自動停止イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバイベントなどがある。
行動計画生成部140は、起動したイベントに応じて、自車両Mが将来走行する目標軌道を生成する。各機能部の詳細については後述する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
図3は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部140は、推奨車線の切り替わり地点の所定距離(イベントの種類に応じて決定されてよい)手前に差し掛かると、通過イベント、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。
また、行動計画生成部140は、例えば、設定部142を含む。設定部142は、道路区画線が認識されない場合に、認識部130により認識された反射率が所定値以上の物体に基づいて、自車両Mが走行可能な領域を設定するための目印や、走行可能な領域を設定する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
また、以下に説明するように自動運転制御装置100は、認識部130により検出される所定値以上の反射率を有する物体の位置に基づいて、自車両Mの少なくとも操舵を制御する。後述する[具体的な処理例1]は、第2地図情報62に所定値以上の反射率を有する物体(デリニエータ)と道路区間線との位置関係が記憶されていない場合の処理の一例である。[具体的な処理例2]は、第2地図情報62にデリニエータと道路区間線との位置関係が記憶されている場合の処理の一例である。
[具体的な処理例1]
[道路区画線の認識]
図4は、カメラ10により撮像された画像IM1の一例を示す図である。なお、以下、画像IM1等における上方向(車両の進行方向)をX方向と称し、横方向(車両の幅方向)をY方向と称する。画像IM1は、自車両Mが走行する車線L1、車線L1の対向車線である車線L2、車線L1の左側(マイナスY側)に描画された道路区画線SL1、車線L1と車線L2とを区画する道路区画線SL2、および車線L2の右側(プラスY側)に描画された道路区画線SL3を含む。
また、画像IM1は、道路区画線SL1の左側に設置されたデリニエータde1〜de4を含む。デリニエータde1〜de4は、画像IM1の手前側(マイナスX側)から、所定間隔でde1、de2、de3、de4の順で存在する。デリニエータde1〜de4は、「道路に沿って所定間隔で配置された物体」の一例である。
物体認識装置16は、画像IM1において、SOBELフィルタなどを用いて着目する画素における隣接画素との間の輝度勾配を求め、求めた輝度勾配のうち、閾値以上の勾配を有する領域をエッジとして抽出する。そして、物体認識装置16は、抽出したエッジに基づいて、道路区画線が認識できるか否かを判定する。例えば、物体認識装置16は、抽出したエッジが所定の条件を満たす場合、道路区画線を認識できると判定する。また、例えば、物体認識装置16は、抽出したエッジに所定のアルゴリズムを適用し、適用した結果が所定の条件を満たす場合、道路区画線を認識できると判定してもよい。
例えば、抽出したエッジの数が所定の画素数未満である場合、道路区画線が認識できないと判定される。図5は、道路区画線が認識できないと判定される場合の一例を示す図である。図5は、図4の画像においてエッジが抽出された結果を示している。
[デリニエータの認識]
認識部130は、物体認識装置16により出力されたファインダ14の検出結果を取得し、取得した検出結果に基づいて、デリニエータを検出する。例えば、認識部130は、ファインダ14の検出結果において、X方向の最も手前側の位置を選択して、Y方向に走査するようにして、反射率を取得する。この処理を、「1走査処理」と称する。そして、認識部130は、選択したX方向の位置をプラスX方向にずらしながら、上述したようにY方向に走査して反射率を取得する処理を繰り返す。このような処理が画像IM1に対して行われることにより、画像全体における反射率が取得される。
図6は、所定の1走査処理が行われた際の処理結果の一例を示す図である。図6で示す1走査処理が行われた領域は、後述する図7の領域ARに相当する。図6の縦軸は反射率を示し、図6の横軸はY方向の位置を示している。例えば、認識部130は、反射率が所定値Th以上の領域を抽出する。この領域は、例えば、デリニエータが存在する領域であるとみなされる。そして、認識部130は、抽出した領域の位置を実平面状の位置に変換することにより、デリニエータde1〜de4の位置を認識する。図7は、実平面状の位置に変換されたデリニエータde1〜de4の位置の一例を示す図である。
[走行可能な領域の設定処理]
設定部142は、図7で示したデリニエータde1〜de4に基づいて、自車両Mが走行可能な領域を設定するための目印や、走行可能な領域を設定する。図8は、設定部142の処理結果の一例を示す図である。例えば、設定部142は、デリニエータde1〜de4のそれぞれの位置から、プラスY方向(或いはプラスY方向から角度θの)に所定距離の位置P1〜P4を設定し、設定した位置を通過するようにX方向に設定した仮想線IL1を設定する。所定距離は、例えば、自車両Mの幅に相当する距離の半分に余裕距離を加算した距離である。そして、設定部142は、仮想線IL1を目標軌道として設定する。
なお、上記の例では、設定部142は、目標軌道に相当する仮想線IL1を設定するものとして説明したが、これに代えて(或いは加えて)、道路区画線や、車線を設定してもよい。例えば、設定部142は、図9に示すようにデリニエータde1〜de4のそれぞれの位置からプラスY方向に、第1の距離の地点に位置P1a〜P4a、第2の距離の地点に位置P1b〜P4b、および第3の距離の地点に位置P1c〜P4cを設定する。位置P1a〜P4aまたは位置P1c〜P4cは、「道路の幅方向の端部の位置」の一例である。
第1の距離は、予め設定されたデリニエータと最も近い道路の幅方向の端部の位置と推定される距離である。第2の距離は、第1の距離の地点から予め設定された1車線分の車線の幅に相当する距離である。第3の距離は、第2の距離の地点から予め設定された1車線分の車線の幅に相当する距離である。また、第2地図情報62に、検出されたデリニエータ付近の車線数や車線幅が記憶されている場合、第2の距離または第3の距離は、その車線数や車線幅に基づいて設定される。
そして、設定部142は、位置P1a〜P4aを通過するようにX方向に設定した仮想線IL1a、位置P1b〜P4bを通過するようにX方向に設定した仮想線IL1b、および位置P1c〜P4cを通過するようにX方向に設定した仮想線ILcを設定する。更に、設定部142は、仮想線IL1a〜IL1cを道路区画線とみなし、仮想線IL1aと仮想線ILbで区画された車線を自車両Mが走行する車線、仮想線IL1bと仮想線ILcで区画された車線を自車両Mが走行する車線に隣接する車線とみなす。行動計画生成部140は、設定部142に設定された車線に基づいて、目標軌道を生成する。
[デリニエータが道路の両端に存在する場合の例]
図10は、両端にデリニエータが存在する道路が撮像された画像IM2の一例を示す図である。画像IM1と異なる点を中心に説明する。画像IM2は、道路区画線SL3の右側に設置されたデリニエータde5〜de8を含む。デリニエータde5〜de8は、画像IMの手前側(マイナスX側)から、所定間隔でde5、de6、de7、de8の順で設置されている。デリニエータde5〜de8は、「道路に沿って所定間隔で配置された物体」の他の一例である。
認識部130は、物体認識装置16により出力されたファインダ14の検出結果に基づいて、デリニエータを検出する。そして、認識部130は、検出したデリニエータの位置を実平面状の位置に変換することにより、デリニエータde1〜de8の位置を認識する。
図11は、実平面状の位置に変換されたデリニエータde1〜de8の位置の一例を示す図である。設定部142は、デリニエータde1〜de8に基づいて、走行可能な領域を設定する。例えば、設定部142は、デリニエータde1〜de8のうち、X方向に関して、同一または近い座標上に存在するデリニエータの組を抽出する。例えば、デリニエータde1およびde5と、de2およびde6と、de3およびde7と、de4およびde8とが1つの組として抽出される。
設定部142は、組として抽出されたデリニエータ同士を仮想線で結び、その仮想線の中点である位置P11〜P14を設定する。更に設定部142は、設定した位置P11〜P14を通過するようにX方向に設定した仮想線IL11を設定する。そして、設定部142は、設定した仮想線IL11からマイナスY方向に所定距離の位置を連ねた位置を目標軌道として設定する。
また、設定部142は、図12に示すように走行可能な領域を設定してもよい。例えば、設定部142は、デリニエータde1〜de4のそれぞれの位置から、プラスY方向に所定距離の位置P21〜P24を設定し、設定した位置を通過するようにX方向に設定した仮想線IL12を設定する。また、設定部142は、デリニエータde5〜de8のそれぞれの位置から、マイナスY方向に所定距離の位置P31〜P34を設定し、設定した位置を通過するようにX方向に設定した仮想線IL13を設定する。
そして、設定部142は、仮想線IL2とIL3との間隔を導出し、導出した間隔と、基準距離とに基づいて、車線を導出する。図示するように、上述した処理と同様に、仮想線IL2とIL3との間隔が基準距離d(例えば通常の車線幅に相当する距離)の2倍に相当する場合、仮想線IL2とIL3との間の中間地点に仮想的な道路区画線IL14を設定する。なお、第2地図情報62に、検出されたデリニエータ付近の車線数や車線幅が記憶されている場合、道路区画線IL14は、その車線数や車線幅に基づいて設定される。設定部142は、仮想的な道路区画線IL14と仮想線IL12との間を走行可能な領域として設定する。
上述したように、行動計画生成部140は、認識部130により道路区画線の位置が認識できない場合、物体認識装置16により検出される所定値以上の反射率を有する物体の位置に基づいて、自車両Mの少なくとも操舵を制御することにより、より精度よく車両が走行可能な領域を認識することができる。
[1つのデリニエータが道路の方端に存在する場合の例]
図13は、1つのデリニエータが存在する道路が撮像された画像IM3の一例を示す図である。画像IM1と異なる点を中心に説明する。画像IM3は、道路区画線SL1の左側に設置された1つのデリニエータde9を含む。このデリニエータは、「所定値以上の反射率を有する物体」の一例である。
認識部130は、物体認識装置16により出力されたファインダ14の検出結果に基づいて、デリニエータde9を検出する。そして、認識部130は、検出したデリニエータde9の位置を実平面状の位置に変換することにより、デリニエータde9の位置を認識する。
設定部142は、デリニエータde9に基づいて、走行可能な領域を設定する。例えば、設定部142は、デリニエータde9の位置から、プラスY(或いはプラスY方向から角度θの)方向に所定距離の位置P5を設定し、設定した位置P5を自車両Mの基準点が通過するように自車両Mを制御する。
上述したように、行動計画生成部140は、認識部130により道路区画線の位置が認識できない場合、1つの所定値以上の反射率を有する物体の位置に基づいて、自車両Mの少なくとも操舵を制御することにより、より精度よく車両が走行可能な領域を認識することができる。
なお、上述した各例において、設定部142は、認識部130により認識された反射率が所定値以上の物体に加え、更に物体認識装置16により認識された物体の種類や位置等を加味して、走行可能な領域を設定してもよい。例えば、物体認識装置16により認識された物体とは、例えば、周辺車両(例えば、前走車両や後続車両、対向車両等)や、道路に設置された物体(例えば、信号機や、標識、中央分離帯等)である。
例えば、設定部142は、デリニエータの位置に基づいて設定した走行可能な領域を、物体認識装置16により認識された物体の位置と種類に基づいて補正したり、物体認識装置16により認識された物体の位置と種類に基づいて設定した走行可能領域を、デリニエータの位置に基づいて補正したりしてもよい。具体的には、例えば、設定部142は、前走車両および後続車両が設定した走行可能な領域から外れて走行している場合、走行可能な領域を前走車両および後続車両が走行している位置を含むように補正する。
[具体的な処理例2]
第2地図情報62にデリニエータと道路区間線との位置関係が記憶されている場合の処理の一例である。図14は、第2地図情報62に記憶された位置関係を概念的に示す図である。第2地図情報62には、デリニエータdeの位置情報、およびデリニエータdeから道路区画線SLまでの距離d1が対応付けられて記憶されている。
この場合、設定部142は、デリニエータdeおよび上記の位置関係に基づいて、走行可能な領域を設定する。図15は、設定部142の処理の一例を示す図である。図8との相違点について説明する。設定部142は、デリニエータde1〜de4のそれぞれの位置から、プラスY方向に距離d1の位置に位置P41〜P44を設定し、設定した位置を通過するようにX方向に設定した仮想線IL21を設定する。
次に、設定部142は、仮想線IL21からプラスY方向に距離d11の位置に仮想線IL22、および仮想線IL22からプラスY方向に距離d11の位置に仮想線IL23を設定する。距離d11は、例えば、第2地図情報62に記憶された車線の幅に相当する距離である。そして、設定部142は、仮想線IL21と仮想線IL22との間を自車両Mの走行車線とみなし、仮想線IL22と仮想線IL23との間を自車両Mの対向車線とみなす。
上述したように、行動計画生成部140は、認識部130により道路区画線の位置が認識できず、且つ、第2地図情報62に所定値以上の反射率を有する物体の位置が記録されている場合に、物体認識装置16により検出される、所定値以上の反射率を有する物体の位置に基づいて、自車両Mの少なくとも操舵を制御することにより、より精度よく車両が走行可能な領域を認識することができる。
[フローチャート]
図16は、第1制御部120により実行される処理の流れを示すフローチャートである。まず、認識部130が、物体認識装置16から取得した情報に基づいて、道路区画線を認識できたか否かを判定する(ステップS100)。道路区画線を認識できない場合、本フローチャートの1ルーチンの処理は終了する。
道路区画線を認識できた場合、認識部130は、デリニエータを検出する(ステップS102)。次に、設定部142は、検出されたデリニエータの位置を特定し、検出されたデリニエータと、第2地図情報62の情報とをマッチングする(ステップS104)。次に、設定部142は、第2地図情報62において検出したデリニエータと道路区画線との位置関係が記憶されているか否かを判定する(ステップS106)。
位置関係が記憶されていない場合、設定部142は、検出したデリニエータに基づいて、走行可能な領域を設定する(ステップS108)。すなわち、[具体的な処理例1]の処理が行われ、走行可能な領域が設定される。
位置関係が記憶されている場合、設定部142は、第2地図情報62から求められる、検出したデリニエータと道路区画線との位置関係に基づいて、走行可能な領域を設定する(ステップS110)。すなわち、[具体的な処理例2]の処理が行われ、走行可能な領域が設定される。これにより本フローチャートの1ルーチンの処理は終了する。なお、上述したステップS110またはS108の処理のうち、一方は省略されてもよい。
上述したように、認識部130により道路区画線の位置が認識できない場合において、行動計画生成部140は、第2地図情報62にデリニエータの位置が記録されている場合に、検出されたデリニエータの位置と第2地図情報62に記憶されたデリニエータの位置関係に基づいて、自車両Mの少なくとも操舵を制御し、第2地図情報62にデリニエータの位置が記録されていない場合に、検出されたデリニエータの位置に基づいて、自車両Mの少なくとも操舵を制御することにより、より精度よく車両が走行可能な領域を認識することができる。
以上説明した実施形態によれば、車両制御装置は、認識部130により道路区画線の位置が認識できない場合、物体認識装置16により検出される所定値以上の反射率を有する物体の位置に基づいて、自車両Mの少なくとも操舵を制御することにより、より精度よく車両が走行可能な領域を認識することができる。
[ハードウェア構成]
上述した実施形態の自動運転制御装置100は、例えば、図17に示すようなハードウェアの構成により実現される。図17は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
自動運転制御装置100は、通信コントローラ100−1、CPU100−2、RAM100−3、ROM100−4、フラッシュメモリやHDDなどの二次記憶装置100−5、およびドライブ装置100−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100−6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100−5に格納されたプログラム100−5aがDMAコントローラ(不図示)などによってRAM100−3に展開され、CPU100−2によって実行されることで、第1制御部120、および第2制御部160が実現される。また、CPU100−2が参照するプログラムは、ドライブ装置100−6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
上記実施形態は、以下のように表現することができる。
記憶装置と前記記憶装置に格納されたプログラムを実行するハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
車両の周辺を撮像する撮像部により撮像された画像に基づいて、道路区画線の位置を認識し、
前記認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御し、
電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出し、
道路区画線の位置が認識できない場合、前記検出される所定値以上の反射率を有する物体の位置に基づいて、前記車両の少なくとも操舵を制御するように構成されている、
車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 車両システム
10 カメラ
12 レーダ装置
14 ファインダ
16 物体認識装置
130 認識部
140 行動計画生成部
142 設定部

Claims (6)

  1. 車両の周辺を撮像する撮像部と、
    前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識する道路区画線認識部と、
    前記道路区画線認識部により認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御する運転制御部と、
    電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出する物体検出部と、を備え、
    前記運転制御部は、
    前記道路区画線認識部により道路区画線の位置が認識できず、且つ前記物体検出部により検出された所定値以上の反射率を有する物体の位置が地図情報に記録されている場合に、前記所定値以上の反射率を有する物体の位置と、前記地図情報から求められる道路区画線との位置関係に基づいて、前記操舵を制御し、
    前記道路区画線認識部により道路区画線の位置が認識できず、且つ前記物体検出部により検出された前記所定値以上の反射率を有する物体の位置が地図情報に記録されていない場合に、前記所定値以上の反射率を有する物体の位置に基づいて、前記操舵を制御する、
    車両制御装置。
  2. 前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される、前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体の位置に基づいて、前記車両の少なくとも操舵を制御する、
    請求項1記載の車両制御装置。
  3. 前記運転制御部は、前記道路区画線認識部により道路区画線の位置が認識できない場合、前記物体検出部により検出される、前記所定値以上の反射率を有し且つ道路に沿って所定間隔で配置された物体の位置に基づいて、道路の幅方向の端部の位置を推定し、前記端部の位置に基づいて、前記車両の少なくとも操舵を制御する、
    請求項2記載の車両制御装置。
  4. 前記運転制御部は、
    前記道路区画線認識部により道路区画線の位置が認識できず、且つ前記物体検出部により前記車両が走行する道路の片側に前記所定値以上の反射率を有する物体が検出された場合、前記片側に存在する所定値以上の反射率を有する物体の位置に基づいて、第1処理を行って前記車両が走行可能な領域を特定して特定結果に基づいて前記車両の少なくとも操舵を制御し、
    前記道路区画線認識部により道路区画線の位置が認識できず、且つ前記物体検出部により前記車両が走行する道路の両側に前記所定値以上の反射率を有する物体が検出された場合、前記両側に存在する所定値以上の反射率を有する物体の位置に基づいて、第1処理とは異なる第2処理を行って前記車両が走行可能な領域を特定して特定結果に基づいて前記車両の少なくとも操舵を制御する、
    請求項1から3のうちいずれか1項に記載の車両制御装置。
  5. 車両の周辺を撮像する撮像部と、電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出する物体検出部と、を備える車両に搭載されるコンピュータが、
    前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識し、
    前記認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御し、
    前記道路区画線の位置が認識できず、且つ前記物体検出部により検出された所定値以上の反射率を有する物体の位置が地図情報に記録されている場合に、前記所定値以上の反射率を有する物体の位置と、前記地図情報から求められる道路区画線との位置関係に基づいて、前記操舵を制御し、
    前記道路区画線の位置が認識できず、且つ前記物体検出部により検出された前記所定値以上の反射率を有する物体の位置が地図情報に記録されていない場合に、前記所定値以上の反射率を有する物体の位置に基づいて、前記操舵を制御する、
    車両制御方法。
  6. 車両の周辺を撮像する撮像部と、電磁波を放射して反射波を検出することで前記車両の周辺の物体を検出する物体検出部と、を備える車両に搭載されるコンピュータに、
    前記撮像部により撮像された画像に基づいて、道路区画線の位置を認識させ、
    前記認識された道路区画線の位置に基づいて、前記車両の少なくとも操舵を制御させ、
    前記道路区画線の位置が認識できず、且つ前記物体検出部により検出された所定値以上の反射率を有する物体の位置が地図情報に記録されている場合に、前記所定値以上の反射率を有する物体の位置と、前記地図情報から求められる道路区画線との位置関係に基づいて、前記操舵を制御させ、
    前記道路区画線の位置が認識できず、且つ前記物体検出部により検出された前記所定値以上の反射率を有する物体の位置が地図情報に記録されていない場合に、前記所定値以上の反射率を有する物体の位置に基づいて、前記操舵を制御させる、
    プログラム。
JP2017195362A 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム Active JP6663406B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017195362A JP6663406B2 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017195362A JP6663406B2 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム
CN201811143960.8A CN109624974A (zh) 2017-10-05 2018-09-28 车辆控制装置、车辆控制方法以及存储介质
US16/149,173 US10591928B2 (en) 2017-10-05 2018-10-02 Vehicle control device, vehicle control method, and computer readable storage medium

Publications (2)

Publication Number Publication Date
JP2019067345A JP2019067345A (ja) 2019-04-25
JP6663406B2 true JP6663406B2 (ja) 2020-03-11

Family

ID=65992613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195362A Active JP6663406B2 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US10591928B2 (ja)
JP (1) JP6663406B2 (ja)
CN (1) CN109624974A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6531903B2 (ja) * 2015-06-01 2019-06-19 パナソニックIpマネジメント株式会社 物体検出装置
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
EP3533668B1 (en) * 2016-10-28 2021-01-06 Nissan Motor Co., Ltd. Vehicular power supply system control method and vehicular power supply system
JP6627152B2 (ja) * 2017-09-08 2020-01-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6663406B2 (ja) * 2017-10-05 2020-03-11 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203458A (ja) 1998-01-13 1999-07-30 Nissan Motor Co Ltd 道路形状認識装置
JP3704987B2 (ja) * 1999-01-27 2005-10-12 三菱自動車工業株式会社 車両走行制御装置
JP3909691B2 (ja) 2002-09-12 2007-04-25 株式会社日立製作所 車載用画像処理装置
JP4055653B2 (ja) 2003-05-27 2008-03-05 株式会社デンソー 車速制御装置およびプログラム
JP4277717B2 (ja) 2004-03-17 2009-06-10 株式会社日立製作所 車両位置推定装置およびこれを用いた運転支援装置
DE102005035812A1 (de) * 2005-07-27 2007-02-08 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Verschmutzungen auf einer transparenten Scheibe
JP4735530B2 (ja) 2006-12-21 2011-07-27 トヨタ自動車株式会社 道路区画線認識装置
JP2009258989A (ja) 2008-04-16 2009-11-05 Toyota Motor Corp 車両用逆走防止装置、車両用逆走防止方法、及び車両用逆走防止プログラム
JP5350297B2 (ja) * 2010-03-17 2013-11-27 クラリオン株式会社 車両姿勢角算出装置及びそれを用いた車線逸脱警報システム
JP5281664B2 (ja) * 2011-02-23 2013-09-04 クラリオン株式会社 車線逸脱警報装置および車線逸脱警報システム
US8849508B2 (en) 2011-03-28 2014-09-30 Tk Holdings Inc. Driver assistance system and method
US20120283912A1 (en) * 2011-05-05 2012-11-08 GM Global Technology Operations LLC System and method of steering override end detection for automated lane centering
US9073576B2 (en) * 2011-09-02 2015-07-07 GM Global Technology Operations LLC System and method for smooth steering override transition during automated lane centering
JP5887219B2 (ja) * 2012-07-03 2016-03-16 クラリオン株式会社 車線逸脱警報装置
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
JP6434743B2 (ja) 2014-08-19 2018-12-05 日野自動車株式会社 走路端部推定装置
WO2017013692A1 (ja) 2015-07-21 2017-01-26 日産自動車株式会社 走行車線判定装置及び走行車線判定方法
EP3199403A1 (en) * 2016-01-28 2017-08-02 Harman Becker Automotive Systems GmbH System and method for external sound synthesis of a vehicle
JP6627153B2 (ja) * 2017-09-11 2020-01-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6663406B2 (ja) * 2017-10-05 2020-03-11 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Also Published As

Publication number Publication date
JP2019067345A (ja) 2019-04-25
US10591928B2 (en) 2020-03-17
US20190107842A1 (en) 2019-04-11
CN109624974A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
US10726280B2 (en) Traffic signal analysis system
US10489686B2 (en) Object detection for an autonomous vehicle
JP6637400B2 (ja) 車両制御装置
EP3088280A1 (en) Autonomous driving vehicle system
US10783789B2 (en) Lane change estimation device, lane change estimation method, and storage medium
EP3358302B1 (en) Travel control method and travel control device
JP6269566B2 (ja) 誤認識判定装置
US20140320644A1 (en) Determination of a height profile of the surroundings of a vehicle by means of a 3d camera
JP2016192150A (ja) 車両走行制御装置
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
JP6649512B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20160325750A1 (en) Travel control apparatus
KR20200016949A (ko) 자율 주행을 위한 항법 정보의 융합 프레임워크(fusion framework) 및 배치 정렬(batch alignment)
JP2018167699A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
Cerri et al. Computer vision at the Hyundai autonomous challenge
US10591928B2 (en) Vehicle control device, vehicle control method, and computer readable storage medium
EP3282228B1 (en) Dynamic-map constructing method, dynamic-map constructing system and moving terminal
US20190071094A1 (en) Vehicle control system, vehicle control method, and storage medium
JP2019159828A (ja) 車両制御装置、車両制御方法、およびプログラム
WO2018122966A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20190283754A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2018020954A1 (ja) 機械学習用データベース作成システム
JP2018203015A (ja) 車両制御装置、車両制御方法、およびプログラム
JP6627153B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JPWO2018216177A1 (ja) 車両制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200214

R150 Certificate of patent or registration of utility model

Ref document number: 6663406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150