JP7330278B2 - 自動運転制御装置および自動運転制御方法 - Google Patents

自動運転制御装置および自動運転制御方法 Download PDF

Info

Publication number
JP7330278B2
JP7330278B2 JP2021543813A JP2021543813A JP7330278B2 JP 7330278 B2 JP7330278 B2 JP 7330278B2 JP 2021543813 A JP2021543813 A JP 2021543813A JP 2021543813 A JP2021543813 A JP 2021543813A JP 7330278 B2 JP7330278 B2 JP 7330278B2
Authority
JP
Japan
Prior art keywords
unit
information
vehicle
control amount
automatic driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021543813A
Other languages
English (en)
Other versions
JPWO2021044486A1 (ja
Inventor
匠 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021044486A1 publication Critical patent/JPWO2021044486A1/ja
Application granted granted Critical
Publication of JP7330278B2 publication Critical patent/JP7330278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

この発明は、車両の自動運転制御を行う自動運転制御装置および自動運転制御方法に関する。
車両の周辺の情報(以下「車両周辺情報」という。)は、複数のセンサから取得され得る。従来、このような複数のセンサからそれぞれ出力された複数の車両周辺情報を、機械学習済みのモデル(以下「機械学習モデル」という。)に入力することにより、車両の自動運転制御に必要な各種の制御量(以下「自動運転制御量」という。)を推論して出力する技術がある。
ここで、特許文献1には、車両の自動運転制御の実行中に周囲環境を認識するために、複眼カメラが撮影した複数の画像に基づいて生成された周囲環境のマップを用いる制御装置が開示されている。この制御装置は、例えば、複眼カメラを構成する2つの車載カメラのうち、いずれかに機能不全が生じた場合、正常に動作する一方の車載カメラが撮影した画像に基づいて周囲環境を推定する。
特開2019-34664号公報
機械学習モデルを利用して自動運転制御量を推論する上記技術では、複数のセンサのうちのいずれかのセンサから取得される情報の信頼度が低下した場合、自動運転制御量が車両の自動運転制御に適したものではなくなる可能性があるという課題があった。
特許文献1に開示された制御装置は、複数の車載カメラのうちのいずれかに機能不全が生じた場合に、正常に動作する車載カメラが撮影した画像に基づいて周囲環境を推定するものであるが、当該推定は、具体的には、理論的に定められた計算式を利用して行われるものである。これに対し、機械学習モデルは、理論的に定められた計算式を利用して推論を行うものではないため、特許文献1に開示された制御装置における技術を、上記課題の解決手段とすることはできない。
この発明は、上記のような課題を解決するためになされたもので、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデルとに基づいて、自動運転制御量を推論して出力する自動運転制御装置において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両の自動運転制御に適した自動運転制御量を出力することができる自動運転制御装置を提供することを目的とする。
この発明に係る自動運転制御装置は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する情報取得部と、情報取得部が取得した複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部と、情報取得部が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部と、監視部により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、信頼度が低下していると判定された車両周辺情報を除いて自動運転制御量を出力するよう学習済みの機械学習モデルを用いて、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部を制御する制御部を備えたものである。
この発明によれば、複数のセンサからそれぞれ出力された複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態1に係る自動運転制御装置を搭載した車両の構成例を示す図である。 実施の形態1に係る自動運転制御装置の構成例を示す図である。 実施の形態1に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態2に係る自動運転制御装置の構成例を示す図である。 実施の形態2に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態3に係る自動運転制御装置の構成例を示す図である。 実施の形態3において、画素の輝度が異なる撮影画像の一例を説明するための図であって、図7Aは、撮影画像のすべての画素が、当該撮影画像中の物体を十分識別できる輝度を有している場合の撮影画像の一例であり、図7Bは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど暗い画像となるような輝度を有している場合の撮影画像の一例であり、図7Cは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど明るい画像となるような輝度を有している場合の撮影画像の一例である。 実施の形態3に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態4に係る自動運転制御装置の構成例を示す図である。 実施の形態4に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態5に係る自動運転制御装置の構成例を示す図である。 実施の形態5において、通知制御部が通知情報を表示させたディスプレイの画面例を示す図である。 実施の形態5において、通知制御部が通知情報を表示させたディスプレイのその他の画面例を示す図である。 実施の形態6に係る自動運転制御装置の構成例を示す図である。 実施の形態6に係る自動運転制御装置の動作を説明するためのフローチャートである。 図16A,図16Bは、実施の形態1~実施の形態6に係る自動運転制御装置のハードウェア構成の一例を示す図である。 図2を用いて説明した実施の形態1に係る自動運転制御装置がサーバに備えられるようにした自動運転制御システムの構成例を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る自動運転制御装置1を搭載した車両100の構成例を示す図である。
実施の形態1に係る自動運転制御装置1は、人が運転操作を行わなくても自動で走行することが可能な車両100に搭載される装置である。図1に示すように、車両100には、自動運転制御装置1の他、センサ、車両制御部3、および、制御対象機器4が搭載される。
車両100には、車両100周辺の情報を出力する複数のセンサが搭載される。複数のセンサのそれぞれが出力する情報は、車両100周辺に存在する他車両に関する情報、車両100周辺に存在する他車両以外の障害物に関する情報、交通信号の状態に関する情報、車線に関する情報、地形に関する情報、または、道路標識に関する情報等である。車線に関する情報には、例えば、白線または道路標示が含まれる。
実施の形態1では、センサには、カメラ21およびミリ波レーダ22が含まれるものとする。
カメラ21は、車両100よりも前方等、車両100周辺を撮影する。カメラ21は、車両100周辺を撮影した撮影画像を、自動運転制御装置1に出力する。
ミリ波レーダ22は、車両100から、車両100周辺に存在する物体までの距離を計測する。ミリ波レーダ22は、計測した、車両100から物体までの距離に関する情報(以下「距離情報」という。)を、自動運転制御装置1に出力する。自動運転制御装置1は、少なくとも、カメラ21から出力された撮影画像、および、ミリ波レーダ22から出力された距離情報に基づき、車両100の自動運転制御に必要な自動運転制御量を推論する。
実施の形態1において、上述の撮影画像または距離情報のように、センサから出力され、自動運転制御装置1における自動運転制御量の推論に用いられる情報を、総称して、「車両周辺情報」ともいう。車両周辺情報は、自動運転制御装置1において自動運転制御量の推論に用いられる情報であり、車両100周辺に関する様々な情報を含み得る。
実施の形態1では、複数のセンサのうち一部の1または複数のセンサについては、例えば、故障する可能性が、無視できる程度に低く、当該センサから出力される車両周辺情報に実質的に問題は生じないことを前提とする。一方、複数のセンサのうち他の1または複数のセンサについては、例えば、上記一部のセンサと比較して、故障する可能性が高く、当該他のセンサから出力される車両周辺情報にも問題が比較的生じ易いものであることを前提とする。具体的には、実施の形態1に係るセンサに含まれるカメラ21とミリ波レーダ22のうち、カメラ21については、例えば、故障する可能性が、無視できる程度に低く、カメラ21の撮影画像に実質的に問題は生じないことを前提とする。一方、ミリ波レーダ22については、カメラ21と比較して、例えば、故障する可能性が高く、ミリ波レーダ22が出力する距離情報にも問題が比較的生じ易いものであることを前提とする。
実施の形態1では、車両周辺情報は、後述のように、自動運転制御量を推論するための機械学習モデルに対する入力データとして利用される。実施の形態1では、車両100の自動運転制御に適した自動運転制御量を推論するための入力データとして、車両周辺情報が信頼できるものかどうかを示す度合いを、車両周辺情報の「信頼度」という。
自動運転制御装置1は、センサから出力された車両周辺情報に基づき、上記自動運転制御量を推論する。自動運転制御装置1による、自動運転制御量の推論の詳細については、自動運転制御装置1の構成例とともに、後述する。
自動運転制御装置1は、推論した自動運転制御量を、車両100に搭載されている車両制御部3に出力する。
車両制御部3は、自動運転制御装置1から出力された自動運転制御量に基づき、車両100を制御する。具体的には、車両制御部3は、制御対象機器4を制御して、車両100を自動走行させる。制御対象機器4は、車両100に搭載され、車両制御部3による制御に基づき、車両100を自動走行させるために動作する機器である。制御対象機器4は、例えば、アクセル、ブレーキ、ステアリング、ギア、または、ライトである。
自動運転制御装置1が出力する自動運転制御量は、ブレーキ、アクセル、または、ステアリング操作等の各制御対象機器4の具体的な制御量であってもよいし、時系列的な複数の緯度および経度の値からなる走行軌跡の情報であってもよい。自動運転制御量が、走行軌跡の情報である場合、車両制御部3は、当該走行軌跡の通りに車両100が自動走行するよう、各制御対象機器4の具体的な制御量を計算して、計算した制御量に基づき、各制御対象機器4を制御する。
実施の形態1に係る自動運転制御装置1の詳細について説明する。
図2は、実施の形態1に係る自動運転制御装置1の構成例を示す図である。
自動運転制御装置1は、情報取得部11、制御量推論部12、機械学習モデル13、監視部14、および、制御部15を備える。制御量推論部12は、第1制御量推論部121、第2制御量推論部122、および、選択部123を備える。機械学習モデル13は、第1機械学習モデル131および第2機械学習モデル132を備える。
情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12および監視部14に出力する。
制御量推論部12は、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13に基づいて、車両100の自動運転制御量を推論し、当該自動運転制御量を出力する。実施の形態1において、具体的には、制御量推論部12は、推論した自動運転制御量を、制御対象となる制御対象機器4を特定する情報と対応付けて、車両制御部3に出力する。
制御量推論部12の第1制御量推論部121は、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、情報取得部11がカメラ21から取得した撮影画像と、情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。第1機械学習モデル131については、後述する。
第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
制御量推論部12の第2制御量推論部122は、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122は、複数の車両周辺情報のうち、信頼度が低下し得る車両周辺情報以外の車両周辺情報と、第2機械学習モデル132に基づいて第2自動運転制御量を推論する。
上述のように、実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、後述のように、実施の形態1における第2機械学習モデル132は、具体的には、情報取得部11が取得した撮影画像のみを入力として第2自動運転制御量を推論するものである。
第2制御量推論部122は、推論した第2自動運転制御量を選択部123に出力する。
選択部123は、第1自動運転制御量、または、第2自動運転制御量のうち、いずれを出力するかを選択する。実施の形態1において、選択部123は、選択した自動運転制御量を、具体的には、車両制御部3に出力する。
後述のように、制御部15は、監視部14により、複数の車両周辺情報のいずれも信頼度が低下していないと判定された場合、第1自動運転制御量を出力するように、制御量推論部12を制御する。選択部123は、制御量推論部12が制御部15により第1自動運転制御量を出力するように制御された場合に、第1自動運転制御量を選択して出力する。
また、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御する。選択部123は、制御量推論部12が制御部15により第2自動運転制御量を出力するように制御された場合に、第2自動運転制御量を選択して出力する。
機械学習モデル13は、機械学習における学習済みのモデルである。具体的には、機械学習モデル13は、情報取得部11が取得した複数の車両周辺情報が入力されると、車両100の自動運転制御に必要な自動運転制御量を出力するように、予め機械学習が行われたモデルである。機械学習モデル13は、例えば、ニューラルネットワークにより構成される。
実施の形態1において、機械学習モデル13は、第1機械学習モデル131および第2機械学習モデル132を備える。
第1機械学習モデル131は、情報取得部11が取得する複数の車両周辺情報の全部を入力とし、第1自動運転制御量を出力する。実施の形態1では、第1機械学習モデル131は、情報取得部11がカメラ21から取得する撮影画像と、情報取得部11がミリ波レーダ22から取得する距離情報の両方を入力とし、第1自動運転制御量を出力する。
第2機械学習モデル132は、情報取得部11が取得する複数の車両周辺情報の一部を入力とし、第2自動運転制御量を出力する。具体的には、第2機械学習モデル132は、情報取得部11が取得する複数の車両周辺情報のうち、信頼度が低下している車両周辺情報以外の車両周辺情報を入力とした場合に、第2自動運転制御量を出力する。
上述のように、実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、実施の形態1における第2機械学習モデル132は、具体的には、情報取得部11が取得した撮影画像のみを入力として第2自動運転制御量を出力するものである。
実施の形態1では、図2に示すように、機械学習モデル13は、自動運転制御装置1に備えられるものとするが、これは一例に過ぎず、機械学習モデル13は、自動運転制御装置1の外部の、自動運転制御装置1が参照可能な場所に備えられるようにしてもよい。
監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、実施の形態1における監視部14は、情報取得部11がミリ波レーダ22から取得した距離情報の信頼度が低下しているか否かを判定する。
具体的には、監視部14は、カメラ21から取得された撮影画像に基づき、当該撮影画像上に存在するある物体について、車両100から当該物体までの実空間における距離(以下「基準距離」という。)を取得する。また、監視部14は、基準距離と、ミリ波レーダ22から取得された距離情報に基づく車両100から前記物体までの距離との差を算出する。そして、監視部14は、算出された差が予め設定された閾値(以下「レーダ判定用閾値」という。)以下であるか否かを判定する。監視部14は、算出された差がレーダ判定用閾値以下であると判定した場合、距離情報の信頼度は低下していないと判定する。一方、監視部14は、算出された差がレーダ判定用閾値より大きいと判定した場合、距離情報の信頼度は低下していると判定する。なお、監視部14が、カメラ21から取得された撮影画像に基づき基準距離を取得する際の手法としては、既知の任意の手法を採用することができる。具体的な手法としては、例えば、物体が撮影された撮影画像と車両100から当該物体までの実空間における距離の実測値との組を教師データとした学習に基づく学習済みモデルを用いる手法がある。
監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定した結果に関する情報(以下「監視結果情報」という。)を、制御部15に出力する。例えば、監視部14は、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定した場合、車両周辺情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。監視結果情報には、どの車両周辺情報の信頼度が低下しているかを特定するための情報が含まれる。実施の形態1では、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定した場合、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
また、例えば、監視部14は、複数の車両周辺情報のうちいずれの車両周辺情報も信頼度が低下していないと判定した場合、車両周辺情報の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。
制御部15は、監視部14により、複数の車両周辺情報のうちのいずれかの車両周辺情報の信頼度が低下していると判定された場合、信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12を制御する。
具体的には、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御する。制御量推論部12の選択部123は、制御量推論部12が制御部15により第2自動運転制御量を出力するように制御された場合、第2自動運転制御量を選択して出力する。
一方、制御部15は、監視部14により、複数の車両周辺情報のうちいずれの車両周辺情報も信頼度は低下していないと判定された場合、第1自動運転制御量を出力するように、制御量推論部12を制御する。制御量推論部12の選択部123は、制御量推論部12が制御部15により第1自動運転制御量を出力するように制御された場合、第1自動運転制御量を選択して出力する。
実施の形態1に係る自動運転制御装置1の動作について説明する。
図3は、実施の形態1に係る自動運転制御装置1の動作を説明するためのフローチャートである。
情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を取得する(ステップST301)。情報取得部11は、取得した車両周辺情報を、制御量推論部12および監視部14に出力する。
制御量推論部12の第1制御量推論部121は、ステップST301にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST302)。
第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
制御量推論部12の第2制御量推論部122は、ステップST301にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像のみを入力として第2自動運転制御量を推論する(ステップST303)。
第2制御量推論部122は、推論した第2自動運転制御量を選択部123に出力する。
監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。具体的には、まず、監視部14は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像に基づき、当該撮影画像上に存在するある物体について、基準距離を取得する(ステップST304)。
そして、監視部14は、ステップST304にて取得した基準距離と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく、車両100から当該物体までの距離との差を算出し、算出された差がレーダ判定用閾値以下であるか否かを判定する(ステップST305)。
ステップST305において、算出された差がレーダ判定用閾値より大きいと判定した場合(ステップST305の“NO”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST303にて第2制御量推論部122が推論した第2自動運転制御量を出力するよう、制御量推論部12を制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST306)。
ステップST305において、算出された差がレーダ判定用閾値以下であると判定した場合(ステップST305の“YES”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定し、距離情報の信頼度が低下していない旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST302にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12を制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST307)。
ステップST306またはステップST307の動作を行うと、自動運転制御装置1の動作は、ステップST301に戻り、以降の動作を繰り返す。
以上で説明した動作について、ステップST302にて第1自動運転制御量を推論する際、第1制御量推論部121は、直前のステップST301にて情報取得部11が取得した撮影画像および距離情報を用いることを必須としない。例えば、情報取得部11は、取得した車両周辺情報を記憶部(図示省略)に記憶させておくようにし、第1制御量推論部121は、記憶部に記憶されている、直前のステップST301以前に情報取得部11が取得した撮影画像および距離情報を用いて第1自動運転制御量を推論するようにしてもよい。
また、ステップST303にて第2自動運転制御量を推論する際、第2制御量推論部122は、直前のステップST301にて情報取得部11が取得した撮影画像を用いることを必須としない。例えば、第2制御量推論部122は、記憶部に記憶されている、直前のステップST301以前に情報取得部11が取得した撮影画像を用いて第2自動運転制御量を推論するようにしてもよい。
以上のように、実施の形態1に係る自動運転制御装置1は、ミリ波レーダ22から出力される距離情報の信頼度が低下したか否かを判定し、距離情報の信頼度が低下したと判定した場合は、自動運転制御量の推論を、ミリ波レーダ22から出力される距離情報を用いず、継続実施することができる。
なお、自動運転制御装置1は、ミリ波レーダ22から取得した距離情報の信頼度が低下したと判定した場合でも、車両100の自動運転を継続させることはできるが、自動運転の水準は低下する可能性がある。つまり、第2制御量推論部122は、第1制御量推論部121よりも、自動運転制御量の推論に用いる車両周辺情報の数が少ないため、推論の水準の差が生じ得る。
具体的には、例えば、第1制御量推論部121は、混雑時の車線変更等の複雑な制御を行うための自動運転制御量を推論できるのに対し、第2制御量推論部122は、走行中の車線をキープする走行を行うための自動運転制御量の推論しかできないというような、推論の水準の差が生じ得る。
しかしながら、ミリ波レーダ22から出力される距離情報の信頼度が低下し得ることが考慮されていない場合、具体的には、仮に、自動運転制御装置1が、第1制御量推論部121しか備えないような構成である場合、距離情報の信頼度が低下すると、自動運転が正常に継続できなくなる可能性が高い。これに対し、実施の形態1に係る自動運転制御装置1は、第2制御量推論部122を備え、第2制御量推論部122がカメラ21から取得した撮影画像と第2機械学習モデル132とに基づいて、第2自動運転制御量を推論できるようにした。そして、ミリ波レーダ22から出力される距離情報の信頼度が低下した場合には、第2制御量推論部122が推論した第2自動運転制御量を用いて、車両100の自動運転が制御されるようにした。その結果、複数のセンサから取得した複数の車両周辺情報のうち、いずれかの車両周辺情報の信頼度が低下した場合でも、比較的低い水準ではあるが車両100の自動運転を継続することができる。
以上の実施の形態1では、自動運転制御装置1は、監視部14が、距離情報の信頼度が低下したか否かを判定する(図3のステップST305参照)よりも前に、第1制御量推論部121および第2制御量推論部122が、それぞれ、第1自動運転制御量および第2自動運転制御量の推論を行っているものとした(図3のステップST302およびステップST303参照)。しかし、これは一例に過ぎず、第1制御量推論部121または第2制御量推論部122は、監視部14による、距離情報の信頼度が低下したか否かの判定を受けて、自動運転制御量の推論を行うようにしてもよい。具体的には、例えば、監視部14により距離情報の信頼度が低下したと判定されると、制御部15は、第2自動運転制御量を出力するように制御量推論部12を制御する。制御量推論部12が制御部15から第2自動運転制御量を出力するように制御された場合に、第2制御量推論部122は、第2自動運転制御量を推論する。一方、監視部14が、距離情報の信頼度が低下していないと判定すると、制御部15は、第1自動運転制御量を出力するように制御量推論部12を制御する。制御量推論部12が制御部15から第1自動運転制御量を出力するように制御された場合に、第1制御量推論部121は、第1自動運転制御量を推論する。制御量推論部12は、制御部15の制御に基づいて、第1制御量推論部121が推論した第1自動運転制御量または第2制御量推論部122が推論した第2自動運転制御量を、車両制御部3に出力するようにする。このような構成とする場合、自動運転制御装置1は、選択部123を備えないようにすることができる。
また、以上の実施の形態1では、複数の車両周辺情報は撮影画像と距離情報の2つであり、かつ、距離情報のみ比較的問題が生じやすいことを前提としているため、複数の車両周辺情報のうちいずれかの信頼度が低下した場合の機械学習モデルとしては、撮影画像を入力とする第2機械学習モデル132のみが備えられているものとした。しかし、複数の車両周辺情報のうち、信頼度が低下する可能性を考慮すべき車両周辺情報が複数存在する場合もある。この場合、当該信頼度が低下する可能性を考慮すべき複数の車両周辺情報のいずれか一つを除いた車両周辺情報を入力として推論を行う第2機械学習モデル、および、当該信頼度が低下する可能性を考慮すべき複数の車両周辺情報の任意の複数の組合せを除いた車両周辺情報を入力として推論を行う第2機械学習モデルを備えるものとする。
以上のように、実施の形態1によれば、自動運転制御装置1は、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13とに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12と、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14と、監視部14により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12を制御する制御部15を備えるように構成した。
そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
より詳細には、実施の形態1に係る自動運転制御装置1において、制御量推論部12は、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき第2自動運転制御量を推論する第2制御量推論部122とを含み、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態2.
実施の形態1では、複数のセンサのうち一部の1または複数のセンサから出力される車両周辺情報に実質的に問題は生じることはない一方、複数のセンサのうち他の1または複数のセンサから出力される車両周辺情報には、問題が比較的生じ易いものであることを前提とした。具体的には、実施の形態1においてセンサに含まれるカメラ21とミリ波レーダ22のうち、カメラ21から出力される撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22から出力される距離情報については、問題が比較的生じ易いことを前提とした。
実施の形態2では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定する。そして、複数のセンサはいずれも、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とし、当該撮影画像の信頼度が低下した場合であっても、自動運転制御装置1が、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明する。
実施の形態2に係る自動運転制御装置1aは、実施の形態1に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
実施の形態2では、後述する図4に示すとおり、センサは、カメラ21、および、ミリ波レーダ22である。上述のとおり、実施の形態2においては、カメラ21もミリ波レーダ22も、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とする。
自動運転制御装置1aは、実施の形態1同様、カメラ21から出力される撮影画像、および、ミリ波レーダ22から出力される距離情報を、車両周辺情報として取得する。また、実施の形態2では、車両100にGNSS(Global Navigation Satellite System)23が搭載されており、自動運転制御装置1aは、GNSS23から出力される車両100の現在位置に関する情報を、撮影画像の信頼度が低下しているか否かを判定するための情報として取得する。
図4は、実施の形態2に係る自動運転制御装置1aの構成例を示す図である。
実施の形態2に係る自動運転制御装置1aについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成には、同じ符号を付して重複した説明を省略する。実施の形態2に係る自動運転制御装置1aの構成は、実施の形態1に係る自動運転制御装置1の構成とは、気象判定部16を備える点が異なる。また、制御量推論部12aの第2制御量推論部122a、および、監視部14aの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
上述のとおり、実施の形態2では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態2に係る第2機械学習モデル132aは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122aは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する。
情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12a、および、監視部14aに出力する。
気象判定部16は、GNSS23から車両100の現在位置に関する情報を取得する。また、気象判定部16は、インターネット等のネットワークを介して、後述のクラウド気象サーバ5から気象情報を取得する。気象判定部16は、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報とに基づき、車両100周辺の気象を判定する。気象判定部16は、例えば、車両100周辺に霧または降水があるか否かを判定する。
ここで、気象判定部16が判定する、霧がある状態または降水がある状態とは、カメラ21から出力された撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、濃霧の状態または激しい降水の状態である。カメラ21自体が故障していない場合でも、車両100の周辺に濃霧または激しい降水がある場合、カメラ21から出力された撮影画像には、車両100の周辺に存在する他車両等が明確には撮影されていないことがあるため、このような撮影画像は、自動運転制御量の推論に適さないものとなる。
なお、気象判定部16が、霧または降水があるか否かを判定する対象となる、車両100周辺とは、例えば、車両100の現在地を中心とした周囲1km以内というように、予め決められているものとする。
クラウド気象サーバ5は、気象状況に関する情報を配信するサーバである。
気象判定部16は、判定した、車両100周辺の気象に関する情報を、監視部14aに出力する。
監視部14aは、気象判定部16から出力された気象に関する情報に基づき、カメラ21から出力された撮影画像の信頼度が低下しているか否かを判定する。
具体的には、監視部14aは、例えば、気象判定部16が車両100周辺に霧または降水があると判定した場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。
実施の形態2に係る自動運転制御装置1aの動作について説明する。
図5は、実施の形態2に係る自動運転制御装置1aの動作を説明するためのフローチャートである。
情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。また、気象判定部16は、GNSS23から車両100の現在位置に関する情報を取得する(ステップST501)。情報取得部11は、取得した車両周辺情報を、制御量推論部12aおよび監視部14aに出力する。
制御量推論部12aの第1制御量推論部121は、ステップST501にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST501にて情報取得部11がカメラ21から取得した撮影画像と、ステップST501にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST502)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
制御量推論部12aの第2制御量推論部122aは、ステップST501にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122aは、ステップST501にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する(ステップST503)。
第2制御量推論部122aは、推論した第2自動運転制御量を選択部123に出力する。
気象判定部16は、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報に基づき、車両100周辺の気象を判定する(ステップST504)。気象判定部16は、判定した、車両100周辺の気象に関する情報を、監視部14aに出力する。
監視部14aは、ステップST504にて気象判定部16から出力された気象に関する情報に基づき、カメラ21から得られた撮影画像の信頼度が低下しているか否かを判定する。
具体的には、監視部14aは、気象判定部16から出力された気象に関する情報に基づき、例えば、車両100周辺に霧または降水があるか否かを判定する(ステップST505)。
ステップST505にて、車両100周辺に霧も降水もないと判定した場合(ステップST505の“NO”の場合)、監視部14aは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST502にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12aを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST506)。
ステップST505において、車両100周辺に霧または降水があると判定した場合(ステップST505の“YES”の場合)、監視部14aは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST503にて第2制御量推論部122aが推論した第2自動運転制御量を出力するよう、制御量推論部12aを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST507)。
ステップST506またはステップST507の動作を行うと、自動運転制御装置1aの動作は、ステップST501に戻り、以降の動作を繰り返す。
以上で説明した動作について、気象判定部16が、GNSS23から車両100の現在位置に関する情報を取得する処理(図5のステップST501参照)、および、気象判定部16が、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報に基づき、車両100周辺の気象を判定する処理(図5のステップST504、ステップST505参照)は、必ずしも毎回行わなくてもよい。例えば、以上で説明したステップST501~ステップST507の処理を行う間に、1分に1回だけ、行うようにしてもよい。気象判定部16が、車両100の位置情報と気象情報に基づき、車両100周辺の気象を判定する処理を毎回行わない場合は、気象判定部16は、クラウド気象サーバ5から取得した、最新の気象情報に基づき、車両100周辺の気象を判定する。
以上のように、実施の形態2に係る自動運転制御装置1aは、カメラ21から出力された撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、濃霧の状態または激しい降水の状態となるような気象状況下において、カメラ21が撮影した撮影画像の信頼度が低下していることを判定する。自動運転制御装置1aは、撮影画像の信頼度が低下していると判定した場合は、自動運転制御量の推論を、カメラ21から出力される撮影画像を用いず、継続実施することができる。
なお、実施の形態2では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
ただし、カメラ21以外のセンサとしては、カメラ21から出力される撮影画像の信頼度が低下する気象条件において、当該センサから出力される車両周辺情報の信頼度が低下しないセンサが用いられることが必要である。
また、以上の実施の形態2では、自動運転制御装置1aは、監視部14aが、撮影画像の信頼度が低下したか否かを判定する(図5のステップST505参照)よりも前に、第1制御量推論部121および第2制御量推論部122aが、それぞれ、第1自動運転制御量および第2自動運転制御量の推論を行っているものとした(図5のステップST502およびステップST503参照)。しかし、これは一例に過ぎず、第1制御量推論部121または第2制御量推論部122aは、監視部14aによる、撮影画像の信頼度が低下したか否かの判定を受けて、自動運転制御量の推論を行うようにしてもよい。具体的には、例えば、監視部14aにより撮影画像の信頼度が低下したと判定されると、制御部15は、第2自動運転制御量を出力するように制御量推論部12aを制御する。制御量推論部12aが制御部15から第2自動運転制御量を出力するように制御された場合に、第2制御量推論部122aは、第2自動運転制御量を推論する。一方、監視部14aが、撮影画像の信頼度が低下していないと判定すると、制御部15は、第1自動運転制御量を出力するように制御量推論部12aを制御する。制御量推論部12aが制御部15から第1自動運転制御量を出力するように制御された場合に、第1制御量推論部121は、第1自動運転制御量を推論する。制御量推論部12aは、制御部15の制御に基づいて、第1制御量推論部121が推論した第1自動運転制御量または第2制御量推論部122aが推論した第2自動運転制御量を、車両制御部3に出力するようにする。このような構成とする場合、自動運転制御装置1aは、選択部123を備えないようにすることができる。
以上のように、実施の形態2によれば、自動運転制御装置1aは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13aとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12aと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14aと、監視部14aにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12aを制御する制御部15を備えるように構成した。
そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13aとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1aにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
より詳細には、実施の形態2に係る自動運転制御装置1aにおいて、制御量推論部12aは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132aとに基づき第2自動運転制御量を推論する第2制御量推論部122aとを含み、制御部15は、監視部14aにより、複数の車両周辺情報のうち、第2機械学習モデル132aに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12aを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13aとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1aにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態3.
実施の形態2では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定した。そして、複数のセンサはいずれも、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とした。そして、自動運転制御装置1aが、車両100周辺の気象に基づいて、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定し、当該撮影画像の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明した。
実施の形態3では、自動運転制御装置1bが、実施の形態2とは異なる方法で、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定する実施の形態について説明する。
実施の形態3に係る自動運転制御装置1bは、実施の形態1に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
実施の形態3では、後述する図6に示すとおり、センサは、カメラ21、および、ミリ波レーダ22である。上述のとおり、実施の形態3においては、カメラ21もミリ波レーダ22も、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。
図6は、実施の形態3に係る自動運転制御装置1bの構成例を示す図である。
実施の形態3に係る自動運転制御装置1bについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態3に係る自動運転制御装置1bにおいて、制御量推論部12bの第2制御量推論部122b、および、監視部14bの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
上述のとおり、実施の形態3では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態3に係る第2機械学習モデル132bは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122bは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する。
監視部14bは、情報取得部11が取得した撮影画像の輝度に基づき、当該撮影画像の信頼度が低下しているか否かを判定する。
具体的には、監視部14bは、例えば、情報取得部11が取得した撮影画像の各画素の輝度の最大値が、予め設定された閾値(以下「輝度判定用閾値」という。)以下である場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。輝度判定用閾値には、例えば、撮影画像のすべての画素が当該輝度判定用閾値以下の輝度となった場合に、撮影画像全体が物体を識別できないほど暗い画像となるような輝度の値が、予め設定されている。
ここで、図7は、実施の形態3において、画素の輝度が異なる撮影画像の一例を説明するための図である。図7Aは、撮影画像のすべての画素が、当該撮影画像中の物体を十分識別できる輝度を有している場合の撮影画像の一例であり、図7Bは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど暗い画像となるような輝度を有している場合の撮影画像の一例であり、図7Cは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど明るい画像となるような輝度を有している場合の撮影画像の一例である。
例えば、撮影画像において、真っ黒な画素の輝度を「0」、真っ白な画素の輝度を「255」とした場合、輝度判定用閾値には「5」が設定される。
なお、図7Cに示すように、撮影画像が明るすぎても、撮影画像中の物体を認識できない。よって、例えば、輝度判定用閾値には、撮影画像のすべての画素が当該輝度判定用閾値以上の輝度となった場合に、撮影画像全体が物体を識別できないほど明るい画像となるような輝度の値が、予め設定されているようにしてもよい。この場合、監視部14bは、情報取得部11が取得した撮影画像の各画素の輝度の最小値が、輝度判定用閾値以上である場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。例えば、撮影画像にいて、真っ黒な画素の輝度を「0」、真っ白な画素の輝度を「255」とした場合、輝度判定用閾値には「250」が設定される。
実施の形態3に係る自動運転制御装置1bの動作について説明する。
図8は、実施の形態3に係る自動運転制御装置1bの動作を説明するためのフローチャートである。
情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する(ステップST801)。情報取得部11は、取得した車両周辺情報を、制御量推論部12bおよび監視部14bに出力する。
制御量推論部12bの第1制御量推論部121は、ステップST801にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST801にて情報取得部11がカメラ21から取得した撮影画像と、ステップST801にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST802)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
制御量推論部12の第2制御量推論部122bは、ステップST801にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122bは、ステップST801にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する(ステップST803)。第2制御量推論部122bは、推論した第2自動運転制御量を選択部123に出力する。
監視部14bは、情報取得部11が取得した複数の車両周辺情報について、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。具体的には、まず、監視部14bは、ステップST801にて情報取得部11がカメラ21から取得した撮影画像を取得する(ステップST804)。
そして、監視部14bは、ステップST804にて取得した撮影画像の各画素の輝度の最大値が輝度判定用閾値以下であるか否かを判定する(ステップST805)。
ステップST805において、撮影画像中の画素の輝度の最大値が輝度判定用閾値より大きいと判定した場合(ステップST805の“NO”の場合)、監視部14bは、カメラ21から取得された撮影画像の信頼度が低下していないと判定し、撮影画像の信頼度が低下していない旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST802にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12bを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST806)。
ステップST805において、画像中の画素の輝度の最大値が輝度判定用閾値以下であると判定した場合(ステップST805の“YES”の場合)、監視部14bは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST803にて第2制御量推論部122bが推論した第2自動運転制御量を出力するよう、制御量推論部12bを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST807)。
ステップST806またはステップST807の動作を行うと、自動運転制御装置1bの動作は、ステップST801に戻り、以降の動作を繰り返す。
以上のように、実施の形態3に係る自動運転制御装置1bは、カメラ21から出力された撮影画像が、当該撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、撮影画像中の物体を認識できない輝度を有する撮影画像である場合に、カメラ21が撮影した撮影画像の信頼度が低下していることを判定する。自動運転制御装置1bは、撮影画像の信頼度が低下していると判定した場合、撮影画像を用いずに、自動運転制御量の推論を継続実施することができる。撮影画像中の物体を認識できない輝度を有する撮影画像とは、例えば、真っ暗闇な状況、カメラ21の露出補正機能が不調な状況、または、カメラ21の前に遮蔽物があって撮影できない状況で撮影された撮影画像をいう。このような状況下では、自動運転制御装置1bがカメラ21から取得する撮影像は、例えば、撮影画像中の物体を認識できないほど暗い画像、または、撮影画像中の物体を認識できないほど明るい画像となる。
なお、実施の形態3では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
以上のように、実施の形態3によれば、自動運転制御装置1bは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13bとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12bと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14bと、監視部14bにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12bを制御する制御部15を備えるように構成した。
そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13bとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1bにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
より詳細には、実施の形態3に係る自動運転制御装置1bにおいて、制御量推論部12bは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132bとに基づき第2自動運転制御量を推論する第2制御量推論部122bとを含み、制御部15は、監視部14bにより、複数の車両周辺情報のうち、第2機械学習モデル132bに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12bを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13bとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1bにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態4.
実施の形態2および実施の形態3では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定し、複数のセンサはいずれも、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とした。そして、自動運転制御装置1a、1bが、車両100周辺の気象または撮影画像の画素の輝度に基づいて、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定し、当該撮影画像の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明した。
実施の形態4では、自動運転制御装置1cが、実施の形態2および実施の形態3とは異なる方法で、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定する実施の形態について説明する。
実施の形態4に係る自動運転制御装置1cは、実施の形態1~実施の形態3に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
実施の形態4では、後述の図9に示すように、センサは、カメラ21、ミリ波レーダ22である。実施の形態4でも、実施の形態2および実施の形態3同様、カメラ21もミリ波レーダ22も、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。
自動運転制御装置1cは、実施の形態1~3同様、カメラ21から出力される撮影画像、および、ミリ波レーダ22から出力される距離情報を、車両周辺情報として取得する。また、実施の形態4では、自動運転制御装置1cは、車両走行センサ24から出力される、車両100が走行しているか否かを判定するための情報(以下「車両走行情報」という。)を取得する。実施の形態4において、「車両100が走行している」とは、「車両100が移動している」ことと同義である。「車両100が移動している」とは、「車両100の速度が「0」でない」ことと同義である。
車両走行センサ24は、車両走行情報を出力する。車両走行センサ24は、車両100が走行しているか否かを判断できる情報が出力されるものであればよく、車両走行センサ24は、例えば、車輪の回転数を取得するセンサであってもよいし、車両100の現在位置に関する情報を取得するGNSS等であってもよい。
なお、車両100が走行しているか否かの判定は、後述する走行判定部17が、車両走行センサ24から出力された車両走行情報に基づいて行う。
図9は、実施の形態4に係る自動運転制御装置1cの構成例を示す図である。
実施の形態4に係る自動運転制御装置1cについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態4に係る自動運転制御装置1cの構成は、実施の形態1に係る自動運転制御装置1の構成とは、走行判定部17を備える点が異なる。また、実施の形態4に係る自動運転制御装置1cにおいて、制御量推論部12cの第2制御量推論部122c、および、監視部14cの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
上述のとおり、実施の形態4では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態4に係る第2機械学習モデル132cは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122cは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する。
情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12c、および、監視部14cに出力する。
走行判定部17は、車両走行センサ24から取得した車両走行情報に基づき、車両100が走行中であるか否かを判定する。
走行判定部17は、判定した、車両100が走行中であるか否かの情報を、監視部14cに出力する。
監視部14cは、走行判定部17から取得した、車両100が走行中であるか否かの情報と、情報取得部11から取得した撮影画像とに基づき、撮影画像の信頼度が低下しているか否かを判定する。具体的には、監視部14cは、車両100が走行中であり、かつ、カメラ21から取得した撮影画像で撮影されている車両100周辺の風景が変化していないかどうかを判定する。監視部14cは、情報取得部11から取得した撮影画像と、記憶部に蓄積されている撮影画像とに基づき、撮影画像で撮影されている風景が変化していないかどうかを判定する。例えば、監視部14cは、情報取得部11から取得した撮影画像(「第1撮影画像」とする。)と、直近に記憶部に記憶された撮影画像(「第2撮影画像」とする。)とを画素単位で比較し、比較の結果、予め設定された比較条件を満たした場合、第1撮影画像で撮影されている風景に変化がないと判定する。予め設定された比較条件とは、例えば、第1撮影画像および第2撮影画像の各画素の画素値の差の絶対値の平均が、予め設定された閾値以下であること、である。なお、これは一例に過ぎず、比較条件には、第1撮影画像と第2撮影画像が同一であると判定できるような条件が設定されていればよい。実施の形態4において、第1撮影画像と第2撮影画像とが同一である、とは、完全に同一であることに限らず、ほぼ同一であることも含む。
監視部14cは、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していない場合、撮影画像の信頼度が低下していると判定する。
車両100が走行中である場合、撮影画像で撮影されている風景は、変化すると想定される。したがって、車両100が走行中であるにもかかわらず、撮影画像で撮影されている風景に変化がないということは、撮影画像の信頼度が低下していることを意味する。
なお、実施の形態4では、自動運転制御装置1cにおいて、情報取得部11は、カメラ21から取得した撮影画像を、記憶部に蓄積させているものとする。監視部14cは、情報取得部11から取得した撮影画像と、記憶部に蓄積されている撮影画像とに基づき、撮影画像で撮影されている風景に変化がないかどうかを判定する。
実施の形態4に係る自動運転制御装置1cの動作について説明する。
図10は、実施の形態4に係る自動運転制御装置1cの動作を説明するためのフローチャートである。
情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。また、走行判定部17は、車両走行センサ24から車両走行情報を取得する(ステップST1001)。情報取得部11は、取得した車両周辺情報を、制御量推論部12cおよび監視部14cに出力する。
制御量推論部12cの第1制御量推論部121は、ステップST1001にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST1001にて情報取得部11がカメラ21から取得した撮影画像と、ステップST1001にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST1002)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
制御量推論部12cの第2制御量推論部122cは、ステップST1001にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122cは、ステップST1001にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する(ステップST1003)。
第2制御量推論部122cは、推論した第2自動運転制御量を選択部123に出力する。
走行判定部17は、車両走行センサ24から取得した車両走行情報に基づき、車両100が走行中であるか否かを判定する(ステップST1004)。走行判定部17は、判定した、車両100が走行中であるか否かの情報を、監視部14cに出力する。
監視部14cは、過去にカメラ21から取得した撮影画像が、記憶部に蓄積されているか否かを判定する(ステップST1005)。
ステップST1005において、撮影画像が記憶部に蓄積されていないと判定された場合(ステップST1005の“NO”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。自動運転制御装置1cの動作は、ステップST1007に進む。
ステップST1005において、撮影画像が記憶部に蓄積されていると判定された場合(ステップST1005の“YES”の場合)、監視部14cは、ステップST1001にて情報取得部11から出力された撮影画像、および、ステップST1004にて走行判定部17から出力された、車両100が走行中であるか否かの情報に基づき、撮影画像の信頼度が低下しているか否かを判定する。具体的には、監視部14cは、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していないかどうかを判定する(ステップST1006)。
ステップST1006において、監視部14cが、車両100は走行中ではないと判定した場合、または、撮影画像で撮影されている車両100周辺の風景が変化していると判定した場合(ステップST1006の“NO”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。自動運転制御装置1cの動作は、ステップST1007に進む。
ステップST1007にて、制御部15は、ステップST1002にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12cを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST1007)。
一方、ステップST1006において、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していないと判定した場合(ステップST1006の“YES”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST1003にて第2制御量推論部122cが推論した第2自動運転制御量を出力するよう、制御量推論部12cを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST1008)。
ステップST1007またはステップST1008の動作を行うと、自動運転制御装置1cの動作は、ステップST1001に戻り、以降の動作を繰り返す。
以上のように、実施の形態4に係る自動運転制御装置1cは、自動運転制御量を正しく推論できないような、走行する車両100における車両周辺状況を適切に撮影できていない撮影画像しか取得できないような状況である場合、カメラ21から取得された撮影画像の信頼度が低下していると判定する。自動運転制御装置1cは、撮影画像の信頼度が低下していると判定した場合、自動運転制御量の推論を、カメラ21から出力される撮影画像を用いず、継続実施することができる。
なお、実施の形態4では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
以上のように、実施の形態4によれば、自動運転制御装置1cは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13cとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12cと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14cと、監視部14cにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12cを制御する制御部15を備えるように構成した。
そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13cとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1cにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
より詳細には、実施の形態4に係る自動運転制御装置1cにおいて、制御量推論部12cは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132cとに基づき第2自動運転制御量を推論する第2制御量推論部122cとを含み、制御部15は、監視部14cにより、複数の車両周辺情報のうち、第2機械学習モデル132cに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12cを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13cとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1cにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態5.
実施の形態1に係る自動運転制御装置1において、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを示す情報を、自動運転制御装置1の外部に出力するようにすることもできる。
実施の形態5では、自動運転制御装置1が、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを示す情報を、自動運転制御装置1の外部に出力する実施の形態について説明する。
図11は、実施の形態5に係る自動運転制御装置1dの構成例を示す図である。
実施の形態5に係る自動運転制御装置1dについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態5に係る自動運転制御装置1dの構成は、実施の形態1に係る自動運転制御装置1の構成とは、通知制御部18を備えた点が異なる。
通知制御部18は、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。具体的には、通知制御部18は、監視部14により距離情報の信頼度が低下していると判定され、制御部15が第2自動運転制御量を出力するよう制御量推論部12を制御した場合に、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す通知情報を出力する。通知制御部18は、通知情報を、自動運転制御装置1dとネットワークを介して接続されている出力装置(図示省略)に出力する。出力装置は、例えば、車両100に搭載されているカーナビゲーションシステムが備えるディスプレイである。通知制御部18は、ディスプレイに、通知情報を表示させる。
実施の形態では、制御部15は、監視部14により、複数車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するよう制御するとともに、車両周辺情報の信頼度が低下していることを示す情報を、通知制御部18に出力する。
ここで、図12および図13は、実施の形態5において、通知制御部18が通知情報を表示させたディスプレイの画面例を示す図である。
通知制御部18は、例えば、図12に示すように、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す情報として、ディスプレイに、「ミリ波レーダが使用できません」とのメッセージを表示させる(図12の1201参照)。このように、距離情報の信頼度が低下していることを示す情報には、例えば、信頼度が低下している車両周辺情報を出力するセンサが使用不可である旨のメッセージが含まれる。
また、通知制御部18は、例えば、図13に示すように、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す情報として、ディスプレイに、「現在車線変更機能は使用できません」とのメッセージを表示させる(図13の1301参照)。このように、距離情報の信頼度が低下していることを示す情報には、例えば、信頼度が低下していると判断された車両周辺情報があることによって車両100の自動運転制御に使用できない機能を通知するメッセージが含まれる。例えば、車両100の自動運転の制御においてミリ波レーダ22から出力される距離情報が使用できない場合、車線変更を行うことができない。
実施の形態5に係る自動運転制御装置1dの動作について説明する。
自動運転制御装置1dの動作は、実施の形態1において図3を用いて説明した動作と、基本的には同じであるため、フローチャートの図示は省略する。
ステップST305において、ステップST304にて取得した基準距離と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく、車両100から当該物体までの距離との差がレーダ判定用閾値より大きいと判定した場合(ステップST305の“NO”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
制御部15は、ステップST303にて第2制御量推論部122が推論した第2自動運転制御量を出力するよう、制御量推論部12を制御するとともに、車両周辺情報の信頼度が低下していることを示す情報を、通知制御部18に出力する。通知制御部18は、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。
このように、実施の形態5に係る自動運転制御装置1dは、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、通知制御部18が、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。これにより、自動運転制御装置1dは、車両100の運転者等に対して、一部の車両周辺情報の信頼度が低下していることを知らせることができる。運転者等は、一部の車両周辺情報の信頼度が低下していることを確認すると、例えば、ミリ波レーダ22のアンテナが汚れていないか確認し、当該アンテナが汚れていれば、掃除を行う。または、運転者等は、ミリ波レーダ22の修理を行う。
また、実施の形態5に係る自動運転制御装置1dにおいて、通知制御部18が、例えば、図13に示すような通知情報を出力する場合、推論できる自動運転の機能が変更になったことを運転者等に通知することができる。これにより、自動運転制御装置1dは、運転者等に対して、期待していた自動運転の機能を使用できないことを把握させ、運転者等による、期待していた自動運転の機能が使用できないことへの混乱を防ぐことができる。なお、上述のとおり、通知制御部18は、図12に示すような通知情報を出力することも可能であるが、図13に示すように、自動運転の制御における機能低下を通知したほうが、運転者等は、自動運転のどの機能が使用できないかを具体的に把握することができる。
以上の実施の形態5では、一例として、通知制御部18が通知情報を出力する出力装置は、カーナビゲーションシステムが備えるディスプレイとしたが、これは一例に過ぎない。例えば、通知制御部18が通知情報を出力する出力装置は、インストルメントパネルとし、通知制御部18は、通知情報を、メッセージまたはアイコン等で表示させるようにしてもよい。また、通知制御部18は、通知情報を表示させることに限らず、音声にて出力するようにしてもよい。具体的には、例えば、出力装置をスピーカ等の音声出力装置とし、通知制御部18は、通知情報を、音声出力装置から出力するようにしてもよい。通知制御部18は、通知情報を、自動音声で出力するようにしてもよいし、単にブザー音として出力するようにしてもよい。また、通知制御部18は、通知情報を、メッセージとしてディスプレイに表示させるとともに、音声またはブザー音として出力させるようにしてもよい。
また、以上で説明した実施の形態5に係る自動運転制御装置1dの構成を、上述の実施の形態2~4に適用してもよい。すなわち、実施の形態2に係る自動運転制御装置1a、実施の形態3に係る自動運転制御装置1b、または、実施の形態4に係る自動運転制御装置1cにおいて、通知制御部18を備えるようにし、通知制御部18は、カメラ21から取得した撮影画像の信頼度が低下していることを示す情報を出力するようにすることもできる。
以上のように、実施の形態5によれば、自動運転制御装置1dは、実施の形態1に係る自動運転制御装置1の構成に加え、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する通知制御部18を備えるように構成した。そのため、自動運転制御装置1dは、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを、運転者等に通知することができる。
実施の形態6.
実施の形態1~5に係る自動運転制御装置1~1dは、複数のセンサから出力された複数の車両周辺情報について、信頼度が低下している車両周辺情報がない場合には第1機械学習モデル131を用い、信頼度が低下している車両周辺情報がある場合には第2機械学習モデル132,132a~132cを用いるものであった。
しかし、これらは一例に過ぎず、自動運転制御装置は、複数のセンサから出力された複数の車両周辺情報について、信頼度が低下している車両周辺情報がない場合にも、信頼度が低下している車両周辺情報がある場合にも、同じ1つの機械学習モデル13を用いるものとすることも可能である。実施の形態6では、自動運転制御装置が、上記2つ場合のいずれでも、同じ1つの機械学習モデルを用いる実施の形態について説明する。
図14は、実施の形態6に係る自動運転制御装置1eの構成例を示す図である。
なお、ここでは、一例として、実施の形態6に係る自動運転制御装置1eの構成および動作を、実施の形態1に係る自動運転制御装置1の構成および動作の一部が変更されたものとして説明する。しかし、実施の形態6に係る自動運転制御装置1eの構成および動作を、実施の形態2~5に係る自動運転制御装置1a~1dのいずれかの構成および動作を一部変更することで実現することもできる。
実施の形態6に係る自動運転制御装置1eについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態6に係る自動運転制御装置1eの構成は、実施の形態1に係る自動運転制御装置1の構成とは、制御量推論部12eが、第1制御量推論部121、第2制御量推論部122、および、選択部123を備えず、機械学習モデル13eが、第1機械学習モデル131および第2機械学習モデル132を備えない点が異なる。
また、実施の形態6に係る自動運転制御装置1eは、実施の形態1に係る自動運転制御装置1とは、制御部15eの動作が異なる。
制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部に、監視部14による信頼度の判定結果に基づく情報有効フラグを付与する。情報有効フラグは、各車両周辺情報が、有効か無効かを示す情報である。つまり、ある車両周辺情報の信頼度が低下していない場合は、当該車両周辺情報が有効であることを示す情報有効フラグが付与される。また、ある車両周辺情報の信頼度が低下している場合は、当該車両周辺情報が無効であることを示す情報有効フラグが付与される。
実施の形態6では、後述の図14に示すように、センサは、実施の形態1のセンサと同様に、カメラ21、ミリ波レーダ22である。また、実施の形態6では、実施の形態1の前提と同様に、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。
したがって、制御部15eは、具体的には、監視部14により、ミリ波レーダ22から出力される距離情報の信頼度が低下していると判定された場合、カメラ21から出力された撮影画像に情報有効フラグ「1」を付与し、ミリ波レーダ22から出力された距離情報に情報有効フラグ「0」を付与する。実施の形態6では、一例として、情報有効フラグが「1」の場合、当該情報有効フラグが付与された車両周辺情報の信頼度が低下していないことを示し、情報有効フラグが「0」の場合、当該情報有効フラグが付与されたフラグ付き車両周辺情報の信頼度が低下していることを示すものとする。
以下、情報有効フラグが付与された車両周辺情報を、「フラグ付き車両周辺情報」という。
制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部について情報有効フラグを付与して生成した、複数のフラグ付き車両周辺情報を、制御量推論部12eに出力する。
制御量推論部12eは、制御部15eから複数のフラグ付き車両周辺情報を取得すると、当該複数のフラグ付き車両周辺情報の全部と、機械学習モデル13eとに基づき、自動運転制御量を推論し、当該自動運転制御量を出力する。
機械学習モデル13eは、制御部15eから出力された複数のフラグ付き車両周辺情報の全部を入力とし、自動運転制御量を出力する。機械学習モデル13eは、複数のフラグ付き車両周辺情報のうち、情報有効フラグとして「0」が付与された車両周辺情報の影響を除いて、自動運転制御量を推論できるように学習されたものである。このような学習は、例えば、機械学習モデル13eへの入力となり得る複数のフラグ付き車両周辺情報と、当該複数のフラグ付き車両周辺情報のうち有効な車両周辺情報のみに基づき予め導出した理想的な自動運転制御量の正解とを組とした学習データに基づき行うことができる。
制御量推論部12eは、上記の機械学習モデル13eと、複数のフラグ付き車両周辺情報とに基づき、自動運転制御量を推論することで、信頼度が低下した車両周辺情報の影響を除いた自動運転制御量を推論して、当該自動運転制御量を出力することができる。ここで、「信頼度が低下した車両周辺情報の影響を除いた」とは、信頼度が低下した車両周辺情報の影響を完全に除いた状態だけでなく、自動運転制御の継続が可能な自動運転制御量が取得できる程度に、信頼度が低下した車両周辺情報の影響が実質的に除かれた状態を含むものである。
実施の形態6に係る自動運転制御装置1eの動作について説明する。
図15は、実施の形態6に係る自動運転制御装置1eの動作を説明するためのフローチャートである。
図15のステップST1501~ステップST1502の具体的な動作は、それぞれ、実施の形態1で説明した、図3のステップST301、ステップST304の具体的な動作と同様であるため、重複した説明を省略する。
監視部14は、ミリ波レーダ22から取得した距離情報の信頼度が低下しているか否かの判定処理を行う(ステップST1503)。具体的には、監視部14は、ステップST1502にて取得した基準距離と、ステップST1501にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく車両100から当該物体までの距離との差を算出し、当該算出された差がレーダ判定用閾値以下であるか否かを判定する(ステップST1503)。ステップST1503の具体的な動作は、実施の形態1で説明した、図3のステップST305の具体的な動作と同様である。
算出された差がレーダ判定用閾値より大きいと判定した場合、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15eに出力する。
一方、算出された差がレーダ判定用閾値以下であると判定した場合、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定し、距離情報の信頼度が低下していない旨の監視結果情報を、制御部15eに出力する。
制御部15eは、ステップST1503にて監視部14が判定した判定結果に基づき、車両周辺情報に情報有効フラグを付与する(ステップST1504)。具体的には、例えば、監視部14が、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定した場合、制御部15eは、距離情報に情報有効フラグ「0」を付与する。制御部15eは、距離情報を、監視部14から取得すればよい。例えば、監視部14が、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定した場合、制御部15は、距離情報に情報有効フラグ「1」を付与する。
実施の形態6では、実施の形態1の前提と同様に、カメラ21の撮影画像については、実質的に問題は生じることはない前提であるため、制御部15eは、撮影画像には、常に情報有効フラグ「1」を付与する。
制御部15eは、フラグ付き車両周辺情報を、制御量推論部12eに出力する。
制御量推論部12eは、制御部15eから出力されたフラグ付き車両周辺情報と機械学習モデル13eとに基づいて、車両100の自動運転制御量を推論する(ステップST1505)。そして、制御量推論部12eは、推論した自動運転制御量に基づく車両制御情報を車両制御部3に出力する(ステップST1506)。
このように、自動運転制御装置1eにおいて、制御量推論部12eおよび機械学習モデル13eを、それぞれ、1つのみ備えるようにすることもできる。これにより、入力される車両周辺情報の数に応じた複数の機械学習モデルを用意する必要がなくなり、車両周辺情報の数に応じた複数の機械学習モデルを用意しておく場合に比べ、より簡易な構成で、自動運転制御量の推論を行うことができる。
また、自動運転制御装置1eは、自動運転制御量の推論の際、車両周辺情報に情報有効フラグを付与して、車両周辺情報が、自動運転制御量の推論に使用されるのに有効か否かを判別できるようにした。これにより、自動運転制御装置1eは、複数のセンサのうち一部の1または複数のセンサから出力される車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に使用できる自動制御量を推論することができる。
以上のように、実施の形態6によれば、自動運転制御装置1eは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13とに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12eと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14と、監視部14により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12eを制御する制御部15eを備えるように構成した。
そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1eにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
より詳細には、実施の形態6に係る自動運転制御装置1eにおいて、制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部に、監視部14による信頼度の判定結果に基づく情報有効フラグを付与するものであり、制御量推論部12eは、制御部15eが情報有効フラグを付与した複数の車両周辺情報の全部と、機械学習モデル13eとに基づいて、自動運転制御量を推論して、当該自動運転制御量を出力するようにした。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13eとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1eにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。また、車両周辺情報の種類に応じて機械学習モデル13eを用意しておく場合に比べ、より簡易な構成で、自動運転制御量の推論を行うことができる。
図16A,図16Bは、実施の形態1~実施の形態6に係る自動運転制御装置1~1eのハードウェア構成の一例を示す図である。
実施の形態1~6において、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能は、処理回路1601により実現される。すなわち、自動運転制御装置1~1eは、車両100の自動運転を制御するための自動運転制御量の推論を行う処理回路1601を備える。
処理回路1601は、図16Aに示すように専用のハードウェアであっても、図16Bに示すようにメモリ1606に格納されるプログラムを実行するCPU(Central
Processing Unit)1605であってもよい。
処理回路1601が専用のハードウェアである場合、処理回路1601は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路1601がCPU1605の場合、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18は、HDD(Hard Disk Drive)1602、メモリ1606等に記憶されたプログラムを実行するCPU1605、システムLSI(Large-Scale Integration)等の処理回路により実現される。また、HDD1602、メモリ1606等に記憶されたプログラムは、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1606とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable
Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、情報取得部11については専用のハードウェアとしての処理回路1601でその機能を実現し、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18については処理回路1601がメモリ1606に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、自動運転制御装置1~1eは、センサ、車両制御部3、または、出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置1603および出力インタフェース装置1604を備える。
なお、以上の実施の形態1~6では、自動運転制御装置1~1eは、車両100に搭載される車載装置とし、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18は、自動運転制御装置1~1eに備えられているものとした。
これに限らず、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18のうち、一部を車両100の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで自動運転制御システムを構成するようにしてもよい。
図17は、図2を用いて説明した実施の形態1に係る自動運転制御装置1がサーバ200に備えられた自動運転制御システムの構成例を示す図である。
図17に一例として示すような自動運転制御システムでは、自動運転制御装置1と車載装置とは、通信装置101および通信装置201を介して接続される。センサが取得した車両周辺情報は、通信装置101および通信装置201を介してサーバ200上の自動運転制御装置1に送信される。自動運転制御装置1は車載装置から受信した車両周辺情報に基づき、自動運転制御量を推論する。そして、自動運転制御装置1が推論した自動運転制御量が、通信装置201および通信装置101を介して車載装置に搭載されている車両制御部3に送信される。車両制御部3は、取得した自動運転制御量に基づき、制御対象機器4を制御する。
なお、ここでは、一例として、自動運転制御装置1のすべての機能がサーバ200に備えられるものとしたが、自動運転制御装置1の一部の機能がサーバ200に備えられるものとしてもよい。例えば、自動運転制御装置1の情報取得部11および監視部14が車載装置に備えられ、自動運転制御装置1のその他の機能がサーバ200に備えられるものとすることもできる。
また、図17は、一例として、自動運転制御システムは、実施の形態1に係る自動運転制御装置1がサーバ200に備えられたものとしているが、当該自動運転制御システムは、実施の形態2~6に係る自動運転制御装置1a~1eのいずれかがサーバ200に備えられたものとしてもよい。自動運転制御システムを、実施の形態2~6に係る自動運転制御装置1a~1eのいずれかがサーバ200に備えられたものとした場合、図17に示すような構成例において、自動運転制御装置1a~1eの機能の一部または全部が、サーバ200に備えられる。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る自動運転制御装置は、車両の自動運転制御を行う自動運転制御装置に適用することができる。
1~1e 自動運転制御装置、11 情報取得部、12~12c,12e 制御量推論部、121 第1制御量推論部、122~122c 第2制御量推論部、123 選択部、13~13c,13e 機械学習モデル、131 第1機械学習モデル、132~132c 第2機械学習モデル、14~14c 監視部、15,15e 制御部、16 気象判定部、17 走行判定部、18 通知制御部、21 カメラ、22 ミリ波レーダ、23 GNSS、24 車両走行センサ、3 車両制御部、4 制御機器、200 サーバ、101,201 通信装置、1601 処理回路、1602 HDD、1603 入力インタフェース装置、1604 出力インタフェース装置、1605 CPU、1606
メモリ。

Claims (14)

  1. 複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する情報取得部と、
    前記情報取得部が取得した前記複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部と、
    前記情報取得部が取得した前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部と、
    前記監視部により、前記複数の車両周辺情報のうちいずれかの車両周辺情報の前記信頼度が低下していると判定された場合、前記信頼度が低下していると判定された車両周辺情報を除いて前記自動運転制御量を出力するよう学習済みの前記機械学習モデルを用いて、当該信頼度が低下していると判定された車両周辺情報の影響を除いた前記自動運転制御量を出力するように、前記制御量推論部を制御する制御部
    を備えた自動運転制御装置。
  2. 前記制御量推論部は、前記情報取得部が取得した前記複数の車両周辺情報の全部と第1機械学習モデルとに基づき第1自動運転制御量を推論する第1制御量推論部と、前記情報取得部が取得した前記複数の車両周辺情報の一部と第2機械学習モデルとに基づき第2自動運転制御量を推論する第2制御量推論部とを含み、
    前記制御部は、前記監視部により、前記複数の車両周辺情報のうち、前記第2機械学習モデルに入力される前記複数の車両周辺情報の一部以外の車両周辺情報の前記信頼度が低下していると判定された場合、前記第2自動運転制御量を出力するように、前記制御量推論部を制御する
    ことを特徴とする請求項1記載の自動運転制御装置。
  3. 前記制御量推論部は、前記第1自動運転制御量、または、前記第2自動運転制御量のうち、いずれを出力するかを選択する選択部を備え、
    前記選択部は、前記制御量推論部が前記制御部により前記第2自動運転制御量を出力するように制御された場合、前記第2自動運転制御量を選択して出力する
    ことを特徴とする請求項2記載の自動運転制御装置。
  4. 前記第2制御量推論部は、前記制御量推論部が前記制御部により前記第2自動運転制御量を出力するように制御された場合に、前記第2自動運転制御量を推論する
    ことを特徴とする請求項2記載の自動運転制御装置。
  5. 前記制御部は、前記情報取得部が取得した前記複数の車両周辺情報の全部に、前記監視部による前記信頼度の判定結果に基づく情報有効フラグを付与するものであり、
    前記制御量推論部は、前記制御部が前記情報有効フラグを付与した前記複数の車両周辺情報の全部と、前記機械学習モデルとに基づいて、前記自動運転制御量を推論して、当該自動運転制御量を出力する
    ことを特徴とする請求項1記載の自動運転制御装置。
  6. 前記複数のセンサには、少なくとも、カメラおよびミリ波レーダが含まれ、
    前記情報取得部は、前記複数の車両周辺情報として、少なくとも、前記カメラが車両周辺に存在する物体を撮影した撮影画像、および、前記ミリ波レーダが計測した前記物体までの距離に関する距離情報を取得し、
    前記監視部は、前記情報取得部が取得した撮影画像に基づく前記物体までの距離と、前記情報取得部が取得した距離情報に基づく前記物体までの距離との差が、レーダ判定用閾値より大きい場合、前記ミリ波レーダから取得された距離情報の前記信頼度が低下していると判定する
    ことを特徴とする請求項1記載の自動運転制御装置。
  7. 前記複数のセンサの1つは、カメラであり、
    前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
    前記車両周辺の気象を判定する気象判定部を備え、
    前記監視部は、前記気象判定部が判定した気象に基づき、前記カメラから取得された撮影画像の前記信頼度が低下しているか否かを判定する
    ことを特徴とする請求項1記載の自動運転制御装置。
  8. 前記監視部は、前記気象判定部が前記車両周辺に霧または降水があると判定した場合、前記カメラから取得された撮影画像の前記信頼度が低下していると判定する
    ことを特徴とする請求項7記載の自動運転制御装置。
  9. 前記複数のセンサの1つは、カメラであり、
    前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
    前記監視部は、前記情報取得部が取得した撮影画像の輝度に基づき、前記カメラから取得された撮影画像の前記信頼度が低下しているか否かを判定する
    ことを特徴とする請求項1記載の自動運転制御装置。
  10. 前記複数のセンサの1つは、カメラであり、
    前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
    車両が走行中であるか否かを判定する走行判定部を備え、
    前記監視部は、前記走行判定部が前記車両は走行中であると判定し、かつ、前記情報取得部が取得した撮影画像で撮影されている前記車両周辺の風景に変化がない場合、前記カメラから取得された撮影画像の前記信頼度が低下していると判定する
    ことを特徴とする請求項1記載の自動運転制御装置。
  11. 前記制御部が前記第2自動運転制御量を出力するように前記制御量推論部を制御した場合、前記複数の車両周辺情報のうちの一部の車両周辺情報の前記信頼度が低下していることを示す通知情報を出力する通知制御部を備えた
    ことを特徴とする請求項2記載の自動運転制御装置。
  12. 前記通知情報は、
    前記信頼度が低下していると判定された車両周辺情報を出力するセンサが使用不可である旨のメッセージである
    ことを特徴とする請求項11記載の自動運転制御装置。
  13. 前記通知情報は、
    前記信頼度が低下していると判断された車両周辺情報があることによって自動運転制御に使用できない機能を通知するメッセージである
    ことを特徴とする請求項11記載の自動運転制御装置。
  14. 情報取得部が、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得するステップと、
    制御量推論部が、前記情報取得部が取得した前記複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力するステップと、
    監視部が、前記情報取得部が取得した前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定するステップと、
    制御部が、前記監視部により、前記複数の車両周辺情報のうちいずれかの車両周辺情報の前記信頼度が低下していると判定された場合、前記信頼度が低下していると判定された車両周辺情報を除いて前記自動運転制御量を出力するよう学習済みの前記機械学習モデルを用いて、当該信頼度が低下していると判定された車両周辺情報の影響を除いた前記自動運転制御量を出力するように、前記制御量推論部を制御するステップ
    を備えた自動運転制御方法。
JP2021543813A 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法 Active JP7330278B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/034441 WO2021044486A1 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法

Publications (2)

Publication Number Publication Date
JPWO2021044486A1 JPWO2021044486A1 (ja) 2021-11-25
JP7330278B2 true JP7330278B2 (ja) 2023-08-21

Family

ID=74852328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021543813A Active JP7330278B2 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法

Country Status (5)

Country Link
US (1) US20220242446A1 (ja)
JP (1) JP7330278B2 (ja)
CN (1) CN114286772A (ja)
DE (1) DE112019007681T5 (ja)
WO (1) WO2021044486A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370495B2 (ja) * 2021-03-22 2023-10-27 三菱電機株式会社 制御装置および制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047176A1 (ja) 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017179209A1 (ja) 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2018134863A1 (ja) 2017-01-17 2018-07-26 株式会社日立製作所 移動体の走行制御装置
WO2019017253A1 (ja) 2017-07-18 2019-01-24 パイオニア株式会社 制御装置、制御方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426436B2 (ja) * 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
JP6682833B2 (ja) * 2015-12-04 2020-04-15 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム
US10410113B2 (en) * 2016-01-14 2019-09-10 Preferred Networks, Inc. Time series data adaptation and sensor fusion systems, methods, and apparatus
JP6558282B2 (ja) * 2016-03-09 2019-08-14 トヨタ自動車株式会社 自動運転システム
JP6858002B2 (ja) * 2016-03-24 2021-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
JP6690450B2 (ja) * 2016-07-19 2020-04-28 株式会社デンソー 運転支援装置
WO2018042592A1 (ja) * 2016-09-01 2018-03-08 三菱電機株式会社 自動運転レベル低下可否判定装置、自動運転レベル低下可否判定方法
US10427645B2 (en) * 2016-10-06 2019-10-01 Ford Global Technologies, Llc Multi-sensor precipitation-classification apparatus and method
JP6548690B2 (ja) * 2016-10-06 2019-07-24 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
JP6944308B2 (ja) 2017-08-18 2021-10-06 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御システム、および制御方法
WO2019116518A1 (ja) * 2017-12-14 2019-06-20 株式会社日立製作所 物体検出装置及び物体検出方法
CN113519020B (zh) * 2019-03-11 2023-04-04 三菱电机株式会社 驾驶辅助装置及驾驶辅助方法
KR20210134638A (ko) * 2019-03-29 2021-11-10 인텔 코포레이션 자율 차량 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047176A1 (ja) 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017179209A1 (ja) 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2018134863A1 (ja) 2017-01-17 2018-07-26 株式会社日立製作所 移動体の走行制御装置
WO2019017253A1 (ja) 2017-07-18 2019-01-24 パイオニア株式会社 制御装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
WO2021044486A1 (ja) 2021-03-11
US20220242446A1 (en) 2022-08-04
CN114286772A (zh) 2022-04-05
JPWO2021044486A1 (ja) 2021-11-25
DE112019007681T5 (de) 2022-06-09

Similar Documents

Publication Publication Date Title
US11465626B2 (en) Virtualized driver assistance
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
US10046701B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring system
JP2018507130A (ja) 認知ミラー装置、ならびにそれを制御するための方法およびコンピュータ・プログラム
JP2010068069A (ja) 車両周辺撮影システム
GB2553905A (en) Systems, methods, and devices for rendering in-vehicle media content based on vehicle sensor data
CN111157014A (zh) 路况展示方法、装置及车载终端、存储介质
CN109416884B (zh) 识别区域推定装置、识别区域推定方法及识别区域推定程序
GB2554787A (en) Systems, methods, and devices for rendering in-vehicle media content based on vehicle sensor data
JP2007082594A (ja) 疲労検出装置
CN113205088A (zh) 障碍物图像展示方法、电子设备和计算机可读介质
JP7330278B2 (ja) 自動運転制御装置および自動運転制御方法
US11393223B2 (en) Periphery monitoring device
US20190197730A1 (en) Semiconductor device, imaging system, and program
JPWO2019159344A1 (ja) 運転支援装置および映像表示方法
US20210323470A1 (en) Display control device, display control method, and storage medium storing program
JP5778006B2 (ja) 画像処理装置及び画像処理方法
KR20210102212A (ko) 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템
JP7427556B2 (ja) 運転制御装置、運転制御方法及びプログラム
WO2022101982A1 (ja) センサノイズ除去装置およびセンサノイズ除去方法
JP7454177B2 (ja) 周辺監視装置、およびプログラム
JP7371679B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022153888A1 (ja) 固体撮像装置、固体撮像装置の制御方法及び固体撮像装置の制御プログラム
EP4194883A1 (en) Device and method for determining objects around a vehicle
WO2022064542A1 (ja) 案内制御装置および案内制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R150 Certificate of patent or registration of utility model

Ref document number: 7330278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150