JP7046262B2 - 移動体制御装置および移動体制御方法 - Google Patents

移動体制御装置および移動体制御方法 Download PDF

Info

Publication number
JP7046262B2
JP7046262B2 JP2021504677A JP2021504677A JP7046262B2 JP 7046262 B2 JP7046262 B2 JP 7046262B2 JP 2021504677 A JP2021504677 A JP 2021504677A JP 2021504677 A JP2021504677 A JP 2021504677A JP 7046262 B2 JP7046262 B2 JP 7046262B2
Authority
JP
Japan
Prior art keywords
learning
teacher
history data
unit
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021504677A
Other languages
English (en)
Other versions
JPWO2020183609A1 (ja
Inventor
貴之 井對
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020183609A1 publication Critical patent/JPWO2020183609A1/ja
Application granted granted Critical
Publication of JP7046262B2 publication Critical patent/JP7046262B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Description

この発明は、移動体周囲の状況を推定し、推定結果に基づいて移動体を制御する技術に関するものである。
移動体の移動を自動で制御するためには、移動体の周囲の状況を推定しながら、当該移動体の移動を制御する技術が必要となる。自動車の自動運転制御の技術は、その代表例である。
例えば、非特許文献1では、オープンソースの自動運転シミュレータ(CARLA)を用いて、移動体のフロントカメラの画像をニューラルネットワークに入力し、移動体の前方に位置する障害物の有無等の移動体の周囲の状況を推定する技術が開示されている。また、推定した移動体の周囲の状況に含まれる顕在的なリスクに対して、移動体の緊急ブレーキを作動する技術が開示されている。
Axel Sauer, Nikolay Savinov, Andreas Geiger, "Conditional Affordance Learning for Driving in Urban Environments"
自動車の自動運転の場合、実際の自動車の運転では、顕在的なリスクのみではなく、道路への人の急な飛び出し等の潜在的なリスクも考慮した走行を行う必要がある。そのため、非特許文献1に開示された技術のように、移動体のフロントカメラの画像などのセンサ情報を認知モデルに入力して得られた認知結果に基づいて走行する場合、潜在的なリスクも含めて認知モデルを学習する必要がある。しかし、潜在的なリスクについて認知モデルを学習することは困難であるという課題があった。さらに、潜在的なリスクに対する移動体の理想的な挙動を全て規定することは困難であるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、認知モデルの学習において、潜在的なリスクを含むリスクを判定するための教師データを作成する際の識別情報を付与する作業を省力化してリスクを判定する学習を行うことを目的とする。
この発明に係る移動体制御装置は、リスクが存在しない環境下で、学習用移動体を運転させた際に得られる運転履歴データを学習用履歴データとして取得する学習用履歴データ取得部と、学習用履歴データ取得部が取得した学習用履歴データを教師データとして、リスクが存在しない環境下における学習用移動体の運転を模倣する学習を行い、模倣学習モデルを作成する模倣学習部と、学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる運転履歴データを教師用履歴データとして取得する教師用履歴データ取得部と、教師用履歴データ取得部が取得した教師用履歴データを、模倣学習部が作成した模倣学習モデルへの入力とし、教師用履歴データが学習用履歴データと一致している度合いに応じて、前記リスクを考慮した運転状態であるか否かを示す、リスクに関するラベルを付与する教師データ生成部と、少なくとも教師データ生成部が付与したリスクに関するラベルを教師データとして、制御対象の移動体に搭載されたセンサのセンサ情報に基づいて、制御対象の移動体を制御するための結果を推論するモデルを学習する学習部とを備えるものである。
この発明によれば、認知モデルの学習において、潜在的なリスクを含むリスクを判定するための教師データを作成する際の識別情報を付与する作業を省力化してリスクを判定する学習を行うことができる。
実施の形態1に係る移動体制御装置の構成を示すブロック図である。 図2Aおよび図2Bは、実施の形態1に係る移動体制御装置のハードウェア構成例を示す図である。 実施の形態1に係る移動体制御装置の認知モデルの作成処理の動作を示すフローチャートである。 実施の形態1に係る移動体制御装置の移動体の制御処理の動作を示すフローチャートである。 実施の形態2に係る移動体制御装置の構成を示すブロック図である。 実施の形態2に係る移動体制御装置の認知モデルの作成処理の動作を示すフローチャートである。 実施の形態2に係る移動体制御装置の移動体の制御処理の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る移動体制御装置100の構成を示すブロック図である。
移動体制御装置100は、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部(学習部)105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109を備える。
学習用履歴データ取得部101は、リスクが存在しない環境下で、学習用移動体を運転させた際に得られる当該学習用移動体の運転履歴データを学習用履歴データとして取得する。リスクは、例えば顕在的なリスク、潜在的リスクおよびその他種々のリスクである。
顕在的なリスクとは、例えば、障害物である。潜在的なリスクとは、例えば、車両が走行する道路への人および自転車等の急な飛び出しによる衝突、および走行路の急カーブでの衝突である。リスクが存在しない環境下とは、例えばシミュレータ環境、または潜在的なリスクを排除した実在するテストコースで取得される。
学習用履歴データは、学習用移動体のセンサ情報と移動体制御パラメータとの組で構成される。
学習用移動体のセンサ情報は、例えば、タイムスタンプに紐付けられた画像データ、LiDARデータ、ミリ波レーダのデータ、または超音波センサのデータである。学習用移動体のセンサ情報は、種々のセンサ情報を組み合わせて構成してもよい。
移動体制御パラメータは、例えば、学習用移動体のアクセル開度を制御するパラメータ、ブレーキ開度を制御するパラメータおよびハンドル舵角を制御するパラメータである。
学習用履歴データ取得部101は、取得した学習用履歴データを模倣学習部102に出力する。
模倣学習部102は、学習用履歴データ取得部101から入力された学習用履歴データを教師データとして、リスクが存在しない環境下における学習用移動体の運転を模倣するための学習を行う。模倣学習部102は、当該学習により、模倣学習モデルを作成する。模倣学習部102は、作成した模倣学習モデルを教師データ生成部104に出力する。模倣学習部102における学習アルゴリズムは、教師あり学習および逆強化学習等が適用可能である。なお、学習アルゴリズムは前述したものに限定されるものではない。
教師用履歴データ取得部103は、学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる教師データ生成用移動体の運転履歴データを教師用履歴データとして取得する。教師用履歴データは、教師データ生成用移動体のセンサ情報と移動体制御パラメータとの組で構成される。
教師データ生成用移動体のセンサ情報は、例えば、タイムスタンプに紐付けられた画像データ、LiDARデータ、ミリ波レーダのデータ、または超音波センサのデータである。教師データ生成用移動体のセンサ情報は、種々のセンサ情報を組み合わせて構成してもよい。
移動体制御パラメータは、例えば、教師データ生成用移動体のアクセル開度を制御するパラメータ、ブレーキ開度を制御するパラメータおよびハンドル舵角を制御するパラメータである。
教師用履歴データ取得部103は、取得した教師用履歴データを教師データ生成部104に出力する。
教師データ生成部104は、教師用履歴データ取得部103から入力された教師用履歴データを、模倣学習部102から入力された模倣学習モデルへの入力とし、教師用履歴データが学習用履歴データと一致しているか推定する。より詳細には、教師データ生成部104は、教師用履歴データが学習用履歴データと一致しているかを示す一致度合いを推定する。教師データ生成部104は、推定した一致度合いに基づいて、教師用履歴データを構成する教師データ生成用移動体のセンサ情報にリスクに関する識別情報であるラベルを付与する。リスクに関するラベルは、リスクが存在することを示すリスク有ラベル、またはリスクが存在しないことを示すリスク無ラベルである。
教師データ生成部104は、教師用履歴データ取得部103から入力された教師用履歴データを用いて、リスクに関するラベル以外の認知ラベルを作成する。ここで、認知ラベルとは、他車両の位置情報、従うべき標識情報、信号の色情報および目標車線に対する自車の位置情報を示すラベルである。教師データ生成部104は、教師履歴データのセンサ情報と、リスクに関するラベルと、認知ラベルとの組を認知学習部105に出力する。
例えば、学習用移動体の運転を模倣するための学習アルゴリズムとして、逆強化学習アルゴリズムの一つであるGAIL(Generative Adversarial Imitation Learning)を用いる場合、敵対的学習により、学習用移動体の運転履歴データと見なせる度合いを出力する識別器と、学習用移動体を模倣する行動則を競わせて学習させた結果得られた識別器とを用いて、教師データ生成用移動体の運転履歴データに対して、学習用移動体の運転履歴データと見なせる度合いを推定する。
認知学習部105は、教師データ生成部104から入力された教師履歴データのセンサ情報と、リスクに関するラベルと、認知ラベルとの組を教師データとして、認知モデルを学習する。認知学習部105は、後述するセンサ情報取得部106が取得したセンサ情報を入力した場合に、後述する認知推論部107において認知結果を推論するための認知モデルを学習する。ここで、認知モデルが推論する認知結果は、少なくとも移動体が移動する際のリスクの有無を示す結果を含む。認知結果は、さらに、他車両の位置情報、従うべき標識情報、信号の色情報および目標車線に対する自車の位置情報を示す結果を含む構成としてもよい。認知学習部105は、学習した認知モデルのモデルパラメータを認知推論部107に出力する。
センサ情報取得部106は、移動体制御装置100の制御対象である移動体に搭載されたセンサから入力されるセンサ情報を取得する。制御対象の移動体のセンサ情報は、例えば、タイムスタンプに紐付けられた画像データ、LiDARデータ、ミリ波レーダのデータ、または超音波センサのデータである。制御対象の移動体のセンサ情報は、種々のセンサ情報を組み合わせて構成してもよい。
センサ情報取得部106は、取得したセンサ情報を、後述する認知推論部107での処理に適したデータ形式に加工する。センサ情報の加工として、フォーマット変換およびデータの整形などが挙げられる。さらに、センサ情報の加工は単純な変換に限定されるものではない。例えば、センサ情報が画像データの場合、セマンティックセグメンテーション処理を施し、画素単位でクラス分類して領域を分割した画像データに変換してもよい。センサ情報取得部106は、加工したセンサ情報を認知推論部107に出力する。
認知推論部107は、認知学習部105から入力されたモデルパラメータに基づく認知モデルに、センサ情報取得部106が加工した制御対象の移動体のセンサ情報を入力し、認知結果を推論する。認知推論部107は、少なくとも制御対象の移動体の移動に伴うリスクの有無を示す認知結果を推論する。また、認知推論部107は、他車両の位置情報、従うべき標識情報、信号の色情報および目標車線に対する自車の位置情報を示す認知結果を推論する構成としてもよい。認知推論部107は、推論した認知結果を、制御パラメータ生成部108に出力する。
制御パラメータ生成部108は、認知推論部107から入力された認知結果に基づいて、制御対象の移動体の制御パラメータを生成する。制御パラメータ生成部108は、例えば、制御対象である移動体のアクセル開度を制御するパラメータ、ブレーキ開度を制御するパラメータおよびハンドル舵角を制御するパラメータを生成する。また、制御パラメータ生成部108は、リスク有の認知結果が推論された箇所では、当該リスクを回避する移動体制御パラメータを生成する。制御パラメータ生成部108は、生成した移動体制御パラメータを制御部109に出力する。
制御部109は、制御パラメータ生成部108から入力された移動体制御パラメータに基づいて、制御対象である移動体を制御する。
次に、移動体制御装置100のハードウェア構成例を説明する。
図2Aおよび図2Bは、実施の形態1に係る移動体制御装置100のハードウェア構成例を示す図である。
移動体制御装置100における学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109の各機能は、処理回路により実現される。即ち、移動体制御装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100aであってもよいし、図2Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図2Aに示すように、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109の各機能を実現する。即ち、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109は、プロセッサ100bにより実行されるときに、後述する図3、図4、図6および図7に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、学習用履歴データ取得部101、模倣学習部102、教師用履歴データ取得部103、教師データ生成部104、認知学習部105、センサ情報取得部106、認知推論部107、制御パラメータ生成部108および制御部109の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、移動体制御装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、移動体制御装置100の動作について説明する。
移動体制御装置100の動作は、認知モデルの作成処理と、制御対象の移動体の制御処理とに分けて説明する。
まず、図3を参照しながら、認知モデルの作成処理の動作について説明する。
図3は、実施の形態1に係る移動体制御装置100の認知モデルの作成処理の動作を示すフローチャートである。
学習用履歴データ取得部101は、学習用履歴データを取得し(ステップST1)、模倣学習部102に出力する。模倣学習部102は、学習用履歴データ取得部101から入力された学習用履歴データを教師データとして、リスクが存在しない環境下における学習用移動体の運転を模倣するための学習を行う(ステップST2)。模倣学習部102は、ステップST2における学習に基づいて、模倣学習モデルを作成する(ステップST3)。模倣学習部102は、ステップST3で作成した模倣学習モデルを、教師データ生成部104に出力する。
教師用履歴データ取得部103は、教師用履歴データを取得し(ステップST4)、教師データ生成部104に出力する。教師データ生成部104は、教師用履歴データ取得部103から入力された教師用履歴データを、模倣学習部102から入力された模倣学習モデルに入力し、教師用履歴データと学習用履歴データとの一致度合いを推定する(ステップST5)。教師データ生成部104は、ステップST5で推定した一致度合いが閾値以下であるか否か判定を行う(ステップST6)。
推定した一致度合いが閾値以下である場合(ステップST6;YES)、教師データ生成用移動体はリスクを考慮した運転状態であると判定し、リスク有ラベルを付与する(ステップST7)。一方、推定した一致度合いが閾値以下でない場合(ステップST6;NO)、教師データ生成用移動体はリスクを考慮した運転状態でないと判定し、リスク無ラベルを付与する(ステップST8)。教師データ生成部104は、教師用履歴データを用いて、認知ラベルを作成する(ステップST9)。
教師データ生成部104は、教師用履歴データのセンサ情報と、ステップST7またはステップST8で付与したリスクに関するラベルと、ステップST9で作成した認知ラベルとの組を認知学習部105に出力する。認知学習部105は、教師データ生成部104から入力された教師用履歴データのセンサ情報、リスクに関するラベル、および認知ラベルの組を教師データとして、認知モデルを学習する(ステップST10)。認知学習部105は、学習した認知モデルのモデルパラメータを認知推論部107に出力し、処理を終了する。
次に、図4を参照しながら、制御対象の移動体の制御処理の動作について説明する。
図4は、実施の形態1に係る移動体制御装置100の移動体の制御処理の動作を示すフローチャートである。
センサ情報取得部106は、制御対象の移動体のセンサ情報を取得し、加工する(ステップST21)。センサ情報取得部106は、加工したセンサ情報を認知推論部107に出力する。認知推論部107は、認知学習部105から入力されたモデルパラメータに基づく認知モデルに、センサ情報取得部106から入力された加工されたセンサ情報を入力し、認知結果を推論する(ステップST22)。認知推論部107は、推論した認知結果を制御パラメータ生成部108に出力する。
制御パラメータ生成部108は、認知推論部107から入力された認知結果に基づいて、制御対象の移動体の制御パラメータを生成する(ステップST23)。制御パラメータ生成部108は、生成した制御対象の移動体の制御パラメータを制御部109に出力する。制御部109は、制御パラメータ生成部108から入力された制御パラメータに基づいて、制御対象の移動体を制御する(ステップST24)。その後、フローチャートはステップST21の処理に戻り、上述した処理を繰り返す。
上記では、教師データ生成部104が、推定した一致度合いに基づいて、リスクに関するラベルを付与する構成を示した。教師データ生成部104は、さらに、リスク有ラベルを付与した場合にリスクの種別を分類する構成としてもよい。
リスクの種別を分類する場合、教師データ生成部104は、リスク有ラベルを付与したセンサ情報を用いて教師なしの学習を行い、リスクを予め設定された種別に分類する。教師データ生成部104は、分類したリスクの種別毎に、当該種別を識別可能なラベルを付与する。リスクを分類する種別は、例えば、交差点左折時の衝突、交差点右折時の衝突、交差点直進時の衝突、左側道路脇の障害物からの飛び出しによる衝突、右側道路脇の障害物からの飛び出しによる衝突、および急カーブでの衝突である。なお、上述したリスクを分類する種別は一例であり、種々のリスクを分類すべき種別として設定可能である。
教師データ生成部104は、リスク有ラベルを付与し、リスクの種別を分類した場合、教師履歴データのセンサ情報と、リスクの種別を識別可能なラベルと、認知ラベルとの組を認知学習部105に出力する。なお、リスク無ラベルを付与した場合、教師データ生成部104は、教師履歴データのセンサ情報と、リスク無ラベルと、認知ラベルとの組を認知学習部105に出力する。
認知学習部105は、教師履歴データのセンサ情報と、リスクの種別を識別可能なラベルと、認知ラベルとの組を教師データとして、リスクの種別に応じた認知結果を推論する認知モデルを学習する。認知推論部107は、少なくとも制御対象の移動体の移動に伴うリスクの有無を示す認知結果、およびリスク有の場合にリスクの種別を示す認知結果を推論する。制御パラメータ生成部108は、リスクの種別を示す認知結果が入力された場合に、当該リスクの種別に応じた制御パラメータを生成する。
以上のように、この実施の形態1によれば、リスクが存在しない環境下で、学習用移動体を運転させた際に得られる運転履歴データを学習用履歴データとして取得する学習用履歴データ取得部101と、学習用履歴データを教師データとして、リスクが存在しない環境下における学習用移動体の運転を模倣する学習を行い、模倣学習モデルを作成する模倣学習部102と、学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる運転履歴データを教師用履歴データとして取得する教師用履歴データ取得部103と、教師用履歴データを模倣学習モデルへの入力とし、教師用履歴データが学習用履歴データと一致しているか推定し、リスクに関するラベルを付与する教師データ生成部104と、少なくともリスクに関するラベルを教師データとして、制御対象の移動体に搭載されたセンサのセンサ情報に基づいて、制御対象の移動体を制御するための結果を推論する認知モデルを学習する認知学習部105とを備えるように構成した。
これにより、認知モデルの学習において、潜在的なリスクを含むリスクを判定するための教師データを作成する際の識別情報を付与する作業を省力化することができる。
また、この実施の形態1によれば、認知学習部105が教師用履歴データと、リスクに関するラベルとを教師データとして、少なくともリスクの有無を示す結果を含む認知結果を推論する認知モデルを学習するように構成したので、潜在的なリスクを含むリスクの存在の有無について判定可能なモデルを学習することができる。
また、この実施の形態1によれば、認知モデルに、制御対象の移動体のセンサ情報を入力し、少なくとも制御対象の移動体の移動に伴うリスクの有無を示す認知結果を推論する認知推論部107と、推論された認知結果に基づいて、制御対象の移動体の制御パラメータを生成する制御パラメータ生成部108とを備えるように構成したので、潜在的なリスクを含むリスクの存在の有無について判定を行うことができる。また、潜在的なリスクを含むリスクの存在の有無に基づいた移動体の制御を行うことができる。
また、この実施の形態1によれば、教師データ生成部104は、リスクに関するラベルとしてリスクが有ることを示すラベルを付与した教師用履歴データのセンサ情報を用いて、教師なしの学習を行ってリスクを予め設定された種別に分類し、分類したリスクの種別を識別可能なラベルを付与し、認知学習部105は、リスクの種別を識別可能なラベルを教師データとして、リスクの種別に応じた認知結果を推論する認知モデルを学習するように構成した。
これにより、リスクの種別に応じた認知結果を推論することができ、リスクの種別に応じた制御パラメータを生成することができる。
実施の形態2.
この実施の形態2では、リスクに注視した移動体の制御パラメータを推論する構成を示す。
図5は、実施の形態2に係る移動体制御装置100Aの構成を示すブロック図である。
実施の形態2の移動体制御装置100Aは、実施の形態1で示した移動体制御装置100の認知学習部105、認知推論部107および制御パラメータ生成部108に変えて制御学習部(学習部)110および制御推論部111を備えて構成している。なお、以下では、実施の形態1に係る移動体制御装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
教師データ生成部104は、実施の形態1と同様に教師用履歴データが学習用履歴データと一致しているか推定する。教師データ生成部104は、推定した一致度合いに基づいてリスクに関するラベルを付与する。教師データ生成部104は、教師履歴データのセンサ情報と、リスクに関するラベルと、教師用履歴データの移動体制御パラメータとの組を制御学習部110に出力する。
制御学習部110は、教師データ生成部104から入力された教師履歴データのセンサ情報と、リスクに関するラベルと、教師用履歴データの移動体制御パラメータとの組を教師データとして、制御モデルを学習する。制御学習部110は、センサ情報取得部106が取得したセンサ情報を入力した場合に、リスクに関するラベルおよび移動体制御パラメータを推論するための制御モデルを学習する。
制御学習部110は、制御モデルの学習において、移動体制御パラメータの推論が主の推論となり、リスクに関するラベルの推論が補助の推論となる。制御学習部110は、リスクに関するラベルの推論を補助の推論として設けることにより、リスクに注視した移動体制御パラメータの推論を行う制御モデルを学習することが可能となる。制御学習部110は、学習した制御モデルのモデルパラメータを制御推論部111に出力する。
センサ情報取得部106は、制御対象である移動体に搭載されたセンサから取得したセンサ情報を、後述する制御推論部111での処理に適したデータ形式に加工する。
制御推論部111は、制御学習部110から入力されたモデルパラメータに基づく制御モデルに、センサ情報取得部106が加工した制御対象の移動体のセンサ情報を入力する。制御推論部111は、リスクに関するラベルおよび制御対象の移動体の制御パラメータを推論する。制御推論部111は、推論した制御対象の移動体の制御パラメータを制御部109に出力する。
制御部109は、制御推論部111から入力された制御パラメータに基づいて、制御対象である移動体を制御する。
移動体制御装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。移動体制御装置100Aにおける制御学習部110および制御推論部111は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、移動体制御装置100Aの動作について説明する。実施の形態1と同様に、移動体制御装置100Aの動作は、制御モデルの作成処理と、制御対象の移動体の制御処理とに分けて説明する。
図6および図7は、実施の形態2に係る移動体制御装置100Aの動作を示すフローチャートである。図6および図7において、図3および図4で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
図6は、実施の形態2に係る移動体制御装置100Aの制御モデルの作成処理の動作を示すフローチャートである。
教師データ生成部104は、ステップST7またはステップST8においてリスクに関するラベルを付与すると、教師用履歴データのセンサ情報と、リスクに関するラベルと、教師用履歴データの移動体制御パラメータとの組を制御推論部111に出力する。制御学習部110は、教師データ生成部104から入力された教師用履歴データのセンサ情報と、リスクに関するラベルと、教師用履歴データの移動体制御パラメータとの組を教師データとして、制御モデルを学習する(ステップST31)。制御学習部110は、学習した制御モデルのモデルパラメータを制御推論部111に出力し、処理を終了する。
図7は、実施の形態2に係る移動体制御装置100Aの移動体の制御処理の動作を示すフローチャートである。
センサ情報取得部106は、制御対象の移動体のセンサ情報を取得し、加工する(ステップST21)。センサ情報取得部106は、加工したセンサ情報を制御推論部111に出力する。制御推論部111は、制御学習部110から入力されたモデルパラメータに基づく制御モデルに、センサ情報取得部106から入力された加工されたセンサ情報を入力し、リスクに関するラベルおよび制御対象の移動体の制御パラメータを推論する(ステップST41)。制御推論部111は、推論した制御対象の移動体の制御パラメータを制御部109に出力する。
制御部109は、制御推論部111から入力された移動体制御パラメータに基づいて、制御対象の移動体を制御する(ステップST42)。その後、フローチャートはステップST21の処理に戻り、上述した処理を繰り返す。
以上のように、この実施の形態2によれば、リスクが存在しない環境下で、学習用移動体を運転させた際に得られる運転履歴データを学習用履歴データとして取得する学習用履歴データ取得部101と、学習用履歴データを教師データとして、リスクが存在しない環境下における学習用移動体の運転を模倣する学習を行い、模倣学習モデルを作成する模倣学習部102と、学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる運転履歴データを教師用履歴データとして取得する教師用履歴データ取得部103と、教師用履歴データを模倣学習モデルへの入力とし、教師用履歴データが学習用履歴データと一致しているか推定し、リスクに関するラベルを付与する教師データ生成部104と、少なくともリスクに関するラベルを教師データとして、制御対象の移動体に搭載されたセンサのセンサ情報に基づいて、制御対象の移動体を制御するための結果を推論する制御モデルを学習する制御学習部110とを備えるように構成した。
これにより、制御モデルの学習において、潜在的なリスクを含むリスクを判定するための教師データを作成する際の識別情報を付与する作業を省力化することができる。
また、この実施の形態2によれば、制御学習部110が、教師用履歴データと、リスクに関するラベルとを教師データとして、リスクに関するラベルおよび制御対象の移動体の制御パラメータを推論する制御モデルを学習するように構成したので、潜在的なリスクを含むリスクの存在の有無について判定可能なモデルを学習することができ、かつリスクに注視した移動体の制御パラメータの推論を行うことができる。
また、この実施の形態2によれば、制御モデルに、制御対象の移動体のセンサ情報を入力し、リスクに関するラベルおよび制御パラメータを推論する制御推論部111を備えるように構成したので、潜在的なリスクを含むリスクの存在の有無について判定を行うことができる。また、潜在的なリスクを含むリスクに注視した移動体の制御を行うことができる。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る技術は、車両等の移動体の移動を、移動体周囲のリスクを考慮して自動制御する制御システム等に適用するのが好ましい。
100,100A 移動体制御装置、101 学習用履歴データ取得部、102 模倣学習部、103 教師用履歴データ取得部、104 教師データ生成部、105 認知学習部、106 センサ情報取得部、107 認知推論部、108 制御パラメータ生成部、109 制御部、110 制御学習部、111 制御推論部。

Claims (9)

  1. リスクが存在しない環境下で、学習用移動体を運転させた際に得られる運転履歴データを学習用履歴データとして取得する学習用履歴データ取得部と、
    前記学習用履歴データ取得部が取得した前記学習用履歴データを教師データとして、前記リスクが存在しない環境下における前記学習用移動体の運転を模倣する学習を行い、模倣学習モデルを作成する模倣学習部と、
    前記学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる運転履歴データを教師用履歴データとして取得する教師用履歴データ取得部と、
    前記教師用履歴データ取得部が取得した前記教師用履歴データを、前記模倣学習部が作成した前記模倣学習モデルへの入力とし、前記教師用履歴データが前記学習用履歴データと一致している度合いに応じて、前記リスクを考慮した運転状態であるか否かを示す、前記リスクに関するラベルを付与する教師データ生成部と、
    少なくとも前記教師データ生成部が付与した前記リスクに関するラベルを教師データとして、制御対象の移動体に搭載されたセンサのセンサ情報に基づいて、前記制御対象の移動体を制御するための結果を推論するモデルを学習する学習部とを備えた移動体制御装置。
  2. 前記学習部は、前記教師用履歴データ取得部が取得した前記教師用履歴データと、前記教師データ生成部が付与した前記リスクに関するラベルとを教師データとして、少なくとも前記リスクの有無を示す結果を含む認知結果を推論する認知モデルを学習する認知学習部であることを特徴とする請求項1記載の移動体制御装置。
  3. 前記学習部は、前記教師用履歴データ取得部が取得した前記教師用履歴データと、前記教師データ生成部が付与した前記リスクに関するラベルとを教師データとして、前記リスクに関するラベルおよび前記制御対象の移動体の制御パラメータを推論する制御モデルを学習する制御学習部であることを特徴とする請求項1記載の移動体制御装置。
  4. 前記認知学習部が学習した前記認知モデルに、前記制御対象の移動体の前記センサ情報を入力し、少なくとも前記制御対象の移動体の移動に伴う前記リスクの有無を示す前記認知結果を推論する認知推論部と、
    前記認知推論部が推論した前記認知結果に基づいて、前記制御対象の移動体の制御パラメータを生成する制御パラメータ生成部とを備えたことを特徴とする請求項2記載の移動体制御装置。
  5. 前記制御学習部が学習した前記制御モデルに、前記制御対象の移動体の前記センサ情報を入力し、前記リスクに関するラベルおよび前記制御パラメータを推論する制御推論部を備えたことを特徴とする請求項3記載の移動体制御装置。
  6. 前記制御対象の移動体の前記センサ情報を取得し、前記認知推論部における前記認知結果の推論に適した情報に加工し、前記認知推論部に出力するセンサ情報取得部を備えたことを特徴とする請求項4記載の移動体制御装置。
  7. 前記制御対象の移動体の前記センサ情報を取得し、前記制御推論部における前記リスクに関するラベルおよび前記制御パラメータを推論するのに適した情報に加工し、前記制御推論部に出力するセンサ情報取得部を備えたことを特徴とする請求項5記載の移動体制御装置。
  8. 前記教師データ生成部は、前記リスクに関するラベルとして前記リスクが有ることを示すラベルを付与した前記教師用履歴データの前記センサ情報を用いて、教師なしの学習を行って前記リスクを予め設定された種別に分類し、分類した前記リスクの種別を識別可能なラベルを付与し、
    前記認知学習部は、前記リスクの種別を識別可能なラベルを前記教師データとして、前記リスクの種別に応じた前記認知結果を推論する前記認知モデルを学習することを特徴とする請求項2記載の移動体制御装置。
  9. 学習用履歴データ取得部が、リスクが存在しない環境下で、学習用移動体を運転させた際に得られる運転履歴データを学習用履歴データとして取得するステップと、
    模倣学習部が、取得された前記学習用履歴データを教師データとして、前記リスクが存在しない環境下における前記学習用移動体の運転を模倣する学習を行い、模倣学習モデルを作成するステップと、
    教師用履歴データ取得部が、前記学習用履歴データを取得した環境と同一の環境下で、教師データ生成用移動体を運転させた際に得られる運転履歴データを教師用履歴データとして取得するステップと、
    教師データ生成部が、取得された前記教師用履歴データを、作成された前記模倣学習モデルへの入力とし、前記教師用履歴データが前記学習用履歴データと一致している度合いに応じて、前記リスクを考慮した運転状態であるか否かを示す、前記リスクに関するラベルを付与するステップと、
    学習部が、少なくとも付与された前記リスクに関するラベルを教師データとして、制御対象の移動体に搭載されたセンサのセンサ情報に基づいて、前記制御対象の移動体を制御するための結果を推論するモデルを学習するステップとを備えた移動体制御方法。
JP2021504677A 2019-03-12 2019-03-12 移動体制御装置および移動体制御方法 Active JP7046262B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010007 WO2020183609A1 (ja) 2019-03-12 2019-03-12 移動体制御装置および移動体制御方法

Publications (2)

Publication Number Publication Date
JPWO2020183609A1 JPWO2020183609A1 (ja) 2021-09-13
JP7046262B2 true JP7046262B2 (ja) 2022-04-01

Family

ID=72427350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021504677A Active JP7046262B2 (ja) 2019-03-12 2019-03-12 移動体制御装置および移動体制御方法

Country Status (4)

Country Link
US (1) US20220169277A1 (ja)
JP (1) JP7046262B2 (ja)
CN (1) CN113519018B (ja)
WO (1) WO2020183609A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024091059A1 (ko) * 2022-10-27 2024-05-02 한국과학기술원 효율적인 사이버 물리 시스템 목표 검증을 위한 모방 학습을 활용한 가상 환경 모델 생성 기법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137506A1 (ja) * 2020-12-25 2022-06-30 日本電気株式会社 運転評価システム、学習装置、評価結果出力装置、方法およびプログラム
TW202245689A (zh) * 2021-03-29 2022-12-01 日商日清食品控股股份有限公司 血糖值推定裝置、血糖值推定方法及程式
TW202300917A (zh) * 2021-06-22 2023-01-01 日商日清食品控股股份有限公司 血中三酸甘油酯推定裝置、血中三酸甘油酯推定方法及程式
TW202306536A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 肌酸酐風險推定裝置、肌酸酐風險推定方法及程式
TW202307431A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 尿酸值推定裝置、尿酸值推定方法及程式
TW202307430A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 HbA1c風險推定裝置、HbA1c風險推定方法及程式
CN114021635A (zh) * 2021-10-29 2022-02-08 北京京东振世信息技术有限公司 用于训练模型的方法、装置、设备以及存储介质
CN114692724B (zh) * 2022-03-03 2023-03-28 支付宝(杭州)信息技术有限公司 数据分类模型的训练方法、数据分类方法和装置
US12084068B2 (en) * 2022-06-08 2024-09-10 GM Global Technology Operations LLC Control of vehicle automated driving operation with independent planning model and cognitive learning model

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174656A1 (ja) 2013-04-26 2014-10-30 株式会社 日立製作所 制御システム検査装置
JP2017010540A (ja) 2015-06-04 2017-01-12 ザ マスワークス, インクThe Mathworks, Inc. 系および部品における信頼性情報の影響の識別および分析のためのモデルに基づく設計の拡張
JP2017033562A (ja) 2015-08-05 2017-02-09 ゼネラル・エレクトリック・カンパニイ 安全重視ソフトウェア開発のためのモデルベース技術および過程のためのシステムおよび方法
JP2017161991A (ja) 2016-03-07 2017-09-14 三菱重工業株式会社 品質評価システム、品質評価方法及びプログラム
JP2018135068A (ja) 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219716A (ja) * 2006-02-15 2007-08-30 Nissan Motor Co Ltd 運転支援装置、運転支援方法および運転支援装置付き車両
WO2008015966A1 (fr) * 2006-08-04 2008-02-07 Panasonic Corporation Indicateur d'informations de collision et procédé associé
JP5076592B2 (ja) * 2007-03-29 2012-11-21 トヨタ自動車株式会社 運転者危険度取得装置
JP5447371B2 (ja) * 2008-04-15 2014-03-19 日本電気株式会社 移動体警告装置、移動体警告方法および移動体警告プログラム
US8401282B2 (en) * 2010-03-26 2013-03-19 Mitsubishi Electric Research Laboratories, Inc. Method for training multi-class classifiers with active selection and binary feedback
TWI455073B (zh) * 2011-12-14 2014-10-01 Ind Tech Res Inst 車用特定路況警示裝置、系統與方法
CN107531245B (zh) * 2015-04-21 2020-01-24 松下知识产权经营株式会社 信息处理系统、信息处理方法、以及程序
JP6504031B2 (ja) * 2015-11-13 2019-04-24 株式会社デンソー リスク情報蓄積装置
JP2017111726A (ja) * 2015-12-18 2017-06-22 パイオニア株式会社 報知装置及び報知方法
US9928432B1 (en) * 2016-09-14 2018-03-27 Nauto Global Limited Systems and methods for near-crash determination
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
US10274338B2 (en) * 2016-12-11 2019-04-30 International Business Machines Corporation Risk situations for vehicle occupants based on data provided by vehicle sensors and contextual information
US11288612B2 (en) * 2017-05-23 2022-03-29 Uatc, Llc Generalized risk routing for human drivers
US10592634B1 (en) * 2017-06-06 2020-03-17 Ansys, Inc. Systems and methods for automatic handling of engineering design parameter violations
US20180370502A1 (en) * 2017-06-27 2018-12-27 Dura Operating, Llc Method and system for autonomous emergency self-learning braking for a vehicle
US10977562B2 (en) * 2017-08-07 2021-04-13 International Business Machines Corporation Filter for harmful training samples in active learning systems
CN107945574B (zh) * 2017-10-25 2020-04-10 东软集团股份有限公司 一种车辆碰撞预警方法、装置及设备
US10845815B2 (en) * 2018-07-27 2020-11-24 GM Global Technology Operations LLC Systems, methods and controllers for an autonomous vehicle that implement autonomous driver agents and driving policy learners for generating and improving policies based on collective driving experiences of the autonomous driver agents
US11656620B2 (en) * 2018-12-31 2023-05-23 Luminar, Llc Generating environmental parameters based on sensor data using machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174656A1 (ja) 2013-04-26 2014-10-30 株式会社 日立製作所 制御システム検査装置
JP2017010540A (ja) 2015-06-04 2017-01-12 ザ マスワークス, インクThe Mathworks, Inc. 系および部品における信頼性情報の影響の識別および分析のためのモデルに基づく設計の拡張
JP2017033562A (ja) 2015-08-05 2017-02-09 ゼネラル・エレクトリック・カンパニイ 安全重視ソフトウェア開発のためのモデルベース技術および過程のためのシステムおよび方法
JP2017161991A (ja) 2016-03-07 2017-09-14 三菱重工業株式会社 品質評価システム、品質評価方法及びプログラム
JP2018135068A (ja) 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024091059A1 (ko) * 2022-10-27 2024-05-02 한국과학기술원 효율적인 사이버 물리 시스템 목표 검증을 위한 모방 학습을 활용한 가상 환경 모델 생성 기법

Also Published As

Publication number Publication date
CN113519018B (zh) 2023-01-03
WO2020183609A1 (ja) 2020-09-17
CN113519018A (zh) 2021-10-19
US20220169277A1 (en) 2022-06-02
JPWO2020183609A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
JP7046262B2 (ja) 移動体制御装置および移動体制御方法
US11814085B2 (en) System for grid-based merge cut-in prediction and method thereof
US11886506B2 (en) System and method for providing object-level driver attention reasoning with a graph convolution network
US10678252B2 (en) Systems, apparatus, and methods for embedded encodings of contextual information using a neural network with vector space modeling
JP7511544B2 (ja) 動的空間シナリオの分析
Remmen et al. Cut-in scenario prediction for automated vehicles
Kuutti et al. Deep learning for autonomous vehicle control: Algorithms, state-of-the-art, and future prospects
JP2023540613A (ja) 運転者支援システムを試験するための方法およびシステム
CN111661045A (zh) 训练用于察觉碰撞的轨迹预测的生成器单元和鉴别器单元
Yao et al. Target vehicle selection algorithm for adaptive cruise control based on lane-changing intention of preceding vehicle
Herman et al. Pedestrian behavior prediction for automated driving: Requirements, metrics, and relevant features
Ewecker et al. Provident vehicle detection at night for advanced driver assistance systems
US20230038337A1 (en) Method and device for evaluating an image classifier
Rizvi et al. Fuzzy adaptive cruise control system with speed sign detection capability
JP6972444B1 (ja) 信頼度判定装置および信頼度判定方法
Nguyen et al. Modeling car-following behavior in downtown area based on unsupervised clustering and variable selection method
JP7370495B2 (ja) 制御装置および制御方法
JP7143538B2 (ja) 運転支援装置および運転支援方法
US20230351771A1 (en) Method for ascertaining a dynamic foreign object-driving corridor association
EP4224434A1 (en) Apparatus and method for evaluating a machine learning model used for assisted or autonomous driving of a vehicle
Jagtap et al. Improving Run Time Efficiency of Semantic Video Event Classification
US20220309799A1 (en) Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle
Rahman Implementation of ADAS and Autonomy on UNLV Campus
Li et al. Perceptual Risk-Aware Adaptive Responsibility Sensitive Safety for Autonomous Driving
Katare Exploration of Deep Learning Applications on an Autonomous Embedded Platform (Bluebox 2.0)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220322

R150 Certificate of patent or registration of utility model

Ref document number: 7046262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150