JP6972444B1 - 信頼度判定装置および信頼度判定方法 - Google Patents

信頼度判定装置および信頼度判定方法 Download PDF

Info

Publication number
JP6972444B1
JP6972444B1 JP2021541630A JP2021541630A JP6972444B1 JP 6972444 B1 JP6972444 B1 JP 6972444B1 JP 2021541630 A JP2021541630 A JP 2021541630A JP 2021541630 A JP2021541630 A JP 2021541630A JP 6972444 B1 JP6972444 B1 JP 6972444B1
Authority
JP
Japan
Prior art keywords
unit
data
abstraction
feature amount
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021541630A
Other languages
English (en)
Other versions
JPWO2022201276A1 (ja
Inventor
卓爾 森本
匠 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6972444B1 publication Critical patent/JP6972444B1/ja
Publication of JPWO2022201276A1 publication Critical patent/JPWO2022201276A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

入力データを取得する取得部(11)と、取得部(11)が取得した入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する抽象化部(13)と、抽象化部(13)が生成した抽象化データを入力として当該抽象化データの特徴量を出力する特徴量抽出部(141)と、特徴量抽出部(141)が出力した特徴量を入力として抽象化データを復元した復元後抽象化データを出力する復元部(142)と、抽象化部(13)が生成した抽象化データと復元部(142)が出力した復元後抽象化データとに基づき、特徴量抽出部(141)が抽出した特徴量の信頼度を判定する信頼度判定部(15)とを備えた。

Description

本開示は、学習済みのニューラルネットワークによる推論結果の信頼度を判定する信頼度判定装置および信頼度判定方法に関する。
近年、ニューラルネットワークを応用した技術の研究および開発が多くの分野で進められている。
一方、ニューラルネットワークは、一般に、学習に用いられた学習データと類似性が低いデータ(以下「学習範囲外のデータ」という。)に対しては、正答率が低下することが知られている。したがって、ニューラルネットワークによる推論結果を使用する場合は、ニューラルネットワークの入力とした入力データが学習データと類似性が高い(以下「学習範囲内のデータ」という。)データであるか否かが判定されていることが重要である。学習範囲内ではないデータ、言い換えれば、学習範囲外のデータ、を入力とした推論結果は、信頼に足るものではないと想定されるためである。
そこで、従来、学習済みの自己符号化器を用いて、ニューラルネットワークの入力データが学習範囲内のデータか否かを判定する技術が知られている(例えば、特許文献1)。
自己符号化器は、入力層と出力層に同じデータを用いて教師あり学習させたものであり、入力の性質をよくあらわす低次元の特徴量を得る。自己符号化器に与えた入力データが学習範囲内のデータであれば、当該入力データに類似する出力データが得られる。そのため、自己符号化器を用いれば、入力データと出力データの差異に基づき、入力データが学習範囲内のデータであるか否かを判定することができる。
特開2019−139277号公報
特許文献1に開示されているような技術に代表される従来技術は、推論時に想定され得る、無数の状況に対応することができない。例えば、無数に発生する状況をニューラルネットワークに学習させる場合、事前に、推論時に発生し得る無数の状況を想定した学習データを用意しなければならない。しかし、推論時に発生し得る無数の状況に応じた学習データを用意することは困難である。
従来技術では、推論時に無数の状況が発生し得ることが考慮されていない。そのため、従来技術では、入力データと学習データとの差異が、無数の状況を想定した学習データを用意することが困難なことに起因する差異であり、その差異が推論結果に影響しない差異であったとしても、入力データは学習範囲外のデータであると判定される、言い換えれば、ニューラルネットワークの推論結果は信頼するに足るものではないと判定される可能性があるという課題があった。
本開示は上記のような課題を解決するためになされたもので、推論時に無数の状況が発生し得ることを考慮して、ニューラルネットワークの推論結果の信頼度を判定することができる信頼度判定装置を提供することを目的とする。
本開示に係る信頼度判定装置は、入力データを取得する取得部と、取得部が取得した入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する抽象化部と、抽象化部が生成した抽象化データを入力として当該抽象化データの特徴量を出力する特徴量抽出部と、特徴量抽出部が出力した特徴量を入力として抽象化データを復元した復元後抽象化データを出力する復元部と、抽象化部が生成した抽象化データと、復元部が出力した復元後抽象化データとに基づき、特徴量抽出部が出力した特徴量の信頼度を判定する信頼度判定部とを備えた。
本開示によれば、推論時に無数の状況が発生し得ることを考慮して、ニューラルネットワークの推論結果の信頼度を判定することができる。
実施の形態1に係る信頼度判定装置の構成例を示す図である。 実施の形態1において抽象化部が生成する抽象化画像データで示される抽象化画像の一例を説明するための図であって、図2Aは、抽象化部が抽象化画像データを生成するもととなる実環境の一例を示す図であり、図2Bは、実環境が図2Aに示すような環境であった場合に、抽象化部が生成する抽象化画像データで示される抽象化画像の一例を示す図である。 図3A、図3B、および、図3Cは、実施の形態1において抽象化部が生成する抽象化画像データで示される抽象化画像のその他の一例を説明するための図である。 実施の形態1において抽象化部が生成する抽象化画像データで示される抽象化画像のその他の一例を説明するための図であって、図4Aは、抽象化部が道路環境を簡易化した抽象化画像データを生成するもととなる実環境の一例を示す図であり、図4Bは、実環境が図4Aに示すような環境であった場合に、抽象化部が生成する抽象化画像データで示される抽象化画像の一例を示す図である。 実施の形態1において抽象化部が生成する、将来的な環境を反映した抽象化画像データで示される抽象化画像の一例を説明するための図である。 実施の形態1において、信頼度判定部が、特徴量の信頼度を判定する際にマスクをかけた抽象化画像データで示される抽象化画像の一例を説明するための図である。 実施の形態1に係る信頼度判定装置の動作を説明するためのフローチャートである。 図8Aおよび図8Bは、実施の形態1に係る信頼度判定装置のハードウェア構成の一例を示す図である。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
信頼度判定装置は、学習済みのニューラルネットワークを用いて、入力データに基づく推論を行い、推論結果がどれぐらい信頼に足るものであるかを示す度合い(以下「信頼度」という。)を判定する。
より詳細には、信頼度判定装置は、基準となる物体の状況に関するデータを入力データとして取得し、学習済みのニューラルネットワークを用いて、基準となる物体に関する推論を行い、得られた推論結果の信頼度を判定する。基準となる物体の状況に関するデータは、具体的には、基準となる物体そのものの状況に関するデータ、または、当該基準となる物体周辺の状況に関するデータを含む。
以下の実施の形態1では、一例として、信頼度判定装置が自動運転可能な車両にて用いられることを想定している。すなわち、基準となる物体は車両であるとする。
信頼度判定装置は、入力データとして車両周辺の環境に関する環境データを取得し、取得した環境データに基づき、学習済みのニューラルネットワークを用いて、車両の自動運転における制御量を推論するとともに、推論した制御量の信頼度を判定する。実施の形態1において、車両の制御量は、例えば、ハンドル操舵角またはブレーキ量等の車両制御コマンドを想定している。
図1は、実施の形態1に係る信頼度判定装置1の構成例を示す図である。
信頼度判定装置1は、車両100に搭載され、センサ2および制御装置3と接続される。
センサ2は、車両100に搭載され、車両100周辺の環境に関するデータ(以下「環境データ」という。)を収集する。
センサ2は、車両100の現在位置を検出するGPS(図示省略)、車両100周辺を撮像する撮像装置(図示省略)、車両100周辺に存在する物体を検出するレーダ(図示省略)、地図情報を取得する地図情報取得装置、車速センサ、または、加速度センサ等、車両100周辺の環境に関するデータを収集可能な種々のセンサである。なお、実施の形態1において、車両100周辺の環境とは、車両100周辺の状況であり、車両100周辺の状況には車両100の状況も含まれる。
センサ2が収集する環境データには、例えば、自車データ、他者データ、地形データ、または、標識データが含まれる。自車データは、例えば、車両100の車速、加速度、位置、または、形状を示すデータである。他者データは、例えば、車両100周辺に存在する物体(例えば、人、車両または障害物)の種別、位置、速度、または、形状を示すデータである。地形データは、例えば、土地の形状または属性(例えば、走行可能または進入禁止)を示すデータである。標識データは、例えば、標識の意味、位置、または、影響範囲を示すデータである。
なお、図1では、センサ2は1つのみ図示しているが、これは一例に過ぎない。信頼度判定装置1は、複数のセンサ2と接続され得る。複数のセンサ2は、同じ種類の複数のセンサ2であってもよいし、互いに種類の異なる複数のセンサ2であってもよい。
信頼度判定装置1は、センサ2から出力された環境データに基づいて、学習済みのニューラルネットワークを用いて、車両100の自動運転における制御量を推論するとともに、推論した制御量の信頼度を判定する。信頼度判定装置1の詳細は、後述する。
信頼度判定装置1は、推論した車両100の制御量および当該制御量の信頼度に関する情報を対応付けて、制御装置3に出力する。
制御装置3は、例えば、車両100に搭載され、車両100の自動運転制御を行う自動運転制御装置を想定している。
制御装置3は、信頼度判定装置1から出力された制御量および信頼度に基づき、車両100の自動運転制御を行う。例えば、制御装置3は、信頼度が予め設定された閾値(以下「信頼度判定用閾値」という。)以上であれば、制御量を用いた自動運転制御を行う。例えば、制御装置3は、信頼度が信頼度判定用閾値未満であれば、制御量を用いた自動運転制御を行わず、自動運転から手動運転への切替制御を行う。
信頼度判定装置1は、取得部11、将来環境予測部12、抽象化部13、特徴量抽出部141、復元部142、信頼度判定部15、推論部16、および、推論結果出力部17を備える。特徴量抽出部141と復元部142とで、自己符号化器14を構成する。
取得部11は、センサ2から入力データを取得する。
実施の形態1では、取得部11は、入力データとして、車両100周辺の環境データを取得する。以下の実施の形態1において、車両100周辺の環境データを、単に「環境データ」ともいう。
取得部11は、取得した入力データ、言い換えれば、環境データを、将来環境予測部12に出力する。
なお、実施の形態1において、取得部11は、取得した環境データを、記憶部(図示省略)に記憶させる。
将来環境予測部12は、取得部11が取得した環境データに基づき、将来的な環境を予測する。なお、将来環境予測部12が、どれぐらい先の環境を予測するかは、適宜設定可能とする。
例えば、将来環境予測部12は、記憶部に記憶されている環境データから、将来的な環境を予測することができる。具体例を挙げると、例えば、将来環境予測部12は、環境データに含まれる自車データに基づけば、車両100の、設定された時間後の位置および車速を予測できる。また、例えば、将来環境予測部12は、環境データに含まれる他者データに基づけば、車両100周辺に存在する歩行者の、設定された時間後の位置および移動速度を予測できる。
将来環境予測部12は、予測した将来的な環境に関するデータを、環境データと対応付けて、抽象化部13に出力する。
抽象化部13は、取得部11が取得した入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する。
実施の形態1では、抽象化部13は、取得部11が取得した環境データに基づき、当該環境データを抽象的な表現形式で示した抽象化データを生成する。
実施の形態1において、データを抽象的な表現形式で示すとは、当該データを構成する各部の細部を捨象することをいう。
抽象化部13は、環境データに基づき、現実に存在する物体、ここでは、例えば、車両100、道路、他車両、または、歩行者を、それぞれ、その存在位置で、その物体の細部、例えば、車両100および他車両についてはその形状または模様等の細部、道路についてはその凹凸等の細部、歩行者についてはその体の形状等の細部を捨象した形状にて示した抽象化データを生成する。物体の細部を捨象した形状をどのような形状とするかは、予め、物体ごとに決められている。
実施の形態1では、抽象化部13が生成する抽象化データは、画像データとする。すなわち、実施の形態1において、抽象化部13は、画像上で、現実に存在する車両100、道路、他車両、または、歩行者等を、それぞれ、その存在位置で、その細部を捨象した形状で示した画像データを生成する。
以下の実施の形態1において、抽象化部13が抽象化データとして生成する画像データを、「抽象化画像データ」ともいう。実施の形態1において、抽象化画像データは、例えば、俯瞰図のデータとする。
抽象化部13は、抽象化画像データを生成する際、基準となる物体、ここでは車両100を基準として抽象化画像データを生成する。例えば、予め、基準となる物体を、抽象化画像データで示される抽象化画像上のどの位置で示すかが決められている。また、予め、基準となる物体を基準としてどの範囲内の環境を、抽象化画像上で示すかが決められている。抽象化部13は、基準となる物体を基準として、予め決められた範囲内に存在する物体が、抽象化画像上で、基準となる物体との位置関係に応じた位置に示されるよう、抽象化画像データを生成する。
抽象化部13は、抽象化画像データを生成するにあたり、まず、現実に存在する物体、具体的には、車両100、他車両、道路、または、歩行者等を、環境データに基づいて認識する。例えば、抽象化部13は、画像認識技術またはパターンマッチング等の既知の技術を用いて、現実に存在する物体を認識すればよい。
次に、抽象化部13は、認識した物体を、予め決められた形状にて、基準となる物体、ここでは車両100を基準とした画像上の位置に示した抽象化画像データを生成する。抽象化部13は、環境データに基づけば車両100および車両100周辺の物体が現実に存在する位置を特定できる。抽象化部13は、各物体が現実に存在する位置を特定できれば、当該各物体を、抽象化画像データ上のどの位置で示せばよいかを特定できる。
ここで、図2は、実施の形態1において抽象化部13が生成する抽象化画像データで示される抽象化画像の一例を説明するための図である。
図2Aは、抽象化部13が抽象化画像データを生成するもととなる現実の車両100周辺の環境(以下「実環境」という。)の一例を示す図である。
図2Bは、実環境が図2Aに示すような環境であった場合に、抽象化部13が生成する抽象化画像データで示される抽象化画像の一例を示す図である。
なお、図2Aは車両100周辺の環境を俯瞰図で示している。また、抽象化部13が生成する抽象化画像データは俯瞰図のデータとしている。
今、図2Aに示すような実環境において、車両100は道路(図2Aにおいて41で示す)を走行中、交差点に差し掛かり、車両100の進行方向の交差点内または交差点の入り口には他車両(図2Aにおいて42〜44で示す)が存在している。または、交差点のまわりには、横断歩道を渡る歩行者(図2Aにおいて45〜46で示す)が存在している。
実環境が図2Aに示すような環境である場合、抽象化部13は、例えば、図2Bの5a〜5dに示すような4枚の抽象化画像を示す抽象化画像データを生成する。
図2Bにおいて、5aは車両100の位置をあらわす抽象化画像であり、5bは車両100が走行可能な領域、すなわち、車線の地形をあらわす抽象化画像であり、5cは他車両の位置をあらわす抽象化画像であり、5dは歩行者の位置をあらわす抽象化画像である。
図2Bに示すように、抽象化画像において、車両100、車線の地形、他車両、および歩行者は、これらを構成する各部の細部が捨象され、簡略化して表現されている。
例えば、5aの抽象化画像、および、5cの抽象化画像において、車両100および他車両は、それぞれ、白色の矩形にて表現されている(図2Bの500、52〜54参照)。車両100および他車両の形状および模様は捨象されている。また、例えば、5bの抽象化画像において、車線は白色の矩形にて表現され(図2Bの51参照)、5dの抽象化画像において、歩行者は白丸で表現されている(図2Bの55〜56)。道路の凹凸、歩行者の形状、および、歩行者の服装は捨象されている。
なお、ここでは、予め、抽象化画像データにおいて表現する物体の形状について、車両および道路の形状は白色の矩形(図2Bの5bの抽象化画像の51参照)、歩行者の形状は白色の丸(図2Bの5dの抽象化画像の55〜56参照)と決められている。また、抽象化画像の背景は黒色と予め決められている。
なお、抽象化画像上、車両100周辺の環境のすべてが表現されている必要はない。
抽象化部13は、環境データに基づき、抽象化画像上で、予め決められている、抽象化データ作成対象となる物体の位置を示す抽象化画像データを生成する。抽象化データ作成対象となる物体とは、例えば、信頼度判定装置1が信頼度を判定すべき推論結果に関連が高い物体、ここでは、車両100の走行に関連が高い物体である。
また、上述の図2Aおよび図2Bを用いた説明では、抽象化部13は、車両100周辺の環境に存在する物体の種類ごとに、言い換えれば、車両100、車線、他車両、および、歩行者ごとに、抽象化画像データをそれぞれ生成するものとしたが、これは一例に過ぎない。抽象化部13は、車両100周辺の環境に対して1枚の抽象化画像を示す抽象化画像データを生成してもよい。
また、抽象化部13は、抽象化画像データで示す車両100周辺の環境に存在する物体がその種類に応じて色分けしてあらわされるよう、抽象化画像データを生成することもできる。例えば、抽象化部13は、車両100は赤、他車両は黄色、というように、抽象化画像上で車両100周辺の環境に存在する物体が当該物体の種類に応じて色分けしてあらわされるよう、抽象化画像データを生成することもできる。
また、図2Aおよび図2Bを用いて説明したような抽象化画像データにおける物体の表現方法は一例に過ぎない。例えば、抽象化部13は、図2Bのような表現方法以外の表現方法で車両100周辺の環境に存在する物体が表現されるよう、抽象化画像データを生成してもよい。
図3A、図3B、および、図3Cは、実施の形態1において抽象化部13が生成する抽象化画像データで示される抽象化画像のその他の一例を説明するための図である。
なお、図3A、図3B、および、図3Cは、実環境が図2Aに示すような環境であった場合に、抽象化部13が生成する抽象化画像データで示される抽象化画像の一例を示している。図3Aおよび図3Bは、車線の地形をあらわす抽象化画像の一例としている。図3Cは、他車両の位置をあらわす抽象化画像の一例としている。
例えば、抽象化部13は、車両100が走行可能な車線を示す領域と車両100が走行不能な車線を示す領域とを色分けして示す抽象化画像データを生成してもよい。図3Aは、抽象化部13が、車両100が走行可能な車線を示す領域を白色の矩形にて表現し、車両100が走行不能な車線を示す領域については黒色の矩形にて表現するよう、抽象化画像データを生成した場合の抽象化画像としている。図3Aで示す抽象化画像を図2Bにおいて5bで示していた抽象化画像と比べると、図3Aで示す抽象化画像において、車両100が走行可能な車線のみが白色で表現されていることがわかる。なお、抽象化部13は、車両100が走行可能な車線であるか否かを環境データから判定すればよい。
また、例えば、抽象化部13は、車線を示す領域について制限速度を表す色を付与した抽象化画像データを生成してもよい。図3Bは、抽象化部13が、制限速度に応じて、車両100が走行可能な車線を示す領域が色分けされて表現されるよう、抽象化画像データを生成した場合の、当該抽象化画像データで示される抽象化画像としている。この一例では、抽象化部13は、制限速度の高低を白または灰色で表現されるようにしている。なお、抽象化部13は、車線の制限速度を環境データから判定すればよい。
また、例えば、抽象化部13は、他車両の移動方向および移動速度を色分けして表現するよう、抽象化画像データを生成してもよい。例えば、図3Cに示すように、抽象化部13は、抽象化画像において、他車両を、当該他車両の形状をあらわす濃い灰色の矩形(図3Cの52a、53a、54a参照)と、当該他車両の移動方向をあらわす薄い灰色の矩形(図3Cの52b、53b、54b参照)とで構成される矩形にて表現されるよう、抽象化画像データを生成できる。図3Cに示す抽象化画像では、移動方向をあらわす薄い灰色の矩形によって、他車両が当該薄い灰色の矩形が示されている方向に移動していることが表現されている。さらに、抽象化部13は、他車両の移動方向をあらわす薄い灰色の矩形について、移動速度に応じて灰色の濃さを変化させて表現するようにしてもよい。例えば、図3Cに示す抽象化画像では、54aで示される他車両よりも53aで示される他車両の方が、移動速度が速いことが表現されている。なお、抽象化部13は、他車両の移動方向および移動速度を、環境データから判定すればよい。
また、例えば、抽象化部13は、抽象化画像データを生成する際、図4に示すように、実環境の道路環境を簡易化することもできる。
図4Aは、抽象化部13が道路環境を簡易化した抽象化画像データを生成するもととなる実環境の一例を示す図である。
図4Bは、実環境が図4Aに示すような環境であった場合に、抽象化部13が生成する抽象化画像データで示される抽象化画像の一例を示す図である。
なお、図4Aは、図2A同様、車両100周辺の環境を俯瞰図で示している。また、抽象化部13が生成する抽象化画像データは俯瞰図のデータとしている。
実環境が図4Aに示すような環境である場合、抽象化部13は、例えば、図4Bの5eおよび5fに示すような2枚の抽象化画像を示す抽象化画像データを生成する。
図4Bにおいて、5eは車両100の位置をあらわす抽象化画像であり、5fは車線の地形をあらわす抽象化画像である。
今、図4Aに示すような実環境において、車両100が走行している道路(図4Aにおいて411で示す)は直線ではない。この場合、抽象化部13は、例えば、5fのように、実環境では直線ではない道路を、車両100進行方向を縦軸とする座標系に変換して矩形にした抽象化画像を示すよう変換した抽象化画像データを生成することもできる。5fの抽象化画像において、車線は白色の矩形にて表現されている(図4Bの511参照)。
なお、5eは、図2Bの5a同様、車両100を白色の矩形にて表現した抽象化画像である(図4Bの500参照)。
また、例えば、抽象化部13は、取得部11が取得した環境データと、将来環境予測部12が予測した将来的な環境に関するデータに基づき、将来環境予測部12が予測した将来的な環境を反映した抽象化画像データを生成することもできる。
図5は、実施の形態1において抽象化部13が生成する、将来的な環境を反映した抽象化画像データで示される抽象化画像の一例を説明するための図である。
なお、図5は、実環境が図2Aに示すような環境であった場合に、抽象化部13が生成する抽象化画像データで示される抽象化画像の一例を示す図である。図5は、他車両の位置をあらわす抽象化画像の一例としている。
例えば、抽象化部13は、将来環境予測部12が予測した他車両の将来的な位置に関するデータに基づき、図5に示すように、抽象化画像において、将来、他車両が存在する確率が高い領域ほど白に近い色で表現するよう、抽象化画像データを生成できる。
抽象化部13は、例えば、移動体または遮蔽物からの飛び出し等、潜在的な交通上のリスクを可視化した、いわゆるリスクポテンシャルマップを用いて、将来的な環境を反映した抽象化画像データを生成してもよい。
抽象化部13が将来的な環境を反映した抽象化画像データを生成することで、推論部16において、より高度な推論を実現できる。推論部16の詳細は後述する。
また、抽象化部13は、将来的な環境を反映した抽象化画像データを生成できるだけではなく、過去の車両100周辺の環境を反映した抽象化画像データを生成することもできる。抽象化部13は、過去の車両100周辺の環境を、例えば、記憶部に記憶されている環境データから判定すればよい。
また、抽象化部13は、取得部11が取得した環境データと、将来環境予測部12が予測した将来的な環境に関するデータに基づき、過去から将来における車両100周辺の環境を示す時系列の抽象化画像データを生成することもできる。例えば、抽象化部13は、過去のある時点(t=0)、現在(t=1)、および、将来のある時点(t=2)における抽象化画像データを生成する。なお、抽象化部13は、過去のある時点、現在、および、将来のある時点において、それぞれ、1枚の抽象化画像を示す抽象化画像データを生成してもよいし、車両100周辺の環境に存在する物体の種類ごとの複数枚の抽象化画像を示す抽象化画像データを生成してもよい。
以上のとおり、抽象化部13は、車両100周辺の将来的な環境、または、過去の環境に基づいて抽象化画像データを生成することができる。しかし、これは必須ではない。
抽象化部13が将来的な環境を反映した抽象化画像データを生成する機能を有しない場合、信頼度判定装置1は、将来環境予測部12を備えない構成とできる。なお、抽象化部13が将来的な環境を反映した抽象化画像データを生成する場合であっても、抽象化部13はリスクポテンシャルマップを用いて当該抽象化画像データを生成し、将来環境予測部12が予測した将来的な環境に関するデータを用いない場合、信頼度判定装置1は、将来環境予測部12を備えない構成とできる。
抽象化部13は、生成した抽象化画像データを、特徴量抽出部141および信頼度判定部15に出力する。
特徴量抽出部141は、抽象化部13から出力された抽象化データ、ここでは、抽象化画像データ、を入力として特徴量を出力するように学習済みのニューラルネットワークである。特徴量抽出部141は抽象化画像データを入力として当該抽象化画像データの本質的な特徴を示す特徴量を抽出して出力する。
復元部142は、特徴量抽出部141から出力された特徴量を入力として抽象化部13が生成した抽象化データを復元したデータ(以下「復元後抽象化データ」という。)を出力するように学習済みのニューラルネットワークである。具体的には、実施の形態1では、復元部142は、特徴量抽出部141から出力された特徴量を入力として抽象化部13が生成した抽象化画像データを復元した復元後の画像データ(以下「復元後抽象化画像データ」という。)を出力する。
特徴量抽出部141は、学習済みの自己符号化器14における符号化部(エンコーダ)で構成され、復元部142は自己符号化器14における複合部(デコーダ)で構成される。
自己符号化器14は、入力と出力に同じデータを用いて学習させることで、入力データを再現するデータを出力するようになるとともに、入力の性質をよくあらわす低次元の特徴量を得る。
実施の形態1において、信頼度判定装置1は、学習済みの自己符号化器14の符号化部を特徴量抽出部141として使用し、学習済みの自己符号化器14の複合部を復元部142として使用する。なお、信頼度判定装置1は、特徴量抽出部141および復元部142に自己符号化器を用いるようになっていればよく、信頼度判定装置1が特徴量抽出部141および復元部142として用いる自己符号化器の種類は問わない。例えば、信頼度判定装置1は、特徴量抽出部141および復元部142として変分自己符号化器を用いてもよい。
信頼度判定部15は、抽象化部13が生成した抽象化データと、復元部142が出力した復元後抽象化データとに基づき、特徴量抽出部141が抽出した特徴量の信頼度を判定する。具体的には、実施の形態1では、信頼度判定部15は、抽象化部13が生成した抽象化画像データと、復元部142が出力した復元後抽象化画像データとに基づき、特徴量抽出部141が抽象化画像データから抽出した特徴量の信頼度を判定する。
例えば、信頼度判定部15は、抽象化部13が生成した抽象化画像データと、復元部142が出力した復元後抽象化画像データとの類似度に基づいて、特徴量抽出部141が抽出した特徴量の信頼度を判定する。具体的には、信頼度判定部15は、例えば、復元後抽象化画像データに基づく抽象化画像(以下「復元後抽象化画像」という。)と抽象化データに基づく抽象化画像の画像間の距離(例えば、ユークリッド距離)を算出し、算出した画像間の距離の逆数を類似度とする。
そして、信頼度判定部15は、類似度が小さいほど特徴量の信頼度は低いと判定する。算出した画像間の距離が大きい場合、言い換えれば、類似度が小さい場合、復元後抽象化画像データは、抽象化画像データを精度よく復元されていないといえる。すなわち、自己符号化器14は、抽象化画像データを復元するための適切な特徴量を抽出するよう学習済みではないといえる。つまり、自己符号化器14が機械学習を行う際、抽象化画像データに対応する学習データは学習対象とならなかったと考えられる。一般に、機械学習におけるニューラルネットワークは、機械学習を行う際に学習対象とならなかった未知のデータに対する出力を保証できない。
したがって、信頼度判定部15は、算出した画像間の距離が大きい場合、言い換えれば、類似度が小さい場合、特徴量の信頼度が低いと判定する。
これに対し、信頼度判定部15は、類似度が大きいほど特徴量の信頼度は高いと判定する。算出した画像間の距離が小さい場合、言い換えれば、類似度が大きい場合、復元後抽象化画像データは、抽象化画像データを精度よく復元されているといえる。すなわち、自己符号化器14は、抽象化画像データを復元するための適切な特徴量を抽出するよう学習済みであるといえる。
したがって、信頼度判定部15は、算出した画像間の距離が小さい場合、言い換えれば、類似度が大きい場合、特徴量の信頼度が高いと判定できる。
信頼度判定部15は、例えば、類似度と予め設定されている閾値(以下「類似度判定用閾値」という。)との比較によって、特徴量の信頼度は高いか、低いかを判定する。例えば、信頼度判定部15は、類似度が類似度判定用閾値以上の場合、特徴量の信頼度は高いと判定する。一方、信頼度判定部15は、類似度が類似度判定用閾値未満の場合、特徴量の信頼度は低いと判定する。
信頼度判定部15は、抽象化画像データと復元後抽象化画像データに基づき、例えば、他車両または歩行者等、車両100周辺の環境に存在する物体ごとの復元誤差を、重心位置の差異またはIoU(Intersection over Union)によって算出し、算出した復元誤差の逆数を類似度としてもよい。信頼度判定部15は、例えば、物体ごとの類似度がいずれも類似度判定用閾値以上であれば、特徴量の信頼度は高いと判定し、物体ごとの類似度のいずれか1つでも類似度判定用閾値未満であれば、特徴量の信頼度は低いと判定する。
また、信頼度判定部15は、例えば、抽象化画像データと復元後抽象化画像データの部分的な類似度に基づいて、特徴量抽出部141が抽出した特徴量の信頼度を判定してもよい。
具体的には、信頼度判定部15は、抽象化画像データが示す抽象化画像と復元後抽象化画像データが示す復元後抽象化画像で表現されている車両100周辺の環境に存在する物体の領域のうち、特徴量の信頼度の判定に用いない領域についてはマスクをかける。信頼度判定部15は、抽象化画像データと復元後抽象化画像データの類似度を算出する際にはマスクがかかっていない部分の類似度を算出し、算出した類似度と類似度判定用閾値との比較によって、特徴量抽出部141が抽出した特徴量の信頼度を判定する。
特徴量の信頼度の判定に用いない領域は、例えば、推論部16による車両100の制御量の推論に影響しないと想定される物体を示す領域であり、当該領域は予め設定されている。推論部16の詳細については、後述する。
ここで、図6は、実施の形態1において、信頼度判定部15が、特徴量の信頼度を判定する際にマスクをかけた抽象化画像データで示される抽象化画像の一例を説明するための図である。
図6は、一例として、図2Bに示した車両100の位置をあらわす抽象化画像(図2Bの5a)、車両100が走行可能な領域、すなわち、車線の地形をあらわす抽象化画像(図2Bの5b)、他車両の位置をあらわす抽象化画像(図2Bの5c)、歩行者の位置をあらわす抽象化画像(図2Bの5d)に対して、信頼度判定部15がそれぞれ、特徴量の信頼度の判定に用いない領域にマスクをかけた後の抽象化画像のイメージを示している。
なお、図6において5a’は、図2Bにて5aで示す抽象化画像に対してマスクをかけた後の抽象化画像のイメージを示す。図6において5b’は、図2Bにて5bで示す抽象化画像に対してマスクをかけた後の抽象化画像のイメージを示す。図6において5c’は、図2Bにて5cで示す抽象化画像に対してマスクをかけた後の抽象化画像のイメージを示す。図6において5d’は、図2Bにて5dで示す抽象化画像に対してマスクをかけた後の抽象化画像のイメージを示す。
例えば、実環境(図2A参照)において、車両100が走行する道路に直交する道路に設置されている信号が赤信号であるとする。この場合、車両100が走行する道路に直交する道路の状況が車両100の走行に与える影響は、小さい。すなわち、車両100が走行する道路に直交する道路の状況が車両100の制御量に与える影響は小さい。よって、信頼度判定部15は、車両100が走行する道路に直交する道路の状況を表現している領域、具体的には、車両100が走行している車線に直交する車線、当該道路を走行中の他車両、および、当該道路の横断歩道を横断している歩行者にマスクをかける。なお、信頼度判定部15は、環境データに基づけば赤信号を判定できる。
その結果、図2Bの5bで表現されていた車線の地形のうち、車両100が走行している車線に直交する車線の領域にマスクがかけられる(図6の5b’参照)。また、図2Bの5cで表現されていた他車両のうち、54で示されていた他車両が位置する領域にマスクがかけられる(図6の5c’参照)。また、図2Bの5dで表現されていた歩行者が位置する領域の部分にはすべてマスクがかけられる(図6の5d’参照)。
なお、図6では、信頼度判定部15が、抽象化画像データに対してマスクをかける一例について説明したが、信頼度判定部15は、復元後抽象化画像データに対しても、同様の方法でマスクをかける。
また、例えば、信頼度判定部15は、抽象化部13が生成した抽象化データと、復元部142が出力した復元後抽象化データとの類似度について、基準となる物体周辺の環境に存在する物体の種類ごとに重みをつけた上で、信頼度を判定してもよい。具体的には、実施の形態1では、信頼度判定部15は、例えば、抽象化部13が生成した抽象化画像データと、復元部142が出力した復元後抽象化画像データとの類似度について、車両100周辺の環境に存在する物体の種類ごとに重みをつけた上で、信頼度を判定してもよい。
以上の説明では、信頼度判定部15は、特徴量抽出部141が抽出した特徴量の信頼度を、「高い」または「低い」のように離散値であらわしたが、これは一例に過ぎない。例えば、信頼度判定部15は、特徴量抽出部141が抽出した特徴量の信頼度を、「0」〜「1」までの数値のように連続値であらわしてもよい。信頼度判定部15は、例えば、抽象化画像データと復元後抽象化画像データとの類似度に応じて、特徴量の信頼度を判定する。例えば、類似度がどれぐらいである場合に、信頼度をどれぐらいと判定するかは、予め決められている。
信頼度判定部15は、判定した信頼度に関する情報を、推論結果出力部17に出力する。
推論部16は、特徴量抽出部141が出力した特徴量を入力として推論結果を出力する、学習済みのニューラルネットワークである。
実施の形態1では、推論部16は、特徴量抽出部141が出力した特徴量を入力として車両100の制御量を出力する。
推論部16は、任意のニューラルネットワークである。例えば、推論部16は、人が車両100のテスト走行を行うことで収集された環境データに基づいて生成された抽象化画像データと適切な車両100の制御量の組を学習データとし、当該学習データに基づいて、いわゆる教師あり学習によって学習させたニューラルネットワークとする。また、例えば、推論部16は、シミュレータによって収集された環境データに基づいて生成された抽象化画像データと適切な車両100の制御量の組を学習データとし、当該学習データに基づいて、いわゆる教師あり学習によって学習させたニューラルネットワークとしてもよい。
なお、推論部16の入力とする特徴量は、学習済みの特徴量抽出部141を使用し、特徴量抽出部141が抽象化部13から出力された抽象化データを入力として出力した特徴量とする。
推論結果出力部17は、信頼度判定部15から出力された信頼度に関する情報、および、推論部16が出力した推論結果に基づき、信頼度判定部15が判定した信頼度を、推論部16が出力した推論結果に対する信頼度として、推論結果と信頼度とを対応付けて、制御装置3に出力する。
具体的には、実施の形態1では、推論結果出力部17は、信頼度判定部15から出力された信頼度に関する情報、および、推論部16が出力した車両100の制御量に基づき、信頼度判定部15が判定した信頼度を、推論部16が出力した車両100の制御量に対する信頼度として、車両100の制御量と信頼度とを対応付けて制御装置3に出力する。
上述のとおり、信頼度判定部15が判定する信頼度は、抽象化データから抽出された特徴量に対する信頼度である。また、推論部16は、抽象化データから抽出された特徴量を入力として車両100の制御量を推論する。
よって、例えば、特徴量の信頼度が低い場合、当該信頼度が低い特徴量を入力として得られた車両100の制御量も、信頼に足るものではないといえる。一方、例えば、特徴量の信頼度が高い場合、当該信頼度が高い特徴量を入力として得られた車両100の制御量も、信頼に足るものであるといえる。
実施の形態1に係る信頼度判定装置1の動作について説明する。
図7は、実施の形態1に係る信頼度判定装置1の動作を説明するためのフローチャートである。
例えば、車両100の自動運転中、図7のフローチャートで説明する動作が繰り返される。
取得部11は、センサ2から入力データを取得する(ステップST1)。
具体的には、取得部11は、入力データとして、環境データを取得する。
取得部11は、取得した入力データ、言い換えれば、環境データを、将来環境予測部12に出力する。
また、取得部11は、取得した環境データを、記憶部に記憶させる。
将来環境予測部12は、ステップST1にて取得部11が取得した環境データに基づき将来的な環境を予測する(ステップST2)。
将来環境予測部12は、予測した将来的な環境に関するデータを、環境データと対応付けて、抽象化部13に出力する。
抽象化部13は、ステップST1にて取得部11が取得した入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する(ステップST3)。
具体的には、抽象化部13は、ステップST1にて取得部11が取得した環境データに基づき、当該環境データを抽象的な表現形式で示した抽象化画像データを生成する。
例えば、抽象化部13は、ステップST1にて取得部11が取得した環境データと、ステップST2にて将来環境予測部12が予測した将来的な環境に関するデータに基づき、将来環境予測部12が予測した将来的な環境を反映した抽象化画像データを生成してもよい。また、抽象化部13は、過去の車両100周辺の環境を反映した抽象化画像データを生成してもよい。
また、抽象化部13は、ステップST1にて取得部11が取得した環境データと、ステップST2にて将来環境予測部12が予測した将来的な環境に関するデータに基づき、過去から将来における車両100周辺の環境を示す時系列の抽象化画像データを生成してもよい。
抽象化部13は、生成した抽象化画像データを、特徴量抽出部141および信頼度判定部15に出力する。
なお、抽象化部13が将来的な環境に基づいて抽象化画像データを生成する機能を有しない場合、信頼度判定装置1の動作は、ステップST2を省略することができる。
特徴量抽出部141は、ステップST3にて抽象化部13から出力された抽象化画像データを入力として当該抽象化画像データの本質的な特徴を示す特徴量を抽出して出力する(ステップST4)。
復元部142は、ステップST4にて特徴量抽出部141から出力された特徴量を入力として、ステップST3にて抽象化部13が生成した抽象化画像データを復元した復元後抽象化画像データを出力する(ステップST5)。
信頼度判定部15は、ステップST3にて抽象化部13が生成した抽象化画像データと、ステップST5にて復元部142が出力した復元後抽象化画像データとに基づき、ステップST4にて特徴量抽出部141が抽象化画像データから抽出した特徴量の信頼度を判定する(ステップST6)。
信頼度判定部15は、判定した信頼度に関する情報を、推論結果出力部17に出力する。
推論部16は、ステップST4にて特徴量抽出部141が出力した特徴量を入力として車両100の制御量を出力する(ステップST7)。
推論結果出力部17は、ステップST6にて信頼度判定部15から出力された信頼度に関する情報、および、ステップST7にて推論部16が出力した車両100の制御量に基づき、信頼度判定部15が判定した信頼度を、推論部16が出力した車両100の制御量に対する信頼度として、車両100の制御量と信頼度とを対応付けて制御装置3に出力する(ステップST8)。
このように、信頼度判定装置1は、取得した入力データ、言い換えれば、環境データに基づき、当該環境データを抽象的な表現形式で示した抽象化データ、言い換えれば、抽象化画像データを生成する。信頼度判定装置1は、生成した抽象化画像データを入力として抽象化画像データの特徴量を出力するニューラルネットワーク(特徴量抽出部141)を用いて抽象化画像データの特徴量を得、当該特徴量を入力として抽象化画像データを復元した復元後抽象化画像データを出力するニューラルネットワーク(復元部142)を用いて復元後抽象化画像データを得る。そして、信頼度判定装置1は、抽象化画像データと復元後抽象化画像データとに基づき、抽象化画像データから得られた特徴量の信頼度を判定する。
上述のとおり、近年、ニューラルネットワークを応用した技術の研究および開発が多くの分野で進められている。例えば、カメラで撮影した画像などの環境に関するデータと、その環境における適切な運転行動の組をニューラルネットワークで学習することで、自動運転を実現する技術が開発されている。
一方、ニューラルネットワークは、一般に、学習範囲外のデータに対しては正答率が低下する。
そこで、上述したように、従来、学習済みの自己符号化器を用いて、ニューラルネットワークの入力データが学習範囲内のデータか否かを判定する技術が知られている。
しかし、従来技術では、推論時に想定され得る、無数の状況に対応することができない。
例えば、上述したような、自動運転を実現する技術でいうと、道路形状、周辺車両の形状、または、歩行者の服等、自動運転を行う車両の周辺の状況は、無数に存在する。これに対し、ニューラルネットワークの学習データとして、ありとあらゆる状況を網羅した学習データを用意することは困難である。そうすると、従来技術では、入力データと学習データとの差異が、無数の状況を想定した学習データを用意することが困難なことに起因する差異であり、その差異が推論結果に影響しない差異であったとしても、入力データは学習範囲外のデータであると判定される可能性がある。
上述したような、自動運転を実現する技術でいうと、例えば、学習データにおける歩行者の服装と、推論時の実際の状況における歩行者の服装とが異なるだけで、推論時の入力データは学習範囲外と判定される可能性がある。
また、ニューラルネットワークの学習には大量の学習データが必要なため、ニューラルネットワークの学習のための学習データが、シミュレータで生成される場合がある。しかし、シミュレータで生成される学習データには、例えば、実環境特有の情報が含まれていない。そのため、従来技術では、入力データが学習範囲内のデータであるか否かの判定精度、言い換えれば、ニューラルネットワークの推論結果の判定精度が低下する可能性がある。
これに対し、実施の形態1に係る信頼度判定装置1は、自己符号化器(特徴量抽出部141)に対して入力データをそのまま入力して、入力データが学習範囲内のデータであるか否か、すなわち、特徴量が信頼するに足りるか否かを判定するのではなく、入力データに基づき抽象化データを生成し、自己符号化器に対して抽象化データを入力して、当該抽象化データから抽出された特徴量が信頼するに足りるか否かを判定する。そして、信頼度判定装置1は、特徴量が信頼するに足りるか否かを判定することで、ニューラルネットワーク(推論部16)の推論結果が信頼に足りるか否かを判定する。
抽象化データは、入力データを構成する各部の細部が捨象されたデータであるため、信頼度判定装置1は、例えば、学習データにおける歩行者の服装と、推論時の実際の状況における歩行者の服装が異なるだけで、入力データ、より詳細には、抽象化データから抽出された特徴量が信頼に足るものではないと判定することがない。つまり、信頼度判定装置1は、例えば、学習データにおける歩行者の服装と、推論時の実際の状況における歩行者の服装が異なるだけで、ニューラルネットワーク(推論部16)の推論結果が信頼に足るものではないと判定することがない。このように、信頼度判定装置1は、推論時に無数の状況が発生し得ることを考慮して、ニューラルネットワークの推論結果の信頼度を判定することができる。
図8Aおよび図8Bは、実施の形態1に係る信頼度判定装置1のハードウェア構成の一例を示す図である。
実施の形態1において、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17の機能は、処理回路1001により実現される。すなわち、信頼度判定装置1は、車両100周辺の環境に関する環境データに基づき生成された抽象化画像データから特徴量を取得し、当該特徴量を入力として推論された推論結果である車両100の制御量の信頼度を判定する制御を行うための処理回路1001を備える。
処理回路1001は、図8Aに示すように専用のハードウェアであっても、図8Bに示すようにメモリに格納されるプログラムを実行するプロセッサ1004であってもよい。
処理回路1001が専用のハードウェアである場合、処理回路1001は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路がプロセッサ1004の場合、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ1005に記憶される。プロセッサ1004は、メモリ1005に記憶されたプログラムを読み出して実行することにより、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17の機能を実行する。すなわち、信頼度判定装置1は、プロセッサ1004により実行されるときに、上述の図7のステップST1〜ステップST8が結果的に実行されることになるプログラムを格納するためのメモリ1005を備える。また、メモリ1005に記憶されたプログラムは、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17の処理の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ1005とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、取得部11と推論結果出力部17については専用のハードウェアとしての処理回路1001でその機能を実現し、取得部11と、将来環境予測部12と、抽象化部13と、信頼度判定部15と、推論結果出力部17についてはプロセッサ1004がメモリ1005に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、信頼度判定装置1は、センサ2または制御装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置1002および出力インタフェース装置1003を備える。
以上の実施の形態1では、信頼度判定装置1は、車両100に搭載される車載装置とし、取得部11と、将来環境予測部12と、抽象化部13と、自己符号化器14と、信頼度判定部15と、推論部16と、推論結果出力部17は、信頼度判定装置1に備えられていた。
これに限らず、取得部11と、将来環境予測部12と、抽象化部13と、自己符号化器14と、信頼度判定部15と、推論部16と、推論結果出力部17のうち、一部が車両100の車載装置に備えられ、その他は当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとで信頼度判定システムを構成してもよい。
また、以上の実施の形態1では、推論部16は信頼度判定装置1に備えられていたが、これは一例に過ぎない。推論部16は、信頼度判定装置1の外部の、信頼度判定装置1が参照可能な装置に備えられてもよい。
また、以上の実施の形態1では、一例として、基準となる物体は車両100とし、信頼度判定装置1が自動運転可能な車両100に適用され、信頼度判定装置1は、推論した制御量の信頼度を判定することを想定した。しかし、これは一例に過ぎない。
基準となる物体は、工場内のフォークリフト、無人搬送車、産業用ロボット、または、航空機等、種々の移動体とし、信頼度判定装置1は、種々の移動体を制御するための制御量を推論するとともに、推論した制御量の信頼度を判定することもできる。
例えば、信頼度判定装置1において、取得部11が取得する入力データは移動体周辺の環境に関する環境データとし、抽象化部13が生成する抽象化データは、移動体周辺の環境を示す画像データとできる。特徴量抽出部141は、画像データを入力として特徴量を出力し、復元部142は、特徴量抽出部141が出力した特徴量を入力として、特徴量から画像データを復元した復元後の画像データを出力し、信頼度判定部15は、画像データと復元後の画像データとに基づき信頼度を判定できる。
なお、以上の実施の形態1では、制御装置3は、車両100の自動運転制御を行う自動運転制御装置を想定していたが、これは一例に過ぎない。制御装置3は、フォークリフト、無人搬送車、産業用ロボット、または、航空機等の移動体の運転制御を行う自動運転制御装置としてもよい。制御装置3は、信頼度判定装置1から出力される推論結果および信頼度に基づき種々の制御を行う装置とできる。
また、推論部16による推論結果は制御量に限らない。すなわち、信頼度判定装置1が信頼度を判定する対象となる推論結果は制御量に限らない。例えば、推論部16は、車両100内の環境に関する環境データに基づいて生成された抽象化データから、車両100内の乗員の状態を推論することもできる。この場合、推論部16は、特徴量を入力とし車両100内の乗員の状態に関するデータ(以下「乗員状態データ」という。)を出力するよう学習済みのニューラルネットワークである。信頼度判定装置1は、抽象化データと復元部142が復元した復元後抽象化データとの類似度に基づき、特徴量抽出部141が抽象化データに基づいて出力した特徴量の信頼度を判定することで、推論部16が出力した乗員状態データの信頼度を判定する。なお、実施の形態1において、移動体には人も含まれる。
信頼度判定装置1の推論結果出力部17は、信頼度判定部15が判定した信頼度を、推論部16が出力した乗員状態データに対する信頼度として、乗員状態データと信頼度とを対応付けて出力する。
また、例えば、推論部16は、車両100周辺または車両100内の環境に関する環境データに基づいて生成された抽象化データから、車両100が不足の事態に陥る可能性がある場合の警報装置作動の必要性を推論することもできる。この場合、推論部16は、特徴量を入力とし車両100が不足の事態に陥る可能性がある場合の警報装置作動の必要性に関するデータを出力するよう学習済みのニューラルネットワークである。信頼度判定装置1は、抽象化データと復元部142が復元した復元後抽象化データとの類似度に基づき、特徴量抽出部141が抽象化データに基づいて出力した特徴量の信頼度を判定することで、推論部16から出力された、車両100が不測の事態に陥る可能性に関するデータの信頼度を判定する。
信頼度判定装置1の推論結果出力部17は、信頼度判定部15が判定した信頼度を、推論部16が出力した、車両100が不測の事態に陥る可能性に関するデータに対する信頼度として、車両100が不測の事態に陥る可能性に関するデータと信頼度とを対応付けて出力する。
また、以上の実施の形態1では、入力データは基準となる物体周辺の環境データとしていたが、これは一例に過ぎない。入力データは、基準となる物体周辺の環境によらず、基準となる物体そのものの状況を示すデータであってもよい。
例えば、入力データは、動植物の状況に関する動植物データとしてもよい。推論部16は、動植物データに基づいて生成された抽象化データから、動植物の種別を推論する。この場合、推論部16は、特徴量を入力とし動植物の種別に関するデータ(以下「動植物種別データ」という。)を出力するよう学習済みのニューラルネットワークである。信頼度判定装置1の信頼度判定部15は、動植物データから生成した抽象化データと復元部142が復元した復元後抽象化データとの類似度に基づき、特徴量抽出部141が抽象化データに基づいて出力した特徴量の信頼度を判定することで、推論部16から出力された動植物種別データの信頼度を判定する。信頼度判定装置1の推論結果出力部17は、信頼度判定部15が判定した信頼度を、推論部16が出力した動植物種別データに対する信頼度として、動植物種別データと信頼度とを対応付けて出力する。
なお、この場合、基準となる物体は動植物である。このように、基準となる物体は、移動体以外の物体とすることもできる。
以上のように、実施の形態1によれば、信頼度判定装置1は、入力データを取得する取得部11と、取得部11が取得した入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する抽象化部13と、抽象化部13が生成した抽象化データを入力として当該抽象化データの特徴量を出力する特徴量抽出部141と、特徴量抽出部141が出力した特徴量を入力として抽象化データを復元した復元後抽象化データを出力する復元部142と、抽象化部13が生成した抽象化データと復元部142が出力した復元後抽象化データとに基づき、特徴量抽出部141が出力した特徴量の信頼度を判定する信頼度判定部15を備えるように構成した。そのため、信頼度判定装置1は、推論時に無数の状況が発生し得ることを考慮して、ニューラルネットワークの推論結果の信頼度を判定することができる。
なお、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
本開示に係る信頼度判定装置は、推論時に無数の状況が発生し得ることを考慮して、ニューラルネットワークの推論結果の信頼度を判定することができる。
1 信頼度判定装置、2 センサ、3 制御装置、11 取得部、12 将来環境予測部、13 抽象化部、14 自己符号化器、141 特徴量抽出部、142 復元部、15 信頼度判定部、16 推論部、17 推論結果出力部、100 車両、1001 処理回路、1002 入力インタフェース装置、1003 出力インタフェース装置、1004 プロセッサ、1005 メモリ。

Claims (9)

  1. 入力データを取得する取得部と、
    前記取得部が取得した前記入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成する抽象化部と、
    前記抽象化部が生成した前記抽象化データを入力として当該抽象化データの特徴量を出力する特徴量抽出部と、
    前記特徴量抽出部が出力した前記特徴量を入力として前記抽象化データを復元した復元後抽象化データを出力する復元部と、
    前記抽象化部が生成した前記抽象化データと前記復元部が出力した前記復元後抽象化データとに基づき、前記特徴量抽出部が出力した前記特徴量の信頼度を判定する信頼度判定部
    を備えた信頼度判定装置。
  2. 前記特徴量抽出部は学習済みの自己符号化器における符号化部で構成され、
    前記復元部は前記自己符号化器における複合部で構成される
    ことを特徴とする請求項1記載の信頼度判定装置。
  3. 前記取得部が取得する前記入力データは環境に関する環境データであり、
    前記取得部が取得した前記環境データに基づき将来的な前記環境を予測する将来環境予測部を備え、
    前記抽象化部は、前記取得部が取得した前記環境データと、前記将来環境予測部が予測した前記将来的な前記環境に関するデータに基づき、前記抽象化データを生成する
    ことを特徴とする請求項1記載の信頼度判定装置。
  4. 前記取得部が取得する前記入力データは移動体周辺の環境に関する環境データであり、
    前記抽象化部が生成する前記抽象化データは、前記移動体周辺の環境を示す画像データであり、
    前記特徴量抽出部は、前記画像データを入力として前記特徴量を出力し、
    前記復元部は、前記特徴量抽出部が出力した前記特徴量を入力として、前記特徴量から前記画像データを復元した前記復元後の前記画像データを出力し、
    前記信頼度判定部は、前記画像データと前記復元後の前記画像データとに基づき前記信頼度を判定する
    ことを特徴とする請求項1記載の信頼度判定装置。
  5. 前記取得部が取得した前記環境データに基づき将来的な前記環境を予測する将来環境予測部を備え、
    前記抽象化部は、前記取得部が取得した前記環境データと前記将来環境予測部が予測した前記将来的な前記環境に基づき、過去から将来における前記移動体周辺の前記環境を示す時系列の前記画像データを生成する
    ことを特徴とする請求項4記載の信頼度判定装置。
  6. 前記特徴量抽出部が出力した前記特徴量を入力として推論結果を出力する推論部と、
    前記信頼度判定部が判定した前記信頼度を、前記推論部が出力した前記推論結果に対する前記信頼度として、前記推論結果と前記信頼度とを対応付けて出力する推論結果出力部
    とを備えた請求項1記載の信頼度判定装置。
  7. 前記取得部が取得する前記入力データは車両周辺の環境に関する環境データであり、
    前記抽象化部が生成する前記抽象化データは、前記車両周辺の環境に関する画像データであり、
    前記特徴量抽出部は、前記画像データを入力として前記特徴量を出力し、
    前記復元部は、前記特徴量抽出部が出力した前記特徴量を入力として、前記特徴量から前記画像データを復元した前記復元後の前記画像データを出力し、
    前記信頼度判定部は、前記画像データと前記復元後の前記画像データとに基づき前記信頼度を判定し、
    前記推論部は、前記特徴量抽出部が出力した前記特徴量を入力として前記車両の制御量を出力し、
    前記推論結果出力部は、前記信頼度判定部が判定した前記信頼度を、前記推論部が出力した前記車両の制御量に対する前記信頼度として、前記車両の制御量と前記信頼度とを対応付けて出力する
    ことを特徴とする請求項6記載の信頼度判定装置。
  8. 前記取得部が取得する前記入力データは車両内の環境に関する環境データであり、
    前記抽象化部は、前記取得部が取得した前記環境データに基づいて前記抽象化データを生成し、
    前記推論部は、前記特徴量抽出部が出力した前記特徴量を入力として前記車両の乗員の状態に関する乗員状態データを出力し、
    前記推論結果出力部は、前記信頼度判定部が判定した前記信頼度を、前記推論部が出力した前記乗員状態データに対する前記信頼度として、前記乗員状態データと前記信頼度とを対応付けて出力する
    ことを特徴とする請求項6記載の信頼度判定装置。
  9. 取得部が、入力データを取得するステップと、
    抽象化部が、前記取得部が取得した前記入力データに基づき、当該入力データを抽象的な表現形式で示した抽象化データを生成するステップと、
    特徴量抽出部が、前記抽象化部が生成した前記抽象化データを入力として当該抽象化データの特徴量を出力するステップと、
    復元部が、前記特徴量抽出部が出力した前記特徴量を入力として前記抽象化データを復元した復元後抽象化データを出力するステップと、
    信頼度判定部が、前記抽象化部が生成した前記抽象化データと前記復元部が出力した前記復元後抽象化データとに基づき、前記特徴量抽出部が出力した前記特徴量の信頼度を判定するステップ
    とを備える信頼度判定方法。
JP2021541630A 2021-03-23 2021-03-23 信頼度判定装置および信頼度判定方法 Active JP6972444B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011826 WO2022201276A1 (ja) 2021-03-23 2021-03-23 信頼度判定装置および信頼度判定方法

Publications (2)

Publication Number Publication Date
JP6972444B1 true JP6972444B1 (ja) 2021-11-24
JPWO2022201276A1 JPWO2022201276A1 (ja) 2022-09-29

Family

ID=78605633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541630A Active JP6972444B1 (ja) 2021-03-23 2021-03-23 信頼度判定装置および信頼度判定方法

Country Status (3)

Country Link
US (1) US20230386219A1 (ja)
JP (1) JP6972444B1 (ja)
WO (1) WO2022201276A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022201222A1 (ja) * 2021-03-22 2022-09-29

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205920A (ja) * 2017-05-31 2018-12-27 富士通株式会社 学習プログラム、学習方法および物体検知装置
WO2019151393A1 (ja) * 2018-01-31 2019-08-08 株式会社ニチレイフーズ 食品検査システム、食品検査プログラム、食品検査方法および食品生産方法
JP2019139277A (ja) * 2018-02-06 2019-08-22 オムロン株式会社 評価装置、動作制御装置、評価方法、及び評価プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205920A (ja) * 2017-05-31 2018-12-27 富士通株式会社 学習プログラム、学習方法および物体検知装置
WO2019151393A1 (ja) * 2018-01-31 2019-08-08 株式会社ニチレイフーズ 食品検査システム、食品検査プログラム、食品検査方法および食品生産方法
JP2019139277A (ja) * 2018-02-06 2019-08-22 オムロン株式会社 評価装置、動作制御装置、評価方法、及び評価プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CAI, PEIDE ET AL., DIGNET: LEARNING SCALABLE SELF-DRIVING POLICIES FOR GENERIC TRAFFIC SCENARIOS WITH GRAPH NEURAL NETW, JPN6021018048, 6 March 2021 (2021-03-06), ISSN: 0004609837 *
LI, HONGYU ET AL., AUTOMATIC UNUSUAL DRIVING EVENT IDENTIFICATION FOR DEPENDABLE SELF-DRIVING [ONLINE], JPN7021001723, 4 November 2018 (2018-11-04), ISSN: 0004609838 *
ZENG, WENYUAN ET AL., DSDNET: DEEP STRUCTURED SELF-DRIVING NETWORK [ONLINE], JPN6021018047, 13 August 2020 (2020-08-13), ISSN: 0004609839 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022201222A1 (ja) * 2021-03-22 2022-09-29
JP7370495B2 (ja) 2021-03-22 2023-10-27 三菱電機株式会社 制御装置および制御方法

Also Published As

Publication number Publication date
US20230386219A1 (en) 2023-11-30
JPWO2022201276A1 (ja) 2022-09-29
WO2022201276A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US10981567B2 (en) Feature-based prediction
JP7140922B2 (ja) マルチセンサデータ融合方法、及び装置
CN112703459B (zh) 对抗场景的迭代生成
CN112868022A (zh) 自动驾驶车辆的驾驶场景
US11472442B2 (en) Map consistency checker
US20200065665A1 (en) Vehicle adaptive learning
CN112166304A (zh) 传感器数据的误差检测
US11731639B2 (en) Method and apparatus for lane detection on a vehicle travel surface
US11526721B1 (en) Synthetic scenario generator using distance-biased confidences for sensor data
KR20210002018A (ko) 뉴럴 네트워크의 글로벌 불확실성을 추정하기 위한 방법
US11645360B2 (en) Neural network image processing
CN110986945B (zh) 基于语义高度地图的局部导航方法和系统
US20230386219A1 (en) Reliability determination device and reliability determination method
US20230400859A1 (en) Predicting Jaywaking Behaviors of Vulnerable Road Users
CN114415672A (zh) 用于自主驾驶车辆的动态模型评估
CN117056153A (zh) 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品
CN116142233A (zh) 载具灯分类系统
CN116703966A (zh) 多对象跟踪
US11702106B1 (en) Tuning a safety system based on near-miss events
CN116311114A (zh) 一种可行驶区域生成方法、装置、电子设备及存储介质
US11648962B1 (en) Safety metric prediction
US11745766B2 (en) Unseen environment classification
US11610412B2 (en) Vehicle neural network training
CN112180913A (zh) 特种车辆识别方法
JP7143538B2 (ja) 運転支援装置および運転支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6972444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150