WO2019155873A1 - 評価装置、動作制御装置、評価方法、及び評価プログラム - Google Patents

評価装置、動作制御装置、評価方法、及び評価プログラム Download PDF

Info

Publication number
WO2019155873A1
WO2019155873A1 PCT/JP2019/001919 JP2019001919W WO2019155873A1 WO 2019155873 A1 WO2019155873 A1 WO 2019155873A1 JP 2019001919 W JP2019001919 W JP 2019001919W WO 2019155873 A1 WO2019155873 A1 WO 2019155873A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
input
learner
input data
output
Prior art date
Application number
PCT/JP2019/001919
Other languages
English (en)
French (fr)
Inventor
匡史 日向
善久 井尻
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US16/963,249 priority Critical patent/US20210357701A1/en
Priority to EP19751628.9A priority patent/EP3751474A4/en
Priority to CN201980007571.9A priority patent/CN111602137B/zh
Publication of WO2019155873A1 publication Critical patent/WO2019155873A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Abstract

学習済みの学習器による推論の精度を低減させることなく、当該学習済みの学習器による推論結果の妥当性を適切に評価可能な手法を提供する。本発明の一側面に係る評価装置は、訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、を備える。

Description

評価装置、動作制御装置、評価方法、及び評価プログラム
 本発明は、評価装置、動作制御装置、評価方法、及び評価プログラムに関する。
 近年、画像認識、音声認識、言語解析等の様々な分野で機械学習が利用されている。機械学習とは、与えられたデータ(訓練データ)に潜むパターンをコンピュータにより見つけ出す手法のことであり、機械学習を実施することで得られる学習済みの学習器は、未知の入力データに対して所定の推論を行う能力を獲得することができる。推論の結果は、上記画像認識、音声認識、言語解析等に利用される。
 ただし、機械学習後に与えられる入力データの全ての種類を想定して訓練データを用意することは困難である。例えば、画像認識の分野で機械学習を利用する場合に、画像認識の対象となるあらゆる事象を想定して画像データを用意することは困難である。機械学習の際に用意された訓練データとはかけ離れた種類の入力データが与えられた場合には、学習済みの学習器による入力データに対する推論の妥当性が損なわれてしまう、すなわち、誤った推論を行ってしまう可能性がある。
 そこで、特許文献1では、入力データに対する所定の推論を行う問題解決用ニューラルネットワークとは別のニューラルネットワークを利用して、当該問題解決用ニューラルネットワークの出力の信頼性を評価する手法が提案されている。具体的には、問題解決用ニューラルネットワークの学習に利用した学習データとは異なる未学習データを利用して、未学習事例判別用ニューラルネットワークの機械学習を実施する。これにより、未学習事例判別用ニューラルネットワークは、入力データが未学習データに類似するか否かを判別する能力を獲得することができる。
 当該手法では、このように構築された未学習事例判別用ニューラルネットワークにより、問題解決用ニューラルネットワークの出力の信頼性を評価する。すなわち、推論を行う際に、問題解決用ニューラルネットワークに入力される入力データをこの未学習事例判別用ニューラルネットワークにも入力する。そして、未学習事例判別用ニューラルネットワークから得られる出力に基づいて、当該入力データが未学習データに類似するか否かを判別する。これによって、入力データが、問題解決用ニューラルネットワークの学習に利用した学習データとはかけ離れた種類のものであるか否かを判定し、当該入力データを入力したときに問題解決用ニューラルネットワークから得られる出力(すなわち、推論結果)の信頼性を評価する。
特開平05-225163号公報
 本件発明者らは、上記特許文献1で提案されている手法に対して次のような問題点を見出した。すなわち、機械学習では、基本的には、学習に利用する訓練データの数が多ければ多いほど、学習済みの学習器による推論の精度を高めることができる。しかしながら、特許文献1で提案されている手法では、機械学習のために用意した訓練データを、問題解決用ニューラルネットワークの学習に利用する学習データと、未学習事例判別用ニューラルネットワークの学習に利用する未学習データとに分けることになる。つまり、用意した全ての訓練データを、問題解決用ニューラルネットワークの学習に利用することができなくなってしまうため、学習済みの問題解決用ニューラルネットワークによる推論の精度が低減してしまう可能性がある。
 また、上記のとおり、推論の対象となるあらゆる事象を想定して訓練データを用意することは困難である。そのため、問題解決用ニューラルネットワークに入力されるあらゆる種類の入力データを想定して、未学習事例判別用ニューラルネットワークの学習に利用する未学習データを用意することはそもそも困難である。つまり、機械学習の際に用意された訓練データとはかけ離れた種類の入力データが与えられる可能性があるという根本的な原因を取り除くことができない。したがって、特許文献1で提案されている手法では、問題解決用ニューラルネットワークによる推論結果の信頼性を適切に評価可能な未学習事例判別用ニューラルネットワークを構築することは困難である。
 本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、学習済みの学習器による推論の精度を低減させることなく、当該学習済みの学習器による推論結果の妥当性を適切に評価可能な手法を提供する。
 本発明は、上述した課題を解決するために、以下の構成を採用する。
 すなわち、本発明の一側面に係る評価装置は、訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、を備える。
 上記構成に係る評価装置では、2つの学習済みの学習器が用意される。まず、学習済みの第1の学習器は、訓練データと正解データとの対で構成されたデータセットを利用して教師あり学習を実施することにより構築される。訓練データは、推論の対象となるデータであり、正解データは、訓練データに対する推論結果の正解を示すデータである。教師あり学習は、訓練データを入力すると正解データに対応する出力値を出力するように学習器を学習させる機械学習の手法である。そのため、学習済みの第1の学習器は、当該教師あり学習によって、所定の推論を行う能力を有するように構築される。
 一方、学習済みの第2の学習器は、第1の学習器の機械学習に利用した訓練データを利用して教師なし学習を実施することで構築される。教師なし学習は、教師あり学習とは異なり、正解データを用いずに、訓練データの構造、法則、傾向、分類等の統計的な特徴を導き出す機械学習の手法であり、訓練データを入力すると、訓練データの統計的な特徴の識別結果に対応する出力値を出力するように学習器を学習させる機械学習の手法である。学習済みの第2の学習器は、当該教師なし学習によって、対象のデータが訓練データに類似するか否かを識別する能力を有するように構築される。
 そして、上記構成に係る評価装置では、学習済みの第2の学習器を用いて、学習済みの第1の学習器による推論結果の妥当性を評価する。すなわち、上記構成に係る評価装置は、学習済みの第1の学習器に入力される入力データを取得し、取得した入力データを学習済みの第2の学習器に入力する。上記のとおり、学習済みの第2の学習器は、教師なし学習によって、入力データが訓練データに類似するか否かを識別する能力を獲得している。そのため、上記構成に係る評価装置は、第2の学習器に入力データを入力することで当該第2の学習器から得られる出力に基づいて、第1の学習器の機械学習に利用した訓練データに入力データが類似するか否かを識別することができる。この能力を利用して、上記構成に係る評価装置は、入力データを第1の学習器に入力したときに、当該入力データに対する推論結果として妥当な出力を当該第1の学習器から得られるか否かを評価する。
 したがって、上記構成によれば、機械学習のために用意した訓練データを、第1の学習器及び第2の学習器の学習の両方に共通して利用可能であるため、第1の学習器の学習に利用するものと第2の学習器の学習に利用するものとに分けなくてもよい。そのため、第1の学習器の機械学習に利用する訓練データの数が過度に少なくなるのを防止することができる。また、上記構成によれば、教師なし学習の特性を活用することで、機械学習の際に用意された訓練データとはかけ離れた種類の入力データが与えられる可能性があるという根本的な原因を取り除くことができる。すなわち、学習済みの第2の学習器は、第1の学習器の学習に利用した訓練データから導き出された統計的な特徴に基づいて、与えられた入力データが当該訓練データとかけ離れた種類のものであるか否かを評価可能に構成される。そのため、第2の学習器の学習のために、第1の学習器に入力されるあらゆる種類の入力データを想定して訓練データを用意しなくてもよい。よって、上記構成によれば、学習済みの第1の学習器による推論の精度を低減させることなく、当該学習済みの第1の学習器による推論結果の妥当性を適切に評価することができる。
 なお、「訓練データ」は、「学習データ」と称されてもよい。「正解データ」は、「ラベル」又は「教師データ」と称されてもよい。「データセット」は、「訓練データセット」又は「学習データセット」と称されてもよい。「学習済みの学習器」は、「識別器」又は「分類器」と称されてもよい。
 また、「学習器」は、機械学習により所定のパターンを識別する能力を獲得可能な学習モデルにより構成されればよい。第1の学習器は、教師あり学習に利用可能な学習モデルにより構成されればよく、例えば、ニューラルネットワーク、線形回帰モデル、サポートベクタマシン等により構成されてよい。一方、第2の学習器は、教師なし学習に利用可能な学習モデルにより構成されればよく、例えば、自己符号化器(オートエンコーダ)、マハラノビス距離を算出する演算モデル、1クラスサポートベクタマシン(1-class SVM)等により構成されてよい。
 更に、第1の学習器による推論の種類は、実施の形態に応じて適宜選択されてよい。例えば、第1の学習器による推論の種類は、画像認識、音声認識、言語解析等であってもよい。この推論の種類に応じて、訓練データ、正解データ、及び入力データの種類は適宜選択されてよい。例えば、訓練データ及び入力データは、画像データ、音声データ、テキストデータ、数値データ等であってよし、これらの組み合わせであってもよい。また、例えば、正解データは、画像データに対する画像認識の結果を示すデータ、音声データに対する音声認識の結果を示すデータ、テキストデータに対する言語解析の結果を示すデータ、数値データに対する所定の判定結果を示すデータ等であってよい。
 上記一側面に係る評価装置において、前記妥当性評価部は、前記第2の学習器から得られる出力と所定の閾値とを比較することにより、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを判定してもよい。当該構成によれば、入力データに対する第1の学習器による推論結果の妥当性を適切に評価することができる。
 上記一側面に係る評価装置において、前記妥当性評価部は、前記評価の結果として、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られる程度を示す評価値を出力してもよい。当該構成によれば、出力された評価値に基づいて、入力データに対する第1の学習器による推論結果の妥当性を適切に評価することができる。
 上記一側面に係る評価装置は、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを前記第1の学習器に入力することで前記入力データに対する推論結果として前記第1の学習器から得られる出力に関する警告を行う警告部を更に備えてもよい。当該構成によれば、入力データに対する第1の学習器による推論結果の妥当性が低いことをユーザ等に警告することができる。
 上記一側面に係る評価装置は、前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して所定の推論を行う推論部を更に備えてもよい。当該構成によれば、入力データに対して所定の推論を行うと共に、当該推論の結果の妥当性を評価可能な評価装置を提供することができる。
 上記一側面に係る評価装置は、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記推論の結果に基づいて所定の動作を実行する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止する動作実行部を更に備えてもよい。当該構成では、入力データに対する第1の学習器による推論結果が妥当であると評価した場合に、当該推論結果に基づいて所定の動作を実行するのに対して、当該推論結果が妥当ではないと評価した場合には、当該推論結果に基づく所定の動作の実行を停止する。これにより、当該構成によれば、第1の学習器による推論結果に基づく動作制御の信頼性を高めることができる。なお、「所定の動作の実行を停止する」ことは、所定の動作の実行を維持しないあらゆる態様を含んでもよい。すなわち、「所定の動作の実行を停止する」ことは、所定の動作を完全に停止することの他、例えば、速度、加速度、力等の所定の動作の属性を変更することを含んでもよい。
 上記一側面に係る評価装置において、前記入力データは、車両の運転席に着いた運転者の写り得る画像データを含んでもよく、前記入力データを前記第1の学習器に入力することで前記第1の学習器から得られる出力は、前記運転者の状態を示す情報を含んでもよい。当該構成によれば、画像データを含む入力データに基づいて運転者の状態を判定する推論の妥当性を評価する評価装置を提供することができる。
 上記一側面に係る評価装置は、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを所定の記憶場所に送信するデータ送信部を更に備えてもよい。第1の学習器による推論結果の妥当性が低いと評価された場合、与えられた入力データは、第1の学習器の機械学習に利用した訓練データとはかけ離れた種類のものであると想定される。当該構成によれば、そのような入力データを所定の記憶場所に収集することができる。これによって、収集した入力データを新たな訓練データとして利用し、第1の学習器により推論可能な対象の範囲を拡げることができる。
 上記一側面に係る評価装置において、前記第1の学習器は、前記入力データをエンコードする第1のエンコーダにより構成されてよく、前記第2の学習器は、前記入力データをエンコードする第2のエンコーダ、及び前記第2のエンコーダの出力をデコードするデコーダにより構成されてよい。各エンコーダ及びデコーダは、例えば、ニューラルネットワークにより構築されてよい。エンコーダ及びデコーダを備える第2の学習器として、自己符号化器が用いられてよい。デコーダは、第2のエンコーダの出力をデコードするように、すなわち、第2のエンコーダに入力された入力データを復元するように構築される。そのため、デコーダから得られた出力が第2のエンコーダに入力した入力データに類似するほど、その入力データは訓練データに類似していると識別することができる。反対に、デコーダから得られた出力が、第2のエンコーダに入力した入力データとは類似しないほど、その入力データは訓練データに類似しないと識別することができる。したがって、当該構成によれば、第1の学習器による推論結果の妥当性を適切に評価することができる。
 上記一側面に係る評価装置において、前記第1のエンコーダと前記第2のエンコーダとは同一であってよい。当該構成によれば、第1の学習器と第2の学習器との間でエンコーダを共有させることで、第1の学習器及び第2の学習器のトータルの計算コストを抑えることができ、かつ、第2の学習器の演算速度を高めることができる。
 上記一側面に係る評価装置において、前記第1のエンコーダは、前記訓練データを入力すると、入力した前記訓練データと対の前記正解データに対応する値を出力するように構築され、前記第2のエンコーダは、前記第1のエンコーダと同一、又は前記第1のエンコーダのコピーであり、前記デコーダは、前記第1のエンコーダの出力を入力すると、入力した出力を得るのに前記第1のエンコーダに入力した前記訓練データに対応する値を出力するように構築されていてよい。当該構成によれば、第1の学習器と第2の学習器との間でエンコーダを共有させることで、第1の学習器及び第2の学習器のトータルの計算コストを抑えることができ、かつ、第2の学習器の演算速度を高めることができる。
 なお、上記各形態に係る評価装置に上記動作実行部を組み合わせることで、動作制御装置を構築してもよい。例えば、本発明の一側面に係る動作制御装置は、訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して行われた所定の推論の結果に基づいて所定の動作の実行を制御する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止するように制御する動作実行部と、を備える。なお、所定の動作を実行する装置は、動作制御装置自身であってもよいし、動作制御装置とは異なる他の装置であってもよい。所定の動作を他の装置が実行する場合、動作制御装置は、その指令を他の装置に送信することで、所定の動作の実行を制御する。
 また、上記各形態に係る評価装置又は動作制御装置の別の態様として、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。
 例えば、本発明の一側面に係る評価方法は、コンピュータが、訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、を実行する、情報処理方法である。
 また、例えば、本発明の一側面に係る評価プログラムは、コンピュータに、訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
実行させるための、プログラムである。
 本発明によれば、学習済みの学習器による推論の精度を低減させることなく、当該学習済みの学習器による推論結果の妥当性を適切に評価可能な手法を提供することができる。
図1は、本発明の基本的な構成の一例を模式的に例示する。 図2は、本発明が適用される場面の一例を模式的に例示する。 図3は、実施の形態に係る自動車運転支援装置のハードウェア構成の一例を模式的に例示する。 図4は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。 図5は、実施の形態に係る自動車運転支援装置のソフトウェア構成の一例を模式的に例示する。 図6Aは、実施の形態に係る注視状態情報の一例を模式的に例示する。 図6Bは、実施の形態に係る即応性情報の一例を模式的に例示する。 図7Aは、実施の形態に係るニューラルネットワークの構成の一例を模式的に例示する。 図7Bは、実施の形態に係る自己符号化器のデコーダの構成の一例を模式的に例示する。 図8は、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。 図9Aは、実施の形態に係る学習装置によりニューラルネットワークの機械学習過程の一例を模式的に例示する。 図9Bは、実施の形態に係る学習装置による自己符号化器のデコーダの機械学習過程の一例を模式的に例示する。 図10Aは、実施の形態に係る自動運転支援装置の処理手順の一例を例示する。 図10Bは、実施の形態に係る自動運転支援装置の処理手順の一例を例示する。 図11は、実施の形態に係る学習装置の処理手順の一例を例示する。 図12は、本発明が適用される他の場面の一例を模式的に例示する。 図13は、他の形態に係る診断装置のソフトウェア構成の一例を模式的に例示する。 図14は、他の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。 図15は、本発明が適用される他の場面の一例を模式的に例示する。 図16は、他の形態に係る予測装置のソフトウェア構成の一例を模式的に例示する。 図17は、他の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。 図18は、他の形態に係る自動運転支援装置の処理手順の一例を例示する。
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
 §1 適用例
 まず、図1を用いて、本発明の基本的な構成の一例を説明する。本実施形態では、2つの学習済みの学習器(2、4)が用意される。
 まず、学習済みの第1の学習器2は、訓練データ31と正解データ32との対で構成された訓練(学習)用のデータセット3を利用して教師あり学習を実施することで構築される。訓練データ31は、推論の対象となるデータであり、正解データ32は、訓練データ31に対する推論結果の正解を示すデータである。例えば、画像認識のために推論を行う場合、訓練データ31は画像データであり、正解データ32は、画像データに対して画像認識の正解を示すデータである。教師あり学習は、訓練データを入力すると正解データに対応する出力値を出力するように学習器を学習させる機械学習の手法である。そのため、学習済みの第1の学習器2は、当該教師あり学習によって、所定の推論を行う能力を有するように構築される。すなわち、学習済みの第1の学習器2に入力データ5を入力すると、当該入力データ5に対する所定の推論の結果に対応する出力21を当該学習済みの第1の学習器2から得ることができる。
 一方、学習済みの第2の学習器4は、第1の学習器2の機械学習に利用した訓練データ31を利用して教師なし学習を実施することで構築される。教師なし学習は、教師あり学習とは異なり、正解データを用いずに、訓練データの構造、法則、傾向、分類等の統計的な特徴を導き出す機械学習の手法であり、訓練データを入力すると、訓練データの統計的な特徴の識別結果に対応する出力値を出力するように学習器を学習させる機械学習の手法である。そのため、学習済みの第2の学習器4は、当該教師なし学習によって、対象のデータが訓練データ31に類似するか否かを識別する能力を有するように構築される。この学習済みの第2の学習器4は、例えば、訓練データ31をエンコードして、そのエンコードした結果をデコードすることで訓練データ31を復元するように構築されてもよいし、訓練データ31を所定の分類に識別するように構築されてもよい。
 評価装置1は、学習済みの第2の学習器4を用いて、学習済みの第1の学習器2による推論結果の妥当性を評価する。すなわち、評価装置1は、学習済みの第1の学習器2に入力される入力データ5を取得し、取得した入力データ5を学習済みの第2の学習器4に入力する。上記のとおり、学習済みの第2の学習器4は、教師なし学習によって、入力データ5が訓練データ31に類似するか否かを識別する能力を獲得している。そのため、学習済みの第2の学習器4に入力データ5を入力すると、入力データ5が訓練データ31に類似するか否かを識別した結果に関連する出力41を当該第2の学習器4から得ることができる。そこで、評価装置1は、第2の学習器4に入力データ5を入力することで当該第2の学習器4から得られる出力41に基づいて、入力データ5を第1の学習器2に入力したときに入力データ5に対する推論結果として妥当な出力を第1の学習器2から得られるか否かを評価する。
 したがって、本実施形態によれば、機械学習のために用意した訓練データ31を、第1の学習器2及び第2の学習器4の学習の両方に共通して利用可能であるため、第1の学習器2の学習に利用するものと第2の学習器4の学習に利用するものとに分けなくてもよい。そのため、第1の学習器2の機械学習に利用する訓練データ31の数が過度に少なくなるのを防止することができる。また、本実施形態によれば、学習済みの第2の学習器4は、第1の学習器2の学習に利用した訓練データ31から導き出された統計的な特徴に基づいて、与えられた入力データ5が当該訓練データ31とかけ離れた種類のものであるか否かを評価可能に構成される。そのため、第2の学習器4の学習のために、第1の学習器2に入力されるあらゆる種類の入力データ5を想定して訓練データ31を用意しなくてもよい。よって、本実施形態によれば、学習済みの第1の学習器2による推論の精度を低減させることなく、当該学習済みの第1の学習器2による推論結果の妥当性を適切に評価することができる。
 なお、図1では、第1の学習器2は、評価装置1の外部(例えば、ネットワークを介して評価装置1とアクセス可能な等の外部装置)に保持され、第2の学習器4は、評価装置1の内部に保持されている。しかしながら、各学習器(2、4)の保持される場所は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてもよい。例えば、第1の学習器2は、評価装置1の内部に保持されてもよい。また、例えば、第2の学習器4は、ネットワークを介して評価装置1とアクセス可能な外部装置(例えば、サーバ)に保持されてもよい。
 また、各学習器(2、4)は、機械学習により所定のパターンを識別する能力を獲得可能な学習モデルにより構成されればよい。第1の学習器2は、教師あり学習に利用可能な学習モデルにより構成されればよく、例えば、ニューラルネットワーク、線形回帰モデル、サポートベクタマシン等により構成されてよい。一方、第2の学習器4は、教師なし学習に利用可能な学習モデルにより構成されればよく、例えば、自己符号化器(オートエンコーダ)、マハラノビス距離を算出する演算モデル、1クラスサポートベクタマシン(1-class SVM)等により構成されてよい。教師あり学習及び教師なし学習それぞれの具体的な手法は、各学習器(2、4)に利用する学習モデルに応じて公知の手法が適宜選択されてよい。
 更に、第1の学習器2による推論の種類は、実施の形態に応じて適宜選択されてもよい。例えば、第1の学習器2による推論の種類は、画像認識、音声認識、言語解析等であってもよい。この推論の種類に応じて、訓練データ31、正解データ32、及び入力データ5の種類は適宜選択されてもよい。例えば、訓練データ31及び入力データ5は、画像データ、音声データ、テキストデータ、数値データ等であってよし、これらの組み合わせであってもよい。例えば、正解データ32は、画像データに対する画像認識の結果を示すデータ、音声データに対する音声認識の結果を示すデータ、テキストデータに対する言語解析の結果を示すデータ、数値データに対する所定の判定結果を示すデータ等であってよい。
 また、第1の学習器2の教師あり学習に利用する訓練データと第2の学習器4の教師なし学習に利用する訓練データとは完全に一致していることが好ましい。ただし、第1の学習器2の教師あり学習に利用する訓練データと第2の学習器4の教師なし学習に利用する訓練データとは、少なくとも一部が重複していれば、完全に一致していなくてもよい。第1の学習器2の教師あり学習に利用する訓練データと第2の学習器4の教師なし学習に利用する訓練データとが少なくとも一部で重複しているもののその他の部分で相違しているケースも、第1の学習器2の教師あり学習に利用した訓練データ31を利用して第2の学習器4の教師なし学習を行ったものとする。
 次に、図2を用いて、本発明が適用される場面の一例について説明する。上記評価装置1は、教師あり学習を利用した様々な分野で適用可能である。図2は、本実施形態の一例として、自動車の自動運転を支援する自動運転支援装置1Aに本発明を適用した例を示す。すなわち、本実施形態に係る自動運転支援装置1Aは、上記評価装置1の一例であり、また、本発明の「動作制御装置」の一例でもある。
 図2に示されるとおり、本実施形態に係る自動運転支援装置1Aは、カメラ71を利用して運転者Dを監視しながら、車両の自動運転を支援するコンピュータである。具体的には、自動運転支援装置1Aは、車両の運転席に着いた運転者Dを撮影するように配置されたカメラ71から撮影画像を取得する。また、自動運転支援装置1Aは、運転者Dの顔の挙動に関する顔挙動情報を含む運転者Dの観測情報(後述する観測情報51)を取得する。
 そして、自動運転支援装置1Aは、撮影画像(後述する低解像度撮影画像52)及び観測情報を含む入力データ(後述する入力データ5A)を学習済みの第1の学習器(後述するニューラルネットワーク2A)に入力することで、運転者Dの運転状態を示す運転状態情報を当該第1の学習器から取得する。これにより、自動運転支援装置1Aは、第1の学習器を利用して、車両の運転席に着いた運転者Dの写り得る画像データ(撮影画像)を含む入力データに対して運転者Dの状態を推定する推論を実施する。
 更に、自動運転支援装置1Aは、入力データを学習済みの第2の学習器(後述する自己符号化器4A)に入力することで当該第2の学習器から得られる出力に基づいて、入力データを第1の学習器に入力したときに入力データに対する推論結果として妥当な出力を第1の学習器から得られるか否かを評価する。これにより、自動運転支援装置1Aは、第2の学習器を利用して、入力データに対する第1の学習器による推論の妥当性を評価する。
 一方、本実施形態に係る学習装置6は、自動運転支援装置1Aで利用する第1の学習器及び第2の学習器それぞれを構築する、すなわち、教師あり学習及び教師なし学習による機械学習を実施するコンピュータである。具体的には、学習装置6は、訓練データ(後述する訓練データ31A)及び正解データ(後述する正解データ32A)の対で構成されたデータセット(後述するデータセット3A)を利用して第1の学習器の教師あり学習を実施する。また、学習装置6は、訓練データ(後述する訓練データ31A)を利用して第2の学習器の教師なし学習を実施する。これにより、学習装置6は、自動運転支援装置1Aで利用する第1の学習器及び第2の学習器を生成する。自動運転支援装置1Aは、例えば、ネットワークを介して、学習装置6により生成された学習済みの第1及び第2の学習器を取得することができる。なお、ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
 以上のとおり、本実施形態の一例では、学習済みの第1の学習器を利用して、撮影画像及び観測情報を含む入力データに対して運転者Dの状態を推定する推論を実施すると共に、学習済みの第2の学習器を利用して、入力データに対する第1の学習器による当該推論の妥当性を評価する。これにより、自動運転支援装置1Aにおいて、運転者Dの状態を推定する推論結果に誤りが生じている可能性の高い場合に、そのことを知らせるための警告を出力したり、推論結果を利用した動作制御等の情報処理を停止したりすることができる。そのため、第1の学習器による運転者Dの状態の推定の誤りに起因する自動運転支援装置1Aの誤動作の発生を抑制することができる。
 §2 構成例
 [ハードウェア構成]
 <自動運転支援装置>
 次に、図3を用いて、本実施形態に係る自動運転支援装置1Aのハードウェア構成の一例について説明する。図3は、本実施形態に係る自動運転支援装置1Aのハードウェア構成の一例を模式的に例示する。
 図3に示されるとおり、本実施形態に係る自動運転支援装置1Aは、制御部11、記憶部12、及び外部インタフェース13が電気的に接続されたコンピュータである。なお、図3では、外部インタフェースを「外部I/F」と記載している。
 制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。制御部11は、例えば、ECU(Electronic Control Unit)により構成されてもよい。記憶部12は、例えば、RAM、ROM等で構成され、プログラム121、第1学習結果データ122、第2学習結果データ123等の各種情報を記憶する。記憶部12は、「メモリ」の一例である。
 プログラム121は、第1の学習器を利用して、運転者Dの状態を推定するための推論を実施すると共に、第2の学習器を利用して、第1の学習器による推論の妥当性を評価するための情報処理(図10A及び図10B)を自動運転支援装置1Aに実行させるためのプログラムである。当該プログラム121は、本発明の「評価プログラム」の一例である。第1学習結果データ122は、学習済みの第1の学習器の設定を行うためのデータである。第2学習結果データ123は、学習済みの第2の学習器の設定を行うためのデータである。詳細は後述する。
 外部インタフェース13は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、外部インタフェース13は、例えば、CAN(Controller Area Network)を介して、ナビゲーション装置70、カメラ71、生体センサ72、及びスピーカ73に接続される。
 ナビゲーション装置70は、車両の走行時に経路案内を行うコンピュータである。ナビゲーション装置70には、公知のカーナビゲーション装置が用いられてよい。ナビゲーション装置70は、GPS(Global Positioning System)信号に基づいて自車位置を測定し、地図情報及び周辺の建物等に関する周辺情報を利用して、経路案内を行うように構成される。なお、以下では、GPS信号に基づいて測定される自車位置を示す情報を「GPS情報」と称する。
 カメラ71は、車両の運転席に着いた運転者Dを撮影するように配置される。例えば、図2の例では、カメラ71は、運転席の前方上方に配置されている。しかしながら、カメラ71の配置場所は、このような例に限定されなくてもよく、運転席に着いた運転者Dを撮影可能であれば、実施の形態に応じて適宜選択されてよい。なお、カメラ71には、一般のデジタルカメラ、ビデオカメラ等が用いられてよい。
 生体センサ72は、運転者Dの生体情報を測定するように構成される。測定対象となる生体情報は、特に限定されなくてもよく、例えば、脳波、心拍数等であってよい。生体センサ72は、測定対象となる生体情報を測定可能であれば特に限定されなくてもよく、例えば、公知の脳波センサ、脈拍センサ等が用いられてよい。生体センサ72は、測定対象となる生体情報に応じた運転者Dの身体部位に装着される。
 スピーカ73は、音声を出力するように構成される。スピーカ73は、車両の走行中に運転者Dが当該車両の運転に適した状態ではない場合に、当該車両の運転に適した状態をとるように当該運転者Dに対して警告するのに利用される。詳細は後述する。
 なお、外部インタフェース13には、上記以外の外部装置が接続されてよい。例えば、外部インタフェース13には、ネットワークを介してデータ通信を行うための通信モジュールが接続されてもよい。外部インタフェース13に接続する外部装置は、上記の各装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
 また、図3の例では、自動運転支援装置1Aは、1つの外部インタフェース13を備えている。しかしながら、外部インタフェース13は、接続する外部装置毎に設けられてもよい。外部インタフェース13の数は、実施の形態に応じて適宜選択可能である。
 なお、自動運転支援装置1Aの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。記憶部12は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。自動運転支援装置1Aは、ネットワークを介して外部装置とデータ通信するための通信インタフェースを備えてもよい。自動運転支援装置1Aは、入力装置及び出力装置を備えてもよい。また、自動運転支援装置1Aには、提供されるサービス専用に設計された情報処理装置の他、スマートフォン等の携帯端末、タブレットPC(Personal Computer)等の汎用のコンピュータが用いられてもよい。自動運転支援装置1Aは、ナビゲーション装置70と一体のコンピュータで構成されてもよい。
 <学習装置>
 次に、図4を用いて、本実施形態に係る学習装置6のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置6のハードウェア構成の一例を模式的に例示する。
 図4に示されるとおり、本実施形態に係る学習装置6は、制御部61、記憶部62、通信インタフェース63、入力装置64、出力装置65、及びドライブ66が電気的に接続されたコンピュータである。なお、図4では、通信インタフェースを「通信I/F」と記載している。
 制御部61は、上記制御部11と同様に、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部62は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部62は、制御部61で実行される学習プログラム621、学習器の学習に利用するためのデータセット3A、学習プログラム621を実行することで生成した各学習結果データ(122、123)等を記憶する。
 学習プログラム621は、学習装置6に後述する機械学習の処理(図11)を実行させるためのプログラムである。データセット3Aは、後述する訓練データ31A及び正解データ32Aの対で構成され(図8)、第1の学習器の教師あり学習に利用される。また、データセット3Aの訓練データ31Aは、第2の学習器の教師なし学習に利用される。データセット3Aは、上記データセット3の一例である。詳細は後述する。
 通信インタフェース63は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置6は、当該通信インタフェース63を介して、作成した各学習結果データ(122、123)を、自動運転支援装置1A等の外部装置に配信することができる。
 入力装置64は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置65は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置64及び出力装置65を介して、学習装置6を操作することができる。
 ドライブ66は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体92に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ66の種類は、記憶媒体92の種類に応じて適宜選択されてよい。上記学習プログラム621及びデータセット3Aの少なくとも一方は、この記憶媒体92に記憶されていてもよい。
 記憶媒体92は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置6は、この記憶媒体92から、上記学習プログラム621及びデータセット3Aの少なくとも一方を取得してもよい。
 ここで、図4では、記憶媒体92の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体92の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
 なお、学習装置6の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部61は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA等で構成されてよい。学習装置6は、複数台の情報処理装置で構成されてもよい。また、学習装置6は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。
 [ソフトウェア構成]
 <自動運転支援装置>
 次に、図5を用いて、本実施形態に係る自動運転支援装置1Aのソフトウェア構成の一例を説明する。図5は、本実施形態に係る自動運転支援装置1Aのソフトウェア構成の一例を模式的に例示する。
 自動運転支援装置1Aの制御部11は、記憶部12に記憶されたプログラム121をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る自動運転支援装置1Aは、ソフトウェアモジュールとして、データ取得部111、状態推定部112、妥当性評価部113、第1警告部114、第2警告部115、運転制御部116、及びデータ送信部117を備えるコンピュータとして構成される。
 データ取得部111は、学習済みのニューラルネットワーク2Aに入力される入力データ5Aを取得する。ニューラルネットワーク2Aは、上記学習済みの第1の学習器2の一例であり、入力データ5Aは、上記入力データ5の一例である。本実施形態では、データ取得部111は、車両の運転席に着いた運転者Dを撮影するように配置されたカメラ71から撮影画像711を取得する。また、データ取得部111は、運転者Dの顔の挙動に関する顔挙動情報712及び生体センサ72により測定された生体情報721を含む観測情報51を取得する。本実施形態の一例では、顔挙動情報712は、撮影画像711を画像解析することで得られる。更に、データ取得部111は、取得した撮影画像711の解像度を低下させることで、低解像度撮影画像52を形成する。これにより、データ取得部111は、観測情報51及び低解像度撮影画像52を含む入力データ5Aを取得する。なお、低解像度撮影画像52は、本発明の「車両の運転席に着いた運転者の写り得る画像データ」の一例である。
 状態推定部112は、後述するデータセット3Aを利用して、運転者の状態を推定するための教師あり学習を行った学習済みのニューラルネットワーク2Aを含んでいる。状態推定部112は、学習済みのニューラルネットワーク2Aに入力データ5Aを入力し、当該ニューラルネットワーク2Aから出力を得る。これにより、状態推定部112は、入力データ5Aに対して運転者の状態を推定する推論を行う。状態推定部112は、本発明の「推論部」の一例である。
 本実施形態では、学習済みのニューラルネットワーク2Aに入力データ5Aを入力することで当該学習済みのニューラルネットワーク2Aから得られる出力は、運転者の状態を示す運転状態情報21Aを含む。この運転状態情報21Aは、上記出力21の一例である。本実施形態では、運転状態情報21Aは、運転者Dの注視の状態を示す注視状態情報211、及び運転者Dの運転に対する即応性の程度を示す即応性情報212を含む。
 ここで、図6A及び図6Bを用いて、注視状態情報211及び即応性情報212を説明する。図6A及び図6Bは、注視状態情報211及び即応性情報212の一例を示す。図6Aに示されるとおり、本実施形態に係る注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを2つのレベルで段階的に示す。また、図6Bに示されるとおり、本実施形態に係る即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで段階的に示す。なお、即応性の程度は、運転に対する準備状態の程度、換言すると、運転者が車両の運転を手動で行える状態にあるか否かの度合いを示す。より詳細には、即応性の程度は、車両の動作モードを自動運転から手動運転に切り替える際に、運転者が車両の手動運転に直ちに対応可能か否かの度合いを示す。そのため、即応性情報212により、例えば、運転者Dが手動で車両を運転する状態に復帰可能な度合を表すことができる。
 運転者Dの行動状態と注視状態及び即応性との関係は適宜設定可能である。例えば、運転者Dが、「前方注視」、「計器確認」及び「ナビゲーション確認」の行動状態にある場合には、当該運転者Dは、運転に必要な注視を行っており、かつ運転に対する即応性が高い状態にあると推定可能である。そこで、本実施形態では、運転者Dが、「前方注視」、「計器確認」及び「ナビゲーション確認」の行動状態にあるのに対応して、注視状態情報211は、運転者Dが運転に必要な注視を行っていることを示すように設定され、即応性情報212は、運転者Dが運転に対する即応性の高い状態にあることを示すように設定されている。なお、「前方注視」は、運転者Dが車両の走行方向を注視している状態を指す。「計器確認」は、車両のスピードメータ等の計器を運転者Dが確認している状態を指す。「ナビゲーション確認」は、ナビゲーション装置70の経路案内を運転者Dが確認している状態を指す。
 また、例えば、運転者Dが、「喫煙」、「飲食」及び「通話」の行動状態にある場合には、当該運転者Dは、運転に必要な注視は行っているが、運転に対する即応性は低い状態にあると推定可能である。そこで、本実施形態では、運転者Dが、「喫煙」、「飲食」及び「通話」の行動状態にあるのに対応して、注視状態情報211は、運転者Dが運転に必要な注視を行っていることを示すように設定され、即応性情報212は、運転者Dが運転に対する即応性の低い状態にあることを示すように設定されている。なお、「喫煙」は、運転者Dが喫煙している状態を指す。「飲食」は、運転者Dが飲食物を飲食している状態を指す。「通話」は、運転者Dが携帯電話等の電話機で通話を行っている状態を指す。
 また、例えば、運転者Dが、「脇見」、「後方振り返り」及び「眠気」の行動状態にある場合には、当該運転者Dは、運転に必要な注視は行っていないが、運転に対する即応性は比較的に高い状態にあると推定可能である。そこで、本実施形態では、運転者Dが、「脇見」、「後方振り返り」及び「眠気」の行動状態にあることに対応して、注視状態情報211は、運転者Dが運転に必要な注視を行っていないことを示すように設定され、即応性情報212が、運転者Dが運転に対する即応性の高い状態にあることを示すように設定されている。なお、「脇見」は、運転者Dが前方から視線を外している状態を指す。「後方振り返り」は、運転者Dが後部座席の方に振り返っている状態を指す。「眠気」は、運転者Dが眠気に襲われた状態を指す。
 また、例えば、運転者Dが、「居眠り」、「携帯電話操作」及び「パニック」の行動状態にある場合には、当該運転者Dは、運転に必要な注視を行っておらず、運転に対する即応性は低い状態にあると推定可能である。そこで、本実施形態では、運転者Dが、「居眠り」、「携帯電話操作」及び「パニック」の行動状態にあることに対応して、注視状態情報211は、運転者Dが運転に必要な注視を行っていないことを示すように設定され、即応性情報212は、運転者Dが運転に対する即応性の低い状態にあることを示すように設定されている。なお、「居眠り」は、運転者Dが眠っている状態を指す。「携帯電話操作」は、運転者Dが携帯電話を操作している状態を指す。「パニック」は、運転者Dが体調の急変等によりパニックに陥っている状態を指す。
 妥当性評価部113は、学習済みの自己符号化器4Aを含んでいる。妥当性評価部113は、この学習済みの自己符号化器4Aに入力データ5Aを入力することで当該自己符号化器4Aから得られる出力41Aに基づいて、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを評価する。学習済みの自己符号化器4Aは、上記第2の学習器4の一例である。
 自己符号化器は、出力を入力に近付けるように機械学習されたニューラルネットワークであり、エンコーダ及びデコーダからなる。エンコーダは、入力に対して何らかの変換(エンコード)を行うように機械学習されたニューラルネットワークであり、デコーダは、エンコーダの出力から入力を再現(デコード)するように機械学習されたニューラルネットワークである。
 本実施形態では、学習済みの第1の学習器であるニューラルネットワーク2Aが、学習済みの第2の学習器である自己符号化器4Aのエンコーダとしても動作し、本発明の「第1のエンコーダ」及び「第2のエンコーダ」の一例に相当する。そのため、本実施形態に係る自己符号化器4Aは、ニューラルネットワーク2A(エンコーダ)と、ニューラルネットワーク2Aの出力から入力を再現するように構築されたデコーダ401とにより構成される。本実施形態に係るデコーダ401には、入力データ5Aをニューラルネットワーク2Aに入力することで当該ニューラルネットワーク2Aから得られる出力(運転状態情報21A)が入力される。本実施形態に係るデコーダ401に、ニューラルネットワーク2Aの出力(運転状態情報21A)が入力されると、入力データ5Aに含まれる観測情報51に対応する対応情報411、及び低解像度撮影画像52に対応する対応画像412を含む出力41Aがデコーダ401から得られる。そこで、本実施形態に係る妥当性評価部113は、入力データ5Aと出力41Aとを比較することで、ニューラルネットワーク2Aによる推論結果の妥当性を評価する。なお、この出力41Aは、上記出力41の一例である。
 第1警告部114は、妥当性評価部113が、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した場合に、入力データ5Aをニューラルネットワーク2Aに入力することで当該入力データ5Aに対する推論結果としてニューラルネットワーク2Aから得られる出力に関する警告を行う。第1警告部114は、本発明の「警告部」の一例である。
 第2警告部115は、運転状態情報21Aに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定する。そして、第2警告部115は、運転者Dが車両の運転に適した状態にないと判定した場合に、車両の運転に適した状態をとるように運転者Dに促す警告を行う。
 運転制御部116は、車両の駆動系及び制御系にアクセスすることで、運転者Dによらず自動的に運転操作を行う自動運転モードと運転者Dの手動により運転操作を行う手動運転モードとを選択的に実施するように車両の動作を制御する。本実施形態では、運転制御部116は、運転状態情報21A等に応じて、自動運転モードと手動運転モードとを切り替えるように構成される。
 その一例として、運転制御部116は、自動運転モードが実施されている際に、運転状態情報21Aにより示される運転者Dの状態が、車両の運転を許可する条件を定めた基準を満たすか否かを判定する。そして、運転制御部116は、運転状態情報21Aにより示される運転者Dの状態が当該基準を満たすと判定した場合に、自動運転モードから手動運転モードへの切り替えを許可し、当該切り替えの指示を車両に対して出力する。一方で、運転状態情報21Aにより示される運転者Dの状態が当該基準を満たさないと判定した場合には、運転制御部116は、自動運転モードから手動運転モードへの切り替えを許可しない。この場合、運転制御部116は、自動運転モードを継続する、所定の停車区間に車両を停車する、等のように手動運転モード以外のモードで車両の動作を制御する。なお、この運転状態情報21Aに基づく運転制御部116の一動作は、本発明の「動作実行部」の動作に相当する。
 データ送信部117は、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力を当該ニューラルネットワーク2Aから得られないと妥当性評価部113が評価した場合に、当該入力データ5Aを所定の記憶場所に送信する。なお、所定の記憶場所は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、所定の記憶場所は、学習装置6の記憶部62、NAS(Network Attached Storage)等であってよい。
 (第1の学習器)
 次に、図7Aを更に用いて、第1の学習器の一例であるニューラルネットワーク2Aについて説明する。図7Aは、本実施形態に係るニューラルネットワーク2Aの構成の一例を模式的に例示する。図7Aに示されるとおり、本実施形態に係るニューラルネットワーク2Aは、複数種類のニューラルネットワークを組み合わせることで構成されている。
 具体的には、ニューラルネットワーク2Aは、全結合ニューラルネットワーク25、畳み込みニューラルネットワーク26、結合層27、及びLSTM(Long short-term memory)ネットワーク28の4つの部分に分かれている。全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26は入力側に並列に配置されており、全結合ニューラルネットワーク25には観測情報51が入力され、畳み込みニューラルネットワーク26には低解像度撮影画像52が入力される。結合層27は、全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26の出力を結合する。LSTMネットワーク28は、結合層27からの出力を受けて、注視状態情報211及び即応性情報212を出力する。
 (a)全結合ニューラルネットワーク
 全結合ニューラルネットワーク25は、いわゆる多層構造のニューラルネットワークであり、入力側から順に、入力層251、中間層(隠れ層)252、及び出力層253を備えている。ただし、全結合ニューラルネットワーク25の層の数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
 各層251~253は、1又は複数のニューロン(ノード)を備えている。各層251~253に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。各層251~253に含まれる各ニューロンが、隣接する層に含まれる全てのニューロンに結合されていることで、全結合ニューラルネットワーク25は構成される。各結合には、重み(結合荷重)が適宜設定されている。
 (b)畳み込みニューラルネットワーク
 畳み込みニューラルネットワーク26は、畳み込み層261及びプーリング層262を交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施形態に係る畳み込みニューラルネットワーク26では、複数の畳み込み層261及びプーリング層262が入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層262の出力が全結合層263に入力され、全結合層263の出力が出力層264に入力される。
 畳み込み層261は、画像の畳み込みの演算を行う層である。画像の畳み込みとは、画像と所定のフィルタとの相関を算出する処理に相当する。そのため、画像の畳み込みを行うことで、例えば、フィルタの濃淡パターンと類似する濃淡パターンを入力される画像から検出することができる。
 プーリング層262は、プーリング処理を行う層である。プーリング処理は、画像のフィルタに対する応答の強かった位置の情報を一部捨て、画像内に現れる特徴の微小な位置変化に対する応答の不変性を実現する。
 全結合層263は、隣接する層の間のニューロン全てを結合した層である。すなわち、全結合層263に含まれる各ニューロンは、隣接する層に含まれる全てのニューロンに結合される。畳み込みニューラルネットワーク26は、2層以上の全結合層263を備えてもよい。また、全結合層263に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
 出力層264は、畳み込みニューラルネットワーク26の最も出力側に配置される層である。出力層264に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。なお、畳み込みニューラルネットワーク26の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
 (c)結合層
 結合層27は、全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26とLSTMネットワーク28との間に配置される。結合層27は、全結合ニューラルネットワーク25の出力層253からの出力及び畳み込みニューラルネットワーク26の出力層264からの出力を結合する。結合層27に含まれるニューロンの個数は、全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26の出力の数に応じて適宜設定されてよい。
 (d)LSTMネットワーク
 LSTMネットワーク28は、LSTM(Long short-term memory)ブロック282を備える再起型ニューラルネットワークである。再帰型ニューラルネットワークは、例えば、中間層から入力層への経路のように、内部にループを有するニューラルネットワークのことである。LSTMネットワーク28は、一般的な再起型ニューラルネットワークの中間層をLSTMブロック282に置き換えた構造を有する。
 本実施形態では、LSTMネットワーク28は、入力側から順に、入力層281、LSTMブロック282、及び出力層283を備えており、順伝播の経路の他、LSTMブロック282から入力層281に戻る経路を有している。入力層281及び出力層283に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
 LSTMブロック282は、入力ゲート及び出力ゲートを備え、情報の記憶及び出力のタイミングを学習可能に構成されたブロックである(S.Hochreiter and J.Schmidhuber, "Long short-term memory" Neural Computation, 9(8):1735-1780, November 15, 1997)。また、LSTMブロック282は、情報の忘却のタイミングを調節する忘却ゲートを備えてもよい(Felix A. Gers, Jurgen Schmidhuber and Fred Cummins, "Learning to Forget: Continual Prediction with LSTM" Neural Computation, pages 2451-2471, October 2000)。LSTMネットワーク28の構成は、実施の形態に応じて適宜設定可能である。
 (e)小括
 各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。自動運転支援装置1Aは、全結合ニューラルネットワーク25に観測情報51を入力し、畳み込みニューラルネットワーク26に低解像度撮影画像52を入力する。そして、自動運転支援装置1Aは、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、自動運転支援装置1Aは、入力データ5Aに対する推論結果として、注視状態情報211及び即応性情報212に対応する出力値をニューラルネットワーク2Aの出力層283から取得する。
 なお、このようなニューラルネットワーク2Aの構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、第1学習結果データ122に含まれている。自動運転支援装置1Aは、第1学習結果データ122を参照して、運転者Dの運転状態を推定する処理に用いる学習済みニューラルネットワーク2Aの設定を行う。
 (第2の学習器)
 次に、図7Bを更に用いて、第2の学習器の一例である自己符号化器4Aについて説明する。上記のとおり、自己符号化器4Aは、ニューラルネットワーク2A(エンコーダ)とデコーダ401とにより構成される。図7Bは、これらのうちデコーダ401の構成を模式的に例示する。図7Bに示されるとおり、本実施形態に係るデコーダ401は、上記ニューラルネットワーク2Aの入力側と出力側とを反転させた構造を有している。
 具体的には、デコーダ401は、第1~第4部分45~48に分かれている。入力側に配置される第1部分45は、上記LSTMネットワーク28の入力側と出力側とを反転させた構造を有している。第2部分46は、上記結合層27に対応している。第2部分46は、第1部分45からの出力を受け付け、各ニューロンの発火判定の結果を第3部分47及び第4部分48に分けて出力する。第3部分47及び第4部分48は、出力側で並列に配置されており、上記全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26に対応している。第3部分47は、上記全結合ニューラルネットワーク25の入力側と出力側とを反転させた構造を有している。第3部分47は、第2部分46からの出力を受けて、対応情報411を出力する。第4部分48は、上記畳み込みニューラルネットワーク26の入力側と出力側とを反転させた構造を有している。第4部分48は、第2部分46からの出力を受けて、対応画像412を出力する。
 上記ニューラルネットワーク2Aと同様に、デコーダ401の各部分45~48を構成する各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。自動運転支援装置1Aは、ニューラルネットワーク2Aの出力(運転状態情報21A)を第1部分45に入力する。そして、自動運転支援装置1Aは、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、自動運転支援装置1Aは、対応情報411及び対応画像412を含む出力41Aをデコーダ401の出力層から取得する。
 ここで、上記のとおり、自己符号化器のデコーダは、エンコーダの出力から入力を再現するように機械学習されたニューラルネットワークである。そのため、自己符号化器4Aのデコーダ401は、上記ニューラルネットワーク2Aの入力側と出力側とを反転させた構造と完全に一致した構造を有するように構成されるのが好ましい。ただし、デコーダ401の構成は、このような例に限定されなくてもよく、対応情報411及び対応画像412を出力可能であれば、実施の形態に応じて適宜決定されてよい。デコーダ401の構造は、上記ニューラルネットワーク2Aの入力側と出力側とを反転させた構造と完全には一致していなくてもよい。
 なお、本実施形態では、エンコーダであるニューラルネットワーク2Aの構成等を示す情報は、第1学習結果データ122に含まれている。そこで、本実施形態に係る第2学習結果データ123は、デコーダ401の構成(例えば、各部分の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を含む。エンコーダであるニューラルネットワーク2Aの構成等を示す情報は、第2学習結果データ123から省略されてよい。自動運転支援装置1Aは、上記第1学習結果データ122を参照して、ニューラルネットワーク2Aの設定を行うと共に、第2学習結果データ123を参照して、デコーダ401の設定を行う。これにより、ニューラルネットワーク2Aによる推論結果の妥当性を評価する処理に用いる学習済み自己符号化器4Aの設定が行われる。ただし、第2学習結果データ123の内容は、このような例に限定されなくてもよい。第2学習結果データ123は、デコーダの構成等を示す情報と共に、エンコーダの構成等を示す情報を含んでもよい。
 <学習装置>
 次に、図8を用いて、本実施形態に係る学習装置6のソフトウェア構成の一例を説明する。図8は、本実施形態に係る学習装置6のソフトウェア構成の一例を模式的に例示する。
 学習装置6の制御部61は、記憶部62に記憶された学習プログラム621をRAMに展開する。そして、制御部61は、RAMに展開された学習プログラム621をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図8に示されるとおり、本実施形態に係る学習装置6は、ソフトウェアモジュールとして、学習データ取得部611、及び学習処理部612を備えるコンピュータとして構成される。
 学習データ取得部611は、機械学習に利用するデータセット3Aを取得する。データセット3Aは、訓練データ31A及び正解データ32Aの対で構成される。訓練データ31Aは、上記訓練データ31の一例であり、正解データ32Aは、上記正解データ32の一例である。本実施形態では、訓練データ31Aは、観測情報311及び低解像度撮影画像312を含む。観測情報311及び低解像度撮影画像312は、上記観測情報51及び低解像度撮影画像52に対応する。一方、正解データ32Aは、訓練データ31Aに対する運転者の状態の推定結果の正解を示すように、注視状態情報321及び即応性情報322を含む。注視状態情報321及び即応性情報322は、上記注視状態情報211及び即応性情報212に対応する。
 学習処理部612は、データセット3Aを構成する訓練データ31A及び正解データ32Aを利用して、ニューラルネットワーク81の教師あり学習を実施する。具体的には、学習処理部612は、観測情報311及び低解像度撮影画像312を入力すると、注視状態情報321及び即応性情報322に対応する出力値を出力するようにニューラルネットワーク81を学習させる。また、学習処理部612は、データセット3Aに含まれる訓練データ31Aを利用して、自己符号化器82の教師なし学習を実施する。具体的には、学習処理部612は、ニューラルネットワーク81の出力を入力すると、観測情報311及び低解像度撮影画像312に対応する出力値を出力するように自己符号化器82のデコーダ820を学習させる。
 図9A及び図9Bはそれぞれ、ニューラルネットワーク81及び自己符号化器82のデコーダ820の学習過程の一例を模式的に例示する。図9Aに示されるとおり、本実施形態に係るニューラルネットワーク81は、全結合ニューラルネットワーク811、畳み込みニューラルネットワーク812、結合層813、及びLSTMネットワーク814を備え、上記ニューラルネットワーク2Aと同様に構成される。全結合ニューラルネットワーク811、畳み込みニューラルネットワーク812、結合層813、及びLSTMネットワーク814はそれぞれ、上記全結合ニューラルネットワーク25、畳み込みニューラルネットワーク26、結合層27、及びLSTMネットワーク28それぞれと同様である。また、図9Bに示されるとおり、本実施形態に係るデコーダ820は、第1~第4部分821~824を備え、上記デコーダ401と同様に構成される。各部分821~824は、上記各部分45~48と同様である。これにより、本実施形態に係る自己符号化器82は、上記自己符号化器4Aと同様に構成される。
 学習処理部612は、ニューラルネットワークの学習処理により、全結合ニューラルネットワーク811に観測情報311を入力し、畳み込みニューラルネットワーク812に低解像度撮影画像312を入力すると、注視状態情報321及び即応性情報322に対応する出力値をLSTMネットワーク814から出力するニューラルネットワーク81を構築する。そして、学習処理部612は、構築したニューラルネットワーク81の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ122として記憶部62に格納する。
 同様に、学習処理部612は、ニューラルネットワークの学習処理により、ニューラルネットワーク81の出力を第1部分821に入力すると、観測情報311に対応する出力値を第3部分823から出力し、低解像度撮影画像312に対応する出力値を第4部分824から出力するデコーダ820を構築する。そして、学習処理部612は、構築したデコーダ820の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ123として記憶部62に格納する。
 <その他>
 自動運転支援装置1A及び学習装置6の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、自動運転支援装置1A及び学習装置6の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の各ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、自動運転支援装置1A及び学習装置6それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
 §3 動作例
 [自動運転支援装置]
 次に、図10A及び図10Bを用いて、自動運転支援装置1Aの動作例を説明する。図10A及び図10Bは、自動運転支援装置1Aの処理手順の一例を例示するフローチャートである。以下で説明するニューラルネットワーク2Aによる推定結果の妥当性を評価する処理手順は、本発明の「評価方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
 (起動)
 まず、運転者Dは、車両のイグニッション電源をオンにすることで、自動運転支援装置1Aを起動し、起動した自動運転支援装置1Aにプログラム121を実行させる。これにより、自動運転支援装置1Aの制御部11は、以下の処理手順に従って、運転者Dの状態を監視すると共に、車両の運転モードを制御する。なお、プログラム121の実行のトリガは、このような車両のイグニッション電源をオンにすることに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、プログラム121の実行は、入力装置(不図示)を介した運転者Dの指示をトリガとして開示されてよい。
 (ステップS101)
 ステップS101では、制御部11は、運転制御部116として動作し、車両の自動運転を開始する。例えば、制御部11は、ナビゲーション装置70から地図情報、周辺情報、及びGPS情報を取得して、取得した地図情報、周辺情報、及びGPS情報に基づいて車両の自動運転を実施する。自動運転の制御方法には、公知の制御方法が利用可能である。車両の自動運転モードを開始すると、制御部11は、次のステップS102に処理を進める。
 (ステップS102)
 ステップS102では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両の動作の切り替えの指示を受け付けたか否かを判定する。手動運転モードへの切り替えの指示を受け付けたと判定した場合、制御部11は、次のステップS103に処理を進める。一方、手動運転モードへの切り替えの指示を受け付けていないと判定した場合には、制御部11は、所定時間経過後、本ステップS102の処理を再度実行する。
 なお、自動運転モードから手動運転モードへの切り替えを指示するトリガは、実施の形態に応じて適宜設定されてよい。例えば、自動運転支援装置1Aの入力装置(不図示)を介した運転者Dからの指示をトリガとしてもよい。この場合、手動運転モードへの切り替えの操作を運転者Dが行ったことに応じて、制御部11は、手動運転モードへの切り替えの指示を受け付けたと判定する。一方、そのような操作が行われていない場合には、制御部11は、手動運転モードへの切り替えの指示を受け付けていないと判定し、本ステップS102の処理を繰り返し実行する。
 (ステップS103)
 ステップS103では、制御部11は、データ取得部111として動作し、学習済みのニューラルネットワーク2Aに入力される入力データ5Aを取得する。入力データ5Aを取得すると、制御部11は、次のステップS104に処理を進める。
 入力データ5Aを取得する方法は、実施の形態に応じて適宜決定されてよい。一例として、まず、制御部11は、車両の運転席に着いた運転者Dを撮影するように配置されたカメラ71から撮影画像711を取得する。撮影画像711は、動画像であってもよいし、静止画像であってもよい。次に、制御部11は、運転者Dの顔の挙動に関する顔挙動情報712及び生体センサ72により測定された生体情報721を含む観測情報51を取得する。また、制御部11は、取得した撮影画像711の解像度を低下させることで、低解像度撮影画像52を形成する。これにより、制御部11は、観測情報51及び低解像度撮影画像52を含む入力データ5Aを取得することができる。
 なお、顔挙動情報712は適宜取得可能である。例えば、制御部11は、撮影画像711に対して顔検出等の公知の画像解析を行うことで、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する情報を顔挙動情報712として取得可能である。
 具体例として、まず、制御部11は、撮影画像711から運転者Dの顔を検出し、検出した顔の位置を特定する。これにより、制御部11は、顔の検出可否及び位置に関する情報を取得することができる。また、継続的に顔の検出を行うことで、制御部11は、顔の動きに関する情報を取得することができる。次に、制御部11は、検出した顔の画像内において、運転者Dの顔に含まれる各器官(眼、口、鼻、耳等)を検出する。これにより、制御部11は、顔の器官の位置に関する情報を取得することができる。そして、制御部11は、検出した各器官(眼、口、鼻、耳等)の状態を解析することで、顔の向き、視線の方向、及び目の開閉に関する情報を取得することができる。顔の検出、器官の検出、及び器官の状態の解析には、公知の画像解析方法が用いられてよい。
 取得される撮影画像711が、動画像又は時系列に並んだ複数の静止画像である場合、制御部11は、これらの画像解析を撮影画像711の各フレームに実行することで、時系列に沿って各種情報を取得することができる。これにより、制御部11は、ヒストグラム又は統計量(平均値、分散値等)で表された各種情報を時系列データで取得することができる。
 また、制御部11は、生体センサ72にアクセスすることで、例えば、脳波、心拍数等の生体情報721を取得することができる。生体情報721は、例えば、ヒストグラム又は統計量(平均値、分散値等)で表されてよい。顔挙動情報712と同様に、制御部11は、生体センサ72に継続的にアクセスすることで、生体情報721を時系列データで取得することができる。
 また、撮影画像711を低解像度化する処理方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ニアレストネイバー法、バイリニア補間法、バイキュービック法等の公知の画像処理を撮影画像711に適用することにより、低解像度撮影画像52を形成することができる。
 (ステップS104及びS105)
 ステップS104では、制御部11は、状態推定部112として動作し、学習済みのニューラルネットワーク2Aに入力データ5Aを入力して、当該ニューラルネットワーク2Aの演算処理を実行する。これにより、ステップS105では、制御部11は、引き続き状態推定部112として動作し、運転状態情報21Aの注視状態情報211及び即応性情報212それぞれに対応する出力値を当該ニューラルネットワーク2Aから取得する。
 具体的には、制御部11は、ステップS103で取得した入力データ5Aのうち、全結合ニューラルネットワーク25の入力層251に観測情報51を入力し、畳み込みニューラルネットワーク26の最も入力側に配置された畳み込み層261に低解像度撮影画像52を入力する。そして、制御部11は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、入力データ5Aに対して運転者Dの状態を推定する推論を行った結果として、注視状態情報211及び即応性情報212それぞれに対応する出力値をLSTMネットワーク28の出力層283から取得する。注視状態情報211及び即応性情報212を含む運転状態情報21Aを取得すると、制御部11は、次のステップS106に処理を進める。なお、制御部11は、スピーカ73、ディスプレイ(不図示)等の出力装置を介して、取得した運転状態情報21Aの内容を運転者D等に通知してもよい。
 (ステップS106)
 ステップS106では、制御部11は、妥当性評価部113として動作し、入力データ5Aを自己符号化器4Aに入力して、自己符号化器4Aの演算処理を実行する。本実施形態では、自己符号化器4Aのエンコーダとして動作するニューラルネットワーク2Aの出力(運転状態情報21A)は、上記ステップS105で得られている。そこで、本ステップS106では、制御部11は、ニューラルネットワーク2Aに入力することで当該ニューラルネットワーク2Aから得られた運転状態情報21Aを自己符号化器4Aのデコーダ401に入力する。そして、制御部11は、当該デコーダ401の演算処理を実行する。これにより、制御部11は、対応情報411及び対応画像412それぞれに対応する出力値を出力41Aとして当該自己符号化器4Aのデコーダ401から取得する。
 具体的には、上記ステップS104と同様に、制御部11は、運転状態情報21Aに含まれる注視状態情報211及び即応性情報212それぞれに対応する出力値を第1部分45の入力側の層に入力する。そして、制御部11は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、第3部分47の出力側の層から対応情報411に対応する出力値を取得し、第4部分48の出力側の層から対応画像412に対応する出力値を取得する。対応情報411及び対応画像412を含む出力41Aを取得すると、制御部11は、次のステップS107に処理を進める。
 (ステップS107)
 ステップS107では、制御部11は、引き続き妥当性評価部113として動作し、自己符号化器4Aから得られた出力41Aに基づいて、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを評価する。
 上記のとおり、自己符号化器4Aのデコーダ401は、エンコーダであるニューラルネットワーク2Aの出力から入力を再現する。対応情報411は観測情報51に対応し、対応画像412は低解像度撮影画像52に対応する。ニューラルネットワーク2Aの教師あり学習に利用されたデータセット3Aの訓練データ31Aに入力データ5Aが類似するほど、対応情報411及び対応画像412それぞれは、入力データ5Aに含まれる観測情報51及び低解像度撮影画像52それぞれに類似する。一方、訓練データ31Aに入力データ5Aが相違するほど、対応情報411及び対応画像412それぞれは、観測情報51及び低解像度撮影画像52それぞれから乖離する。
 そこで、制御部11は、自己符号化器4Aから得られた出力41に含まれる対応情報411及び対応画像412それぞれと、ニューラルネットワーク2Aに入力される入力データ5Aに含まれる観測情報51及び低解像度撮影画像52との差分を算出する。この算出された差分も、本発明の「第2の学習器から得られる出力」に含まれるものとする。そして、制御部11は、算出した差分に基づいて、ニューラルネットワーク2Aの出力(運転状態情報21A)の妥当性を評価する。
 具体的には、算出された差分の値が大きいほど、入力データ5Aは、ニューラルネットワーク2Aの機械学習に利用された訓練データ31Aとはかけ離れた種類のものであり、ニューラルネットワーク2Aは、入力データ5Aに対して誤った推論を行う可能性が高いと想定される。そのため、制御部11は、算出された差分の値が大きいほど、ニューラルネットワーク2Aの出力の妥当性は低いと評価する。一方、算出された差分の値が小さいほど、入力データ5Aは、ニューラルネットワーク2Aの機械学習に利用された訓練データ31Aと一致しており、ニューラルネットワーク2Aは、入力データ5Aに対して誤った推論を行う可能性が低いと想定される。そのため、制御部11は、算出された差分の値が小さいほど、ニューラルネットワーク2Aの出力の妥当性は高いと評価する。
 なお、ニューラルネットワーク2Aの出力(運転状態情報21A)の妥当性を評価した結果を表現する方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、算出された差分と所定の閾値をと比較することにより、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを判定してもよい。所定の閾値は、任意に設定されてよい。そして、制御部11は、妥当性の評価結果として、当該判定の結果を示す値(例えば、「0」及び「1」の二値)を出力してもよい。
 また、例えば、制御部11は、評価の結果として、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られる程度を示す評価値を出力してもよい。この場合、制御部11は、算出された上記差分をそのまま評価値として出力してもよい。また、制御部11は、算出された上記差分に、スケールを変換する等の所定の演算処理を適用することで得られる値を評価値として出力してもよい。
 なお、上記判定の結果を示す値、評価値等の評価結果の出力先は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、評価結果は、本ステップS107以降の処理で利用するために、RAM、記憶部12等のメモリに出力されてもよい。また、例えば、評価結果は、ディスプレイ(不図示)、スピーカ73等の出力装置に出力されてもよい。ニューラルネットワーク2Aの出力(運転状態情報21A)の妥当性を評価した後、制御部11は、次のステップS108に処理を進める。
 (ステップS108)
 ステップS108では、制御部11は、ステップS107による評価の結果に基づいて、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを判定する。
 ステップS107において、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した場合(図10BのNO)、制御部11は、ステップS111に処理を進める。一方、ステップS107において、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られると評価した場合(図10BのYES)、制御部11は、ステップS109に処理を進める。
 (ステップS109)
 ステップS109では、制御部11は、第2警告部115として動作し、ステップS105で取得した運転状態情報21Aに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定する。運転者Dが車両の運転に適した状態にあると判定した場合には(図10BのYES)、制御部11は、ステップS110に処理を進める。一方、運転者Dが車両の運転に適した状態にないと判定した場合には、制御部11は、ステップS113に処理を進める。
 運転者Dが車両の運転に適した状態にないと判定する基準は、実施の形態に応じて適宜設定されてよい。例えば、制御部11は、運転者Dが運転に必要な注視を行っていないと注視状態情報211が示す、又は運転者Dの運転に対する即応性が低い状態であると即応性情報212が示す場合に、運転者Dが車両の運転に適した状態にないと判定してもよい。このケースでは、制御部11は、運転者Dが運転に必要な注視を行っていると注視状態情報211が示し、かつ運転者Dの運転に対する即応性が高い状態であると即応性情報212が示す場合に、運転者Dが車両の運転に適した状態にあると判定する。
 また、例えば、制御部11は、運転者Dが運転に必要な注視を行っていないと注視状態情報211が示し、かつ運転者Dの運転に対する即応性が低い状態であると即応性情報212が示す場合に、運転者Dが車両の運転に適した状態にないと判定してもよい。このケースでは、制御部11は、運転者Dが運転に必要な注視を行っていると注視状態情報211が示す、又は運転者Dの運転に対する即応性が高い状態であると即応性情報212が示す場合に、運転者Dが車両の運転に適した状態にあると判定する。
 (ステップS110)
 ステップS110では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両の動作を切り替える。これにより、制御部11は、車両において手動運転モードの動作を開始し、本動作例に係る処理を終了する。なお、この手動運転モードの開始に際して、制御部11は、スピーカ73を介して、車両の動作を手動運転モードに切り替えるため、ハンドルを握る等の運転操作を開始するように運転者Dにアナウンスをしてもよい。
 (ステップS111)
 ステップS111では、制御部11は、第1警告部114として動作し、入力データ5Aに対する推論結果としてニューラルネットワーク2Aから得られる出力(運転状態情報21A)に関する警告を行う。警告の内容及び方法は、実施の形態に応じて適宜設定されてよい。例えば、制御部11は、スピーカ73、ディスプレイ(不図示)等の出力装置を介して、ニューラルネットワーク2Aから得られる運転状態情報21Aの妥当性が低いことを運転者D等に知らせる警告を行ってもよい。当該警告を行うと、制御部11は、次のステップS112に処理を進める。
 (ステップS112)
 ステップS112では、制御部11は、データ送信部117として動作し、推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した対象の入力データ5Aを未知の訓練データとして所定の記憶場所に送信する。所定の記憶場所は、実施の形態に応じて適宜設定されてよい。例えば、所定の記憶場所は、学習装置6の記憶部62、NAS等の外部の記憶装置であってもよい。この場合、制御部11は、ネットワークを介して、対象の入力データ5Aを外部の記憶装置に送信してもよい。対象の入力データ5Aを所定の記憶場所に送信すると、制御部11は、ステップS103に戻り、上記一連の処理を繰り返す。
 (ステップS113)
 ステップS113では、制御部11は、第2警告部115として動作し、スピーカ73、ディスプレイ(不図示)等の出力装置を介して、車両の運転に適した状態をとるように運転者Dに促す警告を行う。警告の内容及び方法は、実施の形態に応じて適宜設定されてよい。当該警告を行うと、制御部11は、ステップS103に戻り、上記一連の処理を繰り返す。
 なお、本実施形態では、注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを2つのレベルで段階的に示し、即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで段階的に示す。そのため、制御部11は、注視状態情報211の示す運転者Dの注視のレベル及び即応性情報212の示す運転者Dの即応性のレベルに応じて、段階的に警告を行ってもよい。
 例えば、運転者Dが運転に必要な注視を行っていないと注視状態情報211が示す場合に、制御部11は、運転に必要な注視を行うように運転者Dに促す音声を警告としてスピーカ73から出力してもよい。また、運転者Dの運転に対する即応性が低い状態であると即応性情報212が示す場合に、制御部11は、運転に対する即応性を高めるように運転者Dに促す音声を警告としてスピーカ73から出力してもよい。更に、運転者Dが運転に必要な注視を行っていないと注視状態情報211が示し、かつ運転者Dの運転に対する即応性が低い状態であると即応性情報212が示す場合に、制御部11は、上記2つのケースよりも強い警告(例えば、音量を上げる、ビープ音を鳴らす、等)を実施してもよい。
 (その他)
 以上により、自動運転支援装置1Aは、車両の自動運転を実施している間に、ニューラルネットワーク2Aを利用して運転者Dの運転状態を監視すると共に、自己符号化器4Aを利用して、当該ニューラルネットワーク2Aによる推論結果を評価することができる。なお、自動運転支援装置1Aは、上記ステップS109において、運転者Dが車両の運転に適した状態にないと複数回連続して判定した場合に(図10BのNO)、ステップS103に戻らずに、自動運転を停止してもよい。この場合、例えば、制御部11は、地図情報、周辺情報及びGPS情報を参照して、車両を安全に停止可能な場所に停車区間を設定してもよい。そして、制御部11は、車両を停止する旨を運転者Dに伝えるための警告を実施し、設定した停車区間に車両を自動停車させてもよい。これにより、運転者Dが継続的に運転に適さない状態にあるときに、車両の走行を停止することができる。
 更に、自動運転支援装置1Aは、上記ステップS108において、推論結果として妥当な出力をニューラルネットワーク2Aから得られないと1回又は複数回連続して判定した場合(図10BのNO)、ステップS103ではなく、ステップS102に戻ってもよい。または、自動運転支援装置1Aは、上記ステップS108において、推論結果として妥当な出力をニューラルネットワーク2Aから得られないと1回又は複数回連続して判定した場合(図10BのNO)、ステップS102に戻らずに、自動運転を停止してもよい。この場合、上記と同様に、制御部11は、地図情報、周辺情報及びGPS情報を参照して、車両を安全に停止可能な場所に設定した停車区間に車両を自動停車させてもよい。
 [学習装置]
 次に、図11を用いて、学習装置6の動作例を説明する。図11は、学習装置6の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
 (ステップS201)
 ステップS201では、学習装置6の制御部61は、学習データ取得部611として動作し、訓練データ31A及び正解データ32Aの対で構成されたデータセット3Aを取得する。
 データセット3Aは適宜収集されてよい。例えば、カメラ71を備える車両を用意し、運転者に生体センサ72を装着して、運転席に着いた運転者を様々な条件で撮影する。そして、得られた撮影画像に、注視の状態及び即応性の程度を含む撮影条件を紐付けることで作成することができる。このとき、訓練データ31Aを構成する観測情報311及び低解像度撮影画像312は、上記ステップS103で入力データ5Aを取得した方法と同様の方法により得ることができる。また、制御部61は、ステップS112の処理により送信される入力データ5Aを訓練データ31Aとして取得してもよい。一方、正解データ32Aを構成する注視状態情報321及び即応性情報322は、撮影画像に表れる運転者の状態の入力を適宜受け付けることで得ることができる。これにより、データセット3Aを作成することができる。
 なお、このデータセット3Aの収集は、オペレータ等が入力装置64を用いて手動で行ってもよいし、プログラムの処理により自動的に行われてもよい。データセット3Aは、例えば、上記ステップS112の処理の結果として、運用されている車両から随時収集されてもよい。本ステップS201で取得するデータセット3Aの件数は、ニューラルネットワーク81及び自己符号化器82の機械学習を実施可能な程度に適宜決定されてよい。
 また、データセット3Aの作成は、学習装置6以外の他の情報処理装置により行われてもよい。学習装置6がデータセット3Aを作成する場合、制御部61は、本ステップS201において、データセット3Aの上記作成処理を実行することで、データセット3Aを取得することができる。一方、学習装置6以外の他の情報処理装置がデータセット3Aを作成する場合には、学習装置6は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により作成されたデータセット3Aを取得してもよい。データセット3Aを取得すると、制御部61は、次のステップS202に処理を進める。
 (ステップS202)
 ステップS202では、制御部61は、学習処理部612として動作し、ステップS201で取得したデータセット3Aを用いて、観測情報311及び低解像度撮影画像312を入力すると、入力した観測情報311及び低解像度撮影画像312と対の注視状態情報321及び即応性情報322それぞれに対応する出力値を出力するように、ニューラルネットワーク81の教師あり学習を実施する。
 具体的には、まず、制御部61は、学習処理を行う対象となるニューラルネットワーク81を用意する。用意するニューラルネットワーク81の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部61は、再学習を行う対象となる第1学習結果データ122に基づいて、ニューラルネットワーク81を用意してもよい。
 次に、制御部61は、ステップS201で取得したデータセット3Aに含まれる訓練データ31A及び正解データ32Aを用いて、ニューラルネットワーク81の学習処理を行う。このニューラルネットワーク81の学習処理には、確率的勾配降下法等の公知の学習方法が用いられてもよい。
 例えば、制御部61は、全結合ニューラルネットワーク811の入力層に観測情報311を入力し、畳み込みニューラルネットワーク812の最も入力側に配置された畳み込み層に低解像度撮影画像312を入力する。そして、制御部61は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部61は、LSTMネットワーク814の出力層から出力値を得る。次に、制御部61は、LSTMネットワーク814の出力層から取得した出力値それぞれと、正解データ32Aを構成する注視状態情報321及び即応性情報322それぞれに対応する値との誤差を算出する。続いて、制御部61は、通時的誤差逆伝搬(Back propagation through time)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部61は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
 制御部61は、各件のデータセット3Aについて、ニューラルネットワーク81から出力される出力値それぞれが、注視状態情報321及び即応性情報322それぞれに対応する値と一致するまでこの一連の処理を繰り返す。これにより、制御部61は、訓練データ31Aを入力すると、入力した訓練データ31Aと対の正解データ32Aに対応する出力値を出力するニューラルネットワーク81を構築することができる。
 また、制御部61は、データセット3Aに含まれる訓練データ31Aを用いて、自己符号化器82の教師なし学習を実施する。ここで、自己符号化器82のエンコーダは、上記ニューラルネットワーク81と同一、又は上記ニューラルネットワーク81のコピーであってよい。本実施形態では、自己符号化器82のエンコーダは、上記ニューラルネットワーク81と同一であるとする。そのため、自己符号化器82のエンコーダは、上記ニューラルネットワーク81の学習処理により構築されている。そこで、制御部61は、ニューラルネットワーク81の出力を入力すると、入力した出力を得るのにニューラルネットワーク81に入力した観測情報311及び低解像度撮影画像312に対応する出力値を出力するように、自己符号化器82のデコーダ820の機械学習を実施する。
 デコーダ820の機械学習は、訓練データ31Aをニューラルネットワーク81の出力に置き換え、正解データ32Aを訓練データ31Aに置き換えることで、上記ニューラルネットワーク81と同様に実施することができる。すなわち、制御部61は、訓練データ31Aをニューラルネットワーク81に入力し、当該ニューラルネットワーク81から出力を得る。次に、制御部61は、ニューラルネットワーク81から得た出力をデコーダ820の第1部分821に入力し、入力側から順に、各層に含まれる各ニューロンの発火判定を行うことで、第3部分823及び第4部分824それぞれから出力値を得る。次に、制御部61は、第3部分823及び第4部分824それぞれから得た出力値と訓練データ31Aの観測情報311及び低解像度撮影画像312それぞれに対応する値との誤差を算出する。次に、制御部61は、通時的誤差逆伝搬(Back propagation through time)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部61は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。制御部61は、各件の訓練データ31Aについて、デコーダ820の第3部分823及び第4部分824それぞれから出力される出力値それぞれが、観測情報311及び低解像度撮影画像312それぞれに対応する値と一致するまでこの一連の処理を繰り返す。これにより、制御部61は、ニューラルネットワーク81の出力を入力すると、入力した出力を得るのにニューラルネットワーク81に入力した訓練データ31Aに対応する出力値を出力するデコーダ820を構築することができる。
 このとき、自己符号化器82のデコーダ820の機械学習は、ニューラルネットワーク81の機械学習と一連で行われてもよいし、ニューラルネットワーク81の機械学習と別個に行われてもよい。自己符号化器82及びニューラルネットワーク81の機械学習を一連で行う場合、制御部61は、学習済みの自己符号化器82を構築するのと同時に、学習済みのニューラルネットワーク81を構築することができる。ニューラルネットワーク81及び自己符号化器82の機械学習が完了すると、制御部61は、次のステップS203に処理を進める。
 なお、上記のように、自己符号化器の学習処理は、ニューラルネットワークの学習処理と同様であるため、一見、教師あり学習に分類することも可能である。しかしながら、自己符号化器の学習処理では、エンコーダへの入力とデコーダからの出力とを同じにするために、エンコーダに入力する訓練データを、デコーダの出力に対する正解データとしても利用する。そのため、この自己符号化器の学習処理のように訓練データを正解データとしても利用する機械学習は、教師あり学習ではなく、教師なし学習に分類されるものとする。
 (ステップS203)
 ステップS203では、制御部61は、学習処理部612として動作し、構築したニューラルネットワーク81の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ122として記憶部62に格納する。また、制御部61は、構築した自己符号化器82のデコーダ820の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ123として記憶部62に格納する。これにより、制御部61は、本動作例に係るニューラルネットワーク81及び自己符号化器82の学習処理を終了する。
 なお、制御部61は、上記ステップS203の処理が完了した後に、作成した各学習結果データ(122、123)を自動運転支援装置1Aに転送してもよい。また、制御部61は、上記ステップS201~S203の学習処理を定期的に実行することで、各学習結果データ(122、123)を更新してもよい。そして、制御部61は、作成した各学習結果データ(122、123)を当該学習処理の実行毎に自動運転支援装置1Aに転送することで、自動運転支援装置1Aの保持する各学習結果データ(122、123)を定期的に更新してもよい。また、例えば、制御部61は、作成した各学習結果データ(122、123)をNAS等のデータサーバに保管してもよい。この場合、自動運転支援装置1Aは、このデータサーバから各学習結果データ(122、123)を取得してもよい。
 [特徴]
 以上のように、本実施形態によれば、ステップS201により取得した訓練データ31Aを、ニューラルネットワーク81及び自己符号化器82の学習の両方に共通して利用可能である。そのため、ニューラルネットワーク81の機械学習に利用する訓練データ31Aの数が過度に少なくなるのを防止することができる。また、教師なし学習の特性上、ニューラルネットワーク2A(81)の学習に利用した訓練データ31Aにより、与えられた入力データ5Aが当該訓練データ31Aとかけ離れた種類のものであるか否かを評価可能な学習済みの自己符号化器4A(82)を構築することができる。そのため、ステップS201において、自己符号化器82の学習のために、ニューラルネットワーク2Aに入力されるあらゆる種類の入力データ5Aを想定して訓練データ31Aを用意しなくてもよい。よって、本実施形態によれば、ステップS105における学習済みのニューラルネットワーク2Aによる運転者Dの状態を推定する推論の精度を低減させることなく、ステップS107において、当該ニューラルネットワーク2Aによる推論結果の妥当性を適切に評価することができる。
 また、本実施形態に係る自動運転支援装置1Aは、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られると評価した場合(ステップS108でYES)、運転状態情報21Aに基づく、自動運転モードから手動運転モードへの切り替えに関する動作(ステップS109及びS110)を実行する。これに対して、本実施形態に係る自動運転支援装置1Aは、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した場合(ステップS108でNO)、運転状態情報21Aに基づく、自動運転モードから手動運転モードへの切り替えに関する動作(ステップS109及びS110)の実行を停止する。これにより、本実施形態では、ニューラルネットワーク2Aによる推論結果に基づく動作制御の信頼性を高めることができる。
 また、本実施形態では、ニューラルネットワーク2Aは、第1の学習器2として動作すると共に、自己符号化器4Aのエンコーダとしても動作する。つまり、第1の学習器2と第2の学習器4との間でエンコーダを共有させることができる。これにより、ステップS104及びS106の処理にかかるトータルの計算コストを抑えることができ、また、ステップS106の演算速度を高めることができる。
 また、本実施形態に係る自動運転支援装置1Aは、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した場合に、ステップS112により、当該入力データ5Aを所定の記憶場所に送信する。これにより、学習済みのニューラルネットワーク2Aを構築する際に用意した訓練データ31Aとはかけ離れた種類のものと想定される入力データ5Aが与えられた場合に、当該入力データ5Aを未知の訓練データ31Aとして収集することができる。これによって、収集した入力データ5Aを新たな訓練データとして利用し、ステップS105においてニューラルネットワーク2Aにより推論可能な対象の範囲を拡げることができる。
 §4 変形例
 以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
 <4.1>
 上記実施形態では、自動車の自動運転を支援する自動運転支援装置1Aに本発明を適用した例を示す。自動運転支援装置1Aは、本発明の「評価装置」の一例であり、「動作制御装置」の一例でもある。また、上記実施形態では、第1の学習器による所定の推論の一例として、観測情報51及び低解像度撮影画像52を含む入力データ5Aに対してニューラルネットワーク2Aにより運転者Dの状態を推定する例を示す。しかしながら、本発明を適用可能な範囲は、このような自動運転支援装置1Aの例に限られない。また、第1の学習器により実施する所定の推論は、上記のような運転者Dの状態の推定に限られず、実施の形態に応じて適宜決定されてよい。
 (診断装置)
 まず、図12~図14は、上記実施形態の変形例として、対象者Pの診断を行う診断装置1Bに本発明を適用した例を示す。図12は、本変形例に係る診断装置1B及び学習装置6Bの適用場面の一例を模式的に例示する。図13は、本変形例に係る診断装置1Bのソフトウェア構成の一例を模式的に例示する。図14は、本変形例に係る学習装置6Bのソフトウェア構成の一例を模式的に例示する。なお、本変形例に係る診断装置1B及び学習装置6Bそれぞれのハードウェア構成は、上記自動運転支援装置1A及び学習装置6それぞれのハードウェア構成と同様であってよい。
 図13に示されるとおり、診断装置1Bの制御部は、記憶部に記憶されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。これにより、診断装置1Bは、ソフトウェアモジュールとして、データ取得部111B、診断部112B、及び妥当性評価部113Bを備えるコンピュータとして構成される。
 データ取得部111Bは、上記データ取得部111と同様に、ニューラルネットワーク2Bに入力される入力データ5Bを取得する。ニューラルネットワーク2Bは、第1の学習器2の一例である。入力データ5Bは、入力データ5の一例である。本変形例では、入力データ5Bは、対象者Pから得られた測定データ54及び問診データ55を含む。測定データ54は、例えば、体温、血圧、脈拍等の測定結果を示す。また、問診データ55は、咳の有無、頭痛の有無等の問診結果を示す。測定データ54及び問診データ55は、公知の方法により取得されてよい。
 診断部112Bは、対象者Pの健康状態を診断する。具体的には、診断部112Bは、上記状態推定部112と同様に、学習済みのニューラルネットワーク2Bに入力データ5Bを入力して、当該ニューラルネットワーク2Bの演算処理を実行する。これにより、診断部112Bは、入力データ5Bに対して対象者Pの健康状態を推定する推論を行った結果として、対象者Pの健康状態を示す診断情報21Bに対応する出力値をニューラルネットワーク2Bから取得する。診断部112Bは、本発明の「推論部」の一例である。
 妥当性評価部113Bは、上記妥当性評価部113と同様に、自己符号化器4Bを利用して、推論結果として妥当な出力をニューラルネットワーク2Bから得られるか否かを評価する。自己符号化器4Bは、第2の学習器4の一例である。具体的に、妥当性評価部113Bは、ニューラルネットワーク2Bから得られる出力(診断情報21B)を自己符号化器4Bのデコーダ401Bに入力して、当該デコーダ401Bの演算処理を実行する。これにより、妥当性評価部113Bは、測定データ54に対応する第1対応データ414、及び問診データ55に対応する第2対応データ415を含む出力41Bを自己符号化器4Bから取得する。そこで、妥当性評価部113Bは、入力データ5Bと出力41Bとを比較することで、ニューラルネットワーク2Bによる推論結果の妥当性を評価する。
 これにより、診断装置1Bは、与えられた測定データ54及び問診データ55に対してニューラルネットワーク2Bにより対象者Pの健康状態を推定する推論を実施すると共に、自己符号化器4Bを利用して、当該ニューラルネットワーク2Bによる推論結果の妥当性を評価することができる。なお、ニューラルネットワーク2Bの設定は、第1学習結果データ122Bに基づいて行われる。また、自己符号化器4Bのデコーダ401Bの設定は、第2学習結果データ123Bに基づいて行われる。
 また、図14に示されるとおり、学習装置6Bの制御部は、記憶部に記憶されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。これにより、学習装置6Bは、ソフトウェアモジュールとして、学習データ取得部611B及び学習処理部612Bを備えるコンピュータとして構成される。
 学習データ取得部611Bは、機械学習に利用するデータセット3Bを取得する。データセット3Bは、訓練データ31B及び正解データ32Bの対で構成される。訓練データ31Bは上記訓練データ31の一例であり、正解データ32Bは上記正解データ32の一例である。本実施形態では、訓練データ31Bは、測定データ314及び問診データ315を含む。測定データ314及び問診データ315は、上記測定データ54及び問診データ55に対応する。一方、正解データ32Bは、訓練データ31Bに対する対象者の健康状態の推定結果の正解を示すように診断情報324を含む。診断情報324は、上記診断情報21Bに対応する。
 学習データ取得部611Bは、上記ステップS201と同様の処理により、訓練データ31B及び正解データ32Bを含むデータセット3Bを取得してもよい。例えば、学習データ取得部611Bは、様々な健康状態の対象者Pから測定データ314及び問診データ315を取得する。そして、学習データ取得部611Bは、取得した測定データ314及び問診データ315に、対象者Pの健康状態を示す診断情報324を紐付ける。これにより、学習データ取得部611Bは、訓練データ31B及び正解データ32Bを含むデータセット3Bを取得することができる。
 学習処理部612Bは、測定データ314及び問診データ315を入力すると、診断情報324に対応する出力値を出力するようにニューラルネットワーク81Bを学習させる。また、学習処理部612Bは、ニューラルネットワーク81Bの出力を入力すると、測定データ314及び問診データ315それぞれに対応する出力値を出力するように自己符号化器82Bのデコーダ820Bを学習させる。ニューラルネットワーク81Bは上記ニューラルネットワーク2Bに対応し、自己符号化器82Bは上記自己符号化器4Bに対応し、デコーダ820Bは上記デコーダ401Bに対応する。
 そして、学習処理部612Bは、構築したニューラルネットワーク81Bの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ122Bとして記憶部に格納する。また、学習処理部612Bは、構築した自己符号化器82Bのデコーダ820Bの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ123Bとして記憶部に格納する。これにより、学習装置6Bは、診断装置1Bで利用する学習済みのニューラルネットワーク2B及び自己符号化器4Bを生成することができる。
 (予測装置)
 次に、図15~図17は、上記実施形態の変形例として、太陽光発電所等の発電所における発電量を予測する予測装置1Cに本発明を適用した例を示す。図15は、本変形例に係る予測装置1C及び学習装置6Cの適用場面の一例を模式的に例示する。図16は、本変形例に係る予測装置1Cのソフトウェア構成の一例を模式的に例示する。図17は、本変形例に係る学習装置6Cのソフトウェア構成の一例を模式的に例示する。なお、本変形例に係る予測装置1C及び学習装置6Cそれぞれのハードウェア構成は、上記自動運転支援装置1A及び学習装置6それぞれのハードウェア構成と同様であってよい。
 図16に示されるとおり、予測装置1Cの制御部は、記憶部に記憶されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。これにより、診断装置1Bは、ソフトウェアモジュールとして、データ取得部111C、発電量予測部112C、及び妥当性評価部113Cを備えるコンピュータとして構成される。
 データ取得部111Cは、上記データ取得部111と同様に、ニューラルネットワーク2Cに入力される入力データ5Cを取得する。ニューラルネットワーク2Cは、第1の学習器2の一例である。入力データ5Cは、入力データ5の一例である。本変形例では、入力データ5Cは、天候データ57を含む。天候データ57は、発電量を予測する日の天候を示す。この天候データ57は、例えば、天気予報の情報を提供する公知のウェブサイト等から取得されてよい。
 発電量予測部112Cは、対象の発電所における発電量を予測する。具体的には、発電量予測部112Cは、上記状態推定部112と同様に、学習済みのニューラルネットワーク2Cに入力データ5Cを入力して、当該ニューラルネットワーク2Cの演算処理を実行する。これにより、発電量予測部112Cは、入力データ5Cに対して発電量を予測する推論を行った結果として、対象の発電量の予測値を示す発電量情報21Cに対応する出力値をニューラルネットワーク2Cから取得する。発電量予測部112Cは、本発明の「推論部」の一例である。
 妥当性評価部113Cは、上記妥当性評価部113と同様に、自己符号化器4Cを利用して、推論結果として妥当な出力をニューラルネットワーク2Cから得られるか否かを評価する。自己符号化器4Cは、第2の学習器の一例である。具体的に、妥当性評価部113Cは、ニューラルネットワーク2Cから得られる出力(発電量情報21C)を自己符号化器4Cのデコーダ401Cに入力して、当該デコーダ401Cの演算処理を実行する。これにより、妥当性評価部113Cは、天候データ57に対応する対応データ417を含む出力41Cを自己符号化器4Cから取得する。そこで、妥当性評価部113Cは、入力データ5Cと出力41Cとを比較することで、ニューラルネットワーク2Cによる推論結果の妥当性を評価する。
 これにより、予測装置1Cは、与えられた天候データ57に対してニューラルネットワーク2Cにより発電量を予測する推論を実施すると共に、自己符号化器4Cを利用して、当該ニューラルネットワーク2Cによる推論結果の妥当性を評価することができる。なお、ニューラルネットワーク2Cの設定は、第1学習結果データ122Cに基づいて行われる。また、自己符号化器4Cのデコーダ401Cの設定は、第2学習結果データ123Cに基づいて行われる。
 また、図17に示されるとおり、学習装置6Cの制御部は、記憶部に記憶されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。これにより、学習装置6Cは、ソフトウェアモジュールとして、学習データ取得部611C及び学習処理部612Cを備えるコンピュータとして構成される。
 学習データ取得部611Cは、機械学習に利用するデータセット3Cを取得する。データセット3Cは、訓練データ31C及び正解データ32Cの対で構成される。訓練データ31Cは上記訓練データ31の一例であり、正解データ32Cは上記正解データ32の一例である。本実施形態では、訓練データ31Cは、天候データ317を含む。天候データ317は、上記天候データ57に対応する。一方、正解データ32Cは、訓練データ31Cに対する発電量の予測結果の正解を示すように発電量情報327を含む。発電量情報327は、上記発電量情報21Cに対応する。
 学習データ取得部611Cは、上記ステップS201と同様の処理により、訓練データ31C及び正解データ32Cを含むデータセット3Cを取得してもよい。例えば、学習データ取得部611Cは、所定のウェブサイトから天候データ317を取得すると共に、天候データ317により天候が示される日の発電量を示す発電量情報327を取得する。発電量情報327は、公知のウェブサイトから取得されてもよいし、オペレータにより入力されてもよい。そして、学習データ取得部611Cは、取得した天候データ317と発電量情報327とを紐付ける。これにより、学習データ取得部611Cは、訓練データ31C及び正解データ32Cを含むデータセット3Cを取得することができる。
 学習処理部612Cは、天候データ317を入力すると、発電量情報327に対応する出力値を出力するようにニューラルネットワーク81Cを学習させる。また、学習処理部612Cは、ニューラルネットワーク81Cの出力を入力すると、天候データ317に対応する出力値を出力するように自己符号化器82Cのデコーダ820Cを学習させる。ニューラルネットワーク81Cは上記ニューラルネットワーク2Cに対応し、自己符号化器82Cは上記自己符号化器4Cに対応し、デコーダ820Cは上記デコーダ401Cに対応する。
 そして、学習処理部612Cは、構築したニューラルネットワーク81Cの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ122Cとして記憶部に格納する。また、学習処理部612Cは、構築した自己符号化器82Cのデコーダ820Cの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ123Cとして記憶部に格納する。これにより、学習装置6Cは、予測装置1Cで利用する学習済みのニューラルネットワーク2C及び自己符号化器4Cを生成することができる。
 (その他)
 以上のとおり、本発明は、教師あり学習を利用した様々な分野に適用可能である。第1の学習器により実施する所定の推論の種類は、本発明を適用する分野に応じて適宜決定されてよい。すなわち、本発明を適用する分野に応じて、様々な推論部を構成してもよい。
 また、上記実施形態では、本発明の「動作実行部」による「推論の結果に基づく所定の動作」の一例として、運転状態情報21Aに基づく、自動運転モードから手動運転モードへの切り替えに関する動作(ステップS109及びS110)を例示する。しかしながら、「推論の結果に基づく所定の動作」は、このような例に限定されなくてもよく、本発明を適用する分野に応じて適宜決定されてよい。動作実行部は、入力データを第1の学習器に入力したときに当該入力データに対する推論結果として妥当な出力を第1の学習器から得られると評価した場合に、当該推論の結果に基づいて所定の動作の実行を制御するのに対して、当該入力データに対する推論結果として妥当な出力を第1の学習器から得られないと評価した場合には、当該推論の結果に基づく所定の動作の実行を停止するように制御するように構成されればよい。
 なお、「所定の動作の実行を停止する」ことは、所定の動作の実行を維持しないあらゆる態様を含んでもよい。すなわち、「所定の動作の実行を停止する」ことは、所定の動作を完全に停止することの他、例えば、速度、加速度、力等の所定の動作の属性を変更することを含んでもよい。また、所定の動作を実行する装置は、動作実行部を備える動作制御装置自身であってもよいし、動作制御装置とは異なる他の装置であってもよい。所定の動作を他の装置が実行する場合、動作制御装置は、その指令を他の装置に送信することで、所定の動作の実行を制御する。この場合、推論部は、動作制御装置ではなく、他の装置に存在してもよい。
 <4.2>
 上記実施形態では、自動運転支援装置1Aは、ニューラルネットワーク2A及び自己符号化器4Aを保持している。しかしながら、自動運転支援装置1Aの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、ニューラルネットワーク2A及び自己符号化器4Aの少なくとも一方は、自動運転支援装置1A以外の外部装置に保持されてもよい。
 ニューラルネットワーク2Aが外部装置に保持される場合、ニューラルネットワーク2Aによる推論に関する一連の処理は、外部装置により実行されてよい。この場合、ニューラルネットワーク2Aによる推論に関する一連の処理は、自動運転支援装置1Aの処理手順から省略されてよい。また、状態推定部112は省略されてよい。
 また、自己符号化器4Aのデコーダ401が外部装置に保持される場合、ステップS106の処理は、学部装置により実行されてよい。この場合、ステップS106の処理は、自動運転支援装置1Aの処理手順から省略されてよい。制御部11は、ステップS103で取得した入力データ5A又はニューラルネットワーク2Aの出力を外部装置に送信することで、デコーダ401の演算処理を当該外部装置に要求してもよい。そして、制御部11は、当該外部装置による演算結果として、自己符号化器4Aの出力41Aを外部装置から取得してもよい。
 更に、ニューラルネットワーク2Aが自動運転支援装置1Aに保持されるケース及び外部装置に保持されるケースのいずれのケースにおいても、ニューラルネットワーク2Aによる推論に関する一連の処理の実行の有無を問わず、自動運転支援装置1Aは、ステップS106及びS107の処理を実行してもよい。これにより、ニューラルネットワーク2Aによる推論を実行する前に、自動運転支援装置1Aは、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを評価してもよい。
 <4.3>
 上記実施形態では、第1の学習器2にはニューラルネットワークにより構成され、第2の学習器4は自己符号化器により構成されている。しかしながら、各学習器(2、4)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、第1の学習器2は、線形回帰モデル、サポートベクタマシン等により構成されてもよい。また、例えば、第2の学習器4は、マハラノビス距離を算出する演算モデル、1クラスサポートベクタマシン等により構成されてもよい。
 例えば、第1の学習器2は、線形回帰モデルにより構成されてもよい。この場合、第2の学習器4は、マハラノビス距離を算出する演算モデルにより構成されてもよい。入力をx、出力をy、パラメータをθとすると、第1の学習器2(線形回帰モデル)は、以下の数1により表現することができる。
Figure JPOXMLDOC01-appb-M000001
 この第1の学習器2によれば、入力データ5をxに入力することで、入力データ5に対する所定の推論結果(y)を得ることができる。入力xから出力yを推定するパラメータθは、以下の数2により算出することができる。
Figure JPOXMLDOC01-appb-M000002
 そこで、数2の関係式において、訓練データ31を入力Xに入力し、正解データ32を出力yに入力することで、パラメータθを算出することができる。このパラメータθを算出する処理が、第1の学習器2の教師あり学習の処理の一例である。
 一方、マハラノビス距離を算出する演算モデルd(x)は、以下の数3により定義することができる。
Figure JPOXMLDOC01-appb-M000003
 そこで、訓練データ31の平均値μを算出することで、マハラノビス距離を算出する演算モデルを導出することができる。このマハラノビス距離を算出する演算モデルを導出する処理が、第2の学習器4の教師なし学習の処理の一例である。
 このとき、評価装置1は、第2の学習器4の出力(d(x))に基づいて、入力データ5に対する第1の学習器2による推論結果(y)の妥当性を評価することができる。例えば、評価装置1は、以下の数4に示すv(x)により、入力データ5に対する第1の学習器2による推論結果の妥当性の程度を表現してもよい。
Figure JPOXMLDOC01-appb-M000004
 入力データ5が訓練データ31に類似するほど、v(x)の値は1に近付き、入力データ5が訓練データ31から乖離するほど、v(x)の値は0に近付く。そこで、評価装置1は、v(x)の値と所定の閾値とを比較することで、入力データ5に対する第1の学習器2による推論結果の妥当性を評価してもよい。すなわち、v(x)の値が所定の閾値以上である場合に、評価装置1は、入力データ5に対する第1の学習器2による推論結果の妥当性が高いと評価してもよい。また、v(x)の値が所定の閾値未満である場合に、評価装置1は、入力データ5に対する第1の学習器2による推論結果の妥当性が低いと評価してもよい。なお、所定の閾値は、実施の形態に応じて適宜設定されてよい。
 また、例えば、第1の学習器2は、サポートベクタマシンにより構成されてもよい。この場合、第2の学習器4は、1クラスサポートベクタマシンにより構成されてもよい。サポートベクタマシンの教師あり学習は、公知の方法により実施されてよい。このとき、各クラスの訓練データ31に対する1クラスサポートベクタマシンSa(x)は、以下の数5により表現することができる。また、全ての訓練データ31に対する1クラスサポートベクタマシンSb(x)は、以下の数6により表現することができる。第2の学習器4として、いずれの1クラスサポートベクタマシンを採用してよい。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 φは、カーネル関数を示す。wi、w、bi、及びbは、学習により得られるパラメータである。いずれかの1クラスサポートベクタマシンを導出する処理が、第2の学習器4の教師なし学習の処理の一例である。
 入力データ5が訓練データ31に類似するほど、Sa(x)及びSb(x)それぞれの値は1に近付き、入力データ5が訓練データ31から乖離するほど、Sa(x)及びSb(x)それぞれの値は-1に近付く。そこで、評価装置1は、いずれかの1クラスサポートベクタマシンのxに入力データ5を入力することで得られる値と所定の閾値とを比較することで、入力データ5に対する第1の学習器2による推論結果の妥当性を評価してもよい。すなわち、1クラスサポートベクタマシンから得られる値が所定の閾値以上である場合に、評価装置1は、入力データ5に対する第1の学習器2による推論結果の妥当性が高いと評価してもよい。また、1クラスサポートベクタマシンから得られる値が所定の閾値未満である場合に、評価装置1は、入力データ5に対する第1の学習器2による推論結果の妥当性が低いと評価してもよい。なお、所定の閾値は、実施の形態に応じて適宜設定されてよい。
 <4.4>
 上記実施形態において、ステップS111及びS112の少なくとも一方の処理は省略されてもよい。これに応じて、自動運転支援装置1Aのソフトウェア構成において、第1警告部114及びデータ送信部117の少なくとも一方は省略されてもよい。ステップS111及びS112を省略する場合、ステップS108は省略されてもよい。
 また、上記実施形態において、ステップS109及びS113の処理は省略されてもよい。これに応じて、自動運転支援装置1Aのソフトウェア構成において、第2警告部115は省略されてもよい。
 上記実施形態では、自動運転を実施可能な車両に本発明を適用した例を示した。しかしながら、本発明を適用可能な車両は、このような例に限定されなくてもよく、自動運転を実施しない車両に本発明が適用されてもよい。この場合、ステップS101、S102、及びS110の処理は省略されてもよい。また、運転制御部116は、省略されてもよい。
 <4.5>
 上記実施形態では、注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを2つのレベルで示し、即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで示す。しかしながら、注視状態情報211及び即応性情報212の表現形式は、このような例に限定されなくてもよく、注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを3つ以上のレベルで示してよく、即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを3つ以上のレベルで示してよい。
 この場合、上記ステップS109では、制御部11は、注視状態情報及び即応性情報のスコア値に基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定してもよい。例えば、制御部11は、注視状態情報のスコア値が所定の閾値よりも高いか否かに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定してもよい。また、例えば、制御部11は、即応性情報のスコア値が所定の閾値よりも高いか否かに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定してもよい。また、例えば、制御部11は、注視状態情報のスコア値及び即応性情報のスコア値の合計値が所定の閾値よりも高いか否かに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定してもよい。このとき、閾値は、適宜設定されてよい。更に、上記ステップS113では、制御部11は、注視状態情報及び即応性情報それぞれのスコア値に応じて、警告する内容を変更してもよい。
 また、上記実施形態では、ニューラルネットワーク2Aから出力される運転状態情報21Aは、注視状態情報211及び即応性情報212により構成されている。しかしながら、運転状態情報21Aの内容は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。例えば、注視状態情報211及び即応性情報212のうちいずれか一方は省略されてもよい。また、例えば、運転状態情報21Aは、注視状態情報211及び即応性情報212以外の情報を含んでもよい。具体例として、運転状態情報21Aは、運転者Dが運転席にいるか否かを示す情報、運転者Dの手がハンドルに置かれているか否かを示す情報、運転者Dの足がペダルに置かれているか否かを示す情報、運転者Dの運転に対する集中度を示す情報、運転者Dの行動状態を示す情報等を含んでもよい。
 <4.6>
 上記実施形態では、ステップS104において、ニューラルネットワーク2Aの入力として、撮影画像711をそのまま用いるのではなく、低解像度撮影画像52を用いている。これにより、ステップS104におけるニューラルネットワーク2Aの演算処理の計算量を低減することができる。同様に、ステップS202において、ニューラルネットワーク81の学習処理の計算量を低減することができる。したがって、上記実施形態によれば、ステップS104及びS202における各制御部(11、61)(プロセッサ)の負荷を低減することができる。ただし、各ニューラルネットワーク(2A、81)に入力する撮影画像は、このような例に限定されなくてもよい。各ニューラルネットワーク(2A、81)には、カメラ71から得られた撮影画像がそのまま入力されてもよい。なお、低解像度撮影画像(52、312)の解像度は、運転者の顔の挙動は判別できないが、運転者の姿勢に関する特徴を抽出可能な程度であるのが好ましい。
 <4.7>
 上記実施形態では、図7Aに示されるとおり、運転者Dの状態を推定する推論に利用する学習済みのニューラルネットワーク2Aは、全結合ニューラルネットワーク25、畳み込みニューラルネットワーク26、結合層27、及びLSTMネットワーク28を備えている。しかしながら、学習済みのニューラルネットワーク2Aの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、LSTMネットワーク28は省略されてもよい。ニューラルネットワーク81についても同様である。また、各自己符号化器(4A、82)の構成も、実施の形態に応じて適宜決定されてよい。各自己符号化器(4A、82)のエンコーダは、ニューラルネットワーク(2A、81)と異なるニューラルネットワークにより構成されてもよい。
 <4.8>
 上記実施形態では、運転者Dの状態を推定に利用する第1の学習器としてニューラルネットワークを用いている。また、そのような第1の学習器による推論結果の妥当性を評価する第2の学習器として自己符号化器を用いている。しかしながら、各学習器の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。観測情報51及び低解像度撮影画像52を入力として利用可能であれば、第1の学習器は、ニューラルネットワーク以外の学習モデルで構成されてもよい。また、第2の学習器は、自己符号化器以外の学習モデルで構成されてもよい。
 <4.9>
 上記実施形態では、制御部11は、ステップS104において、観測情報51及び低解像度撮影画像52をニューラルネットワーク2Aに入力している。しかしながら、ニューラルネットワーク2Aの入力は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、観測情報51及び低解像度撮影画像52以外の情報が、ニューラルネットワーク2Aに入力されてもよい。また、例えば、観測情報51及び低解像度撮影画像52のいずれか一方は省略されてもよい。また、例えば、観測情報51において、生体情報721は省略されてもよい。この場合、生体センサ72は省略されてもよい。
 <4.10>
 また、上記実施形態では、各学習結果データ(122、123)は、ニューラルネットワーク2A及び自己符号化器4Aのデコーダ401それぞれの構成を示す情報を含んでいる。しかしながら、各学習結果データ(122、123)の構成は、このような例に限定されなくてもよい。例えば、利用するニューラルネットワーク及び自己符号化器の構成が各装置で共通化されている場合には、各学習結果データ(122、123)は、ニューラルネットワーク2A及び自己符号化器4Aのデコーダ401それぞれの構成を示す情報を含んでいなくてもよい。
 <4.11>
 また、上記実施形態では、自動運転モードから手動運転モードへの切り替えの指示があった場合に、ニューラルネットワーク2Aを利用して、運転者Dの状態を推定している。しかしながら、運転者Dの監視は、このようなタイミングだけではなく、その他のタイミングでも実施されてもよい。例えば、自動運転モードで車両が走行している間、手動運転モードへの切り替えの指示の有無を問わず、運転者Dの監視が行われてもよい。
 図18は、本変形例に係る自動運転支援装置1Aの処理手順の一例を例示するフローチャートである。制御部11は、上記ステップS101により自動運転モードを開始した後、ステップS301から処理を開始する。なお、ステップS301~S307の処理は、上記ステップS103~S109の処理と同様である。また、ステップS308~S310の処理は、上記ステップS111~S113の処理と同様である。これにより、自動運転支援装置1Aは、自動運転モードで車両が走行している間、運転者Dの状態を監視しつつ、その監視の内容(すなわち、ニューラルネットワーク2Aによる推論)が妥当か否かを評価することができる。
 <4.12>
 上記実施形態では、第2の学習器4(自己符号化器4A)の第2のエンコーダは、第1の学習器2の第1のエンコーダ(ニューラルネットワーク2A)と同一、又は第1の学習器2の第1のエンコーダ(ニューラルネットワーク2A)のコピーである。しかしながら、第2の学習器4の第2のエンコーダは、第1の学習器2の第1のエンコーダと異なっていてもよい。また、各エンコーダ及びデコーダは、上記実施形態の例に限定されなくてもよく、各エンコーダは、入力データをエンコードするように適宜構築されてよく、デコーダは、第2のエンコーダの出力をデコードするように適宜構築されてよい。
 1…評価装置、
 2…第1の学習器、21…出力、
 3…データセット、31…訓練データ、32…正解データ、
 4…第2の学習器、41…出力、
 5…入力データ、
 1A・自動運転支援装置、
 11…制御部、12…記憶部、13…外部インタフェース、
 111…データ取得部、112…状態推定部(推論部)、
 113…妥当性評価部、114…第1警告部(警告部)、
 115…第2警告部、116…運転制御部(動作実行部)、
 117…データ送信部、
 121…プログラム(評価プログラム)、
 122…第1学習結果データ、123…第2学習結果データ、
 2A…ニューラルネットワーク、
 21A…出力、
 211…注視状態情報、212…即応性情報、
 25…全結合ニューラルネットワーク、
 251…入力層、252…中間層(隠れ層)、253…出力層、
 26…畳み込みニューラルネットワーク、
 261…畳み込み層、262…プーリング層、
 263…全結合層、264…出力層、
 27…結合層、
 28…LSTMネットワーク(再帰型ニューラルネットワーク)、
 281…入力層、282…LSTMブロック、283…出力層、
 3A…データセット、
 31A…訓練データ、
 311…観測情報、312…低解像度撮影画像、
 32A…正解データ、
 321…注視状態情報、322…即応性情報、
 4A…自己符号化器、401…デコーダ、
 41A…出力、
 411…対応情報、412…対応画像、
 45…第1部分、46…第2部分、
 47…第3部分、48…第4部分、
 5A…入力データ、
 51…観測情報、52…低解像度撮影画像(画像データ)、
 6…学習装置、
 61…制御部、62…記憶部、63…通信インタフェース、
 64…入力装置、65…出力装置、66…ドライブ、
 611…学習データ取得部、612…学習処理部、
 621…学習プログラム、
 70…ナビゲーション装置、
 71…カメラ、
 711…撮影画像、712…顔挙動情報、
 72…生体センサ、721…生体情報、
 73…スピーカ、
 81…ニューラルネットワーク、
 811…全結合ニューラルネットワーク、
 812…畳み込みニューラルネットワーク、
 813…結合層、814…LSTMネットワーク、
 82…自己符号化器、820…デコーダ、
 821…第1部分、822…第2部分、
 823…第3部分、824…第4部分、
 92…記憶媒体、
 1B…診断装置、
 111B…データ取得部、112B…診断部、113B…妥当性評価部、
 122B…第1学習結果データ、
 123B…第2学習結果データ、
 2B…ニューラルネットワーク、
 21B…診断情報(出力)、
 3B…データセット、
 31B…訓練データ、314…測定データ、315…問診データ、
 32B…正解データ、324…診断情報、
 4B…自己符号化器、401B…デコーダ、
 41B…出力、
 414…第1対応データ、415…第2対応データ、
 5B…入力データ、
 54…測定データ、55…問診データ、
 6B…学習装置、
 611B…学習データ取得部、612B…学習処理部、
 81B…ニューラルネットワーク、82B…自己符号化器、
 820B…デコーダ、
 1C…予測装置、
 111C…データ取得部、112C…発電量予測部、
 113C…妥当性評価部、
 122C…第1学習結果データ、
 123C…第2学習結果データ、
 2C…ニューラルネットワーク、
 21C…発電量情報(出力)、
 3C…データセット、
 31C…訓練データ、317…天候データ、
 32C…正解データ、327…発電量情報、
 4C…自己符号化器、401C…デコーダ、
 41C…出力、417…対応データ、
 5C…入力データ、57…天候データ、
 6C…学習装置、
 611C…学習データ取得部、612C…学習処理部、
 81C…ニューラルネットワーク、82C…自己符号化器、
 820C…デコーダ

Claims (14)

  1.  訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
     前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
    を備える、
    評価装置。
  2.  前記妥当性評価部は、前記第2の学習器から得られる出力と所定の閾値とを比較することにより、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを判定する、
    請求項1に記載の評価装置。
  3.  前記妥当性評価部は、前記評価の結果として、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られる程度を示す評価値を出力する、
    請求項1に記載の評価装置。
  4.  前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを前記第1の学習器に入力することで前記入力データに対する推論結果として前記第1の学習器から得られる出力に関する警告を行う警告部を更に備える、
    請求項1から3のいずれか1項に記載の評価装置。
  5.  前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して所定の推論を行う推論部を更に備える、
    請求項1から4のいずれか1項に記載の評価装置。
  6.  前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記推論の結果に基づいて所定の動作を実行する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止する動作実行部を更に備える、
    請求項5に記載の評価装置。
  7.  前記入力データは、車両の運転席に着いた運転者の写り得る画像データを含み、
     前記入力データを前記第1の学習器に入力することで前記第1の学習器から得られる出力は、前記運転者の状態を示す情報を含む、
    請求項1から6のいずれか1項に記載の評価装置。
  8.  前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを所定の記憶場所に送信するデータ送信部を更に備える、
    請求項1から7のいずれか1項に記載の評価装置。
  9.  前記第1の学習器は、前記入力データをエンコードする第1のエンコーダにより構成され、
     前記第2の学習器は、前記入力データをエンコードする第2のエンコーダ、及び前記第2のエンコーダの出力をデコードするデコーダにより構成される、
    請求項1から8のいずれか1項に記載の評価装置。
  10.  前記第1のエンコーダと前記第2のエンコーダとは同一である、
    請求項9に記載の評価装置。
  11.  前記第1のエンコーダは、前記訓練データを入力すると、入力した前記訓練データと対の前記正解データに対応する値を出力するように構築され、
     前記第2のエンコーダは、前記第1のエンコーダと同一、又は前記第1のエンコーダのコピーであり、
     前記デコーダは、前記第1のエンコーダの出力を入力すると、入力した出力を得るのに前記第1のエンコーダに入力した前記訓練データに対応する値を出力するように構築されている、
    請求項9に記載の評価装置。
  12.  訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
     前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
     前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して行われた所定の推論の結果に基づいて所定の動作の実行を制御する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止するように制御する動作実行部と、
    を備える、
    動作制御装置。
  13.  コンピュータが、
     訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
     前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
    を実行する、
    評価方法。
  14.  コンピュータに、
     訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
     前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
    実行させるための、
    評価プログラム。
PCT/JP2019/001919 2018-02-06 2019-01-22 評価装置、動作制御装置、評価方法、及び評価プログラム WO2019155873A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/963,249 US20210357701A1 (en) 2018-02-06 2019-01-22 Evaluation device, action control device, evaluation method, and evaluation program
EP19751628.9A EP3751474A4 (en) 2018-02-06 2019-01-22 EVALUATION DEVICE, ACTION CONTROL DEVICE, EVALUATION METHOD AND EVALUATION PROGRAM
CN201980007571.9A CN111602137B (zh) 2018-02-06 2019-01-22 评估装置、动作控制装置、评估方法以及存储媒介

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-018886 2018-02-06
JP2018018886A JP7020156B2 (ja) 2018-02-06 2018-02-06 評価装置、動作制御装置、評価方法、及び評価プログラム

Publications (1)

Publication Number Publication Date
WO2019155873A1 true WO2019155873A1 (ja) 2019-08-15

Family

ID=67549594

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001919 WO2019155873A1 (ja) 2018-02-06 2019-01-22 評価装置、動作制御装置、評価方法、及び評価プログラム

Country Status (5)

Country Link
US (1) US20210357701A1 (ja)
EP (1) EP3751474A4 (ja)
JP (1) JP7020156B2 (ja)
CN (1) CN111602137B (ja)
WO (1) WO2019155873A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914482A (zh) * 2020-07-27 2020-11-10 武汉中海庭数据技术有限公司 用于自动驾驶测试的行驶工况生成方法及系统
WO2022244059A1 (ja) * 2021-05-17 2022-11-24 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7099296B2 (ja) * 2018-12-14 2022-07-12 日立金属株式会社 評価方法、システム構築方法、及び評価システム
JP7206898B2 (ja) * 2018-12-25 2023-01-18 富士通株式会社 学習装置、学習方法および学習プログラム
JP2021029922A (ja) * 2019-08-29 2021-03-01 日本光電工業株式会社 被検者判別装置、被検者判別方法、コンピュータプログラム、および非一時的コンピュータ可読媒体
JP7314723B2 (ja) * 2019-08-31 2023-07-26 東洋製罐グループホールディングス株式会社 画像処理システム、及び画像処理プログラム
JP7163894B2 (ja) * 2019-09-26 2022-11-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7230755B2 (ja) * 2019-09-26 2023-03-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7409027B2 (ja) 2019-11-14 2024-01-09 オムロン株式会社 情報処理装置
JP7295790B2 (ja) * 2019-12-10 2023-06-21 矢崎エナジーシステム株式会社 車載機、処理装置及びプログラム
JP7422535B2 (ja) 2019-12-23 2024-01-26 日本放送協会 変換装置およびプログラム
WO2022201276A1 (ja) * 2021-03-23 2022-09-29 三菱電機株式会社 信頼度判定装置および信頼度判定方法
US11750775B2 (en) * 2021-03-30 2023-09-05 Subaru Corporation Occupant state detection system
JP2022169359A (ja) * 2021-04-27 2022-11-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
JP2022169357A (ja) * 2021-04-27 2022-11-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
JP2023183278A (ja) * 2022-06-15 2023-12-27 京セラ株式会社 電子機器、電子機器の制御方法及び制御プログラム
CN117390522B (zh) * 2023-12-12 2024-03-29 华南师范大学 基于过程与结果融合的在线深度学习等级预测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225163A (ja) 1992-02-13 1993-09-03 Hitachi Ltd ニューラルネットシステムおよびニューラルネットの学習方法
WO2014125757A1 (ja) * 2013-02-14 2014-08-21 株式会社デンソー 車両用運転支援システム及び運転支援実行方法
JP2016048179A (ja) * 2014-08-27 2016-04-07 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置及び物体検出方法
WO2016132468A1 (ja) * 2015-02-18 2016-08-25 株式会社日立製作所 データ評価方法および装置、故障診断方法および装置
JP6264492B1 (ja) * 2017-03-14 2018-01-24 オムロン株式会社 運転者監視装置、運転者監視方法、学習装置及び学習方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659666A (en) * 1994-10-13 1997-08-19 Thaler; Stephen L. Device for the autonomous generation of useful information
US6529276B1 (en) * 1999-04-06 2003-03-04 University Of South Carolina Optical computational system
WO2007041709A1 (en) * 2005-10-04 2007-04-12 Basepoint Analytics Llc System and method of detecting fraud
JP2012238072A (ja) * 2011-05-10 2012-12-06 Sharp Corp 行動評価装置
JP5979066B2 (ja) * 2012-06-04 2016-08-24 Jfeスチール株式会社 結果予測装置および結果予測方法
US9542948B2 (en) * 2014-04-09 2017-01-10 Google Inc. Text-dependent speaker identification
JP6547275B2 (ja) * 2014-10-29 2019-07-24 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US11836746B2 (en) * 2014-12-02 2023-12-05 Fair Isaac Corporation Auto-encoder enhanced self-diagnostic components for model monitoring
WO2016170786A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
WO2017132674A1 (en) * 2016-01-28 2017-08-03 Letterie Gerard Automated image analysis to assess reproductive potential of human oocytes and pronuclear embryos
IL245060B (en) * 2016-04-12 2021-06-30 Verint Systems Ltd A system and method for studying semantic roles of information items
US10276187B2 (en) * 2016-10-19 2019-04-30 Ford Global Technologies, Llc Vehicle ambient audio classification via neural network machine learning
US11188813B2 (en) * 2017-03-01 2021-11-30 Stc.Unm Hybrid architecture system and method for high-dimensional sequence processing
US10249289B2 (en) * 2017-03-14 2019-04-02 Google Llc Text-to-speech synthesis using an autoencoder

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225163A (ja) 1992-02-13 1993-09-03 Hitachi Ltd ニューラルネットシステムおよびニューラルネットの学習方法
WO2014125757A1 (ja) * 2013-02-14 2014-08-21 株式会社デンソー 車両用運転支援システム及び運転支援実行方法
JP2016048179A (ja) * 2014-08-27 2016-04-07 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置及び物体検出方法
WO2016132468A1 (ja) * 2015-02-18 2016-08-25 株式会社日立製作所 データ評価方法および装置、故障診断方法および装置
JP6264492B1 (ja) * 2017-03-14 2018-01-24 オムロン株式会社 運転者監視装置、運転者監視方法、学習装置及び学習方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FELIX A. GERSJURGEN SCHMIDHUBERFRED CUMMINS: "Learning to Forget: Continual Prediction with LSTM", NEURAL COMPUTATION, October 2000 (2000-10-01), pages 2451 - 2471
S. HOCHREITERJ. SCHMIDHUBER: "Long short-term memory", NEURAL COMPUTATION, vol. 9, no. 8, 15 November 1997 (1997-11-15), pages 1735 - 1780
See also references of EP3751474A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914482A (zh) * 2020-07-27 2020-11-10 武汉中海庭数据技术有限公司 用于自动驾驶测试的行驶工况生成方法及系统
WO2022244059A1 (ja) * 2021-05-17 2022-11-24 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
CN111602137A (zh) 2020-08-28
JP7020156B2 (ja) 2022-02-16
EP3751474A4 (en) 2022-06-22
US20210357701A1 (en) 2021-11-18
CN111602137B (zh) 2024-02-23
JP2019139277A (ja) 2019-08-22
EP3751474A1 (en) 2020-12-16

Similar Documents

Publication Publication Date Title
WO2019155873A1 (ja) 評価装置、動作制御装置、評価方法、及び評価プログラム
JP6264492B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
US11345234B2 (en) Method and apparatus for detecting status of vehicle occupant
JP6577642B2 (ja) 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
CN112673378B (zh) 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序
CN110505837B (zh) 信息处理设备、信息处理方法和记录介质
US11964671B2 (en) System and method for improving interaction of a plurality of autonomous vehicles with a driving environment including said vehicles
WO2018168038A1 (ja) 運転者の着座判定装置
KR102499379B1 (ko) 전자 장치 및 이의 피드백 정보 획득 방법
US20230404456A1 (en) Adjustment device, adjustment system, and adjustment method
WO2022230629A1 (ja) 電子機器、電子機器の制御方法、及びプログラム
JP2020169956A (ja) 車両の行先提案システム
EP4332886A1 (en) Electronic device, method for controlling electronic device, and program
WO2023243468A1 (ja) 電子機器、電子機器の制御方法及び制御プログラム
KR102656184B1 (ko) 반려동물 케어를 위한 정보 제공용 서버 및 방법
US20240155320A1 (en) Method of assisting a driver if a passenger encounters a health issue
JP2023066304A (ja) 電子機器、電子機器の制御方法、及びプログラム
CN114556448A (zh) 模型生成装置、推断装置、模型生成方法以及模型生成程序
JP2022075034A (ja) 情報処理装置および生体状態判定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19751628

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019751628

Country of ref document: EP

Effective date: 20200907