JP7020156B2 - 評価装置、動作制御装置、評価方法、及び評価プログラム - Google Patents
評価装置、動作制御装置、評価方法、及び評価プログラム Download PDFInfo
- Publication number
- JP7020156B2 JP7020156B2 JP2018018886A JP2018018886A JP7020156B2 JP 7020156 B2 JP7020156 B2 JP 7020156B2 JP 2018018886 A JP2018018886 A JP 2018018886A JP 2018018886 A JP2018018886 A JP 2018018886A JP 7020156 B2 JP7020156 B2 JP 7020156B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- input
- learner
- input data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096716—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B29/00—Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
- G08B29/18—Prevention or correction of operating errors
- G08B29/185—Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
- G08B29/186—Fuzzy logic; neural networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096775—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Atmospheric Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Automation & Control Theory (AREA)
- Fuzzy Systems (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Description
実行させるための、プログラムである。
まず、図1を用いて、本発明の基本的な構成の一例を説明する。本実施形態では、2つの学習済みの学習器(2、4)が用意される。
[ハードウェア構成]
<自動運転支援装置>
次に、図3を用いて、本実施形態に係る自動運転支援装置1Aのハードウェア構成の一例について説明する。図3は、本実施形態に係る自動運転支援装置1Aのハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る学習装置6のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置6のハードウェア構成の一例を模式的に例示する。
<自動運転支援装置>
次に、図5を用いて、本実施形態に係る自動運転支援装置1Aのソフトウェア構成の一例を説明する。図5は、本実施形態に係る自動運転支援装置1Aのソフトウェア構成の一例を模式的に例示する。
次に、図7Aを更に用いて、第1の学習器の一例であるニューラルネットワーク2Aについて説明する。図7Aは、本実施形態に係るニューラルネットワーク2Aの構成の一例を模式的に例示する。図7Aに示されるとおり、本実施形態に係るニューラルネットワーク2Aは、複数種類のニューラルネットワークを組み合わせることで構成されている。
全結合ニューラルネットワーク25は、いわゆる多層構造のニューラルネットワークであり、入力側から順に、入力層251、中間層(隠れ層)252、及び出力層253を備えている。ただし、全結合ニューラルネットワーク25の層の数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
畳み込みニューラルネットワーク26は、畳み込み層261及びプーリング層262を交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施形態に係る畳み込みニューラルネットワーク26では、複数の畳み込み層261及びプーリング層262が入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層262の出力が全結合層263に入力され、全結合層263の出力が出力層264に入力される。
結合層27は、全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26とLSTMネットワーク28との間に配置される。結合層27は、全結合ニューラルネットワーク25の出力層253からの出力及び畳み込みニューラルネットワーク26の出力層264からの出力を結合する。結合層27に含まれるニューロンの個数は、全結合ニューラルネットワーク25及び畳み込みニューラルネットワーク26の出力の数に応じて適宜設定されてよい。
LSTMネットワーク28は、LSTM(Long short-term memory)ブロック282を備える再起型ニューラルネットワークである。再帰型ニューラルネットワークは、例えば、中間層から入力層への経路のように、内部にループを有するニューラルネットワークのことである。LSTMネットワーク28は、一般的な再起型ニューラルネットワークの中間層をLSTMブロック282に置き換えた構造を有する。
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。自動運転支援装置1Aは、全結合ニューラルネットワーク25に観測情報51を入力し、畳み込みニューラルネットワーク26に低解像度撮影画像52を入力する。そして、自動運転支援装置1Aは、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、自動運転支援装置1Aは、入力データ5Aに対する推論結果として、注視状態情報211及び即応性情報212に対応する出力値をニューラルネットワーク2Aの出力層283から取得する。
次に、図7Bを更に用いて、第2の学習器の一例である自己符号化器4Aについて説明する。上記のとおり、自己符号化器4Aは、ニューラルネットワーク2A(エンコーダ)とデコーダ401とにより構成される。図7Bは、これらのうちデコーダ401の構成を模式的に例示する。図7Bに示されるとおり、本実施形態に係るデコーダ401は、上記ニューラルネットワーク2Aの入力側と出力側とを反転させた構造を有している。
次に、図8を用いて、本実施形態に係る学習装置6のソフトウェア構成の一例を説明する。図8は、本実施形態に係る学習装置6のソフトウェア構成の一例を模式的に例示する。
自動運転支援装置1A及び学習装置6の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、自動運転支援装置1A及び学習装置6の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の各ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、自動運転支援装置1A及び学習装置6それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[自動運転支援装置]
次に、図10A及び図10Bを用いて、自動運転支援装置1Aの動作例を説明する。図10A及び図10Bは、自動運転支援装置1Aの処理手順の一例を例示するフローチャートである。以下で説明するニューラルネットワーク2Aによる推定結果の妥当性を評価する処理手順は、本発明の「評価方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、運転者Dは、車両のイグニッション電源をオンにすることで、自動運転支援装置1Aを起動し、起動した自動運転支援装置1Aにプログラム121を実行させる。これにより、自動運転支援装置1Aの制御部11は、以下の処理手順に従って、運転者Dの状態を監視すると共に、車両の運転モードを制御する。なお、プログラム121の実行のトリガは、このような車両のイグニッション電源をオンにすることに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、プログラム121の実行は、入力装置(不図示)を介した運転者Dの指示をトリガとして開示されてよい。
ステップS101では、制御部11は、運転制御部116として動作し、車両の自動運転を開始する。例えば、制御部11は、ナビゲーション装置70から地図情報、周辺情報、及びGPS情報を取得して、取得した地図情報、周辺情報、及びGPS情報に基づいて車両の自動運転を実施する。自動運転の制御方法には、公知の制御方法が利用可能である。車両の自動運転モードを開始すると、制御部11は、次のステップS102に処理を進める。
ステップS102では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両の動作の切り替えの指示を受け付けたか否かを判定する。手動運転モードへの切り替えの指示を受け付けたと判定した場合、制御部11は、次のステップS103に処理を進める。一方、手動運転モードへの切り替えの指示を受け付けていないと判定した場合には、制御部11は、所定時間経過後、本ステップS102の処理を再度実行する。
ステップS103では、制御部11は、データ取得部111として動作し、学習済みのニューラルネットワーク2Aに入力される入力データ5Aを取得する。入力データ5Aを取得すると、制御部11は、次のステップS104に処理を進める。
ステップS104では、制御部11は、状態推定部112として動作し、学習済みのニューラルネットワーク2Aに入力データ5Aを入力して、当該ニューラルネットワーク2Aの演算処理を実行する。これにより、ステップS105では、制御部11は、引き続き状態推定部112として動作し、運転状態情報21Aの注視状態情報211及び即応性情報212それぞれに対応する出力値を当該ニューラルネットワーク2Aから取得する。
ステップS106では、制御部11は、妥当性評価部113として動作し、入力データ5Aを自己符号化器4Aに入力して、自己符号化器4Aの演算処理を実行する。本実施形態では、自己符号化器4Aのエンコーダとして動作するニューラルネットワーク2Aの出力(運転状態情報21A)は、上記ステップS105で得られている。そこで、本ステップS106では、制御部11は、ニューラルネットワーク2Aに入力することで当該ニューラルネットワーク2Aから得られた運転状態情報21Aを自己符号化器4Aのデコーダ401に入力する。そして、制御部11は、当該デコーダ401の演算処理を実行する。これにより、制御部11は、対応情報411及び対応画像412それぞれに対応する出力値を出力41Aとして当該自己符号化器4Aのデコーダ401から取得する。
ステップS107では、制御部11は、引き続き妥当性評価部113として動作し、自己符号化器4Aから得られた出力41Aに基づいて、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを評価する。
ステップS108では、制御部11は、ステップS107による評価の結果に基づいて、入力データ5Aをニューラルネットワーク2Aに入力したときに入力データ5Aに対する推論結果として妥当な出力をニューラルネットワーク2Aから得られるか否かを判定する。
ステップS109では、制御部11は、第2警告部115として動作し、ステップS105で取得した運転状態情報21Aに基づいて、運転者Dが車両の運転に適した状態にあるか否かを判定する。運転者Dが車両の運転に適した状態にあると判定した場合には(図10BのYES)、制御部11は、ステップS110に処理を進める。一方、運転者Dが車両の運転に適した状態にないと判定した場合には、制御部11は、ステップS113に処理を進める。
ステップS110では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両の動作を切り替える。これにより、制御部11は、車両において手動運転モードの動作を開始し、本動作例に係る処理を終了する。なお、この手動運転モードの開始に際して、制御部11は、スピーカ73を介して、車両の動作を手動運転モードに切り替えるため、ハンドルを握る等の運転操作を開始するように運転者Dにアナウンスをしてもよい。
ステップS111では、制御部11は、第1警告部114として動作し、入力データ5Aに対する推論結果としてニューラルネットワーク2Aから得られる出力(運転状態情報21A)に関する警告を行う。警告の内容及び方法は、実施の形態に応じて適宜設定されてよい。例えば、制御部11は、スピーカ73、ディスプレイ(不図示)等の出力装置を介して、ニューラルネットワーク2Aから得られる運転状態情報21Aの妥当性が低いことを運転者D等に知らせる警告を行ってもよい。当該警告を行うと、制御部11は、次のステップS112に処理を進める。
ステップS112では、制御部11は、データ送信部117として動作し、推論結果として妥当な出力をニューラルネットワーク2Aから得られないと評価した対象の入力データ5Aを未知の訓練データとして所定の記憶場所に送信する。所定の記憶場所は、実施の形態に応じて適宜設定されてよい。例えば、所定の記憶場所は、学習装置6の記憶部62、NAS等の外部の記憶装置であってもよい。この場合、制御部11は、ネットワークを介して、対象の入力データ5Aを外部の記憶装置に送信してもよい。対象の入力データ5Aを所定の記憶場所に送信すると、制御部11は、ステップS103に戻り、上記一連の処理を繰り返す。
ステップS113では、制御部11は、第2警告部115として動作し、スピーカ73、ディスプレイ(不図示)等の出力装置を介して、車両の運転に適した状態をとるように運転者Dに促す警告を行う。警告の内容及び方法は、実施の形態に応じて適宜設定されてよい。当該警告を行うと、制御部11は、ステップS103に戻り、上記一連の処理を繰り返す。
以上により、自動運転支援装置1Aは、車両の自動運転を実施している間に、ニューラルネットワーク2Aを利用して運転者Dの運転状態を監視すると共に、自己符号化器4Aを利用して、当該ニューラルネットワーク2Aによる推論結果を評価することができる。なお、自動運転支援装置1Aは、上記ステップS109において、運転者Dが車両の運転に適した状態にないと複数回連続して判定した場合に(図10BのNO)、ステップS103に戻らずに、自動運転を停止してもよい。この場合、例えば、制御部11は、地図情報、周辺情報及びGPS情報を参照して、車両を安全に停止可能な場所に停車区間を設定してもよい。そして、制御部11は、車両を停止する旨を運転者Dに伝えるための警告を実施し、設定した停車区間に車両を自動停車させてもよい。これにより、運転者Dが継続的に運転に適さない状態にあるときに、車両の走行を停止することができる。
次に、図11を用いて、学習装置6の動作例を説明する。図11は、学習装置6の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、学習装置6の制御部61は、学習データ取得部611として動作し、訓練データ31A及び正解データ32Aの対で構成されたデータセット3Aを取得する。
ステップS202では、制御部61は、学習処理部612として動作し、ステップS201で取得したデータセット3Aを用いて、観測情報311及び低解像度撮影画像312を入力すると、入力した観測情報311及び低解像度撮影画像312と対の注視状態情報321及び即応性情報322それぞれに対応する出力値を出力するように、ニューラルネットワーク81の教師あり学習を実施する。
ステップS203では、制御部61は、学習処理部612として動作し、構築したニューラルネットワーク81の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ122として記憶部62に格納する。また、制御部61は、構築した自己符号化器82のデコーダ820の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ123として記憶部62に格納する。これにより、制御部61は、本動作例に係るニューラルネットワーク81及び自己符号化器82の学習処理を終了する。
以上のように、本実施形態によれば、ステップS201により取得した訓練データ31Aを、ニューラルネットワーク81及び自己符号化器82の学習の両方に共通して利用可能である。そのため、ニューラルネットワーク81の機械学習に利用する訓練データ31Aの数が過度に少なくなるのを防止することができる。また、教師なし学習の特性上、ニューラルネットワーク2A(81)の学習に利用した訓練データ31Aにより、与えられた入力データ5Aが当該訓練データ31Aとかけ離れた種類のものであるか否かを評価可能な学習済みの自己符号化器4A(82)を構築することができる。そのため、ステップS201において、自己符号化器82の学習のために、ニューラルネットワーク2Aに入力されるあらゆる種類の入力データ5Aを想定して訓練データ31Aを用意しなくてもよい。よって、本実施形態によれば、ステップS105における学習済みのニューラルネットワーク2Aによる運転者Dの状態を推定する推論の精度を低減させることなく、ステップS107において、当該ニューラルネットワーク2Aによる推論結果の妥当性を適切に評価することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、自動車の自動運転を支援する自動運転支援装置1Aに本発明を適用した例を示す。自動運転支援装置1Aは、本発明の「評価装置」の一例であり、「動作制御装置」の一例でもある。また、上記実施形態では、第1の学習器による所定の推論の一例として、観測情報51及び低解像度撮影画像52を含む入力データ5Aに対してニューラルネットワーク2Aにより運転者Dの状態を推定する例を示す。しかしながら、本発明を適用可能な範囲は、このような自動運転支援装置1Aの例に限られない。また、第1の学習器により実施する所定の推論は、上記のような運転者Dの状態の推定に限られず、実施の形態に応じて適宜決定されてよい。
まず、図12~図14は、上記実施形態の変形例として、対象者Pの診断を行う診断装置1Bに本発明を適用した例を示す。図12は、本変形例に係る診断装置1B及び学習装置6Bの適用場面の一例を模式的に例示する。図13は、本変形例に係る診断装置1Bのソフトウェア構成の一例を模式的に例示する。図14は、本変形例に係る学習装置6Bのソフトウェア構成の一例を模式的に例示する。なお、本変形例に係る診断装置1B及び学習装置6Bそれぞれのハードウェア構成は、上記自動運転支援装置1A及び学習装置6それぞれのハードウェア構成と同様であってよい。
次に、図15~図17は、上記実施形態の変形例として、太陽光発電所等の発電所における発電量を予測する予測装置1Cに本発明を適用した例を示す。図15は、本変形例に係る予測装置1C及び学習装置6Cの適用場面の一例を模式的に例示する。図16は、本変形例に係る予測装置1Cのソフトウェア構成の一例を模式的に例示する。図17は、本変形例に係る学習装置6Cのソフトウェア構成の一例を模式的に例示する。なお、本変形例に係る予測装置1C及び学習装置6Cそれぞれのハードウェア構成は、上記自動運転支援装置1A及び学習装置6それぞれのハードウェア構成と同様であってよい。
以上のとおり、本発明は、教師あり学習を利用した様々な分野に適用可能である。第1の学習器により実施する所定の推論の種類は、本発明を適用する分野に応じて適宜決定されてよい。すなわち、本発明を適用する分野に応じて、様々な推論部を構成してもよい。
上記実施形態では、自動運転支援装置1Aは、ニューラルネットワーク2A及び自己符号化器4Aを保持している。しかしながら、自動運転支援装置1Aの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、ニューラルネットワーク2A及び自己符号化器4Aの少なくとも一方は、自動運転支援装置1A以外の外部装置に保持されてもよい。
上記実施形態では、第1の学習器2にはニューラルネットワークにより構成され、第2の学習器4は自己符号化器により構成されている。しかしながら、各学習器(2、4)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、第1の学習器2は、線形回帰モデル、サポートベクタマシン等により構成されてもよい。また、例えば、第2の学習器4は、マハラノビス距離を算出する演算モデル、1クラスサポートベクタマシン等により構成されてもよい。
上記実施形態において、ステップS111及びS112の少なくとも一方の処理は省略されてもよい。これに応じて、自動運転支援装置1Aのソフトウェア構成において、第1警告部114及びデータ送信部117の少なくとも一方は省略されてもよい。ステップS111及びS112を省略する場合、ステップS108は省略されてもよい。
上記実施形態では、注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを2つのレベルで示し、即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで示す。しかしながら、注視状態情報211及び即応性情報212の表現形式は、このような例に限定されなくてもよく、注視状態情報211は、運転者Dが運転に必要な注視を行っているか否かを3つ以上のレベルで示してよく、即応性情報212は、運転に対する即応性が高い状態であるか低い状態であるかを3つ以上のレベルで示してよい。
上記実施形態では、ステップS104において、ニューラルネットワーク2Aの入力として、撮影画像711をそのまま用いるのではなく、低解像度撮影画像52を用いている。これにより、ステップS104におけるニューラルネットワーク2Aの演算処理の計算量を低減することができる。同様に、ステップS202において、ニューラルネットワーク81の学習処理の計算量を低減することができる。したがって、上記実施形態によれば、ステップS104及びS202における各制御部(11、61)(プロセッサ)の負荷を低減することができる。ただし、各ニューラルネットワーク(2A、81)に入力する撮影画像は、このような例に限定されなくてもよい。各ニューラルネットワーク(2A、81)には、カメラ71から得られた撮影画像がそのまま入力されてもよい。なお、低解像度撮影画像(52、312)の解像度は、運転者の顔の挙動は判別できないが、運転者の姿勢に関する特徴を抽出可能な程度であるのが好ましい。
上記実施形態では、図7Aに示されるとおり、運転者Dの状態を推定する推論に利用する学習済みのニューラルネットワーク2Aは、全結合ニューラルネットワーク25、畳み込みニューラルネットワーク26、結合層27、及びLSTMネットワーク28を備えている。しかしながら、学習済みのニューラルネットワーク2Aの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、LSTMネットワーク28は省略されてもよい。ニューラルネットワーク81についても同様である。また、各自己符号化器(4A、82)の構成も、実施の形態に応じて適宜決定されてよい。各自己符号化器(4A、82)のエンコーダは、ニューラルネットワーク(2A、81)と異なるニューラルネットワークにより構成されてもよい。
上記実施形態では、運転者Dの状態を推定に利用する第1の学習器としてニューラルネットワークを用いている。また、そのような第1の学習器による推論結果の妥当性を評価する第2の学習器として自己符号化器を用いている。しかしながら、各学習器の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。観測情報51及び低解像度撮影画像52を入力として利用可能であれば、第1の学習器は、ニューラルネットワーク以外の学習モデルで構成されてもよい。また、第2の学習器は、自己符号化器以外の学習モデルで構成されてもよい。
上記実施形態では、制御部11は、ステップS104において、観測情報51及び低解像度撮影画像52をニューラルネットワーク2Aに入力している。しかしながら、ニューラルネットワーク2Aの入力は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、観測情報51及び低解像度撮影画像52以外の情報が、ニューラルネットワーク2Aに入力されてもよい。また、例えば、観測情報51及び低解像度撮影画像52のいずれか一方は省略されてもよい。また、例えば、観測情報51において、生体情報721は省略されてもよい。この場合、生体センサ72は省略されてもよい。
また、上記実施形態では、各学習結果データ(122、123)は、ニューラルネットワーク2A及び自己符号化器4Aのデコーダ401それぞれの構成を示す情報を含んでいる。しかしながら、各学習結果データ(122、123)の構成は、このような例に限定されなくてもよい。例えば、利用するニューラルネットワーク及び自己符号化器の構成が各装置で共通化されている場合には、各学習結果データ(122、123)は、ニューラルネットワーク2A及び自己符号化器4Aのデコーダ401それぞれの構成を示す情報を含んでいなくてもよい。
また、上記実施形態では、自動運転モードから手動運転モードへの切り替えの指示があった場合に、ニューラルネットワーク2Aを利用して、運転者Dの状態を推定している。しかしながら、運転者Dの監視は、このようなタイミングだけではなく、その他のタイミングでも実施されてもよい。例えば、自動運転モードで車両が走行している間、手動運転モードへの切り替えの指示の有無を問わず、運転者Dの監視が行われてもよい。
上記実施形態では、第2の学習器4(自己符号化器4A)の第2のエンコーダは、第1の学習器2の第1のエンコーダ(ニューラルネットワーク2A)と同一、又は第1の学習器2の第1のエンコーダ(ニューラルネットワーク2A)のコピーである。しかしながら、第2の学習器4の第2のエンコーダは、第1の学習器2の第1のエンコーダと異なっていてもよい。また、各エンコーダ及びデコーダは、上記実施形態の例に限定されなくてもよく、各エンコーダは、入力データをエンコードするように適宜構築されてよく、デコーダは、第2のエンコーダの出力をデコードするように適宜構築されてよい。
2…第1の学習器、21…出力、
3…データセット、31…訓練データ、32…正解データ、
4…第2の学習器、41…出力、
5…入力データ、
1A・自動運転支援装置、
11…制御部、12…記憶部、13…外部インタフェース、
111…データ取得部、112…状態推定部(推論部)、
113…妥当性評価部、114…第1警告部(警告部)、
115…第2警告部、116…運転制御部(動作実行部)、
117…データ送信部、
121…プログラム(評価プログラム)、
122…第1学習結果データ、123…第2学習結果データ、
2A…ニューラルネットワーク、
21A…出力、
211…注視状態情報、212…即応性情報、
25…全結合ニューラルネットワーク、
251…入力層、252…中間層(隠れ層)、253…出力層、
26…畳み込みニューラルネットワーク、
261…畳み込み層、262…プーリング層、
263…全結合層、264…出力層、
27…結合層、
28…LSTMネットワーク(再帰型ニューラルネットワーク)、
281…入力層、282…LSTMブロック、283…出力層、
3A…データセット、
31A…訓練データ、
311…観測情報、312…低解像度撮影画像、
32A…正解データ、
321…注視状態情報、322…即応性情報、
4A…自己符号化器、401…デコーダ、
41A…出力、
411…対応情報、412…対応画像、
45…第1部分、46…第2部分、
47…第3部分、48…第4部分、
5A…入力データ、
51…観測情報、52…低解像度撮影画像(画像データ)、
6…学習装置、
61…制御部、62…記憶部、63…通信インタフェース、
64…入力装置、65…出力装置、66…ドライブ、
611…学習データ取得部、612…学習処理部、
621…学習プログラム、
70…ナビゲーション装置、
71…カメラ、
711…撮影画像、712…顔挙動情報、
72…生体センサ、721…生体情報、
73…スピーカ、
81…ニューラルネットワーク、
811…全結合ニューラルネットワーク、
812…畳み込みニューラルネットワーク、
813…結合層、814…LSTMネットワーク、
82…自己符号化器、820…デコーダ、
821…第1部分、822…第2部分、
823…第3部分、824…第4部分、
92…記憶媒体、
1B…診断装置、
111B…データ取得部、112B…診断部、113B…妥当性評価部、
122B…第1学習結果データ、
123B…第2学習結果データ、
2B…ニューラルネットワーク、
21B…診断情報(出力)、
3B…データセット、
31B…訓練データ、314…測定データ、315…問診データ、
32B…正解データ、324…診断情報、
4B…自己符号化器、401B…デコーダ、
41B…出力、
414…第1対応データ、415…第2対応データ、
5B…入力データ、
54…測定データ、55…問診データ、
6B…学習装置、
611B…学習データ取得部、612B…学習処理部、
81B…ニューラルネットワーク、82B…自己符号化器、
820B…デコーダ、
1C…予測装置、
111C…データ取得部、112C…発電量予測部、
113C…妥当性評価部、
122C…第1学習結果データ、
123C…第2学習結果データ、
2C…ニューラルネットワーク、
21C…発電量情報(出力)、
3C…データセット、
31C…訓練データ、317…天候データ、
32C…正解データ、327…発電量情報、
4C…自己符号化器、401C…デコーダ、
41C…出力、417…対応データ、
5C…入力データ、57…天候データ、
6C…学習装置、
611C…学習データ取得部、612C…学習処理部、
81C…ニューラルネットワーク、82C…自己符号化器、
820C…デコーダ
Claims (13)
- 訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
を備え、
前記第1の学習器は、線形回帰モデルにより構成され、
前記第2の学習器は、マハラノビス距離を算出する演算モデルにより構成され、
前記第2の学習器の教師なし学習は、前記訓練データの平均値を算出することにより構成され、
前記妥当性評価部は、前記学習済みの第2の学習器により算出される、前記訓練データの平均値と前記入力データとの間のマハラノビス距離に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するように構成される、
評価装置。 - 訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
を備え、
前記第1の学習器は、サポートベクタマシンにより構成され、
前記第2の学習器は、1クラスサポートベクタマシンにより構成される、
評価装置。 - 前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを前記第1の学習器に入力することで前記入力データに対する推論結果として前記第1の学習器から得られる出力に関する警告を行う警告部を更に備える、
請求項1又は2に記載の評価装置。 - 前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して所定の推論を行う推論部を更に備える、
請求項1から3のいずれか1項に記載の評価装置。 - 前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記推論の結果に基づいて所定の動作を実行する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止する動作実行部を更に備える、
請求項4に記載の評価装置。 - 前記入力データは、車両の運転席に着いた運転者の写り得る画像データを含み、
前記入力データを前記第1の学習器に入力することで前記第1の学習器から得られる出力は、前記運転者の状態を示す情報を含む、
請求項1から5のいずれか1項に記載の評価装置。 - 前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合に、前記入力データを所定の記憶場所に送信するデータ送信部を更に備える、
請求項1から6のいずれか1項に記載の評価装置。 - 訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して行われた所定の推論の結果に基づいて所定の動作の実行を制御する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止するように制御する動作実行部と、
を備え、
前記第1の学習器は、線形回帰モデルにより構成され、
前記第2の学習器は、マハラノビス距離を算出する演算モデルにより構成され、
前記第2の学習器の教師なし学習は、前記訓練データの平均値を算出することにより構成され、
前記妥当性評価部は、前記学習済みの第2の学習器により算出される、前記訓練データの平均値と前記入力データとの間のマハラノビス距離に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するように構成される、
動作制御装置。 - 訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するデータ取得部と、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する妥当性評価部と、
前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られると評価した場合に、前記第1の学習器に前記入力データを入力し、前記第1の学習器からの出力を得ることで、前記入力データに対して行われた所定の推論の結果に基づいて所定の動作の実行を制御する動作実行部であって、前記妥当性評価部が、前記入力データを前記第1の学習器に入力したときに前記入力データの推論結果として妥当な出力を前記第1の学習器から得られないと評価した場合には、前記推論の結果に基づく前記所定の動作の実行を停止するように制御する動作実行部と、
を備え、
前記第1の学習器は、サポートベクタマシンにより構成され、
前記第2の学習器は、1クラスサポートベクタマシンにより構成される、
動作制御装置。 - コンピュータが、
訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
を実行し、
前記第1の学習器は、線形回帰モデルにより構成され、
前記第2の学習器は、マハラノビス距離を算出する演算モデルにより構成され、
前記第2の学習器の教師なし学習は、前記訓練データの平均値を算出することにより構成され、
前記評価するステップでは、前記コンピュータは、前記学習済みの第2の学習器により算出される、前記訓練データの平均値と前記入力データとの間のマハラノビス距離に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価する、
評価方法。 - コンピュータが、
訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
を実行し、
前記第1の学習器は、サポートベクタマシンにより構成され、
前記第2の学習器は、1クラスサポートベクタマシンにより構成される、
評価方法。 - コンピュータに、
訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
実行させるための評価プログラムであって、
前記第1の学習器は、線形回帰モデルにより構成され、
前記第2の学習器は、マハラノビス距離を算出する演算モデルにより構成され、
前記第2の学習器の教師なし学習は、前記訓練データの平均値を算出することにより構成され、
前記評価するステップでは、前記コンピュータに、前記学習済みの第2の学習器により算出される、前記訓練データの平均値と前記入力データとの間のマハラノビス距離に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価させる、
評価プログラム。 - コンピュータに、
訓練データ及び当該訓練データに対する推論結果の正解を示す正解データの対で構成されたデータセットを利用して教師あり学習を行った学習済みの第1の学習器に入力される入力データを取得するステップと、
前記訓練データを利用して教師なし学習を行った学習済みの第2の学習器に前記入力データを入力することで当該第2の学習器から得られる出力に基づいて、前記入力データを前記第1の学習器に入力したときに前記入力データに対する推論結果として妥当な出力を前記第1の学習器から得られるか否かを評価するステップと、
実行させるための評価プログラムであって、
前記第1の学習器は、サポートベクタマシンにより構成され、
前記第2の学習器は、1クラスサポートベクタマシンにより構成される、
評価プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018018886A JP7020156B2 (ja) | 2018-02-06 | 2018-02-06 | 評価装置、動作制御装置、評価方法、及び評価プログラム |
EP19751628.9A EP3751474A4 (en) | 2018-02-06 | 2019-01-22 | EVALUATION DEVICE, ACTION CONTROL DEVICE, EVALUATION METHOD AND EVALUATION PROGRAM |
PCT/JP2019/001919 WO2019155873A1 (ja) | 2018-02-06 | 2019-01-22 | 評価装置、動作制御装置、評価方法、及び評価プログラム |
US16/963,249 US20210357701A1 (en) | 2018-02-06 | 2019-01-22 | Evaluation device, action control device, evaluation method, and evaluation program |
CN201980007571.9A CN111602137B (zh) | 2018-02-06 | 2019-01-22 | 评估装置、动作控制装置、评估方法以及存储媒介 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018018886A JP7020156B2 (ja) | 2018-02-06 | 2018-02-06 | 評価装置、動作制御装置、評価方法、及び評価プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019139277A JP2019139277A (ja) | 2019-08-22 |
JP7020156B2 true JP7020156B2 (ja) | 2022-02-16 |
Family
ID=67549594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018018886A Active JP7020156B2 (ja) | 2018-02-06 | 2018-02-06 | 評価装置、動作制御装置、評価方法、及び評価プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210357701A1 (ja) |
EP (1) | EP3751474A4 (ja) |
JP (1) | JP7020156B2 (ja) |
CN (1) | CN111602137B (ja) |
WO (1) | WO2019155873A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7099296B2 (ja) * | 2018-12-14 | 2022-07-12 | 日立金属株式会社 | 評価方法、システム構築方法、及び評価システム |
JP7206898B2 (ja) * | 2018-12-25 | 2023-01-18 | 富士通株式会社 | 学習装置、学習方法および学習プログラム |
JP2021029922A (ja) * | 2019-08-29 | 2021-03-01 | 日本光電工業株式会社 | 被検者判別装置、被検者判別方法、コンピュータプログラム、および非一時的コンピュータ可読媒体 |
JP7314723B2 (ja) * | 2019-08-31 | 2023-07-26 | 東洋製罐グループホールディングス株式会社 | 画像処理システム、及び画像処理プログラム |
JP7230755B2 (ja) * | 2019-09-26 | 2023-03-01 | いすゞ自動車株式会社 | モデル作成装置及びモデル作成方法 |
JP7163894B2 (ja) * | 2019-09-26 | 2022-11-01 | いすゞ自動車株式会社 | モデル作成装置及びモデル作成方法 |
JP7409027B2 (ja) * | 2019-11-14 | 2024-01-09 | オムロン株式会社 | 情報処理装置 |
JP7507172B2 (ja) | 2019-12-06 | 2024-06-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理システム及び情報処理装置 |
JP7295790B2 (ja) * | 2019-12-10 | 2023-06-21 | 矢崎エナジーシステム株式会社 | 車載機、処理装置及びプログラム |
JP7422535B2 (ja) * | 2019-12-23 | 2024-01-26 | 日本放送協会 | 変換装置およびプログラム |
CN111914482A (zh) * | 2020-07-27 | 2020-11-10 | 武汉中海庭数据技术有限公司 | 用于自动驾驶测试的行驶工况生成方法及系统 |
JP7485302B2 (ja) | 2020-12-02 | 2024-05-16 | 三菱電機株式会社 | 信頼性評価装置 |
JP6972444B1 (ja) * | 2021-03-23 | 2021-11-24 | 三菱電機株式会社 | 信頼度判定装置および信頼度判定方法 |
US11750775B2 (en) * | 2021-03-30 | 2023-09-05 | Subaru Corporation | Occupant state detection system |
JP2022169357A (ja) * | 2021-04-27 | 2022-11-09 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
JP2022169359A (ja) * | 2021-04-27 | 2022-11-09 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
JPWO2022244059A1 (ja) * | 2021-05-17 | 2022-11-24 | ||
KR20230100766A (ko) * | 2021-12-28 | 2023-07-06 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
JP2023183278A (ja) * | 2022-06-15 | 2023-12-27 | 京セラ株式会社 | 電子機器、電子機器の制御方法及び制御プログラム |
WO2024157418A1 (ja) * | 2023-01-26 | 2024-08-02 | 日本電気株式会社 | モデル評価装置、モデル評価方法、プログラム |
CN117390522B (zh) * | 2023-12-12 | 2024-03-29 | 华南师范大学 | 基于过程与结果融合的在线深度学习等级预测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014125757A1 (ja) | 2013-02-14 | 2014-08-21 | 株式会社デンソー | 車両用運転支援システム及び運転支援実行方法 |
JP2016048179A (ja) | 2014-08-27 | 2016-04-07 | オムロンオートモーティブエレクトロニクス株式会社 | レーザレーダ装置及び物体検出方法 |
WO2016132468A1 (ja) | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ評価方法および装置、故障診断方法および装置 |
JP6264492B1 (ja) | 2017-03-14 | 2018-01-24 | オムロン株式会社 | 運転者監視装置、運転者監視方法、学習装置及び学習方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05225163A (ja) | 1992-02-13 | 1993-09-03 | Hitachi Ltd | ニューラルネットシステムおよびニューラルネットの学習方法 |
US5659666A (en) * | 1994-10-13 | 1997-08-19 | Thaler; Stephen L. | Device for the autonomous generation of useful information |
US6529276B1 (en) * | 1999-04-06 | 2003-03-04 | University Of South Carolina | Optical computational system |
US7668769B2 (en) * | 2005-10-04 | 2010-02-23 | Basepoint Analytics, LLC | System and method of detecting fraud |
JP2012238072A (ja) * | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
JP5979066B2 (ja) * | 2012-06-04 | 2016-08-24 | Jfeスチール株式会社 | 結果予測装置および結果予測方法 |
US9542948B2 (en) * | 2014-04-09 | 2017-01-10 | Google Inc. | Text-dependent speaker identification |
JP6547275B2 (ja) * | 2014-10-29 | 2019-07-24 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
US11836746B2 (en) * | 2014-12-02 | 2023-12-05 | Fair Isaac Corporation | Auto-encoder enhanced self-diagnostic components for model monitoring |
EP3272611B1 (en) * | 2015-04-21 | 2019-07-24 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system, information processing method, and program |
EP3408796A4 (en) * | 2016-01-28 | 2019-10-16 | Letterie, Gerard | AUTOMATED IMAGE ANALYSIS FOR EVALUATING A REPRODUCTIVE POTENTIAL OF HUMAN OOCYTES AND PRONUCLEAR EMBRYOS |
IL245060B (en) * | 2016-04-12 | 2021-06-30 | Verint Systems Ltd | A system and method for studying semantic roles of information items |
US10276187B2 (en) * | 2016-10-19 | 2019-04-30 | Ford Global Technologies, Llc | Vehicle ambient audio classification via neural network machine learning |
US11188813B2 (en) * | 2017-03-01 | 2021-11-30 | Stc.Unm | Hybrid architecture system and method for high-dimensional sequence processing |
US10249289B2 (en) * | 2017-03-14 | 2019-04-02 | Google Llc | Text-to-speech synthesis using an autoencoder |
-
2018
- 2018-02-06 JP JP2018018886A patent/JP7020156B2/ja active Active
-
2019
- 2019-01-22 US US16/963,249 patent/US20210357701A1/en active Pending
- 2019-01-22 EP EP19751628.9A patent/EP3751474A4/en active Pending
- 2019-01-22 WO PCT/JP2019/001919 patent/WO2019155873A1/ja unknown
- 2019-01-22 CN CN201980007571.9A patent/CN111602137B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014125757A1 (ja) | 2013-02-14 | 2014-08-21 | 株式会社デンソー | 車両用運転支援システム及び運転支援実行方法 |
JP2016048179A (ja) | 2014-08-27 | 2016-04-07 | オムロンオートモーティブエレクトロニクス株式会社 | レーザレーダ装置及び物体検出方法 |
WO2016132468A1 (ja) | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ評価方法および装置、故障診断方法および装置 |
JP6264492B1 (ja) | 2017-03-14 | 2018-01-24 | オムロン株式会社 | 運転者監視装置、運転者監視方法、学習装置及び学習方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111602137A (zh) | 2020-08-28 |
WO2019155873A1 (ja) | 2019-08-15 |
EP3751474A4 (en) | 2022-06-22 |
US20210357701A1 (en) | 2021-11-18 |
JP2019139277A (ja) | 2019-08-22 |
EP3751474A1 (en) | 2020-12-16 |
CN111602137B (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7020156B2 (ja) | 評価装置、動作制御装置、評価方法、及び評価プログラム | |
US20190370580A1 (en) | Driver monitoring apparatus, driver monitoring method, learning apparatus, and learning method | |
US11345234B2 (en) | Method and apparatus for detecting status of vehicle occupant | |
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
JP7014129B2 (ja) | 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム | |
US20170068994A1 (en) | System and Method for Personalized Preference Optimization | |
KR20190134911A (ko) | 전자 장치 및 이의 제어 방법 | |
CN112135568A (zh) | 信息处理装置、信息处理方法和程序 | |
WO2018168038A1 (ja) | 運転者の着座判定装置 | |
KR102494380B1 (ko) | 기저귀 대변 이미지를 활용한 아기 건강 진단 솔루션 제공 방법, 장치 및 시스템 | |
Ktistakis et al. | Applications of ai in healthcare and assistive technologies | |
KR102656184B1 (ko) | 반려동물 케어를 위한 정보 제공용 서버 및 방법 | |
WO2022230629A1 (ja) | 電子機器、電子機器の制御方法、及びプログラム | |
WO2022230630A1 (ja) | 電子機器、電子機器の制御方法、及びプログラム | |
WO2023243468A1 (ja) | 電子機器、電子機器の制御方法及び制御プログラム | |
US20240155320A1 (en) | Method of assisting a driver if a passenger encounters a health issue | |
Abidi et al. | SMGR-BS: Stacking Multiple Gated Recurrent Butterfly Search Model-Based Innovative AAL for Aging and Disabled Individuals | |
JP2023066304A (ja) | 電子機器、電子機器の制御方法、及びプログラム | |
CN114556448A (zh) | 模型生成装置、推断装置、模型生成方法以及模型生成程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7020156 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |