JP7254240B2 - 推論装置、運転支援装置、推論方法、および、サーバ - Google Patents

推論装置、運転支援装置、推論方法、および、サーバ Download PDF

Info

Publication number
JP7254240B2
JP7254240B2 JP2022502639A JP2022502639A JP7254240B2 JP 7254240 B2 JP7254240 B2 JP 7254240B2 JP 2022502639 A JP2022502639 A JP 2022502639A JP 2022502639 A JP2022502639 A JP 2022502639A JP 7254240 B2 JP7254240 B2 JP 7254240B2
Authority
JP
Japan
Prior art keywords
machine learning
inference
data
unit
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022502639A
Other languages
English (en)
Other versions
JPWO2021171398A1 (ja
JPWO2021171398A5 (ja
Inventor
太郎 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021171398A1 publication Critical patent/JPWO2021171398A1/ja
Publication of JPWO2021171398A5 publication Critical patent/JPWO2021171398A5/ja
Application granted granted Critical
Publication of JP7254240B2 publication Critical patent/JP7254240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Analytical Chemistry (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Atmospheric Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、機械学習における学習済みのモデル(以下「機械学習モデル」という。)を用いて推論を行う推論装置、運転支援装置、推論方法、および、サーバに関するものである。
従来、自動運転等の分野において、機械学習モデルを用いて、推論を行う技術が知られている。
ところで、特許文献1には、教師なしデータを用いた推定結果が教師ありデータを用いた推定結果と類似する場合に、当該教師ありデータが持つ教師情報に基づいて、教師なしデータの教師情報を作成する情報処理装置が開示されている。
特開2019-87012号公報
機械学習モデルを用いた推論を行う場合、当該機械学習モデルには、当該機械学習モデルの学習時に入力としたデータとの類似度がかけ離れたデータが入力される場合がある。その結果、妥当ではない推論結果が出力される可能性があるという課題があった。
特許文献1に開示されている技術は、学習データのうちの教師ありデータと教師なしデータの類似度を判断する技術であり、推論時に入力とするデータと学習時に入力されたデータとの類似度を判断する技術ではない。そのため、上記課題を解決するために、特許文献1に開示されているような技術を用いることはできない。
本開示は上記のような課題を解決するためになされたもので、妥当ではない推論結果の出力を防ぐことを可能とした推論装置を提供することを目的とする。
本開示に係る推論装置は、データを取得するデータ取得部と、データを入力として第1推論結果を出力する第1機械学習モデルに、データ取得部が取得したデータを入力して第1推論結果を推論する推論部と、データを入力として第2推論結果を出力する第2機械学習モデルに、データ取得部が取得したデータを入力して推論した第2推論結果と、データ取得部が取得したデータとに基づいて、データ取得部が取得したデータと第2推論結果との類似度を算出する類似度算出部と、類似度算出部が算出した類似度と、推論結果判定用閾値とを比較することで、第1推論結果を出力するか否かを判断する判断部と、判断部が第1推論結果を出力すると判断した場合、第1推論結果を出力する出力部とを備えたものである。
本開示によれば、妥当ではない推論結果の出力を防ぐことができる。
実施の形態1に係る推論装置の構成例を示す図である。 実施の形態1において、第1機械学習モデルと第2機械学習モデルの関係を示した図である。 実施の形態1における、車両周辺データと出力車両周辺データとの類似度[S]をあらわす(式1)である。 実施の形態1において、「正解データ類似度」の分布と「不正解データ類似度」の分布に基づいて統計的に設定される推論結果判定用閾値のイメージの一例を示している。 実施の形態1に係る推論装置の動作を説明するためのフローチャートである。 実施の形態1において、第1推論部が、判断部が運転支援情報を出力すると判断した後に、運転支援情報を推論するようにした場合の、推論装置の動作を説明するためのフローチャートである。 実施の形態2に係る推論装置の構成例を示す図である。 実施の形態2において、第2モデル選択部が、類似度算出部が算出した第2機械学習モデル毎の類似度と推論結果判定用閾値との比較によって選択第2機械学習モデルを選択する方法のイメージの一例を示す図である。 実施の形態2において、暫定第2モデル選択部が、代表類似度算出部が算出した代表類似度、および、学習時類似度情報に基づいて、暫定第2機械学習モデルを選択する方法のイメージの一例を示す図である。 実施の形態2に係る推論装置の動作を説明するためのフローチャートである。 推論装置が並列計算を行って選択第2機械学習モデルを選択する場合の、図10のステップST1005の具体的な動作を説明するためのフローチャートである。 推論装置が逐次計算を行った選択第2機械学習モデルを選択する場合の、図10のステップST1005の具体的な動作を説明するためのフローチャートである。 実施の形態2において、第1推論部が、判断部が運転支援情報を出力すると判断した後に、運転支援情報を推論するようにした場合の、推論装置の動作を説明するためのフローチャートである。 図14A,図14Bは、実施の形態1に係る推論装置または実施の形態2に係る推論装置のハードウェア構成の一例を示す図である。 実施の形態1に係る推論装置または実施の形態2に係る推論装置がサーバに備えられ、サーバと車両とがネットワークを介して接続される推論システムの構成例を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る推論装置1の構成例を示す図である。
実施の形態1において、推論装置1は、車両の運転者による運転を支援するための情報(以下「運転支援情報」という。)を出力する運転支援装置100に備えられている。なお、運転支援装置100が運転を支援する車両は、自動運転機能を有することを前提とする。車両が自動運転機能を有する場合であっても、運転者が、当該自動運転機能を実行せず、自ら車両を運転することができる。運転支援装置100は、自動運転が可能な車両において、運転者が自ら運転を行っている場合に、運転支援情報を出力する。運転支援情報は、具体的には、例えば、車両周辺の他車両、信号、または、標識等の物体を認識した旨の情報である。運転支援装置100は、車両に搭載される。
推論装置1は、車両周辺に関するデータ(以下「車両周辺データ」という。)と、第1機械学習モデル16とに基づいて運転支援情報を推論し、推論した運転支援情報を出力する。第1機械学習モデル16は、入力データに対応する正解データを用意した教師あり学習により推論結果(以下「第1推論結果」という。)を推論するよう学習済である。実施の形態1では、第1機械学習モデル16は、車両周辺データに対応する正解データを用意した教師あり学習により、第1推論結果として運転支援情報を推論するよう学習済である。
その際、推論装置1は、第2機械学習モデル17を用いて、第1機械学習モデル16が推論した運転支援情報が妥当か否かを判断する。第2機械学習モデル17は、第1機械学習モデル16と同じ入力データを用いて、入力データと推論結果(以下「第2推論結果」という。)である出力データとが等しくなるよう学習済である。実施の形態1では、第2機械学習モデル17は、車両周辺データを入力とし、第2推論結果として、車両周辺データと同じ内容の出力データ(以下「出力車両周辺データ」という。)を出力するよう学習済である。
実施の形態1において、第1機械学習モデル16および第2機械学習モデル17は、ニューラルネットワークにおけるディープラーニングにより学習された機械学習モデルである。
図2は、実施の形態1において、第1機械学習モデル16と第2機械学習モデル17の関係を示した図である。
前提として、ニューラルネットワークの推論時の出力は、学習時に入力としたデータ(以下「学習時データ」という。)の偏りに依存する。そのため、第1機械学習モデル16は、推論時に、当該第1機械学習モデル16の学習時データと同じ内容の車両周辺データを入力とした場合、正しい解を導くことができる、言い換えれば、正しい運転支援情報を推論することができる、と想定される。
ここで、第2機械学習モデル17は、上述のとおり、入力とした車両周辺データと同じ内容の出力データ、すなわち、出力車両周辺データが出力されるよう学習する。そのため、推論時に、第2機械学習モデル17の学習時データと近い特徴を持つ車両周辺データを当該第2機械学習モデル17の入力とした場合、当該第2機械学習モデル17の入力とした車両周辺データと、出力される出力車両周辺データとの差が小さくなる。一方、推論時に、第2機械学習モデル17の学習時データと異なる特徴を持つ車両周辺データを当該第2機械学習モデル17の入力とした場合、当該第2機械学習モデル17の入力とした車両周辺データと、出力される出力車両周辺データとの間に差が生じる。なお、推論時に第2機械学習モデル17の入力とする車両周辺データは、推論時に第1機械学習モデル16の入力とする車両周辺データである。
実施の形態1において、推論時に第2機械学習モデル17の入力とする車両周辺データの特徴と出力される出力車両周辺データの特徴が近いかどうかの度合いを、車両周辺データと出力車両周辺データとの「類似度」というものとする。
推論時に第2機械学習モデル17の入力とする車両周辺データと、当該第2機械学習モデル17が出力する出力車両周辺データとの間に生じる差が小さいほど、車両周辺データと出力車両周辺データとの類似度は大きい。車両周辺データと出力車両周辺データとの類似度が大きいほど、推論時の車両周辺データは、学習時データと近い特徴を持つと言える。推論時の車両周辺データの特徴が学習時データの特徴と近い場合、推論された運転支援情報は正しいと想定される。
一方、推論時に第2機械学習モデル17の入力とする車両周辺データと、当該第2機械学習モデル17が出力する出力車両周辺データとの間に生じる差が大きい場合、車両周辺データと出力車両周辺データとの類似度は小さい。車両周辺データと出力車両周辺データとの類似度が小さいほど、推論時の車両周辺データは、学習時データとは特徴が異なると言える。推論時の車両周辺データの特徴が学習時データの特徴と異なる場合、推論された運転支援情報は正しくないと想定される。
推論装置1は、推論時に、車両周辺データと出力車両周辺データとの類似度を算出し、算出した類似度に基づいて、運転支援情報が妥当か否かの判断を行う。
推論装置1における類似度の算出方法については、後述する。また、推論装置1が行う、運転支援情報が妥当か否かの判断の方法の詳細については、後述する。
推論装置1は、第1機械学習モデル16に基づいて推論した運転支援情報が妥当であると判断した場合、運転支援装置100に当該運転支援情報を出力する。
なお、実施の形態1では、第1機械学習モデル16は、上述のとおり、物体を認識した旨の情報を取得する用途で用いられる機械学習モデルとするが、これは一例に過ぎない。第1機械学習モデル16は、任意の用途で用いられる、任意の第1推論結果を得るための機械学習モデルである。
推論装置1は、図1に示すように、データ取得部11、推論部12、類似度算出部13、判断部14、出力部15、第1機械学習モデル16、および、第2機械学習モデル17を備える。なお、実施の形態1では、図1に示すように、第1機械学習モデル16および第2機械学習モデル17は推論装置1に備えられるものとするが、これは一例に過ぎない。第1機械学習モデル16および第2機械学習モデル17は、推論装置1の外部の、推論装置1が参照可能な場所に備えられていてもよい。
推論部12は、第1推論部121および第2推論部122を備える。
データ取得部11は、車両周辺の情報を取得する。
車両周辺の情報は、例えば、自車両の位置に関する情報、車両周辺を撮像した撮像画像、または、地図情報を含む。データ取得部11は、例えば、車両に搭載されているGPS(Global Positioning System)、車両に搭載されている撮像装置(図示省略)、または、車両外のサーバ(図示省略)が記憶している地図情報データベースから、車両周辺の情報を取得する。
データ取得部11は、取得した、車両周辺の情報に基づき、第1機械学習モデル16および第2機械学習モデル17の入力とする車両周辺データを取得する。実施の形態1において、車両周辺データは、車両周辺の情報から抽出された、1つ以上の特徴量を示すデータである。特徴量は、自車両の位置、他車両の位置、または、歩行者の位置等である。
データ取得部11は、車両周辺の情報に基づき、1つ以上の特徴量を示す車両周辺データを取得する。
データ取得部11は、1つ以上の特徴量を示す車両周辺データを、推論部12および類似度算出部13に出力する。実施の形態1において、1つ以上の特徴量を示す車両周辺データを、単に「車両周辺データ」ともいう。
推論部12は、第1機械学習モデル16にデータ取得部11が取得した車両周辺データを入力して、運転支援情報を推論する。
また、推論部12は、第2機械学習モデル17にデータ取得部11が取得した車両周辺データを入力して、出力車両周辺データを推論する。
具体的には、推論部12の第1推論部121が、第1機械学習モデル16にデータ取得部11が取得した車両周辺データを入力して、運転支援情報を推論する。
推論部12の第2推論部122が、第2機械学習モデル17にデータ取得部11が取得した車両周辺データを入力して、出力車両周辺データを推論する。
第1推論部121は、推論した運転支援情報を判断部14に出力する。第2推論部122は、推論した出力車両周辺データを類似度算出部13に出力する。
類似度算出部13は、第2推論部122が第2機械学習モデル17にデータ取得部11が取得した車両周辺データを入力して推論した出力車両周辺データと、データ取得部11が取得した車両周辺データとに基づいて、データ取得部11が取得した車両周辺データと、推論した出力車両周辺データとの類似度を算出する。
ここで、図3は、実施の形態1における、車両周辺データと出力車両周辺データとの類似度[S]をあらわす(式1)である。
(式1)において、「x」は、第2推論部122が第2機械学習モデルの入力とした車両周辺データをあらわし、「x’」は、第2推論部122が第2機械学習モデルに車両周辺データを入力して推論した出力車両周辺データをあらわす。
図3に示すように、実施の形態1において、車両周辺データと出力車両周辺データとの類似度は、車両周辺データと出力車両周辺データを用いたコサイン類似度であらされるものとする。「x」および「x’」は、それぞれN個の要素を持つベクトルx={x,x,x,・・・,x},x’={x’,x’,x’,・・・,x’}とする。コサイン類似度は、車両周辺データおよび出力車両周辺データに含まれる特徴量の数に依らず、(式1)により、1つの値に決まる。車両周辺データと出力車両周辺データとが近い特徴を持つほど、類似度は大きくなる。
類似度算出部13は、図3であらわす(式1)に基づいて、車両周辺データと出力車両周辺データとの類似度を算出する。
類似度算出部13は、算出した類似度を、判断部14に出力する。
判断部14は、類似度算出部13が算出した類似度と、推論結果判定用閾値とを比較することで、第1推論部121が推論した運転支援情報を出力するか否かを判断する。
具体的には、判断部14は、まず、推論結果判定用閾値を設定する。
判断部14は、第1機械学習モデル16の検証時の「正解テストデータ」と「正解推論結果」とに基づいて算出した「正解データ類似度」、および、第1機械学習モデル16の検証時の「不正解テストデータ」と「不正解推論結果」とに基づいて算出した「不正解データ類似度」に基づいて、推論結果判定用閾値を設定する。
「正解テストデータ」とは、第1機械学習モデル16の検証時に当該第1機械学習モデル16に入力した結果、出力された運転支援情報が正解であった、テストデータとしての車両周辺データである。なお、テストデータとしての車両周辺データは、1つ以上の特徴量を含む。
「正解推論結果」とは、上記「正解テストデータ」を第2機械学習モデル17に入力した場合に出力された出力車両周辺データである。
「正解データ類似度」とは、上記「正解テストデータ」と上記「正解推論結果」とに基づき算出された、上記「正解テストデータ」と上記「正解推論結果」との類似度である。
「不正解テストデータ」とは、第1機械学習モデル16の検証時に当該第1機械学習モデル16に入力した結果、出力された運転支援情報が不正解であった、テストデータとしての車両周辺データである。
「不正解推論結果」とは、上記「不正解テストデータ」を第2機械学習モデル17に入力した場合に出力された出力車両周辺データである。
「不正解データ類似度」とは、上記「不正解テストデータ」と上記「不正解推論結果」とに基づき算出された、上記「不正解テストデータ」と上記「不正解推論結果」との類似度である。
判断部14は、類似度算出部13が車両周辺データと出力車両周辺データとの類似度を算出するのと同様の方法で、「正解データ類似度」および「不正解データ類似度」を算出すればよい(図3の(式1)参照)。
「正解テストデータ」、「正解推論結果」、「不正解テストデータ」、および、「不正解推論結果」は、第1機械学習モデル16および第2機械学習モデル17の検証時に、推論装置1が参照可能な記憶部(図示省略)に記憶されているものとする。
判断部14は、「正解データ類似度」の分布と「不正解データ類似度」の分布に基づいて、統計的に、推論結果判定用閾値を設定する。
ここで、図4は、実施の形態1において、「正解データ類似度」の分布と「不正解データ類似度」の分布に基づいて統計的に設定される推論結果判定用閾値のイメージの一例を示している。
推論時に複数の特徴量を含む車両周辺データが第1機械学習モデル16および第2機械学習モデル17の入力とされ得る場合、当該複数の特徴量を含むテストデータを用いて、第1機械学習モデル16および第2機械学習モデル17の検証が行われる。
図4において、横軸は、「正解データ類似度」または「不正解データ類似度」を示している。縦軸は、「正解データ類似度」の個数、または、「不正解データ類似度」の個数を示している。
判断部14は、上述のとおり推論結果判定用閾値を設定すると、類似度算出部13が算出した類似度と推論結果判定用閾値とを比較することで、第1推論部121が推論した運転支援情報を出力するか否かを判断する。
具体的には、実施の形態1では、判断部14は、類似度算出部13が算出した類似度が推論結果判定用閾値より大きい場合、第1推論部121が推論した運転支援情報を出力すると判断する。
判断部14は、第1推論部121が推論した運転支援情報を出力するか否かの判断結果を、出力部15に出力する。判断部14は、第1推論部121が推論した運転支援情報を出力すると判断した場合、判断結果に運転支援情報を対応付けて、出力部15に出力する。
なお、実施の形態1では、類似度は、車両周辺データと出力車両周辺データを用いたコサイン類似度であらわされるものとしている。そのため、類似度が大きいほど、車両周辺データの特徴と出力車両周辺データの特徴が近いと言える。よって、判断部14は、類似度算出部13が算出した類似度が推論結果判定用閾値より大きい場合、第1推論部121が推論した運転支援情報を出力すると判断するものとするが、これは一例に過ぎない。
類似度の設定方法によっては、類似度が大きいほど、車両周辺データの特徴と出力車両周辺データの特徴が近くないと言える場合もある。具体例を挙げると、例えば、類似度が、車両周辺データと出力車両周辺データとの差分であらわされるとする。この場合、類似度、言い換えれば、差分、が大きいほど、車両周辺データの特徴と出力車両周辺データの特徴は近くないと言える。判断部14は、類似度が推論結果判定用閾値より小さい場合に、運転支援情報を出力すると判断する。
このように、判断部14が運転支援情報を出力すると判断するのは、類似度が推論結果判定用閾値より大きい場合に限定されない。判断部14は、類似度と推論結果判定用閾値との比較によって、運転支援情報を出力するか否かを判断するようになっていればよい。
また、実施の形態1では、上述のとおり、判断部14が、「正解データ類似度」および「不正解データ類似度」を算出し、推論結果判定用閾値を設定するものとするが、これは一例に過ぎない。例えば、類似度算出部13が、データ取得部11が取得した車両周辺データと、当該車両周辺データを第2機械学習モデル17に入力して推論された出力車両周辺データとの類似度を算出する際に、「正解データ類似度」および「不正解データ類似度」を算出して判断部14に出力するようにしてもよい。判断部14は、類似度算出部13から出力された「正解データ類似度」および「不正解データ類似度」に基づいて推論結果判定用閾値を設定する。また、例えば、第1機械学習モデル16および第2機械学習モデル17の検証時に、「正解データ類似度」および「不正解データ類似度」が算出され、「正解データ類似度」および「不正解データ類似度」に基づいて推論結果判定用閾値が設定されているものとしてもよい。検証時に設定された推論結果判定用閾値は、記憶部に記憶されているものとする。
推論結果判定用閾値は、判断部14が、当該推論結果判定用閾値を用いて、第1推論部121が推論した運転支援情報を出力するか否かを判断するよりも前に設定されていればよい。
出力部15は、判断部14が、第1推論部121が推論した運転支援情報を出力すると判断した場合、当該運転支援情報を、運転支援装置100に出力する。
出力部15は、判断部14が、第1推論部121が推論した運転支援情報を出力しないと判断した場合、運転支援装置100に対して、自動運転ができない旨を通知する通知情報を出力する。
運転支援装置100は、出力部15から通知情報が出力されると、車両の運転者に対して、自動運転から手動運転への切替を行うか否かを問合せる。具体的には、例えば、運転支援装置100の問合せ部(図示省略)が、車両に備えられているタッチパネル式ディスプレイ(図示省略)に、自動運転から手動運転への切替を行うか否かのメッセージを表示する。運転者は、タッチパネル式ディスプレイを確認し、当該タッチパネル式ディスプレイをタッチする等して、手動運転への切替を行うか否かの指示を入力する。手動運転への切替を行う旨の指示が入力された場合、運転支援装置100の運転制御部(図示省略)は、車両を手動運転制御へと切り替える。手動運転への切替を行う旨の指示が入力されなかった場合、運転支援装置100の運転制御部は、車両を自動停車させる制御を行う。
実施の形態1に係る推論装置1の動作について説明する。
図5は、実施の形態1に係る推論装置1の動作を説明するためのフローチャートである。
データ取得部11は、取得した、車両周辺の情報に基づき、第1機械学習モデル16および第2機械学習モデル17の入力とする車両周辺データを取得する(ステップST501)。
データ取得部11は、取得した車両周辺データを、推論部12および類似度算出部13に出力する。
推論部12の第1推論部121は、第1機械学習モデル16に、ステップST501にてデータ取得部11が取得した車両周辺データを入力して、運転支援情報を推論する(ステップST502)。
第1推論部121は、推論した運転支援情報を、判断部14に出力する。
推論部12の第2推論部122は、第2機械学習モデル17に、ステップST501にてデータ取得部11が取得した車両周辺データを入力して、出力車両周辺データを推論する(ステップST503)。
第2推論部122は、推論した出力車両周辺データを、類似度算出部13に出力する。
類似度算出部13は、第2推論部122がステップST503にて推論した出力車両周辺データと、ステップST501にてデータ取得部11が取得した車両周辺データとに基づいて、データ取得部11が取得した車両周辺データと、出力車両周辺データとの類似度を算出する(ステップST504)。
類似度算出部13は、算出した類似度を、判断部14に出力する。
判断部14は、ステップST504にて類似度算出部13が算出した類似度と、推論結果判定用閾値とを比較することで、ステップST502にて第1推論部121が推論した運転支援情報を出力するか否かを判断する(ステップST505)。
判断部14は、第1推論部121が推論した運転支援情報を出力するか否かの判断結果を、出力部15に出力する。
出力部15は、ステップST505にて、判断部14が、第1推論部121が推論した運転支援情報を出力すると判断した場合、当該運転支援情報を、運転支援装置100に出力する(ステップST506)。
出力部15は、判断部14が、第1推論部121が推論した運転支援情報を出力しないと判断した場合、運転支援装置100に対して、自動運転ができない旨を通知する通知情報を出力する。
なお、図5では、ステップST502、ステップST503の順で推論装置1の動作が行われるものとしたが、図5において、ステップST502の動作とステップST503の動作の順番は逆であってもよい。
また、図5を用いた動作説明では、推論装置1において、推論部12の第1推論部121は、判断部14が運転支援情報を出力するか否かを判断する(ステップST505)よりも前に当該運転支援情報を推論し(ステップST502)、判断部14は、第1推論結果を出力すると判断した場合、第1推論部121が推論済みの運転支援情報を出力するものとしたが、これは一例に過ぎない。
推論装置1において、推論部12の第1推論部121は、判断部14が運転支援情報を出力すると判断すると、運転支援情報を推論するようにしてもよい。
図6は、実施の形態1において、第1推論部121が、判断部14が運転支援情報を出力すると判断した後に、運転支援情報を推論するようにした場合の、推論装置1の動作を説明するためのフローチャートである。
図6において、ステップST601~ステップST606の具体的な動作は、それぞれ、図5のステップST501、ステップST503~ステップST505、ステップST502、ステップST506の具体的な動作と同様である。
図6のフローチャートで示す推論装置1の動作では、第1推論部121が運転支援情報を推論する動作(ステップST605)が、判断部14が運転支援情報を出力するか否かの判断をした(ステップST604)後である点が、図5のフローチャートで示す推論装置1の動作とは異なる。
図6で示すように、判断部14が運転支援情報を出力すると判断した後に第1推論部121が運転支援情報を推論するようにすることで、第1推論部121による、不要な運転支援情報の推論動作を省くことができる。
一般に、教師あり学習における機械学習モデルの精度は、教師ラベル付きのテストデータに基づく検証が行われることで、高められる。しかし、機械学習モデルが実際に運用される段階において、当該機械学習モデルの学習時の学習時データが、実運用にて入力としたデータに対して偏りがないことを証明することは不可能である。仮に、学習時に考慮されていなかったデータが、実運用における推論時に機械学習モデルの入力とされた場合、誤った推論結果が出力され得る。
これに対し、実施の形態1に係る推論装置1は、実運用における推論時に取得した、第1機械学習モデル16の入力となる車両周辺データを第2機械学習モデル17に入力して推論された出力車両周辺データと、取得した車両周辺データとの類似度を算出し、当該類似度と推論結果判定用閾値とを比較する。これにより、推論装置1は、取得した車両周辺データが、第1機械学習モデル16の学習時データと近い特徴を持つか否かを判断する。そして、推論装置1は、取得した車両周辺データを第1機械学習モデル16に入力して推論した運転支援情報を出力するか否かを判断する。
推論装置1は、類似度と推論結果判定用閾値とを比較した結果、取得した車両周辺データが、第1機械学習モデル16の学習時データと近い特徴を持つと判断した場合に、運転支援情報を出力する。すなわち、推論装置1は、運転支援情報の信頼性を担保した状態で、運転支援情報を出力する。言い換えれば、推論装置1は、妥当ではない推論結果の出力を防ぐことができる。
なお、推論装置1は、類似度と推論結果判定用閾値とを比較した結果、運転支援情報を出力しないと判断した場合、運転支援情報を出力せず、自動運転ができない旨を通知する通知情報を出力する。推論装置1から通知情報が出力された場合、運転支援装置100は、運転支援情報に基づく自動運転制御を行わないようにする。推論装置1は、自動運転ができない旨を通知し、当該推論装置1が出力する運転支援情報に基づいて自動運転制御を行う運転支援装置100に、自動運転制御を行わないようにさせるため、運転支援装置100における自動運転制御の信頼性を向上させることができる。
以上のように、実施の形態1によれば、推論装置1は、データ(車両周辺データ)を取得するデータ取得部11と、データを入力として第1推論結果(運転支援情報)を出力する第1機械学習モデル16に、データ取得部11が取得したデータを入力して第1推論結果を推論する推論部12と、データを入力として第2推論結果を出力する第2機械学習モデル17に、データ取得部11が取得したデータを入力して推論した第2推論結果と、データ取得部11が取得したデータとに基づいて、データ取得部11が取得したデータと第2推論結果との類似度を算出する類似度算出部13と、類似度算出部13が算出した類似度と、推論結果判定用閾値とを比較することで、第1推論結果を出力するか否かを判断する判断部14と、判断部14が第1推論結果を出力すると判断した場合、第1推論結果を出力する出力部15とを備えるように構成した。そのため、推論装置1は、妥当ではない推論結果の出力を防ぐことができる。
実施の形態2.
実施の形態1では、第1機械学習モデル16および第2機械学習モデル17は、それぞれ、1つであるものとした。
実施の形態2では、第1機械学習モデル16と第2機械学習モデル17とが、それぞれ、複数存在する場合に、推論装置1aが、運転支援情報を出力するか否かを判断する実施の形態について、説明する。
図7は、実施の形態2に係る推論装置1aの構成例を示す図である。
図7において、実施の形態1にて図1を用いて説明した推論装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
実施の形態2では、複数の第1機械学習モデル16-1~16-nが存在する。また、複数の第1機械学習モデル16-1~16-nの数だけ、当該第1機械学習モデル16-1~16-nに対応する第2機械学習モデル17-1~17-nが存在する。第1機械学習モデル16-1~16-nと第2機械学習モデル17-1~17-nが対応する、とは、同じ学習時データに基づいて学習した第1機械学習モデル16-1~16-nおよび第2機械学習モデル17-1~17-nであることをいう。すなわち、実施の形態2において、互いに同じ学習時データに基づいて学習した、対となる第1機械学習モデル16-1~16-nおよび第2機械学習モデル17-1~17-n、が複数組存在する。
複数の第1機械学習モデル16-1~16-nは、同じ用途で用いられる機械学習モデルである。複数の第1機械学習モデル16-1~16-nは、それぞれ、学習する際に入力とした学習時データが異なる。
実施の形態2では、一例として、第1機械学習モデル16-1~16-nは、実施の形態1の第1機械学習モデル16同様、物体を認識した旨の情報を取得する用途で用いられる機械学習モデルとする。
実施の形態2において、複数の第1機械学習モデル16-1~16-nを、まとめて、第1機械学習モデル16ともいう。また、複数の第2機械学習モデル17-1~17-nを、まとめて、第2機械学習モデル17ともいう。
推論装置1aは、第2機械学習モデル17に対して並列計算または逐次計算を行って、複数の第2機械学習モデル17のうちから1つ、第2機械学習モデル17(以下「選択第2機械学習モデル」という。)を選択する。
推論装置1aは、選択第2機械学習モデルを選択すると、選択第2機械学習モデルに対応する第1機械学習モデル16(以下「選択第1機械学習モデル」という。)を選択する。
推論装置1aは、選択第1機械学習モデルが推論する運転支援情報を出力するか否か判断する。
推論装置1aが第2機械学習モデル17に対して行う並列計算または逐次計算の詳細、および、推論装置1aにおいて、選択第2機械学習モデルおよび選択第1機械学習モデルを選択する方法については、後述する。
実施の形態2に係る推論装置1aは、実施の形態1に係る推論装置1とは、代表類似度算出部18および暫定第2モデル選択部19を備えた点が異なる。
また、実施の形態2に係る推論装置1aは、実施の形態1に係る推論装置1とは、判断部14aが、第1モデル選択部141および第2モデル選択部142を備える点が異なる。また、実施の形態2に係る推論装置1aは、実施の形態1に係る推論装置1とは、推論部12および類似度算出部13の動作が異なる。
推論部12の第1推論部121は、第1機械学習モデル16毎に、運転支援情報を推論する。第1推論部121が第1機械学習モデル16を用いて運転支援情報を推論する具体的な方法は、実施の形態1において説明済であるため、詳細な説明を省略する。
第1推論部121は、推論した、第1機械学習モデル16毎の運転支援情報を、判断部14aに出力する。第1推論部121は、運転支援情報を、当該運転支援情報を推論した第1機械学習モデル16を特定可能な情報と対応付けて、判断部14aに出力するようにする。
推論部12の第2推論部122は、第2機械学習モデル17毎に、出力車両周辺データを推論する。第2推論部122が第2機械学習モデル17を用いて出力車両周辺データを推論する具体的な方法は、実施の形態1において説明済であるため、詳細な説明を省略する。
第2推論部122は、推論した、第2機械学習モデル17毎の出力車両周辺データを、類似度算出部13に出力する。第2推論部122は、出力車両周辺データを、当該出力車両周辺データを推論した第2機械学習モデル17を特定可能な情報と対応付けて、類似度算出部13に出力する。
類似度算出部13は、全ての第2機械学習モデル17に対して、類似度を算出する。具体的には、類似度算出部13は、第2機械学習モデル17毎に、第2推論部122が推論した出力車両周辺データと、データ取得部11が取得した車両周辺データとに基づいて、データ取得部11が取得した車両周辺データと、推論した出力車両周辺データとの類似度を算出する。類似度算出部13が類似度を算出する具体的な方法は、実施の形態1において説明済であるため、詳細な説明を省略する。
類似度算出部13は、算出した、第2機械学習モデル17毎の類似度を、判断部14aに出力する。類似度算出部13は、第2機械学習モデル17毎の類似度を、第2機械学習モデル17を特定可能な情報と対応付けて、判断部14aに出力する。
推論装置1aの構成について、推論装置1aが並列計算を行って選択第2機械学習モデルを選択する場合と、推論装置1aが逐次計算を行って選択第2機械学習モデルを選択する場合とに分けて説明する。
まず、推論装置1aが並列計算を行って選択第2機械学習モデルを選択する場合の、推論装置1aの各構成について説明する。なお、推論装置1aの構成のうち、説明済みの、推論装置1と同様の構成については、重複した説明を省略する。
判断部14aは、対応する第1機械学習モデル16および第2機械学習モデル17の組毎に、推論結果判定用閾値を設定する。判断部14aが推論結果判定用閾値を設定する方法は、実施の形態1において説明した、判断部14による推論結果判定用閾値と同様であるため、詳細な説明を省略する。
なお、推論結果判定用閾値は、予め設定され、記憶部(図示省略)に記憶されているものとしてもよい。
判断部14aの第2モデル選択部142は、類似度算出部13が算出した類似度と推論結果判定用閾値とを比較することで、第2機械学習モデル17のうちから選択第2機械学習モデルを選択する。
図8は、実施の形態2において、第2モデル選択部142が、類似度算出部13が算出した第2機械学習モデル17毎の類似度と推論結果判定用閾値との比較によって選択第2機械学習モデルを選択する方法のイメージの一例を示す図である。
例えば、第2モデル選択部142は、複数の第2機械学習モデル17のうち、類似度が推論結果判定用閾値より大きくなる第2機械学習モデル17を1つ、選択第2機械学習モデルとして選択する。
第2モデル選択部142は、類似度が推論結果判定用閾値より大きくなる第2機械学習モデル17が複数存在する場合、例えば、一番大きい類似度が算出された第2機械学習モデル17を、選択第2機械学習モデルとして選択する。
第2モデル選択部142は、選択した選択第2機械学習モデルに関する情報を、第1モデル選択部141に出力する。
第2モデル選択部142は、類似度が推論結果判定用閾値より大きくなる第2機械学習モデル17が存在しない場合は、選択第2機械学習モデルを選択しない。第2モデル選択部142は、選択第2機械学習モデルを選択しなかった旨の情報を、第1モデル選択部141に出力する。
第1モデル選択部141は、第2モデル選択部142が選択した選択第2機械学習モデルに対応する選択第1機械学習モデルを選択する。第1モデル選択部141は、選択した選択第1機械学習モデルに関する情報を、判断部14aに出力する。
第1モデル選択部141は、第2モデル選択部142から、選択第2機械学習モデルを選択しなかった旨の情報が出力された場合は、選択第1機械学習モデルを選択しない。第1モデル選択部141は、選択第1機械学習モデルを選択しなかった旨の情報を、判断部14aに出力する。
判断部14aは、第1モデル選択部141から、選択第1機械学習モデルに関する情報が出力されると、第1推論部121が選択第1機械学習モデルに基づいて推論する運転支援情報を出力すると判断する。
判断部14aは、第1モデル選択部141から、選択第1機械学習モデルを選択しなかった旨の情報が出力された場合は、第1推論部121が推論する運転支援情報は、いずれも出力しないと判断する。
判断部14aは、第1推論部121が推論した運転支援情報を出力するか否かの判断結果を、出力部15に出力する。判断部14aは、第1推論部121が推論した運転支援情報を出力すると判断した場合、出力すると判断した運転支援情報を対応付けて、出力部15に出力する。具体的には、判断部14aは、第1推論部121が選択第1機械学習モデルに基づいて推論した運転支援情報を、出力する。
次に、推論装置1aが逐次計算を行って選択第2機械学習モデルを選択する場合の、推論装置1aの各構成について説明する。なお、推論装置1aの構成のうち、実施の形態1において説明済みの、推論装置1と同様の構成については、重複した説明を省略する。
推論装置1aが逐次計算を行って選択第2機械学習モデルを選択する場合、予め、第2機械学習モデル17毎に、第2機械学習モデル17の学習時データとしての車両周辺データと、当該学習時データを第2機械学習モデル17に入力して推論された出力データである出力車両周辺データとの類似度(以下「学習時データ類似度」という。)が算出され、学習時類似度情報として、記憶部に記憶されている。学習時類似度情報には、ある第2機械学習モデル17について、全ての第2機械学習モデル17の学習時データに基づいて算出された学習時データ類似度が含まれている。具体的には、例えば、学習時類似度情報には、第2機械学習モデル17-1について、第2機械学習モデル17-1の学習時データと、第2機械学習モデル17-1の学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、第2機械学習モデル17-2の学習時データと、第2機械学習モデル17-2の学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、・・・・、第2機械学習モデル17-nの学習時データと、第2機械学習モデル17-nの学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、が含まれる。学習時類似度情報には、第2機械学習モデル17-2~17-nについても同様に、第2機械学習モデル17-1の学習時データと、第2機械学習モデル17-1の学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、第2機械学習モデル17-2の学習時データと、第2機械学習モデル17-2の学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、・・・・、第2機械学習モデル17-nの学習時データと、第2機械学習モデル17-nの学習時データを第2機械学習モデル17-1に入力して推論された出力データとの学習時データ類似度、が含まれる。
学習時類似度情報は、例えば、第2機械学習モデル17の学習時に生成される。
代表類似度算出部18は、データ取得部11が取得した車両周辺データと、当該車両周辺データを複数の第2機械学習モデル17のうちの、ある第2機械学習モデル17(以下「代表第2機械学習モデル」という。)に入力して推論した出力車両周辺データとの類似度(以下「代表類似度」という。)を算出する。
代表類似度算出部18は、複数の第2機械学習モデル17のうちの任意の第2機械学習モデル17を、代表第2機械学習モデルとする。
代表類似度算出部18は、類似度算出部13が類似度を算出するのと同様の方法で、代表類似度を算出すればよい。
代表類似度算出部18は、算出した代表類似度を、暫定第2モデル選択部19に出力する。
暫定第2モデル選択部19は、代表類似度算出部18が算出した代表類似度、および、学習時類似度情報に基づいて、複数の第2機械学習モデル17のうちから1つ、第2機械学習モデル17(以下「暫定第2機械学習モデル」という。)を選択する。
具体的には、暫定第2モデル選択部19は、学習時類似度情報に含まれる学習時データ類似度のうち、代表類似度に最も近い学習時データ類似度を特定する。暫定第2モデル選択部19は、特定した学習時データ類似度が算出された第2機械学習モデル17を、暫定第2機械学習モデルとして選択する。
図9は、実施の形態2において、暫定第2モデル選択部19が、代表類似度算出部18が算出した代表類似度、および、学習時類似度情報に基づいて、暫定第2機械学習モデルを選択する方法のイメージの一例を示す図である。
図9は、一例として、代表類似度算出部18が算出した代表類似度と最も近い学習時データ類似度は、第2機械学習モデル(2)17-2の学習時データと、当該学習時データを第2機械学習モデル(2)17-2に入力して推論された出力データとの類似度が最も近かったことを示している。
この場合、暫定第2モデル選択部19は、第2機械学習モデル(2)17-2を、暫定第2機械学習モデルとして選択する。
暫定第2モデル選択部19は、選択した暫定第2機械学習モデルに関する情報を、判断部14aに出力する。
判断部14aの第2モデル選択部142は、暫定第2機械学習モデルに基づいて算出された類似度と、推論結果判定用閾値とを比較することで、選択第2機械学習モデルを選択する。
暫定第2機械学習モデルに基づいて算出された類似度は、類似度算出部13が算出した、データ取得部11が取得した車両周辺データと、暫定第2機械学習モデルに当該車両周辺データを入力して推論された出力車両周辺データとの類似度である。
第2モデル選択部142は、暫定第2機械学習モデルに基づいて算出された類似度が推論結果判定用閾値よりも大きい場合、暫定第2機械学習モデルを選択第2機械学習モデルとして選択する。第2モデル選択部142は、選択した選択第2機械学習モデルに関する情報を、第1モデル選択部141に出力する。
第2モデル選択部142は、暫定第2機械学習モデルに基づいて算出された類似度が推論結果判定用閾値以下である場合は、選択第2機械学習モデルを選択しない。第2モデル選択部142は、選択第2機械学習モデルを選択しなかった旨の情報を、第1モデル選択部141に出力する。
第1モデル選択部141は、第2モデル選択部142が選択した選択第2機械学習モデルに対応する選択第1機械学習モデルを選択する。第1モデル選択部141は、選択した選択第1機械学習モデルに関する情報を、判断部14aに出力する。
第1モデル選択部141は、第2モデル選択部142から、選択第2機械学習モデルを選択しなかった旨の情報が出力された場合は、選択第1機械学習モデルを選択しない。第1モデル選択部141は、選択第1機械学習モデルを選択しなかった旨の情報を、判断部14aに出力する。
判断部14aは、第1モデル選択部141から、選択第1機械学習モデルに関する情報が出力されると、第1推論部121が選択第1機械学習モデルに基づいて推論する運転支援情報を出力すると判断する。
判断部14aは、第1モデル選択部141から、選択第1機械学習モデルを選択しなかった旨の情報が出力された場合は、第1推論部121が推論する運転支援情報は、いずれも出力しないと判断する。
判断部14aは、第1推論部121が推論した運転支援情報を出力するか否かの判断結果を、出力部15に出力する。判断部14aは、第1推論部121が推論した運転支援情報を出力すると判断した場合、出力すると判断した運転支援情報を対応付けて、出力部15に出力する。具体的には、判断部14aは、第1推論部121が選択第1機械学習モデルに基づいて推論した運転支援情報を、出力する。
上述のとおり、代表類似度算出部18および暫定第2モデル選択部19は、推論装置1aが逐次計算を行って選択第2機械学習うモデルを選択する場合にのみ機能する。
推論装置1aが選択第2機械学習モデルを選択する際に並列計算を行う方法しか採用しない場合、推論装置1aは、代表類似度算出部18および暫定第2モデル選択部19を備えない構成としてもよい。この場合、学習時類似度情報が記憶されていることも必須ではない。
ただし、推論装置1aは、逐次計算を行って選択第2機械学習モデルを選択するようにした場合、取得した車両周辺データと全ての第2機械学習モデルに基づいて類似度を算出することなく選択第2機械学習モデルを選択できるため、並列計算を行って選択第2機械学習モデルを選択するようにする場合と比べ、処理負荷を軽減することができる。
実施の形態2に係る推論装置1aの動作について説明する。
図10は、実施の形態2に係る推論装置1aの動作を説明するためのフローチャートである。
図10において、ステップST1001およびステップST1008の具体的な動作は、実施の形態1にて説明した、図5のステップST501およびステップST506の具体的な動作と同様であるため、重複した説明を省略する。
推論部12の第1推論部121は、第1機械学習モデル16毎に、運転支援情報を推論する(ステップST1002)。
第1推論部121は、推論した、第1機械学習モデル16毎の運転支援情報を、判断部14aに出力する。第1推論部121は、運転支援情報を、第1機械学習モデル16を特定可能な情報と対応付けて、判断部14aに出力するようにする。
推論部12の第2推論部122は、第2機械学習モデル17毎に、出力車両周辺データを推論する(ステップST1003)。
第2推論部122は、推論した出力車両周辺データを、類似度算出部13に出力する。第2推論部122は、出力車両周辺データを、第2機械学習モデル17を特定可能な情報と対応付けて、類似度算出部13に出力する。
類似度算出部13は、全ての第2機械学習モデル17に対して、類似度を算出する(ステップST1004)。
類似度算出部13は、算出した、第2機械学習モデル17毎の類似度を、判断部14aに出力する。類似度算出部13は、第2機械学習モデル17毎の類似度を、第2機械学習モデル17を特定可能な情報と対応付けて、判断部14aに出力する。
判断部14aの第2モデル選択部142は、ステップST1004にて類似度算出部13が算出した類似度と、推論結果判定用閾値とを比較することで、複数の第2機械学習モデル17のうちから選択第2機械学習モデルを選択する(ステップST1005)。
ステップST1005の具体的な動作について、推論装置1aが並列計算を行って選択第2機械学習モデルを選択する場合と、推論装置1aが逐次計算を行って選択第2機械学習モデルを選択する場合とに分けて説明する。
図11は、推論装置1aが並列計算を行って選択第2機械学習モデルを選択する場合の、図10のステップST1005の具体的な動作を説明するためのフローチャートである。
判断部14aの第2モデル選択部142は、図10のステップST1004にて類似度算出部13が算出した類似度と推論結果判定用閾値とを比較することで、第2機械学習モデル17のうちから選択第2機械学習モデルを選択する。
具体的には、例えば、第2モデル選択部142は、複数の第2機械学習モデル17のうち、類似度が推論結果判定用閾値より大きい第2機械学習モデル17が存在するか判定する(ステップST1101)。
ステップST1101において、類似度が推論結果判定用閾値より大きい第2機械学習モデル17が存在する場合(ステップST1101の“YES”の場合)、第2モデル選択部142は、類似度が推論結果判定用閾値より大きい第2機械学習モデル17を、選択第2機械学習モデルとして選択する(ステップST1102)。
第2モデル選択部142は、選択した選択第2機械学習モデルに関する情報を、第1モデル選択部141に出力する。
ステップST1101において、類似度が推論結果判定用閾値より大きい第2機械学習モデル17が存在しない場合(ステップST1101の“NO”の場合)、第2モデル選択部142は、選択第2機械学習モデルを選択しない。第2モデル選択部142は、選択第2機械学習モデルを選択しなかった旨の情報を、第1モデル選択部141に出力する。
推論装置1aの動作は、図10のステップST1006へ進む。
図12は、推論装置1aが逐次計算を行った選択第2機械学習モデルを選択する場合の、図10のステップST1005の具体的な動作を説明するためのフローチャートである。
代表類似度算出部18は、図10のステップST1001にてデータ取得部11が取得した車両周辺データと、当該車両周辺データを代表第2機械学習モデルに入力して推論した出力車両周辺データとの代表類似度を算出する(ステップST1201)。
代表類似度算出部18は、算出した代表類似度を、暫定第2モデル選択部19に出力する。
暫定第2モデル選択部19は、ステップST1201にて代表類似度算出部18が算出した代表類似度、および、学習時類似度情報に基づいて、複数の第2機械学習モデル17のうちから1つ、暫定第2機械学習モデルを選択する(ステップST1202)。
具体的には、暫定第2モデル選択部19は、学習時類似度情報に含まれる学習時データ類似度のうち、代表類似度に最も近い学習時データ類似度を特定する。暫定第2モデル選択部19は、特定した学習時データ類似度が算出された第2機械学習モデル17を、暫定第2機械学習モデルとして選択する。
暫定第2モデル選択部19は、選択した暫定第2機械学習モデルに関する情報を、判断部14aに出力する。
判断部14aの第2モデル選択部142は、暫定第2機械学習モデルに基づいて算出された類似度と、推論結果判定用閾値とを比較することで、選択第2機械学習モデルを選択する。
具体的には、例えば、第2モデル選択部142は、暫定第2機械学習モデルに基づいて算出された類似度が推論結果判定用閾値よりも大きいか否かを判定する(ステップST1203)。
ステップST1203において、暫定第2機械学習モデルに基づいて算出された類似度が推論結果判定用閾値よりも大きいと判定した場合(ステップST1203の“YES”の場合)、第2モデル選択部142は、暫定第2機械学習モデルを選択第2機械学習モデルとして選択する。
第2モデル選択部142は、選択した選択第2機械学習モデルに関する情報を、第1モデル選択部141に出力する。
ステップST1203において、暫定第2機械学習モデルに基づいて算出された類似度が推論結果判定用閾値以下であると判定した場合(ステップST1203の“NO”の場合)、第2モデル選択部142は、選択第2機械学習モデルを選択しない。第2モデル選択部142は、選択第2機械学習モデルを選択しなかった旨の情報を、第1モデル選択部141に出力する。
推論装置1aの動作は、図10のステップST1006へ進む。
図10のフローチャートの説明に戻る。
第1モデル選択部141は、第2モデル選択部142が選択した選択第2機械学習モデルに対応する選択第1機械学習モデルを選択する(ステップST1006)。第1モデル選択部141は、選択した選択第1機械学習モデルに関する情報を、判断部14aに出力する。
第1モデル選択部141は、第2モデル選択部142から、選択第2機械学習モデルを選択しなかった旨の情報が出力された場合は、選択第1機械学習モデルを選択しない。第1モデル選択部141は、選択第1機械学習モデルを選択しなかった旨の情報を、判断部14aに出力する。
判断部14aは、運転支援情報を出力するか否かを判断する(ステップST1007)。
具体的には、判断部14aは、ステップST1006にて、第1モデル選択部141から、選択第1機械学習モデルに関する情報が出力されると、第1推論部121が選択第1機械学習モデルに基づいて推論する運転支援情報を出力すると判断する。
判断部14aは、ステップST1006にて、第1モデル選択部141から、選択第1機械学習モデルを選択しなかった旨の情報が出力された場合は、第1推論部121が推論する運転支援情報は、いずれも出力しないと判断する。
判断部14aは、第1推論部121が推論した運転支援情報を出力するか否かの判断結果を、出力部15に出力する。判断部14aは、第1推論部121が推論した運転支援情報を出力すると判断した場合、出力すると判断した運転支援情報を対応付けて、出力部15に出力する。具体的には、判断部14aは、第1推論部121が選択第1機械学習モデルに基づいて推論した運転支援情報を、出力する。
なお、図10では、ステップST1002、ステップST1003の順で推論装置1aの動作が行われるものとしたが、図10において、ステップST1002の動作とステップST1003の動作の順番は逆であってもよい。
また、図10を用いた動作説明では、推論装置1aにおいて、推論部12の第1推論部121は、判断部14aが運転支援情報を出力するか否かを判断する(ステップST1007)よりも前に当該運転支援情報を推論し(ステップST1002)、判断部14aは、運転支援情報を出力すると判断した場合、第1推論部121が推論済みの運転支援情報を出力するものとしたが、これは一例に過ぎない。
推論装置1aにおいて、推論部12の第1推論部121は、判断部14aが運転支援情報を出力すると判断すると、運転支援情報を推論するようにしてもよい。
図13は、実施の形態2において、第1推論部121が、判断部14aが運転支援情報を出力すると判断した後に、運転支援情報を推論するようにした場合の、推論装置1aの動作を説明するためのフローチャートである。
図13において、ステップST1301~ステップST1308の具体的な動作は、それぞれ、図10のステップST1001、ステップST1003~ステップST1007、ステップST1002、ステップST1008の具体的な動作と同様である。
図13のフローチャートで示す推論装置1aの動作では、第1推論部121が運転支援情報を推論する動作(ステップST1307)が、判断部14aが運転支援情報を出力するか否かの判断をした(ステップST1306)後である点が、図10のフローチャートで示す推論装置1aの動作とは異なる。
図13で示すように、判断部14aが運転支援情報を出力すると判断した後に第1推論部121が運転支援情報を推論するようにすることで、第1推論部121による、不要な運転支援情報の推論動作を省くことができる。
このように、推論装置1aは、互いに同じ学習時データに基づいて学習した、対となる第1機械学習モデル16および第2機械学習モデル17、が複数組存在する場合、第2機械学習モデル17毎に、実運用時に取得した車両周辺データを第2機械学習モデル17に入力して推論した出力車両周辺データと、取得した車両周辺データとの類似度を算出し、当該類似度と推論結果判定用閾値とを比較することで、複数の第2機械学習モデル17のうちから選択第2機械学習モデルを選択する。そして、推論装置1aは、選択第2機械学習モデルに対応する選択第1機械学習モデルを選択し、第1推論部121が選択第1機械学習モデルに基づいて推論する運転支援情報を出力する。
推論装置1aは、第1機械学習モデル16および第2機械学習モデル17が複数存在する場合であっても、取得した車両周辺データが、第1機械学習モデル16の学習時データと近い特徴を持つと判断した場合に、運転支援情報を出力する。すなわち、推論装置1aは、運転支援情報の信頼性を担保した状態で、運転支援情報を出力する。言い換えれば、推論装置1aは、妥当ではない推論結果の出力を防ぐことができる。
なお、推論装置1aは、実施の形態1に係る推論装置1同様、運転支援情報を出力しないと判断した場合、運転支援情報を出力せず、自動運転ができない旨を通知する通知情報を出力する。推論装置1aから通知情報が出力された場合、運転支援装置100は、運転支援情報に基づく自動運転制御を行わないようにする。推論装置1aは、自動運転ができない旨を通知し、当該推論装置1aが出力する運転支援情報に基づいて自動運転制御を行う運転支援装置100に、自動運転制御を行わないようにさせるため、運転支援装置100における自動運転制御の信頼性を向上させることができる。
以上のように、実施の形態2によれば、互いに同じ学習時データに基づいて学習した、対となる第1機械学習モデル16および第2機械学習モデル17、が複数組存在する場合、推論装置1aにおいて、推論部12は、第1機械学習モデル16毎に第1推論結果(運転支援情報)を推論可能であり、類似度算出部13は、第2機械学習モデル17毎に類似度を算出可能であり、判断部14aは、類似度算出部13が算出した類似度と、推論結果判定用閾値とを比較することで、複数の第2機械学習モデル17のうちから選択第2機械学習モデルを選択する第2モデル選択部142と、複数の第1機械学習モデル16のうちから、第2モデル選択部142が選択した選択第2機械学習モデルに対応する選択第1機械学習モデルを選択する第1モデル選択部141を備え、推論部12が、第1モデル選択部141が選択した選択第1機械学習モデルに基づいて推論する第1推論結果を出力するか否かを判断するように構成した。そのため、推論装置1aは、妥当ではない推論結果の出力を防ぐことができる。
図14A,図14Bは、実施の形態1に係る推論装置1または実施の形態2に係る推論装置1aのハードウェア構成の一例を示す図である。
実施の形態1,2において、データ取得部11、推論部12、類似度算出部13、判断部14,14a、出力部15、代表類似度算出部18、および、暫定第2モデル選択部19の機能は、処理回路1401により実現される。すなわち、推論装置1,1aは、第2機械学習モデル17に基づいて算出した類似度と推論結果判定用閾値との比較によって、第1機械学習モデル16に基づいて推論した運転支援情報を出力するか否かを判断する制御を行うための処理回路1401を備える。
処理回路1401は、図14Aに示すように専用のハードウェアであっても、図14Bに示すようにメモリ1406に格納されるプログラムを実行するCPU(Central Processing Unit)1405であってもよい。
処理回路1401が専用のハードウェアである場合、処理回路1401は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路1401がCPU1405の場合、データ取得部11、推論部12、類似度算出部13、判断部14,14a、出力部15、代表類似度算出部18、および、暫定第2モデル選択部19の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、データ取得部11、推論部12、類似度算出部13、判断部14,14a、出力部15、代表類似度算出部18、および、暫定第2モデル選択部19は、HDD(Hard Disk Drive)1402、メモリ1406等に記憶されたプログラムを実行するCPU1405、システムLSI(Large-Scale Integration)等の処理回路1401により実現される。また、HDD1402、メモリ1406等に記憶されたプログラムは、データ取得部11、推論部12、類似度算出部13、判断部14,14a、出力部15、代表類似度算出部18、および、暫定第2モデル選択部19の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1406とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、データ取得部11、推論部12、類似度算出部13、判断部14,14a、出力部15、代表類似度算出部18、および、暫定第2モデル選択部19の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、データ取得部11および出力部15については専用のハードウェアとしての処理回路1401でその機能を実現し、推論部12、類似度算出部13、判断部14,14a、代表類似度算出部18、および、暫定第2モデル選択部19については処理回路1401がメモリ1406に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、推論装置1,1aは、運転支援装置100等の装置と、有線通信または無線通信を行う入力インタフェース装置1403および出力インタフェース装置1404を備える。
以上の実施の形態1および実施の形態2では、第2機械学習モデル17は、第1機械学習モデル16と同じ入力データを用いて、入力データと第2推論結果である出力データとが等しくなるよう学習済の機械学習モデルとしたが、これは一例に過ぎない。
第2機械学習モデル17は、入力データを正解ラベルとして学習済の、2値分類の機械学習モデルとしてもよい。2値分類の機械学習モデルは、入力データを全て正解として学習し、当該機械学習モデルに基づく推論時に、学習時に入力とした入力データと異なる特徴量が含まれる入力データを入力とした場合は、異常を示す情報を出力する。2値分類の機械学習モデルの代表的な手法は、OC-SVM(One Class Support Vector Machine)と呼ばれる手法である。
また、以上の実施の形態1および実施の形態2では、推論装置1,1aは、車両に搭載されている運転支援装置100に備えられるものとしたが、これは一例に過ぎない。
例えば、推論装置1,1aは、サーバに備えられ、ネットワークを介して、推論装置1,1aの外部装置である、車両に搭載された運転支援装置100に、運転支援情報を出力するようにしてもよい。
図15は、実施の形態1に係る推論装置1または実施の形態2に係る推論装置1aがサーバ300に備えられ、サーバ300と車両(図示省略)とがネットワークを介して接続される推論システムの構成例を示す図である。
また、以上の実施の形態1および実施の形態2では、推論装置1,1aは、車両に搭載されている運転支援装置100に備えられ、第1機械学習モデル16に基づいて推論した運転支援情報を出力するか否かを判断するものとしたが、これは一例に過ぎない。実施の形態1および実施の形態2に係る推論装置1,1aは、学習済モデルに基づいて推論される情報の出力制御を行う必要がある種々の装置に適用できる。
なお、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本開示に係る推論装置は、妥当ではない推論結果の出力を防ぐことができるように構成したため、機械学習モデルを用いて推論を行う推論装置に適用することができる。
1,1a 推論装置、11 データ取得部、12 推論部、121 第1推論部、122 第2推論部、13 類似度算出部、14,14a 判断部、141 第1モデル選択部、142 第2モデル選択部、15 出力部、16 第1機械学習モデル、17 第2機械学習モデル、18 代表類似度算出部、19 暫定第2モデル選択部、100 運転支援装置、300 サーバ、1401 処理回路、1402 HDD、1403 入力インタフェース装置、1404 出力インタフェース装置、1405 CPU、1406 メモリ。

Claims (12)

  1. データを取得するデータ取得部と、
    前記データを入力として第1推論結果を出力する第1機械学習モデルに、前記データ取得部が取得したデータを入力して前記第1推論結果を推論する推論部と、
    前記データを入力として第2推論結果を出力する第2機械学習モデルに、前記データ取得部が取得したデータを入力して推論した前記第2推論結果と、前記データ取得部が取得したデータとに基づいて、前記データ取得部が取得したデータと前記第2推論結果との類似度を算出する類似度算出部と、
    前記類似度算出部が算出した類似度と、推論結果判定用閾値とを比較することで、前記第1推論結果を出力するか否かを判断する判断部と、
    前記判断部が前記第1推論結果を出力すると判断した場合、前記第1推論結果を出力する出力部
    とを備えた推論装置。
  2. 前記推論部は、前記判断部が前記第1推論結果を出力するか否かを判断するよりも前に当該第1推論結果を推論し、
    前記判断部は、前記推論部が推論済みの前記第1推論結果を出力するか否かを判断する
    ことを特徴とする請求項1記載の推論装置。
  3. 前記推論部は、前記判断部が前記第1推論結果を出力すると判断すると、前記第1推論結果を推論する
    ことを特徴とする請求項1記載の推論装置。
  4. 前記判断部は、
    前記類似度が前記推論結果判定用閾値より大きい場合、前記第1推論結果を出力すると判断する
    ことを特徴とする請求項1記載の推論装置。
  5. 前記推論結果判定用閾値は、
    前記第1機械学習モデルの検証時に当該第1機械学習モデルに入力した結果、出力された前記第1推論結果が正解であった正解テストデータと、当該正解テストデータを前記第2機械学習モデルに入力して出力された正解推論結果とに基づき算出された、前記正解テストデータと前記正解推論結果との正解データ類似度
    および、
    前記第1機械学習モデルの検証時に当該第1機械学習モデルに入力した結果、出力された前記第1推論結果が不正解であった不正解テストデータと、当該不正解テストデータを前記第2機械学習モデルに入力して出力された不正解推論結果とに基づき算出された、前記不正解テストデータと前記不正解推論結果との不正解データ類似度
    に基づいて設定される
    ことを特徴とする請求項1記載の推論装置。
  6. 前記第2機械学習モデルは、入力とする前記データと前記第2推論結果とが等しくなるように学習を行った機械学習モデルである
    ことを特徴とする請求項1記載の推論装置。
  7. 互いに同じ学習時データに基づいて学習した、対となる前記第1機械学習モデルおよび前記第2機械学習モデル、が複数組存在し、
    前記推論部は、前記第1機械学習モデル毎に前記第1推論結果を推論可能であり、
    前記類似度算出部は、前記第2機械学習モデル毎に前記類似度を算出可能であり、
    前記判断部は、
    前記類似度算出部が算出した前記類似度と、前記推論結果判定用閾値とを比較することで、前記複数の前記第2機械学習モデルのうちから選択第2機械学習モデルを選択する第2モデル選択部と、
    前記複数の前記第1機械学習モデルのうちから、前記第2モデル選択部が選択した前記選択第2機械学習モデルに対応する選択第1機械学習モデルを選択する第1モデル選択部を備え、
    前記推論部が、前記第1モデル選択部が選択した前記選択第1機械学習モデルに基づいて推論する前記第1推論結果を出力するか否かを判断する
    ことを特徴とする請求項1記載の推論装置。
  8. 前記類似度算出部は、全ての前記第2機械学習モデルに対して、前記類似度を算出し、
    前記第2モデル選択部は、前記類似度算出部が全ての前記第2機械学習モデルに対して算出した前記類似度を、それぞれ前記推論結果判定用閾値と比較することで、前記選択第2機械学習モデルを選択する
    ことを特徴とする請求項7記載の推論装置。
  9. 前記データ取得部が取得したデータと、当該データを前記複数の前記第2機械学習モデルのうちの代表第2機械学習モデルに入力して推論した前記第2推論結果との代表類似度を算出する代表類似度算出部と、
    前記代表類似度算出部が算出した前記代表類似度、および、前記複数の前記第1機械学習モデルの学習時に、当該複数の前記第1機械学習モデルの入力とした複数の学習時データと、当該複数の学習時データをそれぞれ前記第2機械学習モデルに入力して推論された前記第2推論結果との学習時データ類似度、に基づいて、前記複数の前記第2機械学習モデルのうちから暫定第2機械学習モデルを選択する暫定第2モデル選択部を備え、
    前記第2モデル選択部は、
    前記類似度算出部が算出した、前記データ取得部が取得したデータと、前記暫定第2機械学習モデルに前記データ取得部が取得したデータを入力して推論された前記第2推論結果との類似度、および、前記推論結果判定用閾値を比較することで、前記選択第2機械学習モデルを選択する
    ことを特徴とする請求項7記載の推論装置。
  10. 請求項1から請求項9のうちのいずれか1項記載の推論装置
    を備えた運転支援装置。
  11. データ取得部が、データを取得するステップと、
    推論部が、前記データを入力として第1推論結果を出力する第1機械学習モデルに、前記データ取得部が取得したデータを入力して前記第1推論結果を推論するステップと、
    類似度算出部が、前記データを入力として第2推論結果を出力する第2機械学習モデルに、前記データ取得部が取得したデータを入力して推論した前記第2推論結果と、前記データ取得部が取得したデータとに基づいて、前記データ取得部が取得したデータと前記第2推論結果との類似度を算出するステップと、
    判断部が、前記類似度算出部が算出した類似度と、推論結果判定用閾値とを比較することで、前記第1推論結果を出力するか否かを判断するステップと、
    出力部が、前記判断部が前記第1推論結果を出力すると判断した場合、前記第1推論結果を出力するステップ
    とを備えた推論方法
  12. データを取得するデータ取得部と、
    前記データを入力として第1推論結果を出力する第1機械学習モデルに、前記データ取得部が取得したデータを入力して前記第1推論結果を推論する推論部と、
    前記データを入力として第2推論結果を出力する第2機械学習モデルに、前記データ取得部が取得したデータを入力して推論した前記第2推論結果と、前記データ取得部が取得したデータとに基づいて、前記データ取得部が取得したデータと前記第2推論結果との類似度を算出する類似度算出部と、
    前記類似度算出部が算出した類似度と、推論結果判定用閾値とを比較することで、前記第1推論結果を出力するか否かを判断する判断部と、
    前記判断部が前記第1推論結果を出力すると判断した場合、前記第1推論結果を外部装置に出力する出力部
    を備えたサーバ。
JP2022502639A 2020-02-26 2020-02-26 推論装置、運転支援装置、推論方法、および、サーバ Active JP7254240B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/007607 WO2021171398A1 (ja) 2020-02-26 2020-02-26 推論装置、運転支援装置、推論方法、および、サーバ

Publications (3)

Publication Number Publication Date
JPWO2021171398A1 JPWO2021171398A1 (ja) 2021-09-02
JPWO2021171398A5 JPWO2021171398A5 (ja) 2022-03-10
JP7254240B2 true JP7254240B2 (ja) 2023-04-07

Family

ID=77490839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022502639A Active JP7254240B2 (ja) 2020-02-26 2020-02-26 推論装置、運転支援装置、推論方法、および、サーバ

Country Status (5)

Country Link
US (1) US20230035526A1 (ja)
JP (1) JP7254240B2 (ja)
CN (1) CN115136161A (ja)
DE (1) DE112020006796T5 (ja)
WO (1) WO2021171398A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024131007A (ja) * 2023-03-15 2024-09-30 オムロン株式会社 移動経路決定システム、自律型移動装置、移動経路決定方法、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170330109A1 (en) 2016-05-16 2017-11-16 Purepredictive, Inc. Predictive drift detection and correction
JP2019049778A (ja) 2017-09-07 2019-03-28 日本電信電話株式会社 検知装置、検知方法及び検知プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4507679B2 (ja) * 2004-04-21 2010-07-21 富士ゼロックス株式会社 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
JP6255944B2 (ja) * 2013-11-27 2018-01-10 株式会社リコー 画像解析装置、画像解析方法及び画像解析プログラム
JP2019087012A (ja) 2017-11-07 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP7021507B2 (ja) * 2017-11-14 2022-02-17 富士通株式会社 特徴抽出装置、特徴抽出プログラム、および特徴抽出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170330109A1 (en) 2016-05-16 2017-11-16 Purepredictive, Inc. Predictive drift detection and correction
JP2019049778A (ja) 2017-09-07 2019-03-28 日本電信電話株式会社 検知装置、検知方法及び検知プログラム

Also Published As

Publication number Publication date
CN115136161A (zh) 2022-09-30
US20230035526A1 (en) 2023-02-02
WO2021171398A1 (ja) 2021-09-02
JPWO2021171398A1 (ja) 2021-09-02
DE112020006796T5 (de) 2022-12-29

Similar Documents

Publication Publication Date Title
CN111488789B (zh) 用于基于图像分析的监视的行人检测方法及装置
US11386298B2 (en) Uncertainty guided semi-supervised neural network training for image classification
US11120305B2 (en) Learning of detection model using loss function
KR20180057300A (ko) 딥 러닝을 이용하여 환자의 진단 이력으로부터 질병 예후를 예측하는 방법 및 시스템
US12039578B2 (en) Methods and systems for automatic processing of images of a damaged vehicle and estimating a repair cost
US20190371025A1 (en) Agent navigation using visual inputs
JP7254240B2 (ja) 推論装置、運転支援装置、推論方法、および、サーバ
KR102352942B1 (ko) 객체 경계정보의 주석을 입력하는 방법 및 장치
EP3869422A1 (en) Model update support method, model update support apparatus, and model update support program
JP2023038178A (ja) ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法、装置およびコンピュータプログラム
IE20210177A2 (en) Machine Learning Techniques For Generating Hybrid Risk Scores
CN114186090A (zh) 一种图像标注数据的智能质检方法及系统
US20240177341A1 (en) Computer-readable recording medium storing object detection program, device, and machine learning model generation method
US20240037388A1 (en) Method of learning neural network, feature selection apparatus, feature selection method, and recording medium
CN111523351A (zh) 神经网络的训练方法、装置和电子设备
US11688175B2 (en) Methods and systems for the automated quality assurance of annotated images
WO2020166278A1 (ja) システム、訓練装置、訓練方法及び予測装置
KR102103727B1 (ko) 스킴―픽셀cnn을 이용한 이미지 자동 생성 방법 및 이미지 자동 생성 장치
US20220157407A1 (en) Information processing device, information processing method, recording medium recording information processing program, and information processing system
JP7233606B2 (ja) 教師データ生成装置、および、教師データ生成方法
US20230334315A1 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
US20230206128A1 (en) Non-transitory computer-readable recording medium, output control method, and information processing device
US20240037389A1 (en) Method of learning neural network, feature selection apparatus, feature selection method, and recording medium
WO2023188160A1 (ja) 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体
US20240005655A1 (en) Learning apparatus, estimation apparatus, learning method, estimation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230328

R150 Certificate of patent or registration of utility model

Ref document number: 7254240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150