JP7386462B2 - 演算装置および学習済みモデル - Google Patents

演算装置および学習済みモデル Download PDF

Info

Publication number
JP7386462B2
JP7386462B2 JP2021555926A JP2021555926A JP7386462B2 JP 7386462 B2 JP7386462 B2 JP 7386462B2 JP 2021555926 A JP2021555926 A JP 2021555926A JP 2021555926 A JP2021555926 A JP 2021555926A JP 7386462 B2 JP7386462 B2 JP 7386462B2
Authority
JP
Japan
Prior art keywords
neural network
input
variance
layer
probability distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021555926A
Other languages
English (en)
Other versions
JPWO2021095361A5 (ja
JPWO2021095361A1 (ja
Inventor
佑樹 前
敬文 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Tokyo Institute of Technology NUC
Original Assignee
Denso Corp
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Tokyo Institute of Technology NUC filed Critical Denso Corp
Publication of JPWO2021095361A1 publication Critical patent/JPWO2021095361A1/ja
Publication of JPWO2021095361A5 publication Critical patent/JPWO2021095361A5/ja
Application granted granted Critical
Publication of JP7386462B2 publication Critical patent/JP7386462B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本開示は、ニューラルネットワークの学習済みモデルを有する演算装置に関する。
関連出願への相互参照
本出願は、2019年11月11日に日本国に出願した特願2019-203988号に基づくものであって、その優先権の利益を主張するものであり、その特許出願のすべての内容が、参照により本明細書に組み入れられる。
近年、ニューラルネットワークの研究が進み、画像認識や音声認識等、ニューラルネットワークを用いた様々なアプリケーションが開発されている。ニューラルネットワークは、脳のしくみをコンピュータ上で表現するために作られた数理的モデルであり、入力層、中間層、出力層から構成され、各層の間は、ニューロン同士のつながりの強さを示す重み係数が規定される。この重み係数は学習によって決定される。
現在、よく用いられるニューラルネットワークでは、ニューロン同士のつながりの重み係数は、学習によって確定的に決定される。このため、ニューラルネットワークによる推論結果は点推定であり、間違った結果であっても確定的に出力してしまうことがあった。
推論結果に確率的な情報を持たせたニューラルネットワークとして、ベイジアンニューラルネットワークが知られている。ベイジアンニューラルネットワークは、ニューロン同士のつながりの重み係数を確率分布で持つことにより、推論結果を確率的に求めることができる。ベイジアンニューラルネットワークは、ベイズ深層学習の近似方法の一つであるモンテカルロドロップアウト(Monte Carlo Dropout)を用いることで予測分布を求めることができる。
また、複数のニューラルネットワークモデルの推論結果を総合するモデルアンサンブルという手法も知られている(特許文献1)。複数のニューラルネットワークモデルの結果を総合することは、推論結果を確率的に求めることとほぼ同じであり、この方法によっても推論結果の信頼性を高めることができる。
特開2019-114230号公報
J. Postels, F. Ferroni, H. Coskun, N. Navab and F. Tombari、「Sampling-Free Epistemic Uncertainty Estimation Using Approximated Variance Propagation」 The IEEE International Conference on Computer Vision (ICCV) (2019).
上記したベイジアンニューラルネットワークは、通常のニューラルネットワークに比べて計算負荷が非常に大きい。モンテカルロドロップアウトは、モンテカルロ法によるサンプリングを数十回から数百回行う必要があり、計算負荷が非常に大きい。また、特許文献1に記載した方法も、複数のニューラルネットワークの計算を行うので、その個数分だけ計算時間とメモリ容量が必要である。研究目的ではそのような計算を行うことはできても、例えば、自動運転車両のように高速で判断を行うことが必要なエッジ機器に適用することは困難である。
複数回のサンプリングを行わずに一回のフィードフォワードで、ベイジアンニューラルネットワークの予測分布を得る方法として、一次のテイラー展開で各層の関数を近似して、その関数の期待値と分散の解析解を伝播する方法が提案されている(非特許文献1)。一次のテイラー展開で各層の関数を近似してその関数の期待値と分散の解析解を伝播すれば、ガウス分布とみなした予測分布が一回のフィードフォワードで高速に得られる。期待値と分散の伝播により高速に不確実性を得られるようになるものの、一次のテイラー展開による近似のために、非活性化関数の期待値に入力の分散が反映されないという問題や、関数の期待値や分散の近似精度が低いという問題があった。
本開示は、上記背景に鑑み、省メモリかつ高速に、確率的な推論を行うことができるニューラルネットワークモデルを備えた演算装置を提供する。
本開示は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲に記載した括弧内の符号は、ひとつの態様として後述する実施の形態に記載の具体的手段との対応関係を示す一例であって、本開示の技術的範囲を限定するものではない。
本開示の演算装置は、重み係数が確率分布によって規定され、出力値の確率分布の平均と分散を後段に伝播させる確率層を含む、学習済みのニューラルネットワークモデルを記憶した記憶部と、データを入力する入力部と、前記ニューラルネットワークモデルによる推論により、前記入力部にて入力されたデータを分析する推論部と、前記推論部による分析結果を出力する出力部とを備える。
本開示の学習済みモデルは、入力されたデータを分析するようにコンピュータを機能させるためのニューラルネットワークの学習済みモデルであって、重み係数が確率分布によって規定され、出力値の確率分布の平均と分散を後段に伝播させる確率層を含む、ニューラルネットワークモデルにより構成され、入力されたデータを前記ニューラルネットワークモデルに適用したときに、出力層に伝播された出力値の確率分布の平均と分散に基づいて、入力されたデータを分析する構成を有する。
本開示の構成により、省メモリかつ高速に、確率的な推論を行うことができる。
図1は、実施の形態の演算装置の構成を示す図である。 図2は、ニューラルネットワークモデルの一例を示す図である。 図3は、図2に示すニューラルネットワークモデルの変換前のニューラルネットワークモデルである。 図4は、全結合、ドロップアウト、ReLU、Sigmoidの処理において、期待値と分散を伝播する計算式を示す図である。 図5は、学習器が全結合の場合の分散モードと上界モードの期待値および分散の計算式を示す図である。 図6Aは、本実施の形態のニューラルネットワークモデルの構成を示す図である。 図6Bは、ニューラルネットワークモデルの出力yの計算式である。 図7Aは、期待値μと分散σを求める計算式である。 図7Bは、回帰分析結果である期待値μと分散σを用いて、2クラス分類を行ったときの期待値と分散の計算式を示す図である。 図8Aは、出力が多次元のニューラルネットワークモデルの構成を示す図である。 図8Bは、出力が多次元のニューラルネットワークモデルの出力yの計算式である。 図9Aは、期待値μと分散σを求める計算式である。 図9Bは、回帰分析結果である期待値μと分散σを用いて、多クラス分類を行ったときの期待値と分散の計算式を示す図である。 図10は、本実施の形態の演算装置の適用例を示す図である。
以下、本開示の実施の形態の演算装置について、図面を参照して説明する。
(第1の実施の形態)
図1は、本実施の形態の演算装置1の構成を示す図である。演算装置1は、入力部10と、推論部11と、記憶部12と、出力部13とを有している。入力部10は、分析対象となるデータの入力を受け付ける機能を有する。分析対象のデータは、例えば、画像データ、音声データ、テキストデータ等であるが、これらに限定されるものではない。入力部10のハードウェアは、例えば、カメラやマイク等の他のセンサ類からのデータの入力を受け付ける通信インターフェースである。
記憶部12は、学習済みのニューラルネットワークモデルを記憶している。推論部11は、記憶部12に記憶された学習済みモデルを読み出し、入力部10から入力されたデータを学習済みモデルに適用して推論を行う。推論部11のハードウェアは、CPU、RAM等の装置である。
本実施の形態の演算装置1は、回帰分析、分類のいずれにも適用することができる。出力部13は、推論部11による分析結果を出力する機能を有する。出力部13のハードウェアは、例えば、推論結果にかかるデータを他のアプリケーションに送信する通信インターフェースである。
図2は、記憶部12に記憶されたニューラルネットワークモデルの一例を示す図である。図において上が入力層L1であり、上から畳込層L2、畳込層L3、マックスプーリング層L4、ドロップアウト層L5、Flatten層L6、全結合層L7、ドロップアウト層L8、全結合層L9を有し、期待値と分散が出力される(L10)。この構造において、ドロップアウト層L5で分散を発生させ、その後、期待値と分散を伝播している。
本実施の形態では、分散を伝播する層を2入力2出力というインターフェースで実装している。このため、分散を発生させるドロップアウト層L5が入力として分散を受け取れるように、分散0を発生させる層Lv0を含んでいる。ドロップアウト層L5以降は、前の層から出力される期待値μと分散σの2つを入力として受け取って、図4のBNNの欄に示した計算式を用いて期待値μと分散σを出力する。なお、図2に示すニューラルネットワークモデルは、図3に示すニューラルネットワークモデルを、期待値と分散を伝播できるように変換したものである。
図4は、全結合、ドロップアウト、ReLU、Sigmoidの処理において、期待値としてμのハットを、分散としてσのハットの2乗を出力する計算式を示す図である。最初に、図4で用いられている記号について説明する。
x: 層の入力 (1入力1出力である通常のNNの層の入力)
y: 層の出力 (1入力1出力である通常のNNの層の出力)
μ: xの期待値
σの2乗: xの分散
μのハット: yの期待値
σのハットの2乗: yの分散
図4では、1入力1出力の通常のニューラルネットワーク(NN)の計算式を並べて記載している。全結合層のようなアフィン層では、入力を確率変数と捉えて、期待値と分散の解析解を計算する。これに対し、ドロップアウトやReLU、Sigmoid等のような非線形層では、ガウス近似等の近似ベイズ推論を行う。このように各層を非線形関数のまま積分することで、高速かつ高精度に予測分布を得ることができる。なお、図4では、ニューラルネットワークで用いられる層の一部を取り上げて説明したが、例えば、BatchNormalization層やtanh層の他の層についても、アフィン層であれば解析解を計算する方法、非線形層であれば近似ベイズ推論を行うことで、上記と同様に、期待値と分散を求めることができる。
本実施の形態の演算装置は、分散を伝播させる2つのモードを有している。第1のモードは、入力される値が独立であると仮定して出力する分散を計算する独立分散伝播のモード(以下、「独立モード」という)であり、第2のモードは、入力される値が非独立であると仮定して出力する分散を計算する上界分散伝播のモード(以下、「上界モード」という)である。
図5は、学習器が全結合の場合の独立モードと上界モードの期待値および分散の計算式を示す図である。基本的には、入力値が独立であると仮定して独立モードで計算を行う。したがって、独立モードでの期待値及び分散の計算式は、図4で示した計算式と同じである。上界モードの場合には、分散と重みの積を合計した値を2乗しているので、独立モードよりも分散が大きくなる。
独立性の仮定が正しくないときに独立分散伝播を行うと分散が過小評価されて自信過剰になってしまうので、独立性の仮定が正しくないときには、上界モードで計算することで、自信過剰になるのを防げる。独立性の仮定が正しいときに上界分散伝播を行うと、分散が過大評価されて自信不足になってしまうが、独立分散伝播だと自信不足になるのを防げる。このように、独立モードと上界モードは異なる特徴を有する。
安全性を重視するアプリケーションでは、自信過剰になることを防ぐことが望ましいため上界モードが有用であり、安全性をそれほど重視しないアプリケーションでは、独立モードが有用である。演算装置は、アプリケーションによって、分散伝播のモードを切り換えることとしてもよい。
(第2の実施の形態)
第2の実施の形態の演算装置の基本的な構成は、第1の実施の形態の演算装置1(図1参照)と同じである。第2の実施の形態の演算装置は、記憶部12に記憶されたニューラルネットワークモデルの構成が第1の実施の形態とは異なる。第2の実施の形態においては、ニューラルネットワークに含まれる確率層を1層だけとすることにより、計算負荷を低減させる。
図6Aは、記憶部12に記憶されたニューラルネットワークモデルの構成を示す図である。ニューラルネットワークモデルは、入力層と、中間層と、出力層とを有している。図6Aに示す例では、中間層として3つの層を有しているが、中間層の数は3層に限らず、4層以上であってもよいし、2層または1層でもよい。
本実施の形態のニューラルネットワークモデルは、3つの中間層のうち出力層に近い方の層が重み係数を確率論的(stochastic)に有する確率層を構成している。確率層は、ベルヌーイ分布と重み係数を組み合わせることで、重み係数を確率論的に規定している。ニューラルネットワークモデルの他の層は、重み係数を決定論的(deterministic)に規定している。
次に、このニューラルネットワークモデルを用いた推論について説明する。推論部11は、入力部10にて入力された分析対象のデータを入力層に入力し、ニューラルネットワークモデルの重み係数にしたがって計算を行う。本実施の形態の推論部11は、出力層に現れる値ではなく、確率層に現れる値を用いて、入力されたデータの分析を行う。
図6Bは、図6Aに示すニューラルネットワークモデルの出力値yの計算式である。図6Bに示すように、確率層に現れた値zに、ベルヌーイ分布から定まるdと重み係数wを乗じた値の総和に、重みwを加えた値がニューラルネットワークモデルの出力として求められる。ここは、重みwは、切片を意味するバイアス項である。本実施の形態では、所与の確率分布としてベルヌーイ分布を与えているが、所与の確率分布はベルヌーイ分布に限られず、例えば、ガウス分布等の別の確率分布を用いてもよい。
図7Aは、推論部11にて求める期待値と分散を示す計算式を示す図である。期待値μは、確率層に現れた値zに、ベルヌーイ分布から定まるdと重み係数wを乗じた値の総和に、重みwを加えた値である。本実施の形態の推論部11は、確率分布pを用いて求められる分散σを不確実性を示す指標として求める。図7Aに示しているのは、分析対象のデータの回帰分析の結果であるが、図7Bは回帰分析結果である期待値μと分散σを用いて、2クラス分類を行ったときの期待値と分散の計算式を示す図である。分散σが小さいほど、期待値μの信頼性が高い。これらの計算式を用いて計算を行うことで、推論部11は、クラス分類を行うことができる。
上記した図6A、図6B及び図7A、図7Bでは、出力yが1次元の場合について記載をしているが、出力yが多次元の場合には、図8A、図8B及び図9A、図9Bのようになる。すなわち、図8Aは出力が多次元のニューラルネットワークモデルの構成を示す図、図8Bは出力が多次元のニューラルネットワークモデルの出力yの計算式である。図9Aは、出力が多次元の場合の期待値μと分散σを求める計算式、図9Bは回帰分析結果である期待値μと分散σを用いて、多クラス分類を行ったときの期待値と分散の計算式を示す図である。
次に、図6Aに示すニューラルネットワークモデルの生成方法について説明をする。ニューラルネットワークモデルの学習は、教師データを用いて行う。入力部10にデータを入力して得られた推論結果と正解ラベルとの誤差を求め、誤差が最小となるように誤差逆伝播法により、ニューラルネットワークモデルの重み係数を更新していく。この際に、確率層を構成する確率分布は所与であるので更新せず、重み係数を更新することで確率層を更新する。このように、学習を行う際には、出力層に現れる値を用いて学習を行う。
以上、本実施の形態の演算装置1の構成について説明したが、上記に説明した学習済みモデルも本開示の範囲に含まれる。なお、本実施の形態では、出力層に最も近い位置に確率層を配置した例を挙げたが、確率層の配置は、出力層に最も近い位置でなくてもよい。ただし、その場合も、ニューラルネットワークモデルの中で確率層は1層である。このように、確率層を1層とすることにより、図7Aで示した計算が可能となる。なお、上記した実施の形態では、確率層を、所与の確率分布と重み係数の組合せで構成する例をあげたが、学習によって確率分布自体を更新することとしてもよい。
(適用例)
図10は、第1の実施の形態及び第2の実施の形態の演算装置の適用例を示す図である。図10に示す例では、自動運転車両のECU2(Engine Control Unit)が演算装置1に該当する。ECU2は、図1で示す演算装置1と同じ構成を有する。ECU2は、自動運転車両のカメラ20で撮影された映像の入力を受け、映像に映る物体をクラス(例えば、トラック、乗用車、バイク、人等)に分類すると共に、分類されたクラスの信頼性を推論する。そして、ECU2は、推論された結果を自動運転車両の車両制御部21に送信する。車両制御部21は、ECU2から送信されたデータに基づいて、車両を制御する。
すなわち、演算装置は、車両に搭載されたカメラで撮影した映像に基づいて物体を検出する装置であって、重み係数が確率分布によって規定され、出力ベクトルの確率分布の平均と分散を後段に伝播させる確率層を含む、学習済みのニューラルネットワークモデルを記憶した記憶部と、自動運転車両のカメラで撮影された映像を入力する入力部と、ニューラルネットワークモデルによる推論により、映像に映る物体をクラスに分類すると共にその信頼性を推論する推論部と、推論部にて推論した物体のクラスと信頼性のデータとを車両制御部に対して出力する出力部とを備える。車両制御部は、演算装置から受信したデータに基づいて、自動運転車両の制御を行う。車両制御部は、信頼性のデータも受信するので、例えば、推論結果の信頼性が低い場合には、推論結果を利用した制御を行いつつ、車速を落とす等の制御を行うことができる。
また、演算装置は、車両に搭載されたカメラで撮影した映像に基づいて物体を検出する装置であって、重み係数が確率分布によって規定され、出力ベクトルの確率分布の平均と分散を後段に伝播させる確率層を含む、学習済みのニューラルネットワークモデルを記憶した記憶部と、自動運転車両のカメラで撮影された映像を入力する入力部と、ニューラルネットワークモデルによる推論により、映像内の各画素に対する距離を推定してデプス画像を生成すると共にその信頼性を推論する推論部と、推論部にて推論したデプス画像と信頼性のデータとを車両制御部に対して出力する出力部とを備えてもよい。車両制御部は、演算装置から受信したデータに基づいて、自動運転車両の制御を行う。
自動運転車両はセーフティクリティカルな自律システムであるので、データの分析結果の信頼性の情報を提供することが有用である。また、自動運転車両では、事故を回避するために、瞬時に状況を認知する必要があるので、時間のかかる処理を行うことができない。本実施の形態のECU2は、省メモリかつ高速に、確率的な推論を行うことができるので、自動運転車両の制御に好適に用いることができる。
(他の用途)
本実施の形態の演算装置1は、自動運転車両の制御以外にも適用することができる。例えば、医療の分野では、内視鏡を用いた検査において腫瘍を見つけた場合に、その場で良性か悪性か等の判断をしなければならない場面が考えられるが、内視鏡の映像から対象物を良性/悪性の2クラス分類するとともにその信頼性の指標を求めたり、腫瘍の種類を多クラス分類するとともにその信頼性の指標を求めることとしてもよい。
また、セキュリティの分野において、人物の認証を行うときに、顔の画像から、その人が真正な権限を有する人かどうかを認証すると共に、その信頼性の指標を求めてもよい。あるいは、メールのテキストを入力し、メールがスパムメールか否かを分類するとともに、その信頼性の指標を求めてもよい。
以上のように、本開示の演算装置は、様々な場面に適用することができる。上述したとおり、本開示は、省メモリのエッジ機器の上で推論を実行する際に、特に有用である。

Claims (8)

  1. 学習済みのニューラルネットワークモデルの中間層のうちの一つの層として、重み係数が確率分布によって規定され、確率分布で表される値の平均と分散を計算して後段に伝播させる確率層を含む、学習済みのニューラルネットワークモデルを記憶した記憶部(12)と、
    データを入力する入力部(10)と、
    前記ニューラルネットワークモデルによる推論により、前記入力部にて入力されたデータを分析する推論部(11)と、
    前記推論部による分析結果を出力する出力部(13)と、
    を備える演算装置(1)。
  2. 確率分布の平均と分散が入力される層では、前層から入力される値が独立であると仮定して後段に伝播させる分散を計算する第1のモードと、前層から入力される値が非独立であると仮定して後段に伝播させる分散を計算する第2のモードとを備える請求項1に記載の演算装置。
  3. 学習済みのニューラルネットワークモデルを記憶した記憶部(12)と、
    データを入力する入力部(10)と、
    前記ニューラルネットワークモデルによる推論により、前記入力部にて入力されたデータを分析する推論部(11)と、
    前記推論部による分析結果を出力する出力部(13)と、
    を備え、
    前記ニューラルネットワークモデルは、所与の確率分布と学習によって設定された重み係数の組み合わせによって構成され、重み係数が確率分布によって規定され、確率分布で表される値の平均と分散を計算して後段に伝播させる1つの確率層を含むとともに、その他の層は重み係数を確定値で規定しており、
    前記推論部は、前記入力部にて入力されたデータを前記ニューラルネットワークモデルに適用したときに、前記確率層に現れた値と前記重み係数の確率分布とに基づいて、入力されたデータの分析を行う演算装置(1)。
  4. 前記確率層は、出力層に最も近い位置に配置されている請求項3に記載の演算装置。
  5. 前記入力部は、画像データ、音声データまたはテキストデータを入力し、
    前記推論部は、前記画像データ、音声データまたはテキストデータを複数のクラスに分類すると共に、そのクラスに分類される信頼性を求める請求項1から4のいずれか1項に記載の演算装置。
  6. 前記入力部は、自動運転車両のカメラ(20)で撮影された映像を入力し、
    前記推論部は前記映像に映る物体をクラスに分類すると共にその信頼性を推論し、
    前記出力部は、物体のクラスと信頼性のデータとを車両制御部(21)に対して出力する請求項1から4のいずれか1項に記載の演算装置(2)。
  7. 入力されたデータを分析するようにコンピュータを機能させるためのニューラルネットワークの学習済みモデルであって、
    学習済のニューラルネットワークモデルの中間層のうちの一つの層として、重み係数が確率分布によって規定され、確率分布で表される値の平均と分散を後段に伝播させる確率層を含む、ニューラルネットワークモデルにより構成され、
    入力されたデータを前記ニューラルネットワークモデルに適用したときに、前記確率層は確率分布で表される値の平均と分散を計算し、出力層に伝播された確率分布で表される値の平均と分散に基づいて、入力されたデータを分析するよう、コンピュータを機能させる学習済みモデル。
  8. 入力されたデータを分析するようにコンピュータを機能させるためのニューラルネットワークの学習済みモデルであって、
    所与の確率分布と学習によって設定された重み係数の組み合わせによって構成され、重み係数が確率分布によって規定され、確率分布で表される値の平均と分散を計算する1つの確率層を含むとともに、その他の層は重み係数を確定値で規定したニューラルネットワークモデルにより構成され、
    入力されたデータを前記ニューラルネットワークモデルに適用したときに、前記確率層に現れた値と前記重み係数の確率分布とに基づいて、入力されたデータの分析するよう、コンピュータを機能させる学習済みモデル。
JP2021555926A 2019-11-11 2020-09-17 演算装置および学習済みモデル Active JP7386462B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019203988 2019-11-11
JP2019203988 2019-11-11
PCT/JP2020/035254 WO2021095361A1 (ja) 2019-11-11 2020-09-17 演算装置および学習済みモデル

Publications (3)

Publication Number Publication Date
JPWO2021095361A1 JPWO2021095361A1 (ja) 2021-05-20
JPWO2021095361A5 JPWO2021095361A5 (ja) 2022-07-07
JP7386462B2 true JP7386462B2 (ja) 2023-11-27

Family

ID=75912167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555926A Active JP7386462B2 (ja) 2019-11-11 2020-09-17 演算装置および学習済みモデル

Country Status (2)

Country Link
JP (1) JP7386462B2 (ja)
WO (1) WO2021095361A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7457752B2 (ja) 2022-06-15 2024-03-28 株式会社安川電機 データ分析システム、データ分析方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3551967A2 (en) * 2016-12-09 2019-10-16 TomTom Global Content B.V. Method and system for video-based positioning and mapping

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEN, Honglin, et al.,"Probabilistic Wind Power Forecasting via Bayesian Deep Learning Based Prediction Intervals",Proceedings of the 2019 IEEE 17th International Conference on Industrial Informatics (INDIN),2019年07月25日,Pages 1091-1096,ISBN: 978-1-7281-2927-3, <DOI: 10.1109/INDIN41052.2019.8972125>.

Also Published As

Publication number Publication date
WO2021095361A1 (ja) 2021-05-20
JPWO2021095361A1 (ja) 2021-05-20

Similar Documents

Publication Publication Date Title
US11386307B2 (en) Machine vision system
Mazoure et al. Leveraging exploration in off-policy algorithms via normalizing flows
KR20230021043A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
JP6742554B1 (ja) 情報処理装置およびそれを備えた電子機器
Arnelid et al. Recurrent conditional generative adversarial networks for autonomous driving sensor modelling
KR102306658B1 (ko) 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치
KR20070075050A (ko) 분류기 통합을 위한 스코어 합성 방법 및 장치
JP7295338B2 (ja) 証明可能ロバストな深層生成モデルを用いたシステム及び方法
Jain et al. An automated hyperparameter tuned deep learning model enabled facial emotion recognition for autonomous vehicle drivers
US20230419075A1 (en) Automated Variational Inference using Stochastic Models with Irregular Beliefs
Zec et al. Recurrent conditional gans for time series sensor modelling
JP7386462B2 (ja) 演算装置および学習済みモデル
US11062141B2 (en) Methods and apparatuses for future trajectory forecast
Marino et al. Improving sequential latent variable models with autoregressive flows
CN111639591A (zh) 轨迹预测模型生成方法、装置、可读存储介质及电子设备
KR101456554B1 (ko) 클래스 확률 출력망에 기초한 불확실성 측도를 이용한 능동학습기능이 구비된 인공인지시스템 및 그 능동학습방법
CN114817933A (zh) 评估业务预测模型鲁棒性的方法、装置及计算设备
JP2021021978A (ja) 情報処理装置及びプログラム
CN110084143B (zh) 一种用于人脸识别的情绪信息保护方法及系统
JP2021018477A (ja) 情報処理装置、情報処理方法、及びプログラム
Al-Falouji et al. A heuristic for an online applicability of anomaly detection techniques
Knuth et al. Inferring obstacles and path validity from visibility-constrained demonstrations
EP1418539A2 (en) Physics based neural network
US11961275B2 (en) Device and method for training a normalizing flow
Ahmed et al. Drivers’ Drowsiness Detection System Enhancement Using Deep Learning: CNN-based Approach

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7386462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150