JP2023501198A - 証明可能ロバストな深層生成モデルを用いたシステム及び方法 - Google Patents
証明可能ロバストな深層生成モデルを用いたシステム及び方法 Download PDFInfo
- Publication number
- JP2023501198A JP2023501198A JP2022525134A JP2022525134A JP2023501198A JP 2023501198 A JP2023501198 A JP 2023501198A JP 2022525134 A JP2022525134 A JP 2022525134A JP 2022525134 A JP2022525134 A JP 2022525134A JP 2023501198 A JP2023501198 A JP 2023501198A
- Authority
- JP
- Japan
- Prior art keywords
- data
- bounding
- network
- generating
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 72
- 238000010801 machine learning Methods 0.000 claims abstract description 69
- 230000001902 propagating effect Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 81
- 238000009826 distribution Methods 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims 1
- 238000012795 verification Methods 0.000 claims 1
- 238000010200 validation analysis Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 17
- 230000009021 linear effect Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 8
- 230000002950 deficient Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000007123 defense Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
一般に、深層ニューラルネットワークのような機械学習システムは、敵対的攻撃の影響を受け易い。一例として、機械学習システムはその入力を介して攻撃される可能性がある。かかる敵対的攻撃には入力に対する摂動が含まれ、これによって、機械学習システムの出力に変化が引き起こされる。例えば、敵対的攻撃がセンサデータに関係する場合には、センサデータに対する摂動により、機械学習システムは、例えば、誤った出力データを供給することによって、望ましくない挙動を示すおそれがあり、それにより、不利な結果及び作用が引き起こされる。分類という状況において、及び、それよりも少数ではあるが、物体検出又はイメージセグメンテーションといった他の教師あり学習という状況において、敵対的攻撃に関係する研究がいくつか存在する一方、敵対的攻撃に対する防御ソリューションを備えた生成モデルを提供することに関しては、多くの研究が存在しているようには思われない。
以下は、後で詳細に説明する特定の実施形態の概要である。説明される態様は、これらの特定の実施形態の簡単な概要を読み手に提供するために提示されるものに過ぎず、これらの態様の説明は、本開示の範囲を限定することを意図したものではない。実際に、本開示は、以下において明示的には記載されないことがある種々の態様を包含し得るものである。
例示として図示され説明された本明細書に記載の実施形態及びそれらの実施形態の利点の多くは、これまでの説明によって理解されるであろうし、開示された保護対象から逸脱することなく又はその利点の1つ若しくは複数を犠牲にすることなく、構成要素の形態、構造及び配置について種々の変更をなし得る、ということが明確になるであろう。実際にこれらの実施形態の記載された形態は、説明のためのものであるに過ぎない。これらの実施形態について種々の変形及び代替形態を受け容れる余地があり、本明細書に続く特許請求の範囲は、かかる変更を網羅し包含するものであり、開示された特定の形態に限定されるものではなく、むしろ、本開示の着想及び範囲に合致するあらゆる変形、等価物及び代替を包含することが意図されている。
Claims (20)
- 摂動に対してロバストであるように機械学習システムをトレーニングするためのコンピュータ実装による方法であって、
センサデータと許容可能摂動のlpノルム球体の半径とを含む入力データを取得するステップと、
前記入力データに基づいて入力バウンディングデータを生成するステップと、
前記入力バウンディングデータをエンコーダネットワークの第1の出力に伝播させることにより、第1のバウンディングデータを生成するステップと、
前記入力バウンディングデータを前記エンコーダネットワークの第2の出力に伝播させることにより、第2のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ及び前記第2のバウンディングデータに基づき、潜在変数に関連づけられた第3のバウンディングデータを生成するステップと、
前記第3のバウンディングデータをデコーダネットワークの出力に伝播させることにより、第4のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ、前記第2のバウンディングデータ、前記第3のバウンディングデータ及び前記第4のバウンディングデータに基づき、エビデンス下限(ELBO)の下限を生成することによって、前記入力データに関してロバストネス認証を確立するステップと、
前記エンコーダネットワーク及び前記デコーダネットワークを含む前記機械学習システムが、前記許容可能摂動に対する防御に関してロバストであるように、前記ロバストネス認証に基づき前記エンコーダネットワーク及び前記デコーダネットワークを更新するステップと
を含む、
機械学習システムをトレーニングするためのコンピュータ実装による方法。 - 前記ELBOは、条件付き対数尤度関数を含み、
前記エンコーダネットワーク及び前記デコーダネットワークを更新する前記ステップは、前記ELBOの前記下限を最適化するステップを含む、
請求項1に記載のコンピュータ実装による方法。 - 前記エンコーダネットワーク及び前記デコーダネットワークを更新する前記ステップは、前記ELBOの前記下限を最大化するために、前記ELBOの前記下限に基づき前記エンコーダネットワーク及び前記デコーダネットワークのパラメータを更新するステップを含む、
請求項1に記載のコンピュータ実装による方法。 - 前記機械学習システムは、前記エンコーダネットワーク及び前記デコーダネットワークを含む変分オートエンコーダを含み、
前記潜在変数は、前記変分オートエンコーダに関連づけられている、
請求項1に記載のコンピュータ実装による方法。 - 前記エンコーダネットワークは、前記エンコーダネットワークの前記第1の出力を生成するための第1の符号化構成要素と、前記エンコーダネットワークの前記第2の出力を生成するための第2の符号化構成要素とを含み、
前記第1のバウンディングデータを生成する前記ステップは、前記第1の符号化構成要素の第1の上限データ及び第1の下限データを生成するステップを含み、
前記第2のバウンディングデータを生成するステップは、前記第2の符号化構成要素の第2の上限データ及び第2の下限データを生成するステップを含む、
請求項1に記載のコンピュータ実装による方法。 - 前記ロバストネス認証は、||δ||∞≦εtrainを満たす全てのδについて、log p(x+δ)≧L(x+δ)≧L(x)を保証するために、前記ELBOの前記下限を生成し、ここで、
xは、前記センサデータを表し、
δは、摂動データを表し、
L(x+δ)は、前記摂動データによって摂動された前記センサデータに基づく前記ELBOを表し、
L(x)は、前記ELBOの前記下限を表し、
εtrainは、前記許容可能摂動のlpノルム球体の半径を表す、
請求項1に記載のコンピュータ実装による方法。 - 前記入力バウンディングデータは、前記入力データの上限データ及び下限データを含み、
前記第1のバウンディングデータは、前記エンコーダネットワークの第1の符号化構成要素の第1の出力の第1の上限データ及び第1の下限データを含み、
前記第2のバウンディングデータは、前記エンコーダネットワークの第2の符号化構成要素の第2の出力の第2の上限データ及び第2の下限データを含み、
前記第3のバウンディングデータは、前記潜在変数に関連づけられた第3の上限データ及び第3の下限データを含み、
前記第4のバウンディングデータは、前記デコーダネットワークの出力の第4の上限データ及び第4の下限データを含む、
請求項1に記載のコンピュータ実装による方法。 - アクチュエータと、
少なくとも1つのセンサを含むセンサシステムと、
機械学習システムを格納している非一時的コンピュータ可読媒体と、
前記センサシステム及び前記機械学習システムとの通信に基づき前記アクチュエータを制御する制御システムと
を含むシステムであって、
前記機械学習システムは、当該機械学習システムの損失関数の下限を設定するロバストネス認証に基づきトレーニングされたエンコーダネットワーク及びデコーダネットワークを有し、
前記制御システムは、少なくとも1つの電子プロセッサを含み、当該少なくとも1つの電子プロセッサは、以下のように動作可能であり、即ち、
前記センサシステムからのセンサデータと摂動からの摂動データとを含む入力データを取得し、前記センサデータは、前記摂動データによって摂動され、
前記機械学習システムを介して前記入力データを処理し、
前記機械学習システムを介して出力データを生成し、前記出力データは、前記センサデータの再構成体であり、前記出力データは、前記摂動データによって摂動されてない尤度に関連している、
ように動作可能であり、
ここで、
前記センサデータ及び前記出力データは、前記機械学習システムに関連したモデル分布に対応する分布内データであり、
前記機械学習システムは、たとえ前記摂動データが、前記入力データを前記モデル分布から外れた分布外データであると前記機械学習システムに識別させて処理させるように構成されていたとしても、前記入力データを前記分布内データの範囲内にあるものとして識別して処理する、
システム。 - 前記制御システムは、前記出力データの分類に応じて分類データを生成するように動作可能であり、
前記制御システムは、前記分類データに基づいて前記アクチュエータに対する制御データを生成するように動作可能であり、
前記アクチュエータは、前記制御データに応答してアクションを実行する、
請求項8に記載のシステム。 - 前記機械学習システムは、変分オートエンコーダを含み、前記変分オートエンコーダは、摂動に対してロバストであるようにトレーニングされており、前記エンコーダネットワーク及び前記デコーダネットワークを含む、
請求項8に記載のシステム。 - 前記制御システムと通信する前に、前記変分オートエンコーダは、以下のステップを含むトレーニングプロセスによりトレーニングされる、即ち、
他のセンサデータと許容可能摂動のlpノルム球体の半径とを含むトレーニングデータに基づき、入力バウンディングデータを生成するステップと、
前記入力バウンディングデータをエンコーダネットワークの第1の出力に伝播させることにより、第1のバウンディングデータを生成するステップと、
前記入力バウンディングデータを前記エンコーダネットワークの第2の出力に伝播させることにより、第2のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ及び前記第2のバウンディングデータに基づき、潜在変数に関連づけられた第3のバウンディングデータを生成するステップと、
前記第3のバウンディングデータを前記デコーダネットワークの出力に伝播させることにより、第4のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ、前記第2のバウンディングデータ、前記第3のバウンディングデータ及び前記第4のバウンディングデータに基づき、エビデンス下限(ELBO)の下限を生成することによって、前記トレーニングデータに関してロバストネス認証を確立するステップと、
前記機械学習システムが、前記許容可能摂動に対する防御に関してロバストであるように、前記ロバストネス認証に基づき前記エンコーダネットワーク及び前記デコーダネットワークを更新するステップと
を含むトレーニングプロセスによりトレーニングされる、
請求項10に記載のシステム。 - 前記機械学習システムは、以下のようにトレーニングされる、即ち、
前記エンコーダネットワーク及び前記デコーダネットワークを更新する前記ステップが、前記ELBOの前記下限を最大化するために、前記ELBOの前記下限に基づき前記エンコーダネットワーク及び前記デコーダネットワークのパラメータを更新するステップを含む
ようにトレーニングされる、
請求項11に記載のシステム。 - 前記機械学習システムは、以下のようにトレーニングされる、即ち
前記ロバストネス認証が、||δ||∞≦εtrainを満たす全てのδについて、log p(x+δ)≧L(x+δ)≧L(x)を保証するために、前記ELBOの前記下限を生成し、ここで、
xは、前記センサデータを表し、
δは、摂動データを表し、
L(x+δ)は、前記摂動データによって摂動された前記センサデータに基づく前記ELBOを表し、
L(x)は、前記ELBOの前記下限を表し、
εtrainは、許容可能摂動のlpノルム球体の半径を表す
ようにトレーニングされる、
請求項11に記載のシステム。 - 前記入力バウンディングデータは、前記トレーニングデータの上限データ及び下限データを含み、
前記第1のバウンディングデータは、前記エンコーダネットワークの第1の符号化構成要素の出力の第1の上限データ及び第1の下限データを含み、
前記第2のバウンディングデータは、前記エンコーダネットワークの第2の符号化構成要素の出力の第2の上限データ及び第2の下限データを含み、
前記第3のバウンディングデータは、前記潜在変数に関連づけられた第3の上限データ及び第3の下限データを含み、
前記第4のバウンディングデータは、前記デコーダネットワークの出力の第4の上限データ及び第4の下限データを含む、
請求項11に記載のシステム。 - 少なくともコンピュータ可読データを含む非一時的コンピュータ可読媒体であって、前記コンピュータ可読データは、電子プロセッサによって実行されるときに、摂動に対してロバストであるように機械学習システムをトレーニングするための方法を実施するために実行可能であり、当該方法は、以下のステップを含む、即ち、
センサデータと許容可能摂動のlpノルム球体の半径とを含む入力データを取得するステップと、
前記入力データに基づいて入力バウンディングデータを生成するステップと、
前記入力バウンディングデータをエンコーダネットワークの第1の出力に伝播させることにより、第1のバウンディングデータを生成するステップと、
前記入力バウンディングデータを前記エンコーダネットワークの第2の出力に伝播させることにより、第2のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ及び前記第2のバウンディングデータに基づき、潜在変数に関連づけられた第3のバウンディングデータを生成するステップと、
前記第3のバウンディングデータをデコーダネットワークの出力に伝播させることにより、第4のバウンディングデータを生成するステップと、
前記第1のバウンディングデータ、前記第2のバウンディングデータ、前記第3のバウンディングデータ及び前記第4のバウンディングデータに基づき、エビデンス下限(ELBO)の下限を生成することによって、前記入力データに関してロバストネス認証を確立するステップと、
前記エンコーダネットワーク及び前記デコーダネットワークを含む前記機械学習システムが、前記許容可能摂動に対する防御に関してロバストであるように、前記ロバストネス認証に基づき前記エンコーダネットワーク及び前記デコーダネットワークを更新するステップと
を含む、
非一時的コンピュータ可読媒体。 - 前記ELBOは、条件付き対数尤度関数を含み、
前記エンコーダネットワーク及び前記デコーダネットワークを更新する前記ステップは、前記ELBOの前記下限を最適化するステップを含む。
請求項15に記載の非一時的コンピュータ可読媒体。 - 前記エンコーダネットワーク及び前記デコーダネットワークを更新する前記ステップは、前記ELBOの前記下限を最大化するために、前記ELBOの前記下限に基づき前記エンコーダネットワーク及び前記デコーダネットワークのパラメータを更新するステップを含む、
請求項15に記載の非一時的コンピュータ可読媒体。 - 前記機械学習システムは、前記エンコーダネットワーク及び前記デコーダネットワークを含む変分オートエンコーダを含み、
前記潜在変数は、前記変分オートエンコーダに関連づけられている、
請求項15に記載の非一時的コンピュータ可読媒体。 - 前記エンコーダネットワークは、第1の符号化構成要素と第2の符号化構成要素とを含み、
前記第1のバウンディングデータを生成する前記ステップは、前記第1の符号化構成要素の第1の出力の第1の上限データ及び第1の下限データを生成するステップを含み、
前記第2のバウンディングデータを生成するステップは、前記第2の符号化構成要素の第2の出力の第2の上限データ及び第2の下限データを生成するステップを含む、
請求項15に記載の非一時的コンピュータ可読媒体。 - 前記ロバストネス認証は、||δ||∞≦εtrainを満たす全てのδについて、log p(x+δ)≧L(x+δ)≧L(x)を保証するために、前記ELBOの前記下限を生成し、ここで、
xは、前記センサデータを表し、
δは、摂動データを表し、
L(x+δ)は、前記摂動データによって摂動された前記センサデータに基づく前記ELBOを表し、
L(x)は、前記ELBOの前記下限を表し、さらに
εtrainは、許容可能摂動のlpノルム球体の半径を表す、
請求項15に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/665,110 | 2019-10-28 | ||
US16/665,110 US11657290B2 (en) | 2019-10-28 | 2019-10-28 | System and method with a robust deep generative model |
PCT/EP2020/079457 WO2021083731A1 (en) | 2019-10-28 | 2020-10-20 | System and method with a robust deep generative model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023501198A true JP2023501198A (ja) | 2023-01-18 |
JP7295338B2 JP7295338B2 (ja) | 2023-06-20 |
Family
ID=73020178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022525134A Active JP7295338B2 (ja) | 2019-10-28 | 2020-10-20 | 証明可能ロバストな深層生成モデルを用いたシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11657290B2 (ja) |
JP (1) | JP7295338B2 (ja) |
KR (1) | KR20220083833A (ja) |
CN (1) | CN114586046A (ja) |
DE (1) | DE112020003343T5 (ja) |
WO (1) | WO2021083731A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201718756D0 (en) * | 2017-11-13 | 2017-12-27 | Cambridge Bio-Augmentation Systems Ltd | Neural interface |
US10846407B1 (en) * | 2020-02-11 | 2020-11-24 | Calypso Ai Corp | Machine learning model robustness characterization |
US11978258B2 (en) | 2021-04-06 | 2024-05-07 | Nvidia Corporation | Techniques for identification of out-of-distribution input data in neural networks |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170371329A1 (en) * | 2014-12-19 | 2017-12-28 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
JP2019502212A (ja) * | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | 時系列データ適合およびセンサ融合のシステム、方法、および装置 |
US20190130256A1 (en) * | 2017-10-26 | 2019-05-02 | Uber Technologies, Inc. | Unit-level uncertainty and propagation |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150096057A1 (en) * | 2013-09-30 | 2015-04-02 | Sonic Ip, Inc. | Device Robustness Framework |
US20160364553A1 (en) * | 2015-06-09 | 2016-12-15 | Intel Corporation | System, Apparatus And Method For Providing Protected Content In An Internet Of Things (IOT) Network |
US10270591B2 (en) * | 2015-06-30 | 2019-04-23 | Activevideo Networks, Inc. | Remotely managed trusted execution environment for digital-rights management in a distributed network with thin clients |
US20200004933A1 (en) * | 2015-07-10 | 2020-01-02 | Inside Secure | Method and apparatus for a blackbox programming system permitting downloadable applications and multiple security profiles providing hardware separation of services in hardware constrained devices |
US10095756B2 (en) * | 2017-02-10 | 2018-10-09 | Johnson Controls Technology Company | Building management system with declarative views of timeseries data |
US10324467B1 (en) * | 2017-12-29 | 2019-06-18 | Apex Artificial Intelligence Industries, Inc. | Controller systems and methods of limiting the operation of neural networks to be within one or more conditions |
US10676085B2 (en) * | 2018-04-11 | 2020-06-09 | Aurora Innovation, Inc. | Training machine learning model based on training instances with: training instance input based on autonomous vehicle sensor data, and training instance output based on additional vehicle sensor data |
US11204921B2 (en) * | 2018-06-01 | 2021-12-21 | Sap Se | Robustness metrics for optimization of query execution plans |
US11182916B2 (en) * | 2018-12-28 | 2021-11-23 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
US11625487B2 (en) * | 2019-01-24 | 2023-04-11 | International Business Machines Corporation | Framework for certifying a lower bound on a robustness level of convolutional neural networks |
US11164085B2 (en) * | 2019-04-25 | 2021-11-02 | Booz Allen Hamilton Inc. | System and method for training a neural network system |
US11499812B2 (en) * | 2019-07-01 | 2022-11-15 | Pony Ai Inc. | Systems and methods for using piezoelectric sensors to detect alignment anomaly |
US11605028B2 (en) * | 2019-08-26 | 2023-03-14 | International Business Machines Corporation | Methods and systems for sequential model inference |
US11374952B1 (en) * | 2019-09-27 | 2022-06-28 | Amazon Technologies, Inc. | Detecting anomalous events using autoencoders |
-
2019
- 2019-10-28 US US16/665,110 patent/US11657290B2/en active Active
-
2020
- 2020-10-20 CN CN202080075163.XA patent/CN114586046A/zh active Pending
- 2020-10-20 JP JP2022525134A patent/JP7295338B2/ja active Active
- 2020-10-20 WO PCT/EP2020/079457 patent/WO2021083731A1/en active Application Filing
- 2020-10-20 KR KR1020227017666A patent/KR20220083833A/ko unknown
- 2020-10-20 DE DE112020003343.0T patent/DE112020003343T5/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170371329A1 (en) * | 2014-12-19 | 2017-12-28 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
JP2019502212A (ja) * | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | 時系列データ適合およびセンサ融合のシステム、方法、および装置 |
US20190130256A1 (en) * | 2017-10-26 | 2019-05-02 | Uber Technologies, Inc. | Unit-level uncertainty and propagation |
Also Published As
Publication number | Publication date |
---|---|
US11657290B2 (en) | 2023-05-23 |
JP7295338B2 (ja) | 2023-06-20 |
KR20220083833A (ko) | 2022-06-20 |
CN114586046A (zh) | 2022-06-03 |
DE112020003343T5 (de) | 2022-04-14 |
WO2021083731A1 (en) | 2021-05-06 |
US20210125107A1 (en) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7295338B2 (ja) | 証明可能ロバストな深層生成モデルを用いたシステム及び方法 | |
US20170124433A1 (en) | Unsupervised matching in fine-grained datasets for single-view object reconstruction | |
Bengio et al. | Generalized denoising auto-encoders as generative models | |
US20190164057A1 (en) | Mapping and quantification of influence of neural network features for explainable artificial intelligence | |
KR20190031318A (ko) | 도메인 분리 뉴럴 네트워크들 | |
US20240143970A1 (en) | Evolutional deep neural networks | |
JP2021111399A (ja) | 損失関数に基づいてトレーニングされたモデルの処理 | |
Ruan et al. | Global Robustness Evaluation of Deep Neural Networks with Provable Guarantees for the $ L_0 $ Norm | |
Kim et al. | On single source robustness in deep fusion models | |
Zhang et al. | Rigid image registration by PSOSQP algorithm | |
EP3916597B1 (en) | Detecting malware with deep generative models | |
Gautam et al. | Protovae: A trustworthy self-explainable prototypical variational model | |
Wang et al. | Efficient global robustness certification of neural networks via interleaving twin-network encoding | |
Lu et al. | Dance: Enhancing saliency maps using decoys | |
Dombrowski et al. | Diffeomorphic counterfactuals with generative models | |
Rieser et al. | Tensor networks for quantum machine learning | |
JP2023118101A (ja) | 機械学習システムに対する敵対的パッチを特定するための装置及び方法 | |
US20220121953A1 (en) | Multi-task learning via gradient split for rich human analysis | |
JP7386462B2 (ja) | 演算装置および学習済みモデル | |
WO2022243570A1 (en) | Verifying neural networks | |
Leke et al. | Deep learning-bat high-dimensional missing data estimator | |
US11657282B2 (en) | Efficient inferencing with fast pointwise convolution | |
JP5916466B2 (ja) | 機械学習システムおよび機械学習方法 | |
US20240005173A1 (en) | Verifying Neural Networks | |
Leke et al. | Missing data estimation using bat algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220427 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7295338 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |