JPWO2020174311A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020174311A5 JPWO2020174311A5 JP2021547178A JP2021547178A JPWO2020174311A5 JP WO2020174311 A5 JPWO2020174311 A5 JP WO2020174311A5 JP 2021547178 A JP2021547178 A JP 2021547178A JP 2021547178 A JP2021547178 A JP 2021547178A JP WO2020174311 A5 JPWO2020174311 A5 JP WO2020174311A5
- Authority
- JP
- Japan
- Prior art keywords
- vector
- hyper
- machine learning
- layer
- learning system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims 28
- 238000013528 artificial neural network Methods 0.000 claims 13
- 238000000034 method Methods 0.000 claims 13
- 238000010801 machine learning Methods 0.000 claims 12
- 230000001149 cognitive effect Effects 0.000 claims 8
- 230000001537 neural effect Effects 0.000 claims 7
- 210000002569 neuron Anatomy 0.000 claims 6
- 230000004044 response Effects 0.000 claims 6
- 239000000945 filler Substances 0.000 claims 4
- 230000006870 function Effects 0.000 claims 4
- 238000013507 mapping Methods 0.000 claims 4
- 238000004590 computer program Methods 0.000 claims 1
Claims (21)
- センサ入力信号からのコグニティブ・クエリに応答するための方法であって、前記方法が、
複数の隠れニューロン層および出力ニューラル層を含む人工ニューラル・ネットワークの入力層にセンサ入力信号を供給することと、
前記複数の隠れニューロン層の各々からの隠れ層出力信号および前記出力ニューラル層からの出力信号を決定することと、
前記出力ニューラル層の前記出力信号および前記隠れニューロン層の前記隠れ層出力信号を1つのマッピング関数の入力データとして使用してマッピング関数のセットを適用することによって擬似ランダム・ビット・シーケンスのセットを生成することと、
前記擬似ランダム・ビット・シーケンスのセットを使用してハイパー・ベクトルを決定することと、
前記ハイパー・ベクトルを連想メモリに格納することであり、異なるハイパー・ベクトルの間の距離が決定可能である、前記格納することと
を含む、方法。 - 前記センサ入力信号からそれぞれ得られる前記コグニティブ・クエリと候補応答とを導出するために、前記連想メモリに格納された異なるハイパー・ベクトルを組み合わせること
をさらに含む、請求項1に記載の方法。 - 前記コグニティブ・クエリを表す前記ハイパー・ベクトルと、前記候補応答を表す前記ハイパー・ベクトルとの間の距離を測定すること
をさらに含む、請求項2に記載の方法。 - 前記コグニティブ・クエリを表す前記ハイパー・ベクトルから最小距離を有する前記候補応答に関連する前記ハイパー・ベクトルを選択すること
をさらに含む、請求項3に記載の方法。 - 人工ニューラル・ネットワークの入力層にセンサ入力データを前記供給することが、
複数の人工ニューラル・ネットワークの入力層に前記センサ入力データを供給すること
をさらに含む、
請求項2に記載の方法。 - 前記ニューラル・ネットワークの訓練の終了時に前記連想メモリに格納されるべきロール・ベクトルとして複数のランダム・ハイパー・ベクトルを生成すること
をさらに含む、請求項1から請求項5のいずれか一項に記載の方法。 - 新しいセンサ入力データのセットごとに、前記複数のニューラル・ネットワークの出力データに基づいてフィラー・ベクトルとして複数の擬似ランダム・ハイパー・ベクトルを連続的に生成することであり、前記擬似ランダム・ハイパー・ベクトルが前記連想メモリに格納される、前記生成すること
をさらに含む、請求項5に記載の方法。 - 前記組み合わせることが、
異なるハイパー・ベクトルを、ベクトル要素ごとのバイナリXOR演算によってバインドすること
を含む、請求項2に記載の方法。 - 前記組み合わせることが、
異なるハイパー・ベクトルを、ベクトル要素ごとのバイナリ平均によってバンドルすること
を含む、請求項2に記載の方法。 - 前記ニューラル・ネットワークへの前記センサ入力信号の入力ベクトルの2つのセット間で決定された確率的勾配降下値が、事前定義された閾値より下回ったままである場合、前記ロール・ベクトルが、前記人工ニューラル・ネットワークの訓練の前記終了時に、前記連想メモリに格納される、請求項6に記載の方法。
- センサ入力信号からのコグニティブ・クエリに応答するための機械学習システムであって、前記機械学習システムが、
複数の隠れニューロン層および出力ニューラル層を含む人工ニューラル・ネットワークの入力層にセンサ入力信号を供給するように構成されたセンサと、
前記複数の隠れニューロン層の各々からの隠れ層出力信号および前記出力ニューラル層からの出力信号を決定するように構成された第1の決定ユニットと、
前記出力ニューラル層の前記出力信号および前記隠れニューロン層の前記隠れ層出力信号を1つのマッピング関数の入力データとして使用してマッピング関数のセットを適用することによって擬似ランダム・ビット・シーケンスのセットを生成するように構成された発生器ユニットと、
前記擬似ランダム・ビット・シーケンスのセットを使用してハイパー・ベクトルを決定するように構成された第2の決定ユニットと、
前記ハイパー・ベクトルを連想メモリに格納するように構成されたストレージ・モジュールであり、異なるハイパー・ベクトルの間の距離が決定可能である、前記ストレージ・モジュールと
を含む、機械学習システム。 - 前記センサ入力信号からそれぞれ得られる前記コグニティブ・クエリと候補応答とを導出するために、前記連想メモリに格納された異なるハイパー・ベクトルを組み合わせるように構成された組合せユニット
をさらに含む、請求項11に記載の機械学習システム。 - 前記コグニティブ・クエリを表す前記ハイパー・ベクトルと、前記候補応答を表す前記ハイパー・ベクトルとの間の距離を測定するように構成された距離測定ユニット
をさらに含む、請求項11に記載の機械学習システム。 - 前記コグニティブ・クエリを表す前記ハイパー・ベクトルから最小距離を有する前記候補応答に関連する前記ハイパー・ベクトルを選択するように構成された選択モジュール
をさらに含む、請求項13に記載の機械学習システム。 - 人工ニューラル・ネットワークの入力層にセンサ入力データを供給するための前記センサが、
複数の人工ニューラル・ネットワークの入力層に前記センサ入力データを供給する
ようにさらに構成される、請求項12に記載の機械学習システム。 - 前記ニューラル・ネットワークの訓練の終了時に前記連想メモリに格納されるべきロール・ベクトルとして複数のランダム・ハイパー・ベクトルを生成するように構成されたロール・ベクトル発生ユニット
をさらに含む、請求項11から請求項15のいずれか一項に記載の機械学習システム。 - 新しいセンサ入力データのセットごとに、前記複数のニューラル・ネットワークの出力データに基づいてフィラー・ベクトルとして複数の擬似ランダム・ハイパー・ベクトルを連続的に生成するように構成されたフィラー・ベクトル発生ユニットであり、前記擬似ランダム・ハイパー・ベクトルが前記連想メモリに格納される、前記フィラー・ベクトル発生ユニット
をさらに含む、請求項15に記載の機械学習システム。 - 前記組合せユニットが、異なるハイパー・ベクトルを、ベクトル要素ごとのバイナリXOR演算によってバインドするようにさらに構成される、請求項12に記載の機械学習システム。
- 前記組合せユニットが、異なるハイパー・ベクトルを、ベクトル要素ごとのバイナリ平均によってバンドルするようにさらに構成される、請求項12に記載の機械学習システム。
- 前記ニューラル・ネットワークへの前記センサ入力信号の入力ベクトルの2つのセット間で決定された確率的勾配降下値が、事前定義された閾値より下回ったままである場合、前記ロール・ベクトルが、前記人工ニューラル・ネットワークの訓練の前記終了時に、前記連想メモリに格納される、
請求項16に記載の機械学習システム。 - 少なくとも1つのプロセッサに、請求項1から請求項10のいずれか一項に記載の方法を実行させる、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/284,322 | 2019-02-25 | ||
US16/284,322 US20200272895A1 (en) | 2019-02-25 | 2019-02-25 | Answering cognitive queries from sensor input signals |
PCT/IB2020/051259 WO2020174311A1 (en) | 2019-02-25 | 2020-02-14 | Answering cognitive queries from sensor input signals |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022521174A JP2022521174A (ja) | 2022-04-06 |
JPWO2020174311A5 true JPWO2020174311A5 (ja) | 2022-07-21 |
JP7427011B2 JP7427011B2 (ja) | 2024-02-02 |
Family
ID=72140360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021547178A Active JP7427011B2 (ja) | 2019-02-25 | 2020-02-14 | センサ入力信号からのコグニティブ・クエリへの応答 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20200272895A1 (ja) |
JP (1) | JP7427011B2 (ja) |
CN (1) | CN113474795A (ja) |
DE (1) | DE112020000172T5 (ja) |
GB (1) | GB2599793B (ja) |
WO (1) | WO2020174311A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7556269B2 (ja) | 2020-11-16 | 2024-09-26 | 富士通株式会社 | 推論プログラム及び推論方法 |
EP4433945A1 (en) * | 2021-11-17 | 2024-09-25 | Telefonaktiebolaget LM Ericsson (publ) | Binary distributed vector symbolic radio multiple access |
CN116049511A (zh) * | 2023-02-06 | 2023-05-02 | 华院计算技术(上海)股份有限公司 | 多维数据的查询方法、系统、设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001052175A (ja) * | 1999-08-06 | 2001-02-23 | Olympus Optical Co Ltd | 画像検索装置 |
JP2005190429A (ja) * | 2003-12-26 | 2005-07-14 | Hiroshima Univ | 参照データ認識・学習方法及びパターン認識システム |
US9520127B2 (en) * | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US20160034811A1 (en) * | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
CN107810508A (zh) * | 2015-06-26 | 2018-03-16 | 圣蒂安斯公众有限公司 | 根据传感器数据推导运动行为 |
CN108604383A (zh) * | 2015-12-04 | 2018-09-28 | 奇跃公司 | 重新定位系统和方法 |
US9818431B2 (en) * | 2015-12-21 | 2017-11-14 | Microsoft Technoloogy Licensing, LLC | Multi-speaker speech separation |
US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
JP6751684B2 (ja) * | 2017-03-28 | 2020-09-09 | 株式会社Nttドコモ | 類似画像検索装置 |
CN108694200B (zh) * | 2017-04-10 | 2019-12-20 | 北京大学深圳研究生院 | 一种基于深度语义空间的跨媒体检索方法 |
JP6832013B2 (ja) * | 2017-11-24 | 2021-02-24 | 株式会社アクセル | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム |
-
2019
- 2019-02-25 US US16/284,322 patent/US20200272895A1/en active Pending
-
2020
- 2020-02-14 WO PCT/IB2020/051259 patent/WO2020174311A1/en active Application Filing
- 2020-02-14 CN CN202080016182.5A patent/CN113474795A/zh active Pending
- 2020-02-14 JP JP2021547178A patent/JP7427011B2/ja active Active
- 2020-02-14 GB GB2112651.1A patent/GB2599793B/en active Active
- 2020-02-14 DE DE112020000172.5T patent/DE112020000172T5/de active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hug | Surprise: A Python library for recommender systems | |
ur Rehman et al. | Iaas cloud selection using MCDM methods | |
GB2599793A (en) | Answering cognitive queries from sensor input signals | |
CN101911061B (zh) | 确定层分配的质量 | |
JP2020500365A5 (ja) | ||
Li et al. | Passivity analysis of memristive neural networks with probabilistic time-varying delays | |
CN110325988A (zh) | 关联存储器设备中的稀疏矩阵乘法 | |
CN110245269A (zh) | 获取关系网络图中节点的动态嵌入向量的方法和装置 | |
Candillier et al. | Design and analysis of the nomao challenge active learning in the real-world | |
US11460982B1 (en) | Number embedding application system | |
Agostinelli et al. | Transferability metrics for selecting source model ensembles | |
JP7041348B2 (ja) | 学習プログラム及び学習方法 | |
KR20200073269A (ko) | 인공 신경망의 자동 생성을 위한 방법 및 장치 | |
US10997528B2 (en) | Unsupervised model evaluation method, apparatus, server, and computer-readable storage medium | |
JP2021157361A (ja) | 最適化装置及び最適化方法 | |
CN113609573B (zh) | 一种基于正态云模型的模糊综合评估方法及装置 | |
JPWO2020174311A5 (ja) | ||
JP2022049141A (ja) | 演算デバイス、計算機システム、及び演算方法 | |
US20180225563A1 (en) | Artificial neural network device and operation method thereof | |
Halvari et al. | Testing the robustness of automl systems | |
US9349093B2 (en) | Generating a prediction function using a genetic algorithm and a reduced number of factors | |
JP2020140279A (ja) | 機械学習プログラム、機械学習方法及び機械学習システム | |
CN108140016A (zh) | 确定矩阵-向量相乘的运算最优序列的优化器 | |
Bunch et al. | Practical applications of metric space magnitude and weighting vectors | |
KR20230099190A (ko) | 다차원 텐서의 주소 생성 장치 및 방법 |