JP6523498B1 - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP6523498B1 JP6523498B1 JP2018007286A JP2018007286A JP6523498B1 JP 6523498 B1 JP6523498 B1 JP 6523498B1 JP 2018007286 A JP2018007286 A JP 2018007286A JP 2018007286 A JP2018007286 A JP 2018007286A JP 6523498 B1 JP6523498 B1 JP 6523498B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- model
- learning
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- 238000013459 approach Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 description 28
- 238000013528 artificial neural network Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
以下、図1を用いて、学習装置の一例となる情報提供装置10の一例について説明する。図1は、実施形態に係る情報提供装置の一例を示す図である。なお、図1に示す例では、情報提供装置10が第1ドメインサーバ100および第2ドメインサーバ200が提供する情報を用いて実行する学習処理の一例について記載した。
ここで、ある利用者に対してコンテンツを配信する配信処理において、利用者が興味を有すると推定されるコンテンツや、利用者が選択する可能性が高いコンテンツ等、利用者に対応するコンテンツを配信若しくは提案するといった手法が考えられる。例えば、利用者が過去に選択したコンテンツの履歴と、その利用者の属性情報との間の共起性をあらかじめ学習し、学習結果に基づいて、配信先となる利用者と対応するコンテンツを推定する技術が考えられる。しかしながら、このような技術では、利用者が選択したコンテンツの履歴と、利用者の属性情報との組があまり多くない場合に、コンテンツの推定精度が低下する恐れがある。
以下、情報提供装置10が実行する学習処理の一例について説明する。なお、以下の説明では、第1モデルとして、DSN(Domain Separation Network)を採用する例について説明するが、実施形態は、これに限定されるものではない。また、以下の説明では、情報提供装置10が実行する学習処理の一例として、第1ドメインに属するコンテンツと利用者との関係性の特徴を学習する際に、第2ドメインに属するコンテンツの特徴に基づいた補正を行うことで、第2ドメインに関するコンテンツと配信先となる利用者の属性との間の関係性を推定する第1モデルを学習する処理の一例について説明する。
上述したように、情報提供装置10は、所定の入力情報として第1情報と第1情報と紐付けられる第2情報とを第1モデルに入力した際に、出力情報として第2情報の分類結果を出力し、かつ、中間情報が、第1情報と紐付けられる第3情報が有する特徴に応じた特徴情報に近づくように、第1モデルの学習を行う。より具体的には、情報提供装置10は、第1ドメインに属する第1情報および第2情報と、第1ドメインとは異なる第2ドメインに属する第3情報とを用いて、第1モデルの学習を行う。
続いて、図3を用いて、情報提供装置10が有する機能構成の一例について説明する。図3は、実施形態に係る情報提供装置が有する機能構成の一例を示す図である。通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、第1ドメインサーバ100および第2ドメインサーバ200との間で情報の送受信を行う。
上記では、情報提供装置10による学習処理および推定処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習処理および推定処理のバリエーションについて説明する。
上述した説明では、情報提供装置10は、第1モデルと第2モデルとを含む学習モデルの学習を行い、学習モデルを用いた推定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、第1モデルと第2モデルとを個別のモデルとして取り扱ってもよい。例えば、情報提供装置10は、第1モデルを学習モデルとし、第2モデルを用いて、学習モデルの学習を行ってもよい。また、情報提供装置10は、第1モデルのみを用いて、上述した推定処理を実行してもよい。
上述した説明では、情報提供装置10は、利用者情報とコンテンツ情報とを入力すると、コンテンツ情報が示すコンテンツを利用者情報が示す利用者が気に入るか否か、若しくは、利用者が気に入る確度を示す分類情報を出力するよう、学習モデルの学習を行った。しかしながら、実施形態は、これに限定されるものではない。
ここで情報提供装置10は、第2ドメインに属するコンテンツのうち利用者と対応するコンテンツを推定する場合、学習モデルの全体を用いて推定を行ってもよく、学習モデルの一部から生成された推定モデルを用いて、推定を行ってもよい。例えば、情報提供装置10は、上述した学習処理により学習モデルの学習を実行した場合は、学習モデルから第2エンコーダ、第3エンコーダ、および分類器を抽出し、抽出した第2エンコーダ、第3エンコーダ、および分類器を含む推定モデルを生成する。そして、情報提供装置10は、推定処理を実行する場合は、利用者情報を第1情報とし、第2ドメインに属するコンテンツのメタデータを第2情報として、推定モデルの第2エンコーダおよび第3エンコーダに入力することで、第1情報に応じた第2情報の分類結果を推定してもよい。
上述した例では、情報提供装置10は、第1ドメインまたは第2ドメインに属するコンテンツの配信を行う例について記載した。ここで、情報提供装置10は、動画像、音楽、ウェブページ等といったコンテンツを配信対象としてもよく、広告に関するコンテンツを配信対象としてもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
続いて、図7を用いて、情報提供装置10が実行する処理の流れの一例を説明する。図7は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。
上述した実施形態に係る情報提供装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、情報提供装置10は、入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する。そして、情報提供装置10は、第1モデルに所定の入力情報を入力した際に、第1モデルがその所定の入力情報と対応する所定の出力情報を出力し、かつ、複数の中間層のうち所定の中間層が出力する中間情報が、所定の入力情報と対応する対応情報が有する特徴に応じた特徴情報に近づくように、第1モデルの学習を行う。
20 通信部
30 記憶部
31 第1ドメイン情報データベース
32 第2ドメイン情報データベース
33 モデルデータベース
40 制御部
41 収集部
42 取得部
43 学習部
44 受付部
45 演算部
46 提供部
100 第1ドメインサーバ
200 第2ドメインサーバ
Claims (14)
- 入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得部と、
前記第1モデルに所定の入力情報として第1ドメインと関連する入力情報を前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該入力情報の分類を示す情報を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記所定の入力情報と対応する対応情報であって、前記第1ドメインとは異なる第2ドメインと関連する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得部と、
前記第1モデルに所定の入力情報として第1情報と当該第1情報と紐付けられる第2情報とを前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該第2情報の分類結果を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記第2情報が有する特徴に応じた特徴情報であって、前記第1情報と紐付けられる第3情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 前記学習部は、第1ドメインに属する前記第1情報および前記第2情報と、第1ドメインとは異なる第2ドメインに属する前記第3情報とを用いて、前記第1モデルの学習を行う
ことを特徴とする請求項2に記載の学習装置。 - 前記学習部は、利用者の特徴を示す前記第1情報と、当該第1情報が示す特徴を有する利用者が選択した選択対象を示す第2情報と、前記第2情報が示す選択対象とは異なる選択対象を示す第3情報とを用いて、前記第1モデルの学習を行う
ことを特徴とする請求項3に記載の学習装置。 - 前記取得部は、前記第3情報の特徴を学習した第2モデルをさらに取得し、
前記学習部は、前記中間情報が、前記第2情報から前記第2モデルが生成した特徴情報に近づくように、前記第1モデルの学習を行う
ことを特徴とする請求項2〜4のうちいずれか1つに記載の学習装置。 - 前記取得部は、前記第2モデルとして、第2情報と同じ種別の第3情報が有する特徴をあらかじめ学習したモデルを取得する
ことを特徴とする請求項5に記載の学習装置。 - 前記学習部は、前記第1情報と前記第2情報とを前記第1モデルに入力した際に、前記出力情報として前記第2情報の分類を示す情報を出力し、かつ、前記第2情報を前記第2モデルに入力した際に当該第2モデルが生成した特徴情報に前記中間情報が近づくように、前記第1モデルの学習を行う
ことを特徴とする請求項5または6に記載の学習装置。 - 第1情報が入力された場合に当該第1情報を符号化した第1符号化情報を出力する第1符号化部、第2情報が入力された場合に当該第2情報を符号化した第2符号化情報を出力する第2符号化部、前記第1情報と前記第2情報とが入力された場合に当該第1情報を符号化した第3符号化情報と、当該第2情報を符号化した第4符号化情報とを出力する第3符号化部、前記第1符号化情報と前記第3符号化情報とから第1復号化情報を復号し、前記第2符号化情報と前記第4符号化情報とから第2復号化情報を復号する復号化部、および、複数の中間層を有し、前記第4符号化情報から、前記第2情報の分類結果を示す分類情報を生成する分類部を有する第1モデルを取得する取得部と、
前記第1モデルに所定の入力情報を入力した際に、前記第1モデルが当該所定の入力情報と対応する所定の出力情報を出力し、前記第1情報と前記第1復号化情報とが類似し、前記第2情報と前記第2復号化情報とが類似するとともに、前記分類部が有する複数の中間層のうち所定の中間層が出力する情報が、前記所定の入力情報と対応する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 学習装置が実行する学習方法であって、
入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得工程と、
前記第1モデルに所定の入力情報として第1ドメインと関連する入力情報を前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該入力情報の分類を示す情報を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記所定の入力情報と対応する対応情報であって、前記第1ドメインとは異なる第2ドメインと関連する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得手順と、
前記第1モデルに所定の入力情報として第1ドメインと関連する入力情報を前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該入力情報の分類を示す情報を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記所定の入力情報と対応する対応情報であって、前記第1ドメインとは異なる第2ドメインと関連する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。 - 学習装置が実行する学習方法であって、
入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得工程と、
前記第1モデルに所定の入力情報として第1情報と当該第1情報と紐付けられる第2情報とを前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該第2情報の分類結果を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記第2情報が有する特徴に応じた特徴情報であって、前記第1情報と紐付けられる第3情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 入力情報を入力する入力層と、入力された入力情報が有する特徴に基づいた演算を行う複数の中間層と、中間層の出力に応じた出力情報を出力する出力層とを有する第1モデルを取得する取得手順と、
前記第1モデルに所定の入力情報として第1情報と当該第1情報と紐付けられる第2情報とを前記第1モデルに入力した際に、当該所定の入力情報と対応する所定の出力情報として当該第2情報の分類結果を前記第1モデルが出力し、かつ、前記複数の中間層のうち所定の中間層が出力する中間情報が、前記第2情報が有する特徴に応じた特徴情報であって、前記第1情報と紐付けられる第3情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。 - 学習装置が実行する学習方法であって、
第1情報が入力された場合に当該第1情報を符号化した第1符号化情報を出力する第1符号化部、第2情報が入力された場合に当該第2情報を符号化した第2符号化情報を出力する第2符号化部、前記第1情報と前記第2情報とが入力された場合に当該第1情報を符号化した第3符号化情報と、当該第2情報を符号化した第4符号化情報とを出力する第3符号化部、前記第1符号化情報と前記第3符号化情報とから第1復号化情報を復号し、前記第2符号化情報と前記第4符号化情報とから第2復号化情報を復号する復号化部、および、複数の中間層を有し、前記第4符号化情報から、前記第2情報の分類結果を示す分類情報を生成する分類部を有する第1モデルを取得する取得工程と、
前記第1モデルに所定の入力情報を入力した際に、前記第1モデルが当該所定の入力情報と対応する所定の出力情報を出力し、前記第1情報と前記第1復号化情報とが類似し、前記第2情報と前記第2復号化情報とが類似するとともに、前記分類部が有する複数の中間層のうち所定の中間層が出力する情報が、前記所定の入力情報と対応する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 第1情報が入力された場合に当該第1情報を符号化した第1符号化情報を出力する第1符号化部、第2情報が入力された場合に当該第2情報を符号化した第2符号化情報を出力する第2符号化部、前記第1情報と前記第2情報とが入力された場合に当該第1情報を符号化した第3符号化情報と、当該第2情報を符号化した第4符号化情報とを出力する第3符号化部、前記第1符号化情報と前記第3符号化情報とから第1復号化情報を復号し、前記第2符号化情報と前記第4符号化情報とから第2復号化情報を復号する復号化部、および、複数の中間層を有し、前記第4符号化情報から、前記第2情報の分類結果を示す分類情報を生成する分類部を有する第1モデルを取得する取得手順と、
前記第1モデルに所定の入力情報を入力した際に、前記第1モデルが当該所定の入力情報と対応する所定の出力情報を出力し、前記第1情報と前記第1復号化情報とが類似し、前記第2情報と前記第2復号化情報とが類似するとともに、前記分類部が有する複数の中間層のうち所定の中間層が出力する情報が、前記所定の入力情報と対応する対応情報が有する特徴に応じた特徴情報に近づくように、前記第1モデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018007286A JP6523498B1 (ja) | 2018-01-19 | 2018-01-19 | 学習装置、学習方法および学習プログラム |
US16/250,460 US11699095B2 (en) | 2018-01-19 | 2019-01-17 | Cross-domain recommender systems using domain separation networks and autoencoders |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018007286A JP6523498B1 (ja) | 2018-01-19 | 2018-01-19 | 学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6523498B1 true JP6523498B1 (ja) | 2019-06-05 |
JP2019125313A JP2019125313A (ja) | 2019-07-25 |
Family
ID=66730557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018007286A Active JP6523498B1 (ja) | 2018-01-19 | 2018-01-19 | 学習装置、学習方法および学習プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11699095B2 (ja) |
JP (1) | JP6523498B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139774A1 (ja) * | 2022-01-24 | 2023-07-27 | 日本電気株式会社 | 学習装置、推定システム、学習方法、および記録媒体 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11663493B2 (en) * | 2019-01-30 | 2023-05-30 | Intuit Inc. | Method and system of dynamic model selection for time series forecasting |
US20200410296A1 (en) * | 2019-06-30 | 2020-12-31 | Td Ameritrade Ip Company, Inc. | Selective Data Rejection for Computationally Efficient Distributed Analytics Platform |
JP7166738B2 (ja) * | 2019-10-15 | 2022-11-08 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11423250B2 (en) | 2019-11-19 | 2022-08-23 | Intuit Inc. | Hierarchical deep neural network forecasting of cashflows with linear algebraic constraints |
US11657302B2 (en) | 2019-11-19 | 2023-05-23 | Intuit Inc. | Model selection in a forecasting pipeline to optimize tradeoff between forecast accuracy and computational cost |
US11551024B1 (en) * | 2019-11-22 | 2023-01-10 | Mastercard International Incorporated | Hybrid clustered prediction computer modeling |
US11783025B2 (en) | 2020-03-12 | 2023-10-10 | International Business Machines Corporation | Training diverse and robust ensembles of artificial intelligence computer models |
US10839269B1 (en) * | 2020-03-20 | 2020-11-17 | King Abdulaziz University | System for fast and accurate visual domain adaptation |
JP6925495B1 (ja) * | 2020-10-07 | 2021-08-25 | 株式会社カカクコム | 情報処理システム、サーバ、情報処理方法及び情報処理プログラム |
US11689468B2 (en) * | 2020-12-31 | 2023-06-27 | Forescout Technologies, Inc. | Device classification using machine learning models |
US11574131B2 (en) * | 2021-05-21 | 2023-02-07 | Google Llc | Machine-learned language models which generate intermediate textual analysis in service of contextual text generation |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7643558B2 (en) * | 2003-03-24 | 2010-01-05 | Qualcomm Incorporated | Method, apparatus, and system for encoding and decoding side information for multimedia transmission |
JP4487761B2 (ja) * | 2004-12-21 | 2010-06-23 | カシオ計算機株式会社 | データ出力装置、および、プログラム |
WO2011045927A1 (ja) * | 2009-10-14 | 2011-04-21 | パナソニック株式会社 | 符号化装置、復号装置およびこれらの方法 |
JP5467062B2 (ja) | 2011-01-17 | 2014-04-09 | 日本電信電話株式会社 | 情報推薦装置及び方法及びプログラム |
JP2016076758A (ja) * | 2014-10-03 | 2016-05-12 | 株式会社東芝 | 再生装置、符号化装置、および再生方法 |
JP6261547B2 (ja) * | 2015-09-07 | 2018-01-17 | ヤフー株式会社 | 判定装置、判定方法及び判定プログラム |
JP2017151230A (ja) * | 2016-02-23 | 2017-08-31 | 国立大学法人豊橋技術科学大学 | 音声変換装置および音声変換方法ならびに計算機プログラム |
JP6951659B2 (ja) * | 2017-05-09 | 2021-10-20 | オムロン株式会社 | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 |
CN110741367B (zh) * | 2017-06-14 | 2023-06-20 | 阿里巴巴集团控股有限公司 | 用于实时交互式推荐的方法和装置 |
US11035227B2 (en) * | 2017-07-14 | 2021-06-15 | The Board Of Regents Of The University Of Oklahoma | Generating spectral responses of materials |
JP6568175B2 (ja) * | 2017-10-20 | 2019-08-28 | ヤフー株式会社 | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム |
JP6381768B1 (ja) * | 2017-11-20 | 2018-08-29 | ヤフー株式会社 | 学習装置、学習方法、学習プログラムおよび動作プログラム |
-
2018
- 2018-01-19 JP JP2018007286A patent/JP6523498B1/ja active Active
-
2019
- 2019-01-17 US US16/250,460 patent/US11699095B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139774A1 (ja) * | 2022-01-24 | 2023-07-27 | 日本電気株式会社 | 学習装置、推定システム、学習方法、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2019125313A (ja) | 2019-07-25 |
US20190228336A1 (en) | 2019-07-25 |
US11699095B2 (en) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6523498B1 (ja) | 学習装置、学習方法および学習プログラム | |
US11514333B2 (en) | Combining machine-learning and social data to generate personalized recommendations | |
US11711447B2 (en) | Method and apparatus for real-time personalization | |
JP6355800B1 (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム | |
US9785888B2 (en) | Information processing apparatus, information processing method, and program for prediction model generated based on evaluation information | |
US20200134300A1 (en) | Predictive analysis of target behaviors utilizing rnn-based user embeddings | |
US10354184B1 (en) | Joint modeling of user behavior | |
JP7160980B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
US9864951B1 (en) | Randomized latent feature learning | |
KR20180099812A (ko) | 딥러닝 모델을 사용한 엔티티의 식별 | |
Hawashin et al. | An efficient hybrid similarity measure based on user interests for recommender systems | |
US11403663B2 (en) | Ad preference embedding model and lookalike generation engine | |
JP6501939B2 (ja) | モデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法 | |
CN110209931B (zh) | 媒体内容的推送方法和装置、存储介质、电子装置 | |
JP2017054214A (ja) | 判定装置、学習装置、情報配信装置、判定方法及び判定プログラム | |
JP6767342B2 (ja) | 検索装置、検索方法および検索プログラム | |
US20190080290A1 (en) | Updating messaging data structures to include predicted attribute values associated with recipient entities | |
KR102586569B1 (ko) | 아이템 임베딩 장치 및 방법 | |
CN117836765A (zh) | 基于多模态超图的点击预测 | |
CN115066906A (zh) | 用于基于用户提供的标准进行推荐的方法和系统 | |
JP2017201535A (ja) | 判定装置、学習装置、判定方法及び判定プログラム | |
US11514123B2 (en) | Information retrieval system, method and computer program product | |
US20230023552A1 (en) | Systems and methods for multi-channel customer communications content recommender | |
KR20210061739A (ko) | 사용자 맞춤형 추천정보 제공장치 및 제공방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 해독 가능한 기록 매체 | |
JP5588938B2 (ja) | アイテム推薦装置及び方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181213 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181213 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6523498 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |