JP6381768B1 - 学習装置、学習方法、学習プログラムおよび動作プログラム - Google Patents
学習装置、学習方法、学習プログラムおよび動作プログラム Download PDFInfo
- Publication number
- JP6381768B1 JP6381768B1 JP2017223074A JP2017223074A JP6381768B1 JP 6381768 B1 JP6381768 B1 JP 6381768B1 JP 2017223074 A JP2017223074 A JP 2017223074A JP 2017223074 A JP2017223074 A JP 2017223074A JP 6381768 B1 JP6381768 B1 JP 6381768B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- model
- learning
- vector
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 239000013598 vector Substances 0.000 claims abstract description 239
- 239000011159 matrix material Substances 0.000 claims abstract description 104
- 230000008569 process Effects 0.000 claims description 33
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000013459 approach Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 31
- 239000000470 constituent Substances 0.000 description 30
- 230000010365 information processing Effects 0.000 description 22
- 238000003860 storage Methods 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000037308 hair color Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】本願に係る学習装置は、入力された情報を符号化するエンコーダと、符号化された前記情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、当該ベクトルから前記情報に対応する情報を生成するデコーダとを有するモデルを生成する生成部と、前記モデルに対して所定の入力情報を入力した際に、当該モデルが当該入力情報と対応する出力情報を出力し、かつ、前記所定の行列が前記入力情報の辞書行列となるように、前記モデルの学習を行う学習部とを有することを特徴とする。
【選択図】図1
Description
まず、図1を用いて、学習装置の一例である情報提供装置が実行する学習処理および提供処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。図1では、情報提供装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、所定のクライアントが使用する情報処理装置100と通信可能である。
ここで、情報処理装置100は、複数のノードを多段に接続したニューラルネットワークをモデルとして準備する。このようなモデルは、例えば、DNN、オートエンコーダー、LSTM(Long Short-Term Memory)、リカレントニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等であってもよい。また、モデルは、これら畳み込みニューラルネットワークや、再帰型ニューラルネットワークの機能を組み合わせたものであってもよい。
そこで、情報提供装置10は、以下の学習処理を実行する。まず、情報提供装置10は、入力された情報を符号化するエンコーダと、符号化された情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、ベクトルから情報に対応する情報を生成するデコーダとを有するモデルを生成する。そして、情報提供装置10は、モデルに対して所定の入力情報を入力した際に、モデルが入力情報と対応する出力情報を出力し、かつ、所定の行列が入力情報の辞書行列となるように、モデルの学習を行う。
なお、情報提供装置10は、辞書行列を利用者へそのまま提供することで、モデルがどのような特徴を学習したかを利用者に示してもよい。例えば、情報提供装置10は、データセットに含まれる情報を順次入力情報とし、入力情報の特徴を学習する度に辞書行列を利用者に提供することで、学習が進むにつれてどのようにモデルが特徴を学習したかを示すことができる。
以下、図1を用いて、情報提供装置10が実行する生成処理および提供処理の一例を説明する。なお、以下の説明では、モデルとして、入力された画像(以下、「入力画像」と記載する。)を符号化するエンコーダ、符号化された入力画像に対して所定の行列を適用した画像ベクトルを生成するベクトル生成部、および、画像ベクトルから入力画像と対応する画像(以下、「出力画像」と記載する。)を生成するデコーダとを有するモデルを生成する処理の一例について説明する。また、以下の説明では、モデルとして、画像ベクトルからエンコーダに入力された入力画像を復元した出力画像を生成するデコーダを有するモデルを生成する例について説明する。
上述した例では、入力された入力画像と出力する出力画像とが類似する第1指標を設定した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、入力画像が属するクラスを示す情報(すなわち、ラベル)を出力するように、モデルMが有するデコーダDEを学習してもよい。また、情報提供装置10は、入力画像のうち所定の被写体の特徴を変更した出力画像を出力するように、デコーダDEを学習してもよい。
また、情報提供装置10は、必ずしも辞書行列に含まれる列ベクトルを直交化させる必要はない。辞書行列が有する列ベクトルに共通する構成要素が含まれているとしても、情報提供装置10は、上述した提供処理を実行することで、データセットの入力情報が有する情報の構成要素をどのようにモデルが学習したかを示す情報を利用者に提供することができる。また、式(8)に示した係数λは、学習をどのように進めるかに応じて、任意の値が設定可能である。
以下、上記した学習処理を実現する情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5を用いて、情報提供装置10が実行する学習処理および提供処理の手順の一例について説明する。図5は、実施形態に係る情報提供装置が実行する処理の流れの一例を示すフローチャートである。
上記では、情報提供装置10による学習処理および提供処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する学習処理および提供処理のバリエーションについて説明する。
情報提供装置10は、任意の数の情報処理装置100と通信可能に接続されていてもよい。また、情報提供装置10は、情報処理装置100と情報のやり取りを行うフロントエンドサーバと、各種の処理を実行するバックエンドサーバとにより実現されてもよい。このような場合、フロントエンドサーバには、図2に示す受付部41および提供部45が配置され、バックエンドサーバには、図2に示す生成部42、学習部43および取得部44が含まれることとなる。また、記憶部30に登録された学習データデータベース31およびモデルデータベース32は、外部のストレージサーバによって管理されていてもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述した実施形態に係る情報提供装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、情報提供装置10は、入力された情報を符号化するエンコーダENと、符号化された情報に対して所定の行列を適用したベクトルを生成するベクトル生成部VCUと、そのベクトルから情報に対応する情報を生成するデコーダDEとを有するモデルMを生成する。そして、情報提供装置10は、モデルMに対して所定の入力情報を入力した際に、そのモデルがその入力情報と対応する出力情報を出力し、かつ、所定の行列が入力情報の辞書行列となるように、モデルの学習を行う。このような処理の結果、情報提供装置10は、利用者の恣意的な認識を介さずとも、学習に用いたデータセットに含まれる情報が有する特徴の辞書行列、すなわち、特徴の構成要素を得ることができるので、DNNがどのような特徴を学習しているかを可視化を可能とする情報を提供する結果、学習された特徴を確認することができる。
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 制御部
41 受付部
42 生成部
43 学習部
44 取得部
45 提供部
100 情報処理装置
Claims (13)
- 入力された情報を符号化するエンコーダと、符号化された前記情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、当該ベクトルから前記情報に対応する情報を生成するデコーダとを有するモデルを生成する生成部と、
前記モデルに対して所定の入力情報を入力した際に、当該モデルが当該入力情報と対応する出力情報を出力し、かつ、前記所定の行列が前記入力情報の辞書行列となるように、前記モデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 前記学習部は、前記出力情報が前記入力情報に近づくように、前記モデルの学習を行う
ことを特徴とする請求項1に記載の学習装置。 - 前記学習部は、前記入力情報をスパースなベクトルへと符号化するように、前記モデルの学習を行う
ことを特徴とする請求項1または2に記載の学習装置。 - 前記学習部は、前記所定の行列に含まれるベクトルが相互に直交するように、前記モデルの学習を行う
ことを特徴とする請求項1〜3のうちいずれか1つに記載の学習装置。 - 前記生成部は、前記所定の行列を前記符号化された前記情報に積算するベクトル生成部を有するモデルを生成し、
前記学習部は、前記所定の行列に含まれる列ベクトルが相互に直交するように、前記モデルの学習を行う
ことを特徴とする請求項4に記載の学習装置。 - 前記学習部によって学習が行われたエンコーダを用いて所定の入力情報を符号化し、符号化結果を変化させながら、前記学習部により学習が行われたベクトル生成部およびデコーダを用いて、当該所定の入力情報に対応する複数の出力情報を取得する取得部と、
前記取得部により取得された複数の出力情報を提供する提供部と
を有することを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。 - 前記取得部は、前記辞書行列に含まれる基底ベクトルのうち、係数が大きい方から順に所定の数の基底ベクトルを特定し、前記入力情報を符号化した符号化ベクトルに含まれる要素のうち、特定した基底ベクトルと対応するいずれかの要素の値を変化させながら、当該入力情報に対応する複数の出力情報を取得する
ことを特徴とする請求項6に記載の学習装置。 - 前記生成部は、前記モデルとして、入力された画像を符号化するエンコーダ、符号化された前記画像に対して所定の行列を適用したベクトルを生成するベクトル生成部、および、当該ベクトルから前記画像と対応する画像を生成するデコーダとを有するモデルを生成する
ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。 - 前記生成部は、前記モデルとして、前記ベクトルから前記エンコーダに入力された情報を復元するデコーダを有するモデルを生成する
ことを特徴とする請求項1〜8のうちいずれか1つに記載の学習装置。 - 前記生成部は、前記モデルとして、畳み込みニューラルネットワークを前記エンコーダとして有するモデルを生成する
ことを特徴とする請求項1〜9のうちいずれか1つに記載の学習装置。 - 学習装置が実行する学習方法であって、
入力された情報を符号化するエンコーダと、符号化された前記情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、当該ベクトルから前記情報に対応する情報を生成するデコーダとを有するモデルを生成する生成工程と、
前記モデルに対して所定の入力情報を入力した際に、当該モデルが当該入力情報と対応する出力情報を出力し、かつ、前記所定の行列が前記入力情報の辞書行列となるように、前記モデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 入力された情報を符号化するエンコーダと、符号化された前記情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、当該ベクトルから前記情報に対応する情報を生成するデコーダとを有するモデルを生成する生成手順と、
前記モデルに対して所定の入力情報を入力した際に、当該モデルが当該入力情報と対応する出力情報を出力し、かつ、前記所定の行列が前記入力情報の辞書行列となるように、前記モデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。 - 入力された情報を符号化するエンコーダと、
前記エンコーダにより符号化された前記情報に対して所定の行列を適用したベクトルを生成するベクトル生成部と、
前記ベクトル生成部により生成されたベクトルから前記情報に対応する情報を生成するデコーダと、
を含むモデルとしてコンピュータを動作させるための動作プログラムであって、
所定の入力情報を入力した際に、当該所定の入力情報と対応する出力情報を出力し、かつ、前記所定の行列が当該所定の入力情報の辞書行列となるように学習が行われ、所定の入力情報を入力した際に、符号化された入力情報を徐々に変更させながら当該所定の入力情報と対応する複数の出力情報を出力するモデルとして前記コンピュータを動作させるための動作プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223074A JP6381768B1 (ja) | 2017-11-20 | 2017-11-20 | 学習装置、学習方法、学習プログラムおよび動作プログラム |
US16/117,349 US11521110B2 (en) | 2017-11-20 | 2018-08-30 | Learning apparatus, learning method, and non-transitory computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223074A JP6381768B1 (ja) | 2017-11-20 | 2017-11-20 | 学習装置、学習方法、学習プログラムおよび動作プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6381768B1 true JP6381768B1 (ja) | 2018-08-29 |
JP2019095935A JP2019095935A (ja) | 2019-06-20 |
Family
ID=63354756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017223074A Active JP6381768B1 (ja) | 2017-11-20 | 2017-11-20 | 学習装置、学習方法、学習プログラムおよび動作プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11521110B2 (ja) |
JP (1) | JP6381768B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101988028B1 (ko) * | 2018-09-04 | 2019-06-11 | 넷마블 주식회사 | 서버 및 이의 동작 방법 |
JP2020173701A (ja) * | 2019-04-12 | 2020-10-22 | 株式会社Ihi | 形状生成装置および形状生成方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6523498B1 (ja) * | 2018-01-19 | 2019-06-05 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
US11610435B2 (en) * | 2018-11-14 | 2023-03-21 | Nvidia Corporation | Generative adversarial neural network assisted video compression and broadcast |
US11580395B2 (en) * | 2018-11-14 | 2023-02-14 | Nvidia Corporation | Generative adversarial neural network assisted video reconstruction |
US11455790B2 (en) | 2018-11-14 | 2022-09-27 | Nvidia Corporation | Style-based architecture for generative neural networks |
KR102411173B1 (ko) * | 2019-11-01 | 2022-06-21 | 국방과학연구소 | 태스크 할당 방법 및 장치 |
CN113542759B (zh) * | 2020-04-15 | 2024-05-10 | 辉达公司 | 生成对抗神经网络辅助的视频重建 |
CN113542758A (zh) * | 2020-04-15 | 2021-10-22 | 辉达公司 | 生成对抗神经网络辅助的视频压缩和广播 |
US11823490B2 (en) * | 2021-06-08 | 2023-11-21 | Adobe, Inc. | Non-linear latent to latent model for multi-attribute face editing |
US20240114162A1 (en) * | 2022-09-29 | 2024-04-04 | Nvidia Corporation | Frame selection for streaming applications |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3166020A1 (en) * | 2015-11-06 | 2017-05-10 | Thomson Licensing | Method and apparatus for image classification based on dictionary learning |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8457409B2 (en) * | 2008-05-22 | 2013-06-04 | James Ting-Ho Lo | Cortex-like learning machine for temporal and hierarchical pattern recognition |
WO2014144306A1 (en) * | 2013-03-15 | 2014-09-18 | Arizona Board Of Regents On Behalf Of Arizona State University | Ensemble sparse models for image analysis and restoration |
JP6292911B2 (ja) * | 2014-02-07 | 2018-03-14 | キヤノン株式会社 | 画像処理方法、画像処理プログラムおよび画像処理装置 |
US9684951B2 (en) * | 2014-03-31 | 2017-06-20 | Los Alamos National Security, Llc | Efficient convolutional sparse coding |
US9430697B1 (en) * | 2015-07-03 | 2016-08-30 | TCL Research America Inc. | Method and system for face recognition using deep collaborative representation-based classification |
WO2017176356A2 (en) * | 2016-02-11 | 2017-10-12 | William Marsh Rice University | Partitioned machine learning architecture |
JP6470209B2 (ja) | 2016-03-08 | 2019-02-13 | 株式会社東芝 | サーバ、システム及び探索方法 |
-
2017
- 2017-11-20 JP JP2017223074A patent/JP6381768B1/ja active Active
-
2018
- 2018-08-30 US US16/117,349 patent/US11521110B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3166020A1 (en) * | 2015-11-06 | 2017-05-10 | Thomson Licensing | Method and apparatus for image classification based on dictionary learning |
Non-Patent Citations (2)
Title |
---|
岡谷 貴之 外1名: "「ディープラーニング」", 情報処理学会研究報告 2013 FEBRUARY [CD−ROM], JPN6018014848, 15 February 2013 (2013-02-15), pages pp.1−17 * |
日野 英逸 外1名: "「スパース表現の数理とその応用」", 情報処理学会研究報告 2012 OCTOBER[CD−ROM], JPN6018014849, 15 October 2012 (2012-10-15), pages pp.1−10 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101988028B1 (ko) * | 2018-09-04 | 2019-06-11 | 넷마블 주식회사 | 서버 및 이의 동작 방법 |
JP2020173701A (ja) * | 2019-04-12 | 2020-10-22 | 株式会社Ihi | 形状生成装置および形状生成方法 |
JP7346885B2 (ja) | 2019-04-12 | 2023-09-20 | 株式会社Ihi | 形状生成装置および形状生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US11521110B2 (en) | 2022-12-06 |
US20190156248A1 (en) | 2019-05-23 |
JP2019095935A (ja) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6381768B1 (ja) | 学習装置、学習方法、学習プログラムおよび動作プログラム | |
US11699095B2 (en) | Cross-domain recommender systems using domain separation networks and autoencoders | |
JP2019008742A (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム | |
CN110751188B (zh) | 基于多标记学习的用户标签预测方法、系统及存储介质 | |
CN117836765A (zh) | 基于多模态超图的点击预测 | |
JP6975610B2 (ja) | 学習装置および学習方法 | |
JP7058556B2 (ja) | 判定装置、判定方法、および判定プログラム | |
JP6568175B2 (ja) | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム | |
KR102371487B1 (ko) | 명목형 데이터를 포함하는 데이터를 기반으로 하는 학습 방법 및 장치 | |
Jenny Li et al. | Evaluating deep learning biases based on grey-box testing results | |
CN110851580B (zh) | 一种基于结构化用户属性描述的个性化任务型对话系统 | |
JP6964481B2 (ja) | 学習装置、プログラムおよび学習方法 | |
KR20220018633A (ko) | 이미지 검색 방법 및 장치 | |
US20240037335A1 (en) | Methods, systems, and media for bi-modal generation of natural languages and neural architectures | |
JP6910873B2 (ja) | 特定装置および特定方法 | |
JP6680655B2 (ja) | 学習装置および学習方法 | |
JP2019021218A (ja) | 学習装置、プログラムパラメータ、学習方法およびモデル | |
JP6979899B2 (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム | |
JP6963988B2 (ja) | 提供装置、提供方法および提供プログラム | |
JP7268069B2 (ja) | 学習装置、学習方法、学習プログラム、評価装置、評価方法、および評価プログラム | |
JP7054645B2 (ja) | 生成装置、生成方法、生成プログラムおよびプログラムパラメータ | |
JP2020004054A (ja) | 出力装置、出力方法および出力プログラム | |
JP2019211977A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
WO2024034196A1 (ja) | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム | |
CN117520665B (zh) | 一种基于生成对抗网络的社交推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180118 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180118 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6381768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |