JPWO2019035364A1 - プログラム、情報処理方法、および情報処理装置 - Google Patents
プログラム、情報処理方法、および情報処理装置 Download PDFInfo
- Publication number
- JPWO2019035364A1 JPWO2019035364A1 JP2019536728A JP2019536728A JPWO2019035364A1 JP WO2019035364 A1 JPWO2019035364 A1 JP WO2019035364A1 JP 2019536728 A JP2019536728 A JP 2019536728A JP 2019536728 A JP2019536728 A JP 2019536728A JP WO2019035364 A1 JPWO2019035364 A1 JP WO2019035364A1
- Authority
- JP
- Japan
- Prior art keywords
- network
- learning
- data
- data set
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本技術の一側面のプログラムは、コンピュータを、学習用のデータを含むデータセットが指定されることに応じて、データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、学習用のデータを学習用ネットワークに入力し、推論実行用ネットワークの学習を行う学習部として機能させるためのプログラムである。本技術は、Deep Learningによるネットワークの設計を支援するプログラムに適用することができる。
Description
1.ネットワークの自動生成機能
2.PCの構成と動作
3.各問題に応じたネットワークの具体例
4.その他
<1−1.ネットワーク設計支援プログラムについて>
図1は、本技術の一実施形態に係るプログラムを提供する提供システムの構成例を示す図である。
(1)回帰問題
(2)分類問題
(3)メトリック学習(メトリック学習の結果を用いた特徴抽出)
(4)半教師学習(半教師学習の結果を用いた回帰・分類問題)
(5)生成モデル(生成モデルを用いたデータの生成)
(1)画像(動画、静止画)
(2)音声
(3)項目
(4)テキスト
ここで、ネットワークの基本的な事項について説明する。
<2−1.PCの構成>
図5は、PC1の構成例を示すブロック図である。
ここで、図7のフローチャートを参照して、以上のような構成を有する情報処理部131のネットワーク自動生成処理について説明する。
ここで、ユーザが解こうとする問題に応じて自動的に生成される推論器と学習器の具体例について説明する。重複する説明については適宜省略する。
回帰問題は、連続値を想定したデータの予測を行うものである。推論器として生成されるネットワークは予測器となる。
(1)前提
ユーザは、データを入力して、別のデータ(連続値)を予測する予測器を作りたいとする。このような予測器には、例えば、不動産物件の様々な情報を入力して、不動産物件の価格を予測(査定)する予測器がある。不動産物件の価格の予測の他に、画像から特定の物体の位置(座標)を予測する予測器、音声から音源の位置を推定する予測器、センサデータから他のセンサ値を予測する予測器などがある。
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
ユーザは、学習用データセットを指定して、予測器の設計をシステム(ネットワーク設計支援プログラム)に指示する。システムにおいては、学習用データセットから、ユーザが解こうとしている問題が回帰問題であるとして推定され、回帰問題における定番の予測器と定番の学習器が生成される。定番の学習器は、定番の予測器に、定番のロス関数を付加することによって生成される。
図8は、データセットの第1の例を示す図である。
図10は、予測器と学習器の例を示す図である。
・Deep Residual Learning for Image Recognition <https://arxiv.org/abs/1512.03385>
分類問題は、入力されたデータを、それが属するカテゴリに分類するものである。分類問題は、クラス数が2である二値分類問題と、3以上である多値分類問題に分けられる。推論器として生成されるネットワークは分類器となる。
(1)前提
ユーザは、データを入力して、そのデータが所属するカテゴリ(離散値)を分類する分類器を作りたいとする。このような分類器には、例えば、花が写る画像を入力して、花の種類毎に分類する分類器、動物が写る画像を入力して、動物の種類毎に分類する分類器がある。
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
ユーザは、学習用データセットを指定して、分類器の設計をシステムに指示する。システムにおいては、学習用データセットから、ユーザが解こうとしている問題が分類問題であるとして推定され、分類問題における定番の分類器と定番の学習器が生成される。定番の学習器は、定番の分類器に、定番のロス関数を付加することによって生成される。
図11は、データセットの第1の例を示す図である。
図13は、二値分類問題における分類器と学習器の例を示す図である。
図15は、以上のような、回帰問題と分類問題において用いられるネットワークの定石の設計をまとめて示す図である。図6のネットワーク生成部142は、このような定石の設計に関する情報を有している。
メトリック学習(特徴空間学習)は、データの、特徴空間への埋め込み方法を推定する学習である。推論器として生成されるネットワークは特徴抽出器となる。
(1)前提
ユーザは、データを入力して、特徴空間上に射影する特徴抽出器を作りたいとする。特徴抽出器は、例えば、事前登録されているデータと、入力されたデータのマッチング(同じデータであるか違うデータであるかの判定)を行うアプリケーションなどで用いられる。
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
ユーザは、学習用データセットを指定して、特徴抽出器の設計をシステムに指示する。システムにおいては、メトリック学習を行うことが推定され、メトリック学習における定番の特徴抽出器と定番の学習器が生成される。定番の学習器は、定番の特徴抽出器を含むネットワークに、定番のロス関数を付加することによって生成される。
図16は、特徴抽出器とSiameseロスを用いた学習器の例を示す図である。Siameseロスを用いる場合のメトリック学習は、Siameseネットワークとして構成される学習器を用いて行われる。
メトリック学習を用いることにより、画像や音声等の所定のデータを最初に登録しておき、新たに入力されたデータが、登録済みのデータと同一か否かを判別することが可能になる。このような技術は、例えば顔識別のアプリケーションや物体トラッキングのアプリケーションに用いられる。
・DeepFace - Closing the Gap to Human-Level Performance in Face Verification, Taigman <https://research.fb.com/publications/deepface-closing-the-gap-to-human-level-performance-in-face-verification/>
・Triplet Similarity Embedding for Face Verification、Sankaranarayanan <https://arxiv.org/abs/1602.03418>
・Fully-Convolutional Siamese Networks for Object Tracking, Bertinetto <https://arxiv.org/abs/1606.09549>
・Deep metric learning using Triplet network, Hoffer <https://arxiv.org/abs/1412.6622>
半教師学習は、ラベルありデータとラベルなしデータを用いた学習である。推論器として生成されるネットワークは、解こうとしている問題が回帰問題である場合には予測器となり、分類問題である場合には分類器となる。回帰問題と分類問題について上述した説明と重複する説明については適宜省略する。
(1)前提
ユーザは、ラベルありデータとラベルなしデータを持っていて、別のデータを予測する予測器、または、入力したデータが所属するカテゴリを分類する分類器を作りたいとする。
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットには、各データにラベルが対応付けられたラベルありデータセットと、ラベルが対応付けられていないラベルなしデータセットの両方のデータセットが含まれる。評価用データセットには、ラベルありデータセットが含まれる。
ユーザは、学習用データセットを指定して、ネットワークの設計をシステムに指示する。システムにおいては、学習用データセットから、半教師学習を行うことが推定される。また、システムにおいては、ユーザが解こうとしている問題が、回帰問題であるのか、分類問題であるのかが推定される。
図18は、データセットの第1の例を示す図である。
図20は、分類器と学習器の例を示す図である。
・"Distributional Smoothing with Virtual Adversarial Training, Miyato" <https://arxiv.org/abs/1507.00677>
・3−5−1.生成モデルの学習の流れ
(1)前提
ユーザは、生成したいドメインのデータを持っていて、乱数を入力して擬似データを生成する生成器(生成モデル)を作りたいとする。
・Auto-Encoding Variational Bayes, Kingma, 1312.6114v10 <https://arxiv.org/abs/1312.6114>
・Generative Adversarial Nets, Goodfellow, 1406.2661v1 <https://arxiv.org/abs/1406.2661>
ユーザは、生成したいドメインのデータからなる学習用データセットを事前に用意しておく。学習用データセットの各データはラベルなしであってもよいが、ドメインがある程度絞られているデータであることが望ましい。
ユーザは、学習技術(VAEを用いた学習、またはGANを用いた学習など)を指定して、生成器の設計をシステムに指示する。ユーザが生成器を作成しようとしていることが学習用データセットに基づいてシステムにより推定されるようにしてもよい。この場合、生成器の設計を指示することは不要となる。
図23は、生成器と、VAEを用いた学習器の例を示す図である。
ユーザが解こうとしている問題の推定は、図15等を参照して説明したように、ラベルの型が連続値である場合には回帰問題として推定し、ラベルの型が離散値である場合には分類問題として推定するようにして行われる。ここで、半教師学習等の、それ以外の上述した問題を含む場合の推定処理について説明する。
<4−1.時系列データ>
学習用データセットに含まれるデータを時系列データとすることも可能である。学習用データセットに含まれるデータが時系列データである場合、時系列データを構成する各時刻のデータ(スナップショットデータ)を用いて、以上の処理と同様の処理が行われる。
デフォルトのネットワークとしてシステムにより自動的に生成されるネットワークは、上述したものに限られない。
本技術は、以下のような構成をとることもできる。
(1)
コンピュータを、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
して機能させるためのプログラム。
(2)
前記生成部は、前記学習用のデータのドメインに応じた構造を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
前記(1)に記載のプログラム。
(3)
前記生成部は、前記学習用のデータのドメインが画像または音声である場合、畳み込み層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成し、前記学習用のデータのドメインが項目またはテキストである場合、全結合層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
前記(2)に記載のプログラム。
(4)
前記生成部は、前記推論実行用ネットワークに、推論によって解こうとする問題に応じたロス関数を付加することによって前記学習用ネットワークを生成する
前記(1)乃至(3)のいずれかに記載のプログラム。
(5)
前記生成部は、前記問題が回帰問題である場合、二乗誤差関数を付加し、前記問題が分類問題である場合、クロスエントロピー関数を付加する
前記(4)に記載のプログラム。
(6)
前記生成部は、前記問題がメトリック学習を用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むsiameseネットワークまたはtripletネットワーク、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(7)
前記生成部は、前記問題が、半教師学習を用いた回帰問題または分類問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むVATのネットワーク、あるいは、その派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(8)
前記生成部は、前記問題が、生成モデルを用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含む変分オートエンコーダのネットワークまたはGAN、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(9)
前記データセットの内容に基づいて前記問題を推定する問題推定部をさらに備える
前記(4)乃至(8)のいずれかに記載のプログラム。
(10)
前記問題推定部は、前記データセットにおける正解ラベルが連続値である場合、前記問題が回帰問題であるとして推定し、離散値である場合、前記問題が分類問題であるとして推定する
前記(9)に記載のプログラム。
(11)
前記問題推定部は、前記学習用のデータと評価用のデータが前記データセットに含まれ、正解ラベルの値の範囲が、前記学習用のデータと前記評価用のデータとで異なる場合、前記問題が、メトリック学習を用いた問題であるとして推定する
前記(9)に記載のプログラム。
(12)
前記問題推定部は、前記学習用のデータとして、正解ラベルを含むデータと正解ラベルを含まないデータが前記データセットに含まれている場合、前記問題が、半教師学習を用いた回帰問題または分類問題であるとして推定する
前記(9)に記載のプログラム。
(13)
前記問題推定部は、前記学習用のデータに、正解ラベルが含まれていない場合、前記問題が、生成モデルを用いた問題であるとして推定する
前記(9)に記載のプログラム。
(14)
前記問題推定部は、前記データセットに含まれる、前記問題を指定するデータに基づいて前記問題を推定する
前記(9)に記載のプログラム。
(15)
前記生成部により生成された前記推論実行用ネットワークと前記学習用ネットワークに関する情報を提示する提示制御部をさらに備える
前記(1)乃至(14)のいずれかに記載のプログラム。
(16)
前記提示制御部は、前記推論実行用ネットワークと前記学習用ネットワークのソースコード、または、前記推論実行用ネットワークと前記学習用ネットワークのモジュール構成を表す画像を提示する
前記(15)に記載のプログラム。
(17)
前記生成部は、ユーザによる入力に応じて、提示された前記推論実行用ネットワークと前記学習用ネットワークの設計変更を行う
前記(15)または(16)に記載のプログラム。
(18)
前記生成部による前記推論実行用ネットワークと前記学習用ネットワークの生成は、前記データセットが指定された後、ユーザによる操作によらずに行われる
前記(1)乃至(17)のいずれかに記載のプログラム。
(19)
情報処理装置が、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成し、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う
情報処理方法。
(20)
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
を備える情報処理装置。
Claims (20)
- コンピュータを、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
して機能させるためのプログラム。 - 前記生成部は、前記学習用のデータのドメインに応じた構造を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
請求項1に記載のプログラム。 - 前記生成部は、前記学習用のデータのドメインが画像または音声である場合、畳み込み層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成し、前記学習用のデータのドメインが項目またはテキストである場合、全結合層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
請求項2に記載のプログラム。 - 前記生成部は、前記推論実行用ネットワークに、推論によって解こうとする問題に応じたロス関数を付加することによって前記学習用ネットワークを生成する
請求項1に記載のプログラム。 - 前記生成部は、前記問題が回帰問題である場合、二乗誤差関数を付加し、前記問題が分類問題である場合、クロスエントロピー関数を付加する
請求項4に記載のプログラム。 - 前記生成部は、前記問題がメトリック学習を用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むsiameseネットワークまたはtripletネットワーク、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
請求項4に記載のプログラム。 - 前記生成部は、前記問題が、半教師学習を用いた回帰問題または分類問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むVATのネットワーク、あるいは、その派生したネットワークを、前記学習用ネットワークとして生成する
請求項4に記載のプログラム。 - 前記生成部は、前記問題が、生成モデルを用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含む変分オートエンコーダのネットワークまたはGAN、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
請求項4に記載のプログラム。 - 前記データセットの内容に基づいて前記問題を推定する問題推定部をさらに備える
請求項4に記載のプログラム。 - 前記問題推定部は、前記データセットにおける正解ラベルが連続値である場合、前記問題が回帰問題であるとして推定し、離散値である場合、前記問題が分類問題であるとして推定する
請求項9に記載のプログラム。 - 前記問題推定部は、前記学習用のデータと評価用のデータが前記データセットに含まれ、正解ラベルの値の範囲が、前記学習用のデータと前記評価用のデータとで異なる場合、前記問題が、メトリック学習を用いた問題であるとして推定する
請求項9に記載のプログラム。 - 前記問題推定部は、前記学習用のデータとして、正解ラベルを含むデータと正解ラベルを含まないデータが前記データセットに含まれている場合、前記問題が、半教師学習を用いた回帰問題または分類問題であるとして推定する
請求項9に記載のプログラム。 - 前記問題推定部は、前記学習用のデータに、正解ラベルが含まれていない場合、前記問題が、生成モデルを用いた問題であるとして推定する
請求項9に記載のプログラム。 - 前記問題推定部は、前記データセットに含まれる、前記問題を指定するデータに基づいて前記問題を推定する
請求項9に記載のプログラム。 - 前記生成部により生成された前記推論実行用ネットワークと前記学習用ネットワークに関する情報を提示する提示制御部をさらに備える
請求項1に記載のプログラム。 - 前記提示制御部は、前記推論実行用ネットワークと前記学習用ネットワークのソースコード、または、前記推論実行用ネットワークと前記学習用ネットワークのモジュール構成を表す画像を提示する
請求項15に記載のプログラム。 - 前記生成部は、ユーザによる入力に応じて、提示された前記推論実行用ネットワークと前記学習用ネットワークの設計変更を行う
請求項15に記載のプログラム。 - 前記生成部による前記推論実行用ネットワークと前記学習用ネットワークの生成は、前記データセットが指定された後、ユーザによる操作によらずに行われる
請求項1に記載のプログラム。 - 情報処理装置が、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成し、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う
情報処理方法。 - 学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
を備える情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017157214 | 2017-08-16 | ||
JP2017157214 | 2017-08-16 | ||
PCT/JP2018/028986 WO2019035364A1 (ja) | 2017-08-16 | 2018-08-02 | プログラム、情報処理方法、および情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019035364A1 true JPWO2019035364A1 (ja) | 2020-09-03 |
JP7207309B2 JP7207309B2 (ja) | 2023-01-18 |
Family
ID=65362823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019536728A Active JP7207309B2 (ja) | 2017-08-16 | 2018-08-02 | プログラム、情報処理方法、および情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11605002B2 (ja) |
EP (1) | EP3671566A4 (ja) |
JP (1) | JP7207309B2 (ja) |
WO (1) | WO2019035364A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056406B2 (ja) * | 2018-06-22 | 2022-04-19 | 日本電信電話株式会社 | センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム |
CN114080612A (zh) * | 2019-07-22 | 2022-02-22 | 索尼集团公司 | 信息处理方法、信息处理设备和程序 |
US20230029988A1 (en) * | 2020-01-14 | 2023-02-02 | Nec Corporation | Learning device, facial recognition system, learning method, and recording medium |
US11334795B2 (en) | 2020-03-14 | 2022-05-17 | DataRobot, Inc. | Automated and adaptive design and training of neural networks |
CN113569928B (zh) * | 2021-07-13 | 2024-01-30 | 湖南工业大学 | 一种列车运行状态检测数据缺失处理模型及重建的方法 |
WO2024157398A1 (ja) * | 2023-01-25 | 2024-08-02 | 日本電気株式会社 | 学習装置、学習方法、プログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0333968A (ja) * | 1989-06-30 | 1991-02-14 | Hitachi Ltd | ニューラルネツトを用いた情報処理システム及びパターン認識システム |
JPH08249007A (ja) * | 1995-03-08 | 1996-09-27 | Mitsubishi Electric Corp | 予測方法及び予測装置 |
JP2000231548A (ja) * | 1999-02-08 | 2000-08-22 | Nec Corp | データ分類装置、データ分類方法およびデータ分類用プログラムを記録した記録媒体 |
JP2014228995A (ja) * | 2013-05-21 | 2014-12-08 | パイオニア株式会社 | 画像特徴学習装置、画像特徴学習方法及びプログラム |
WO2015008567A1 (ja) * | 2013-07-18 | 2015-01-22 | Necソリューションイノベータ株式会社 | 顔印象度推定方法、装置、及びプログラム |
JP2015052832A (ja) * | 2013-09-05 | 2015-03-19 | 国立大学法人 東京大学 | 重み設定装置および方法 |
JP2017016414A (ja) * | 2015-07-01 | 2017-01-19 | 株式会社リコー | 学習方法、プログラム及び学習装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080222065A1 (en) * | 2007-03-05 | 2008-09-11 | Sharkbait Enterprises Llc | Learning and analysis systems and methods |
US20200226012A1 (en) * | 2010-06-07 | 2020-07-16 | Affectiva, Inc. | File system manipulation using machine learning |
US10303953B2 (en) * | 2017-04-17 | 2019-05-28 | Intel Corporation | Person tracking and privacy and acceleration of data using autonomous machines |
US10498609B1 (en) * | 2017-07-11 | 2019-12-03 | Amdocs Development Limited | System, method, and computer program for enterprise service network design driven by deep machine learning and artificial intelligence |
JP2023501041A (ja) * | 2019-08-28 | 2023-01-18 | Visualize株式会社 | 深層学習を使用して2dフォトから3dオブジェクトの圧力マップを予測するための方法及びシステム |
EP4275148A1 (en) * | 2021-01-08 | 2023-11-15 | Regeneron Pharmaceuticals, Inc. | Methods and systems for improved deep-learning models |
-
2018
- 2018-08-02 EP EP18846168.5A patent/EP3671566A4/en not_active Withdrawn
- 2018-08-02 WO PCT/JP2018/028986 patent/WO2019035364A1/ja unknown
- 2018-08-02 JP JP2019536728A patent/JP7207309B2/ja active Active
- 2018-08-02 US US16/637,269 patent/US11605002B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0333968A (ja) * | 1989-06-30 | 1991-02-14 | Hitachi Ltd | ニューラルネツトを用いた情報処理システム及びパターン認識システム |
JPH08249007A (ja) * | 1995-03-08 | 1996-09-27 | Mitsubishi Electric Corp | 予測方法及び予測装置 |
JP2000231548A (ja) * | 1999-02-08 | 2000-08-22 | Nec Corp | データ分類装置、データ分類方法およびデータ分類用プログラムを記録した記録媒体 |
JP2014228995A (ja) * | 2013-05-21 | 2014-12-08 | パイオニア株式会社 | 画像特徴学習装置、画像特徴学習方法及びプログラム |
WO2015008567A1 (ja) * | 2013-07-18 | 2015-01-22 | Necソリューションイノベータ株式会社 | 顔印象度推定方法、装置、及びプログラム |
JP2015052832A (ja) * | 2013-09-05 | 2015-03-19 | 国立大学法人 東京大学 | 重み設定装置および方法 |
JP2017016414A (ja) * | 2015-07-01 | 2017-01-19 | 株式会社リコー | 学習方法、プログラム及び学習装置 |
Non-Patent Citations (3)
Title |
---|
安倍 満 他: "「対応点探索のための特徴量表現」", 電子情報通信学会技術研究報告, vol. 第115巻 第388号, JPN6018043022, 14 December 2015 (2015-12-14), pages 53 - 73, ISSN: 0004812134 * |
宮戸 岳 他: "「分布の局所平滑化による正則化の提案」", 電子情報通信学会技術研究報告, vol. 第115巻 第323号, JPN6018043023, 19 November 2015 (2015-11-19), pages 257 - 264, ISSN: 0004812135 * |
岡野原 大輔: "「AI最前線 第10回 Generative Adversarial Networks ニューラルネットを競合させ生成モデルを鍛える」", 日経ROBOTICS 5月号, vol. 第10号, JPN6018043024, 10 April 2016 (2016-04-10), pages 36 - 37, ISSN: 0004812136 * |
Also Published As
Publication number | Publication date |
---|---|
WO2019035364A1 (ja) | 2019-02-21 |
US11605002B2 (en) | 2023-03-14 |
JP7207309B2 (ja) | 2023-01-18 |
EP3671566A1 (en) | 2020-06-24 |
US20200184341A1 (en) | 2020-06-11 |
EP3671566A4 (en) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7207309B2 (ja) | プログラム、情報処理方法、および情報処理装置 | |
Elgendy | Deep learning for vision systems | |
JP7335274B2 (ja) | ジオロケーションの予測のためのシステムおよび方法 | |
US11966839B2 (en) | Auto-regressive neural network systems with a soft attention mechanism using support data patches | |
US11074454B1 (en) | Classifying videos using neural networks | |
Goyal et al. | Towards transparent ai systems: Interpreting visual question answering models | |
US20190156204A1 (en) | Training a neural network model | |
US20240029436A1 (en) | Action classification in video clips using attention-based neural networks | |
CN110073369B (zh) | 时间差分模型的无监督学习技术 | |
CN110796190A (zh) | 具有深度学习特征的指数建模 | |
US11887215B2 (en) | Image processing apparatus and method for style transformation | |
CN110473526A (zh) | 对语音识别模型进行个性化的装置和方法及电子装置 | |
US20190318262A1 (en) | Tool for designing artificial intelligence systems | |
CN109410924A (zh) | 识别方法和识别设备 | |
CN109716365A (zh) | 动态地管理人工神经网络 | |
KR20180054407A (ko) | 로봇 시스템 | |
US11475236B2 (en) | Minimum-example/maximum-batch entropy-based clustering with neural networks | |
Kember | Ambient intelligent photography | |
Suthar et al. | Human activity recognition using deep learning: a survey | |
CN115374304A (zh) | 数据处理方法、电子设备、存储介质及计算机程序产品 | |
Vishwakarma et al. | A Survey on Deep Learning Methods in Image Analytics | |
KR102463875B1 (ko) | 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템 | |
CN110689117A (zh) | 基于神经网络的信息处理方法和装置 | |
CN113516670B (zh) | 一种反馈注意力增强的非模式图像分割方法及装置 | |
CN114692022A (zh) | 基于时空行为模式的位置预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7207309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |