JP5899272B2 - 算出装置、算出方法及び算出プログラム - Google Patents

算出装置、算出方法及び算出プログラム Download PDF

Info

Publication number
JP5899272B2
JP5899272B2 JP2014126546A JP2014126546A JP5899272B2 JP 5899272 B2 JP5899272 B2 JP 5899272B2 JP 2014126546 A JP2014126546 A JP 2014126546A JP 2014126546 A JP2014126546 A JP 2014126546A JP 5899272 B2 JP5899272 B2 JP 5899272B2
Authority
JP
Japan
Prior art keywords
calculation
coupling coefficient
dnn
neuron
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014126546A
Other languages
English (en)
Other versions
JP2016004547A (ja
Inventor
健一 磯
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2014126546A priority Critical patent/JP5899272B2/ja
Priority to US14/465,147 priority patent/US10346742B2/en
Publication of JP2016004547A publication Critical patent/JP2016004547A/ja
Application granted granted Critical
Publication of JP5899272B2 publication Critical patent/JP5899272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0721Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment within a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は、算出装置、算出方法及び算出プログラムに関する。
近年、多段に接続されたニューロンを有するDNN(Deep Neural Network)を利用して言語認識や画像認識の学習を行うディープラーニングに関する技術が知られている。例えば、このような技術では、入力された画像データから画像に含まれる物体等を学習することでDNNを取得する。そして、新たな画像データが入力された場合に、取得したDNNに基づいてどのような物体が画像に含まれているかを識別する。
特表2009−516246号公報
しかしながら、上記の従来技術では、DNNを容易に取得することができるとは限らなかった。例えば、上記の従来技術では、所望の判定を行うDNNを取得するために、大量のデータを用いて学習を行うことになる。このため、上記の従来技術では、学習用のデータを集める手間がかかるとともに、データの学習に時間がかかる。このようなことから、上記の従来技術では、DNNを容易に取得することができるとは限らなかった。
本願は、上記に鑑みてなされたものであって、DNNを容易に取得することができる算出装置、算出方法及び算出プログラムを提供することを目的とする。
本願に係る算出装置は、入力データに対する演算結果を出力する複数のノードを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を学習済みのネットワークに対して新規ノードを追加する追加部と、前記所定のクラスに含まれる第2のサブクラスに属する学習用のデータを入力データとして受け付ける受付部と、前記受付部によって受け付けられた学習用のデータを前記ネットワークに入力した場合の出力結果に基づいて、前記第2のサブクラスに属する学習用のデータの特徴を学習するように、前記追加部によって追加された新規ノードと他のノードとの間の結合係数を算出する算出部とを備えたことを目的とする。
実施形態の一態様によれば、DNNを容易に取得することができるという効果を奏する。
図1は、実施形態に係る算出装置による算出処理の一例を示す説明図である。 図2は、実施形態に係る算出装置の構成例を示す図である。 図3は、実施形態に係るDNN情報記憶部の一例を示す図である。 図4は、算出装置による算出処理手順を示すフローチャートである。 図5は、算出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る算出装置、算出方法及び算出プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る算出装置、算出方法及び算出プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.算出処理〕
まず、図1を用いて、実施形態に係る算出処理の一例について説明する。図1は、実施形態に係る算出装置による算出処理の一例を示す説明図である。図1の例では、算出装置100によってデータの特徴を識別可能なDNNの結合係数を算出する算出処理が行われる例を示す。
算出装置100は、DNNにおけるノード(例えば、ニューロン)間の結合係数(例えば、重み係数)を算出するサーバ装置である。ここで、DNNは、例えば、入力データに対する演算結果を出力する複数のニューロンを接続したネットワークであって所定のクラスに属するデータの特徴を抽出する結合係数が複数のニューロン間に設定されたネットワークである。図1の例では、DNNは、ニューロンN01〜N03によって形成される入力層と、ニューロンN11〜Nn3によって形成される中間層と、ニューロンNによって形成される出力層とから構成される。また、DNNは、洋服(所定のクラスに相当)が描画された画像から、A社製の洋服(第1のサブクラスに相当)が含まれる画像を取り出す学習器である。なお、ニューロンNは、画像にA社製の洋服が含まれている場合には、「1」を出力する。一方、ニューロンNは、画像にA社製の洋服が含まれていない場合には、「0」を出力する。また、図1では、説明を簡単にするため、DNNの中間層として3層のニューロン群を一例として図示したが、DNNの中間層は、任意の数の層によって構成される。
算出装置100は、例えば、データの特徴を抽出するために、DNNに追加されたニューロンと他のニューロンとの間の結合係数を算出する。この点について図1を用いて詳細に説明する。なお、図1の例では、算出装置100は、C社製の洋服(第2のサブクラスに相当)の特徴を抽出するDNNの結合係数を算出する。
まず、算出装置100は、A社製の洋服の学習を行う。例えば、算出装置100は、図1に示すように、A社製の洋服が描出された複数の画像データP11〜P15を入力データとして受け付ける(ステップS1)。なお、図1では、説明を簡単にするため、算出装置100は、5つの入力データを受け付ける例を示すが、実際には、A社製の洋服の特徴を学習するのに十分な数の画像データを入力データとして受け付ける。
そして、算出装置100は、受け付けた画像データを用いて、データの特徴を抽出する結合係数が複数のニューロンN01〜Nn3間に設定されたDNNを生成する。例えば、算出装置100は、DNNに入力したデータと出力したデータとの誤差が少なくなるように各ニューロン間の結合係数を補正する。これにより、算出装置100は、各種の洋服が描出された画像データのうち、A社製の洋服が含まれた画像データを識別することが可能なDNNを生成する(ステップS2)。この場合、出力層のニューロンはニューロンNの1個であり、画像にA社製の洋服が含まれていれば「1」を出力し、画像にA社製の洋服が含まれていなければ「0」を出力するように学習する。他にも出力層として洋服の種類(コート、背広,セータ,シャツ、パンツ、靴下、など)を表すニューロンをそれぞれ用意して洋服の種類を識別するDNNを用いることもできる。あるいは出力層として入力層と同じ画像のピクセルに対応するニューロンを用意して、入力した画像と同じ画像を再現するように学習することもできる(この場合は洋服を含む画像を入力すると精度よく再現できるが、その他の学習したことがない例えば車の画像を入力すると出力層には入力した画像を精度よくは再現できない)。なお、算出装置100は、上述した手法以外の手法を用いてA社製の洋服の特徴を学習したDNNを生成してもよい。また、算出装置100は、上述した学習処理を行わずに、他のサーバ装置などによって生成されたDNNであってA社製の洋服の特徴を学習済みのDNNを取得して用いてもよい。また、以下の説明では、ステップS2にて生成されたDNNを学習済みDNNと記載する場合がある。
その後、算出装置100は、画像にA社製の洋服が含まれることを識別することが可能なDNNに対して新規ニューロンNpを新たに追加する(ステップS3)。以下、新規ニューロンNpを新たに追加したDNNを処理対象DNNと記載する場合がある。なお、ニューロンNは、入力データとして入力された画像にC社製の洋服が含まれている場合には、「1」を出力する。一方、ニューロンNは、入力データとして入力された画像にC社製の洋服が含まれていない場合には、「0」を出力するニューロンであるものとする。続いて、算出装置100は、C社製の洋服が描出された画像データP21〜P22を学習用の入力データとして受け付ける(ステップS4)。なお、図1では、説明を簡単にするため、算出装置100は、画像データP21および画像データP22を入力データとして受け付ける例を示すが、実際には、C社製の洋服の特徴を学習するのに十分な数の画像データを入力データとして受け付ける。
そして、算出装置100は、受け付けた画像データP21(C社製の洋服の画像)を処理対象DNNに入力した場合の出力結果に基づいて、追加された新規ニューロンNpと他のニューロンとの間の結合係数を算出する(ステップS5)。すなわち、算出装置100は、C社製の洋服を識別するようにDNNの結合係数を調整する。具体的には、算出装置100は、各ニューロンN01〜Nn3およびN間の結合係数を固定値として、バックプロパゲーション法(誤差補正手法)によって新規ニューロンNpと他のニューロンN11〜Nn3およびNとの間の結合係数を補正する。
例えば、算出装置100は、処理対象DNNに画像データP21を入力する。かかる場合、処理対象DNNは、C社製の洋服を判定するように設計されていないため、出力結果として「C社製の洋服」を出力せずに誤った出力をする場合がある。一例としては、ニューロンNは、「C社製の洋服」が描出された画像データP21が入力された際に、「C社製の洋服」が画像に描出されていないことを示す「0」を出力する場合がある。そこで、算出装置100は、入力データに対する誤った出力結果の誤差が解消されるように、処理対象DNNに含まれる結合係数のうち、学習済みDNNの結合係数以外の結合係数、すなわち新規ニューロンNpと他のニューロンとの間の結合係数を算出する。
ここで、処理対象DNNのうち、学習済みDNNの範囲には、少なくともA社製の洋服の特徴が学習されている。そこで、算出装置100は、A社製の洋服の特徴が学習された学習済みDNNに新規ニューロンNpを追加し、C社製の洋服を判定するように、新規ニューロンNpと他のニューロンN11〜Nn3およびNとの間の結合係数を算出する。
具体的には、算出装置100は、入力データをDNNに入力した場合の出力結果と入力データに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。一例としては、算出装置100は、C社製の洋服が描出された複数の画像データが入力データとして入力された場合に、可能な限り多くの画像データに対して「C社製の洋服」を出力結果として出力する結合係数を算出する。より具体的には、算出装置100は、C社製の洋服が描出された画像データが入力データとして入力された場合に、ニューロンNが「1」を出力する結合係数を算出する。すなわち、算出装置100は、C社製の洋服の識別誤差が最小となるように結合係数を補正する。
また、算出装置100は、ニューロンN01〜Nn3およびNのうち新規ニューロンNpを追加した層より出力層側に位置する上段ニューロンN11〜Nn3およびNと新規ニューロンNpとの間の結合係数W11〜Wn3およびWを算出する。より具体的には、算出装置100は、例えば、新規ニューロンNpと他のニューロンN11〜Nn3およびNとの間の結合係数を、DNNに含まれるニューロンのうち上位層に近いニューロンとの間の結合係数から順に誤差を最小とする結合係数W11〜Wn3およびWを算出する。すなわち、算出装置100は、図1の例では、結合係数W、Wn1、n2、n3、・・・21、22、11、12、13の順に出力の誤差が最小となる結合係数を算出する。これにより、算出装置100は、C社製の洋服を識別する精度を高めたDNN、すなわち、C社製の洋服用に調整されたDNNを取得できる。
また、C社製の洋服が描出されていない入力データ(例えば、X社製の洋服が描出された画像データ)に対する出力結果として、処理対象DNNが「C社製の洋服」を誤って出力した場合、算出装置100は、可能な限り多くの画像データに対して「C社製の洋服」を出力結果として出力しない結合係数を算出する。例えば、算出装置100は、X社製の洋服が描出された画像データが入力データとして入力された場合に、ニューロンNが「0」を出力する結合係数を算出する。なお、同じDNNにX社製の洋服が描出された画像データを入力し、新規ニューロンNpと他のニューロンN11〜Nn3およびNとの間の結合係数だけを補正することで、X社製の洋服を識別する結合係数を算出することもできる。
そして、算出装置100は、算出した結合係数に基づいて「C社製の洋服」を識別するDNNを生成する(ステップS6)。すなわち、算出装置100は、結合係数W、Wn1、n2、n3、・・・21、22、11、12、13が算出された値であるDNNを生成する。なお、算出装置100は、算出した結合係数、すなわち、ニューロンN11〜Nn3およびNと新規ニューロンNpとの間の結合係数をデータの特徴を示す特徴量ベクトルとして取得してもよい。かかる特徴量ベクトルは、例えば、入力データを分類するためのデータとして利用可能となる場合がある。このため、算出装置100は、算出した結合係数をC社製の洋服が描出された画像の特徴量として抽出してもよい。
このように、実施形態に係る算出装置100は、入力データに対する演算結果を出力する複数のノードを接続したネットワークであって、所定のクラス(例えば「洋服」のクラス)に含まれる第1のサブクラス(例えば、「A社製の洋服」)に属するデータの特徴を学習済みのネットワークに対して新規ノードを追加する。また、算出装置100は、新規なデータとして、所定のクラスに含まれる第2のサブクラス(例えば、「洋服」のクラスに含まれる「C社製の洋服」)に属するデータを入力データとして受け付ける。また、算出装置100は、受け付けられた新規なデータをネットワークに入力した場合の出力結果に基づいて、新規なデータの特徴を学習するように、すなわち、第2のサブクラスの特徴を学習するように、追加された新規ノードと他のノードとの間の結合係数を算出する。
また、実施形態に係る算出装置100は、結合係数として、新規なデータをネットワークに入力した場合の出力結果と新規なデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。
また、実施形態に係る算出装置100は、追加された新規ノードと他のノードとの間の結合係数を、ネットワークに含まれるノードのうち上位層に近いノードとの間の結合係数から順に誤差を最小とする結合係数を算出する。
これにより、算出装置100は、既存のDNNを利用して新規なデータの特徴を抽出するDNNを容易に得ることができる。すなわち、算出装置100は、新規なデータの特長を抽出するように、既存のDNNを調整することができる。例えば、算出装置100は、A社製の洋服の特徴について学習済みのDNNを用いて、C社製の洋服の特徴を識別可能なDNNを取得することができるので、C社製の洋服の特徴を識別可能なDNNを新たに生成する場合と比較して容易に取得することができる。
また、算出装置100は、所定の特徴について学習済みのDNNを用いるので、DNNを新たに生成する場合と比較して他の特徴を学習するための画像データが少なくてもDNNを取得することができる。このため、算出装置100は、学習用のデータを集める手間を減らすことができるとともに、データの学習にかかる時間を減らすことができる。
他の例では、算出装置100は、ニューロン間の結合係数を調整することで判定精度を高めることができる。例えば、算出装置100は、被写体が鮮明に描出された画像データを用いて特徴の学習を行った後に、被写体が不鮮明に描出された画像データを用いてニューロン間の結合係数を調整する。これにより、算出装置100は、画像データの被写体が鮮明でも不鮮明でも高い精度で判定することができる。
なお、算出装置100は、C社製の洋服の特徴に限らず、A社製の洋服、B社製の洋服およびC社製の洋服の特徴を識別可能なDNNを生成してもよい。この場合、算出装置100は、A社製の洋服、B社製の洋服およびC社製の洋服の特徴を識別するようにニューロン間の結合係数を調整する。これにより、算出装置100は、複数の製造元の洋服を識別可能なDNNを生成することができる。また、算出装置100は、C社製の洋服の特徴のみを識別するようにニューロン間の結合係数を調整した場合には、C社製の洋服を高い精度で識別することができる。
〔2.算出装置の構成〕
次に、図2を用いて、実施形態に係る算出装置100の構成について説明する。図2は、実施形態に係る算出装置100の構成例を示す図である。図2に示すように、算出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、算出装置100は、算出装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC等によって実現される。かかる通信部110は、ネットワークと有線又は無線で接続され、ネットワークを介して、各種のサーバ装置や端末装置やノードとの間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、DNN情報記憶部121を有する。
(DNN情報記憶部121について)
DNN情報記憶部121は、DNNに関する情報を記憶する。具体的には、DNN情報記憶部121は、ノードごとに、DNNに含まれるノード間の結合係数に関する情報を記憶する。例えば、DNN情報記憶部121は、新たに追加された新規ニューロンと他のニューロンとの間の結合係数を記憶する。ここで、図3に、実施形態に係るDNN情報記憶部121の一例を示す。図3に示すように、DNN情報記憶部121は、「ニューロンID」、「結合先ニューロンID」、「結合係数」といった項目を有する。
「ニューロンID」は、DNNに含まれるニューロンを識別するための識別情報を示す。「結合先ニューロンID」は、「ニューロンID」に対応するニューロンと結合するニューロンを識別するための識別情報を示す。「結合係数」は、ニューロン間の結合係数を示す。なお、「結合係数」には、新規ニューロンが追加された際に、新規ニューロンと結合先ニューロンの間の結合係数としてDNNに影響を与えない初期値が記憶される。例えば、「結合係数」には、新規ニューロンが追加された際に、初期値として「0」が記憶される。
すなわち、図3では、ニューロンID「N11」に対応するニューロンN11は、ニューロンID「N21」に対応するニューロンN21との間の結合係数が「W」である例を示している。また、図3では、ニューロンID「N」に対応する新規に追加されたニューロンNは、ニューロンID「N21」に対応するニューロンN21との間の結合係数が「W21」である例を示している。
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、算出装置100内部の記憶装置に記憶されている各種プログラム(算出プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部130は、図2に示すように、追加部131と、受付部132と、算出部133と、出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する算出処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(追加部131について)
追加部131は、DNNに新規ノードを追加する。具体的には、追加部131は、入力データに対する演算結果を出力する複数のニューロンを接続したネットワークであって所定のクラスに含まれるサブクラスに属するデータの特徴を抽出する結合係数が複数のニューロン間に設定されたネットワークに対して新規ニューロンを追加する。例えば、追加部131は、DNNを構成するニューロン群に新規ニューロンを追加する。ここで、追加部131は、新規ニューロンと他のニューロンとの間の結合係数を初期値「0」としてDNN情報記憶部121に記憶する。
(受付部132について)
受付部132は、入力データを受け付ける。具体的には、受付部132は、識別対象の特徴を学習するために学習用の入力データを受け付ける。例えば、受付部132は、識別対象が描出された画像データを学習用の入力データとして受け付ける。一例としては、受付部132は、DNNがA社製の洋服を識別可能な場合には、C社製の洋服が描出された画像データを学習用の入力データとして受け付ける。
(算出部133について)
算出部133は、DNNに含まれるノード間の結合係数を算出する。具体的には、算出部133は、受付部132によって受け付けられたデータをネットワークに入力した場合の出力結果に基づいて、追加部131によって追加された新規ニューロンと他のニューロンとの間の結合係数を算出する。例えば、算出部133は、バックプロパゲーション法により新規ニューロンと他のニューロンとの間の結合係数を算出する。
一例としては、算出部133は、入力データに対する誤った出力結果が解消されるように、新規ニューロンと他のニューロンとの間の結合係数を算出する。具体的には、算出部133は、受付部132が受け付けたデータをDNNに入力した場合の出力結果とデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。一例としては、算出装置100は、可能な限り多くの入力データに対して正しい出力結果を出力する結合係数を算出する。すなわち、算出装置100は、入力データの識別誤差が最小となるように結合係数を算出する。これにより、算出装置100は、出力層における予測誤差を減らすことができる。
例えば、算出部133は、新規ニューロンと他のニューロンとの間の結合係数を、DNNに含まれるニューロンのうち上位層に近いニューロンとの間の結合係数から順に誤差を最小とする結合係数を算出する。一例としては、算出部133は、新規ニューロンと他のニューロンのうち新規ニューロンを追加した層より出力層側に位置する上段ニューロンとの間の結合係数を算出する。
ここで、算出部133は、追加部131によって追加された新規ニューロンと他のニューロンとの間の結合係数として、新規ニューロン以外の他のニューロン間の結合係数を不変にして誤差を最小とする結合係数を算出する。DNNは、新規ニューロン以外の他のニューロン間の結合係数を変更すると、新たに入力されるデータの特徴を学習するのにかかる時間が増える可能性があるためである。図3の例では、算出部133は、新規ニューロンNpが追加された場合に、ニューロンN11〜Nn3およびNとの間の結合係数W11〜Wn3およびWのみを算出する。そして、算出部133は、DNN情報記憶部121に記憶されている結合係数を、算出された結合係数に更新する。
また、算出部133は、所定の特徴を学習済みのDNNに対して新規ノードが追加された場合に、他の特徴(例えば、他のサブクラスに属するデータの特徴)を識別するようにDNNに含まれるニューロン間の結合係数を調整する。例えば、算出部133は、バックプロパゲーション法によってニューロン間の結合係数を補正する。一例としては、算出部133は、A社製の洋服を識別可能な学習済みDNNに対して新規ニューロンが追加された場合に、C社製の洋服の特徴を識別するようにDNNに含まれるニューロン間の結合係数を調整する。これにより、算出装置100は、学習済みの特徴とは異なる他の特徴を識別することが可能なDNNを生成することができる。
(出力部134について)
出力部134は、DNNを出力する。具体的には、出力部134は、学習済みのDNNに対して新規ニューロンが追加されたDNNであって、算出部133が算出した結合係数が設定されたDNNを生成し、生成したDNNを利用者が使用する利用者端末等に出力する。なお、図2に示す例では、記載を省略したが、例えば、算出装置100は、ネットワークNなどを介して、利用者端末に生成したDNNを送信してもよい。
〔3.算出処理手順〕
次に、図4を用いて、実施形態に係る算出装置100による算出処理の手順について説明する。図4は、実施形態に係る算出装置100による算出処理手順を示すフローチャートである。
図4に示すように、算出装置100は、入力データに対する演算結果を出力する複数のニューロンを接続したDNNであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を抽出する結合係数が複数のニューロン間に設定されたDNNに対して新規ニューロンを追加する(ステップS101)。そして、算出装置100は、DNNに対して新規ニューロンを追加していない場合には(ステップS101;No)、DNNに新規ニューロンを追加するまで待機する。
一方、算出装置100は、新規ニューロンを追加した場合(ステップS101;Yes)、第2のサブクラスに属する学習用のデータを入力データとして受け付ける(ステップS102)。例えば、算出装置100は、入力データに対する出力結果と入力データに対応する正しい出力結果との間に誤差を意図的に生じさせる入力データと誤差を生じさせない入力データとを受け付ける。そして、算出装置100は、学習用のデータを入力データとして受け付けていない場合には(ステップS102;No)、学習用のデータを入力データとして受け付けるまで待機する。
一方、算出装置100は、学習用のデータを入力データとして受け付けた場合(ステップS102;Yes)、第2のサブクラスに属する学習用のデータをDNNに入力した場合の出力結果に基づいて、新規ニューロンと他のニューロンとの間の結合係数を算出する(ステップS103)。具体的には、算出装置100は、入力データをDNNに入力した場合の出力結果と入力のデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。一例としては、算出装置100は、新規ニューロンと他のニューロンとの間の結合係数を、DNNに含まれるニューロンのうち上位層に近いニューロンとの間の結合係数から順に誤差を最小とする結合係数を算出する。例えば、算出装置100は、追加部131によって追加された新規ニューロンと他のニューロンとの間の結合係数として、新規ニューロン以外の他のニューロン間の結合係数を不変にして誤差を最小とする結合係数を算出する。
そして、算出装置100は、学習済みのDNNに対して新規ニューロンが追加されたDNNであって、算出部133が算出した結合係数が設定されたDNNを生成し、生成したDNNを利用者が使用する利用者端末等に出力する。(ステップS104)。
〔4.変形例〕
上述した実施形態に係る算出装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の算出装置100の他の実施形態について説明する。
〔4−1.新規ニューロンの追加(1)〕
上記実施形態では、算出装置100は、入力データに対する演算結果を出力する複数のニューロンを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を抽出する結合係数が複数のニューロン間に設定されたネットワークに対して新規ニューロンを追加する例を示した。ここで、算出装置100は、ネットワークに含まれるニューロンと新規ニューロンとの間の結合係数を任意の初期値に設定して新規ニューロンをネットワークに対して追加してもよい。
具体的には、算出装置100は、ネットワークに含まれるニューロンと新規ニューロンとの間の結合係数を出力結果に影響を与えない初期値にして新規ニューロンをネットワークに対して追加する。例えば、算出装置100は、ネットワークに含まれるニューロンと新規ニューロンとの間の結合係数の初期値を「0」に設定して新規ニューロンをネットワークに追加する。
このように、算出装置100は、ネットワークに含まれるニューロンと新規ニューロンとの間の結合係数を出力結果に影響を与えない初期値にして新規ニューロンをネットワークに対して追加する。これにより、算出装置100は、新規ニューロンを追加したことによる影響を抑えることができるので、誤った出力結果の誤差に応じた結合係数を算出することができる。
〔4−2.新規ニューロンの追加(2)〕
上記実施形態では、算出装置100は、DNNの入力層に新規ニューロンを追加する例を示した。ここで、算出装置100は、新規ニューロンをDNNの入力層に限らず、任意の層に追加してもよい。
例えば、算出装置100は、図1の例では、ニューロンN01〜N03が含まれる入力層や、ニューロンN11〜Nn3が含まれる中間層、およびニューロンNが含まれる出力層といった任意の層に新規ニューロンNpを追加してもよい。なお、算出装置100は、中間層を形成するニューロン群のうち任意のニューロン群の段に新規ニューロンNpを追加してもよい。
このように、算出装置100は、新規ニューロンをDNNの入力層に限らず、任意の層に追加する。これにより、算出装置100は、バリエーションに富んだDNNを取得することができる。
〔4−3.新規ニューロンの追加(3)〕
上記実施形態では、算出装置100は、DNNに新規ニューロンを追加する例を示した。ここで、算出装置100は、オートエンコーダに対して新規ニューロンを追加してもよい。
具体的には、算出装置100は、入力データの再現性が高い出力結果を出力するDNNであるオートエンコーダに対して新規ニューロンを追加する。例えば、算出装置100は、入力データの次元数を削減した後に元の次元数に戻す操作を行うオートエンコーダに対して新規ニューロンを追加する。すなわち、算出装置100は、中間層のニューロン群に含まれるニューロンの数が入力層や出力層に含まれるニューロンの数と比較して少ないDNNに対して新規ニューロンを追加する。
このように、算出装置100は、オートエンコーダに対して新規ニューロンを追加して、新たなデータへの最適化を行うので、新たなデータの特徴を適切に抽出するオートエンコーダを容易に得ることができる。
〔4−4.新規ニューロンの追加(4)〕
上記実施形態では、算出装置100は、DNNに1個の新規ニューロンを追加する例を示した。ここで、算出装置100は、1個の新規ニューロンに限らず、任意の数の新規ニューロンをDNNに対して追加してもよい。例えば、算出装置100は、複数の新規ニューロンを含むニューロン群であって既に特定の対象について学習済みのニューロン群をDNNに追加する。
このように、算出装置100は、任意の数の新規ニューロンをDNNに追加する。これにより、算出装置100は、ニューロン群ごとDNNに追加することができるので、既に特定の対象について学習済みのニューロン群を活用することができる。
〔4−5.結合係数の算出〕
上記実施形態では、算出装置100は、新規ニューロンと他のニューロンのうち新規ニューロンを追加した層より出力層側に位置する上段ニューロンとの間の結合係数を算出する例を示した。ここで、算出装置100は、新規ニューロンと上段ニューロンとの間の結合係数に限らず、新規ニューロンと他のニューロンのうち新規ニューロンを追加した層より入力層側に位置する下段ニューロンとの間の結合係数を算出してもよい。
例えば、算出装置100は、図1の例では、新規ニューロンNpと上段ニューロンN21〜Nn3との間の結合係数W21〜Wn3だけでなく、新規ニューロンNpと新規ニューロンNpを追加した層より入力層側に位置する下段ニューロン新規ニューロンNpを追加した層と同じ層に位置するニューロンN01〜N03との間の結合係数W01〜W03も算出する。
このように、算出装置100は、新規ニューロンと他のニューロンのうち新規ニューロンを追加した層より入力層側に位置する下段ニューロンとの間の結合係数を算出する。これにより、算出装置100は、識別精度の高いDNNを取得することができる。
〔4−6.算出処理〕
上記実施形態では、算出装置100は、DNNに含まれるニューロンと新規ニューロンとの間の結合係数を算出する処理手順の例を示した。ここで、算出装置100は、上述した処理手順に限らず、各種の処理を任意の順に行ってもよい。
例えば、算出装置100は、学習用のデータをDNNに入力した場合の出力結果と学習用のデータに対応する正しい出力結果との間の誤差を最小とするニューロン間の結合係数を同時並行的に算出する。なお、かかる並行処理については、量子アニーリング等、任意の手法を適用することができる。
このように、算出装置100は、各種の処理を任意の順に行う。これにより、算出装置100は、処理速度を速めることができる。
また、算出装置100は、画像に描出された洋服に限らず、画像に描出された各種の被写体を識別するDNNを生成してもよい。例えば、算出装置100は、アジア人の特徴を学習済みのDNNに対して新規ノードを追加し、ヨーロッパ人の特徴を識別可能なDNNを生成する。このような例を以下に説明する。
例えば、算出装置100は、まず、アジア人が描出された複数の画像データを入力データとして受け付ける。そして、算出装置100は、画像に描出されたアジア人の特徴を学習する。これにより、算出装置100は、アジア人が描出された画像データを入力データとして受け付けた場合に、画像にアジア人が含まれることを識別することが可能な学習済みDNNを生成する。
その後、算出装置100は、アジア人を識別可能な学習済みDNNに対して新規ニューロンを追加する。続いて、算出装置100は、ヨーロッパ人が描出された複数の画像データを入力データとして受け付ける。そして、算出装置100は、画像に描出されたヨーロッパ人の特徴を識別するようにDNNに含まれるニューロン間の結合係数を調整する。例えば、算出装置100は、バックプロパゲーション法によってニューロン間の結合係数を補正する。これにより、算出装置100は、ヨーロッパ人の特徴を識別可能なDNNを生成する。
すなわち、算出装置100は、「人」というクラスに含まれる「アジア人」というサブクラスに属する入力データを用いて学習したDNNに対し、新規ノードを追加し、「人」というクラスに含まれる「ヨーロッパ人」というサブクラスに属する入力データを用いて、新規ノードと他のノードとの結合係数を補正する。これにより、算出装置100は、既存のDNNを利用して他の特徴を抽出するDNNを生成することができるので、DNNを新たに生成する場合と比較してDNNを容易に取得することができる。
また、出力部134は、特徴量ベクトルを出力してもよい。具体的には、出力部134は、ニューロン間の結合係数を特徴量ベクトルとして出力する。一例としては、出力部134は、算出部133によって算出された結合係数をデータの特徴を示す特徴量ベクトルとして出力する。すなわち、出力部134は、追加部131によって追加された新規ニューロンと他のニューロンとの間の結合係数をデータの特徴を示す特徴量ベクトルとして出力する。これにより、算出装置100は、データの特徴を示す特徴量ベクトルを活用することができる。
この場合、算出装置100は、例えば、所定のクラスに属するデータの特徴を抽出する結合係数が複数のノード間に設定されたDNNに対して、所定のクラスに属するサブクラスのデータを入力した場合の出力結果に基づいて、ノード間の結合係数を算出する。一例としては、算出装置100は、サブクラスのデータをDNNに入力した場合の出力結果とサブクラスのデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。そして、算出装置100は、算出された結合係数を、サブクラスの特徴を示す特徴量ベクトルとして出力する。
〔4−7.DNN〕
上記実施形態では、算出装置100は、3つの層によって構成されるDNNに新規ニューロンを追加する例を示した。ここで、算出装置100は、上述した例に限らず、任意の数の層によって構成されたDNNに対して新規ニューロンを追加してもよい。例えば、算出装置100は、中間層に複数のニューロン群が含まれる多段のDNNに対して新規ニューロンを追加する。また、DNNに含まれるニューロン群は、上述した例に限らず、任意の数のニューロンによって構成されてもよい。
また、DNNに含まれる各ニューロンは、上述した例に限らず、公知となっている各種の従来技術によって各ニューロンが結合されてもよい。例えば、DNNに含まれる各ニューロンは、ランダムに結合されてもよい。
〔4−8.適用対象〕
上記実施形態では、算出装置100は、画像データに描出されたものを識別する画像認識の適用例を示した。ここで、算出装置100は、画像認識に限らず、各種の認識に適用してもよい。例えば、算出装置100は、音声を対象とする音声認識に適用する。これにより、算出装置100は、音声データを入力データとして入力することで、話者を識別することができる。例えば、算出装置100は、音声データに含まれる音声を発した話者の性別や年齢などを識別することができる。
他の例では、算出装置100は、株価を対象として適用する。これにより、算出装置100は、株価の時系列データや業種を入力データとして入力することで、株価に関する情報を識別することができる。例えば、算出装置100は、株価の値動きを識別することで業種の判定や、株価の予測等を実現できる。
〔4−9.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した追加部131および受付部132は統合されてもよい。
〔4−10.ハードウェア構成〕
また、上述してきた実施形態に係る算出装置100は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、算出装置100を例に挙げて説明する。図5は、算出装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る算出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網50を介してこれらのプログラムを取得してもよい。
〔5.効果〕
上述してきたように、実施形態に係る算出装置100は、追加部131と、受付部132と、算出部133とを有する。追加部131は、入力データに対する演算結果を出力する複数のノードを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を学習済みのネットワークに対して新規ノードを追加する。受付部132は、所定のクラスに含まれる第2のサブクラスに属する学習用のデータを入力データとして受け付ける。算出部133は、受付部132によって受け付けられた学習用のデータをネットワークに入力した場合の出力結果に基づいて、第2のサブクラスに属する学習用のデータの特徴を学習するように、追加部131によって追加された新規ノードと他のノードとの間の結合係数を算出する。
また、実施形態に係る算出装置100において、算出部133は、結合係数として、学習用のデータをネットワークに入力した場合の出力結果とデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。
また、実施形態に係る算出装置100において、算出部133は、追加部131によって追加された新規ノードと他のノードとの間の結合係数を、ネットワークに含まれるノードのうち上位層に近いノードとの間の結合係数から順に誤差を最小とする結合係数を算出する。
これにより、実施形態に係る算出装置100は、既存のDNNを利用してデータの特徴を抽出することができるので、データの特徴を識別可能なDNNを容易に取得することができる。例えば、算出装置100は、A社製の洋服の特徴について学習済みのDNNを用いてC社製の洋服の特徴を識別可能なDNNを取得することができるので、DNNを新たに生成する場合と比較してDNNを容易に取得することができる。また、算出装置100は、あるクラスについて学習済みのDNNを用いるので、DNNを新たに生成する場合と比較して学習用のデータが少なくてもデータの特徴を識別可能なDNNを取得することができる。このため、算出装置100は、学習用のデータを集める手間を減らすことができるとともに、データの学習にかかる時間を減らすことができる。
また、実施形態に係る算出装置100において、出力部134は、算出部133によって算出された結合係数を特徴量ベクトルとして出力する。
これにより、実施形態に係る算出装置100は、データの特徴を示す特徴量ベクトルを活用することができる。
また、変形例に係る算出装置100において、算出部133は、追加部131によって追加された新規ノードと他のノードとの間の結合係数として、新規ノード以外の他のノード間の結合係数を不変にして誤差を最小とする結合係数を算出する。
これにより、変形例に係る算出装置100は、データの特徴を識別することが可能なDNNを容易に取得することができる。すなわち、算出装置100は、新規ノードと他のノードとの結合により、学習済みDNNの判定内容を、新たなクラスのデータに対して最適化することができる。このため、算出装置100は、少ないデータで特徴を識別することが可能なDNNを容易に取得することができる。
また、変形例に係る算出装置100において、追加部131は、ネットワークに含まれるノードと新規ノードとの間の結合係数を出力結果に影響を与えない初期値にして新規ノードをネットワークに対して追加する。
これにより、変形例に係る算出装置100は、新規ニューロンを追加したことによる影響を抑えることができるので、誤った出力結果の誤差に応じた結合係数を算出することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
100 算出装置
121 DNN情報記憶部
122 特徴情報記憶部
131 追加部
132 受付部
133 算出部
134 出力部

Claims (9)

  1. 入力データに対する演算結果を出力する複数のノードを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を学習済みの既存のネットワークに対して新規ノードを追加する追加部と、
    前記所定のクラスに含まれる第2のサブクラスに属する学習用のデータを入力データとして受け付ける受付部と、
    前記受付部によって受け付けられた学習用のデータを前記ネットワークに入力した場合の出力結果に基づいて、前記第2のサブクラスに属する学習用のデータの特徴をさらに学習するように、前記追加部によって追加された新規ノードと他のノードとの間の結合係数を算出する算出部と
    を備えたことを特徴とする算出装置。
  2. 前記算出部は、
    前記結合係数として、前記学習用のデータを前記ネットワークに入力した場合の出力結果と前記学習用のデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する
    ことを特徴とする請求項1に記載の算出装置。
  3. 前記算出部は、
    前記追加部によって追加された新規ノードと他のノードとの間の結合係数として、前記他のノード間の結合係数を不変にして前記誤差を最小とする結合係数を算出する
    ことを特徴とする請求項2に記載の算出装置。
  4. 前記算出部は、
    前記追加部によって追加された新規ノードと他のノードとの間の結合係数を、前記ネットワークに含まれるノードのうち上位層に近いノードとの間の結合係数から順に前記誤差を最小とする結合係数を算出する
    ことを特徴とする請求項2または3に記載の算出装置。
  5. 前記追加部は、
    前記ネットワークに含まれるノードと前記新規ノードとの間の結合係数を前記出力結果に影響を与えない初期値にして前記新規ノードを前記ネットワークに対して追加する
    ことを特徴とする請求項1〜4のいずれか1つに記載の算出装置。
  6. 前記算出部によって算出された結合係数を前記学習用のデータが有する特徴を示す特徴量ベクトルとして出力する出力部
    をさらに備えることを特徴とする請求項1〜5のいずれか1つに記載の算出装置。
  7. 前記新規ノードが追加され、各ノード間の結合係数を前記算出部によって算出された結合係数に設定したネットワークを出力する出力部
    をさらに備えることを特徴とする請求項1〜5のいずれか1つに記載の算出装置。
  8. 算出装置が実行する算出方法であって、
    入力データに対する演算結果を出力する複数のノードを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を学習済みの既存のネットワークに対して新規ノードを追加する追加工程と、
    前記所定のクラスに含まれる第2のサブクラスに属する学習用のデータを入力データとして受け付ける受付工程と、
    前記受付工程によって受け付けられた学習用のデータを前記ネットワークに入力した場合の出力結果に基づいて、前記第2のサブクラスに属する学習用のデータの特徴をさらに学習するように、前記追加工程によって追加された新規ノードと他のノードとの間の結合係数を算出する算出工程と
    を含んだことを特徴とする算出方法。
  9. 入力データに対する演算結果を出力する複数のノードを接続したネットワークであって所定のクラスに含まれる第1のサブクラスに属するデータの特徴を学習済みの既存のネットワークに対して新規ノードを追加する追加手順と、
    前記所定のクラスに含まれる第2のサブクラスに属する学習用のデータを入力データとして受け付ける受付手順と、
    前記受付手順によって受け付けられた学習用のデータを前記ネットワークに入力した場合の出力結果に基づいて、前記第2のサブクラスに属する学習用のデータの特徴をさらに学習するように、前記追加手順によって追加された新規ノードと他のノードとの間の結合係数を算出する算出手順と
    をコンピュータに実行させることを特徴とする算出プログラム。
JP2014126546A 2014-06-19 2014-06-19 算出装置、算出方法及び算出プログラム Active JP5899272B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014126546A JP5899272B2 (ja) 2014-06-19 2014-06-19 算出装置、算出方法及び算出プログラム
US14/465,147 US10346742B2 (en) 2014-06-19 2014-08-21 Calculation device, calculation method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014126546A JP5899272B2 (ja) 2014-06-19 2014-06-19 算出装置、算出方法及び算出プログラム

Publications (2)

Publication Number Publication Date
JP2016004547A JP2016004547A (ja) 2016-01-12
JP5899272B2 true JP5899272B2 (ja) 2016-04-06

Family

ID=54869978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014126546A Active JP5899272B2 (ja) 2014-06-19 2014-06-19 算出装置、算出方法及び算出プログラム

Country Status (2)

Country Link
US (1) US10346742B2 (ja)
JP (1) JP5899272B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5899272B2 (ja) * 2014-06-19 2016-04-06 ヤフー株式会社 算出装置、算出方法及び算出プログラム
US10740784B2 (en) * 2015-08-11 2020-08-11 Amazon Technologies, Inc. System and method for improving image-based advertisement success
JP6615066B2 (ja) * 2016-07-29 2019-12-04 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、情報処理方法、及びプログラム
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
WO2018189791A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JP6758484B2 (ja) * 2017-04-10 2020-09-23 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JP6864085B2 (ja) * 2017-04-10 2021-04-21 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US10019654B1 (en) 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
DE112019000020B4 (de) 2018-02-05 2020-10-15 Toyota Jidosha Kabushiki Kaisha Maschinenlernsystem
US10634081B2 (en) 2018-02-05 2020-04-28 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
EP3885664B1 (en) * 2018-12-12 2023-04-26 Mitsubishi Electric Corporation Air conditioning control device and air conditioning control method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3169635B2 (ja) * 1991-07-03 2001-05-28 本田技研工業株式会社 ニューラルネットワーク及びその学習方法
US5276771A (en) 1991-12-27 1994-01-04 R & D Associates Rapidly converging projective neural network
JP2500407B2 (ja) * 1992-03-06 1996-05-29 フジテック株式会社 エレベ―タ群管理制御装置の構築方法
JPH07160660A (ja) * 1993-12-02 1995-06-23 Sankyo Seiki Mfg Co Ltd ニューラルネットワークシステム
JP3737841B2 (ja) * 1995-08-22 2006-01-25 株式会社ジャストシステム ニューラルネットワーク
JP2755224B2 (ja) * 1995-08-28 1998-05-20 日本電気株式会社 文字数拡大方式
US6513023B1 (en) * 1999-10-01 2003-01-28 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Artificial neural network with hardware training and hardware refresh
US6898583B1 (en) * 2000-01-24 2005-05-24 Sony Corporation Method and apparatus of creating application-specific, non-uniform wavelet transforms
EP1949313A4 (en) 2005-11-15 2010-03-31 Bernadette Garner METHOD FOR TRAINING NEURAL NETWORKS
JP4673787B2 (ja) * 2006-05-10 2011-04-20 本田技研工業株式会社 内燃機関の空燃比制御装置
JP5467951B2 (ja) * 2010-07-05 2014-04-09 本田技研工業株式会社 ニューラルネットワーク学習装置
JP5844854B2 (ja) * 2014-06-19 2016-01-20 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP5899272B2 (ja) * 2014-06-19 2016-04-06 ヤフー株式会社 算出装置、算出方法及び算出プログラム

Also Published As

Publication number Publication date
US20150371149A1 (en) 2015-12-24
JP2016004547A (ja) 2016-01-12
US10346742B2 (en) 2019-07-09

Similar Documents

Publication Publication Date Title
JP5899272B2 (ja) 算出装置、算出方法及び算出プログラム
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
JP2016004548A (ja) 提供装置、提供方法及び提供プログラム
JP6523498B1 (ja) 学習装置、学習方法および学習プログラム
US8839441B2 (en) Method and system for adaptive vulnerability scanning of an application
US20200065471A1 (en) Security verification method and relevant device
US10762391B2 (en) Learning device, learning method, and storage medium
JP6567488B2 (ja) 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
CN109859113B (zh) 模型生成方法、图像增强方法、装置及计算机可读存储介质
US20170116517A1 (en) System and method for generating material compositions
WO2019091402A1 (zh) 年龄预估方法和装置
US10185725B1 (en) Image annotation based on label consensus
JP6148265B2 (ja) 学習装置、学習方法、およびプログラム
WO2017197330A1 (en) Two-stage training of a spoken dialogue system
JP7055769B2 (ja) データ生成装置、データ生成方法およびプログラム
JP2017111733A (ja) 学習装置、学習方法および学習プログラム
US11676030B2 (en) Learning method, learning apparatus, and computer-readable recording medium
JP2021051589A5 (ja)
JP2018500686A (ja) マーチャントのビジネスサークル情報の確定
JP2020177582A (ja) 学習装置、学習方法、プログラムおよび認識装置
Xiao et al. Fed-grab: Federated long-tailed learning with self-adjusting gradient balancer
JP6910873B2 (ja) 特定装置および特定方法
JP5953384B1 (ja) 学習装置、学習方法、およびプログラム
JP7348945B2 (ja) 情報処理方法、および、情報処理システム
JP5809663B2 (ja) 分類精度推定装置、分類精度推定方法、およびプログラム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20151007

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5899272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250