JP6690489B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6690489B2
JP6690489B2 JP2016192482A JP2016192482A JP6690489B2 JP 6690489 B2 JP6690489 B2 JP 6690489B2 JP 2016192482 A JP2016192482 A JP 2016192482A JP 2016192482 A JP2016192482 A JP 2016192482A JP 6690489 B2 JP6690489 B2 JP 6690489B2
Authority
JP
Japan
Prior art keywords
type
neural network
neuron
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016192482A
Other languages
English (en)
Other versions
JP2018055514A (ja
Inventor
山本 康平
康平 山本
前野 蔵人
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016192482A priority Critical patent/JP6690489B2/ja
Priority to US15/615,872 priority patent/US20180096246A1/en
Publication of JP2018055514A publication Critical patent/JP2018055514A/ja
Application granted granted Critical
Publication of JP6690489B2 publication Critical patent/JP6690489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、脳神経系の仕組みを模した数学モデルであるニューラルネットワークが注目されている。また、ニューラルネットワークを用いて種々の識別を行う装置が開発されている。例えば、特許文献1には、アレーアンテナから得られる受信信号ベクトルの位相差から、先行車両の台数を、ニューラルネットワークを用いて推定するレーダ信号処理装置が開示されている。
特開2016−75558号公報
しかし、特許文献1に記載の技術では、実数型または複素数型ニューラルネットワークにおいて、受信信号ベクトルの自己相関行列の対角成分を除いた上三角行列を入力としている。このため、特許文献1に記載の技術では、受信信号ベクトルの要素数に対応する全通りの組み合わせペアを入力することが求められ、ニューラルネットワークの規模が大型化する傾向がある。
また、特許文献1に記載の技術では、要素数の組み合わせ演算自体に係る計算コストの増大が問題となる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、多次元データを入力とするニューラルネットワークにおけるネットワーク規模および計算コストを低減することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、入力される多次元データに基づく出力を行う、単数あるいは複数の次元を有するニューロンから構成されるニューラルネットワークを用いて状態推定を行う推定部、を備え、前記ニューラルネットワークは、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換する変換層を備え、前記第2型のニューロンは、前記第1型のニューロンと比較して低次元のデータに基づく処理を行う、情報処理装置が提供される。
前記第1型のニューロンは、複素数型ニューロンであり、前記第2型のニューロンは、実数型ニューロンであってもよい。
前記ニューラルネットワークは、複素数データを入力層に持つ少なくとも1層以上の複素数型ネットワーク層と、実数データを出力層に持つ少なくとも1層以上の実数型ネットワーク層と、をさらに備え、前記変換層は、前記複素数型ネットワーク層と前記実数型ネットワーク層とを接続してもよい。
前記変換層は、前記実数型ネットワーク層における誤差情報を前記複素数型ネットワーク層に逆伝播してもよい。
前記変換層は、前記複素数型ニューロンの出力を実部および虚部に基づいて分割し、前記実数型ニューロンの入力に対応する次元に変換してもよい。
前記変換層は、前記複素数型ニューロンの出力を位相および振幅に基づいて分割し、前記実数型ニューロンの入力に対応する次元に変換してもよい。
前記変換層は、位相に基づいて分割した実数型ニューロンの出力を、正弦波および余弦波に基づいてさらに分割し、前記実数型ニューロンの入力に対応する次元に変換してもよい。
前記変換層は、位相に基づいて前記実数型ニューロンの数を決定してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、多次元データを入力とする、単数あるいは複数の次元を有するニューロンで構成されるニューラルネットワークを用いた情報処理方法であって、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換すること、を含み、前記変換することにおいて、前記第2型のニューロンは、前記第1型のニューロンと比較し低次元のデータに基づく処理を行うこと、をさらに含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、入力される多次元データに基づく出力を行う、単数あるいは複数の次元を有するニューロンで構成されるニューラルネットワークを用いて状態推定を行う推定部、を備え、前記ニューラルネットワークは、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換する変換層を備え、前記第2型のニューロンは、前記第1型のニューロンと比較し低次元のデータに基づく処理を行う、情報処理装置、として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、多次元データを入力とするニューラルネットワークにおけるネットワーク規模および計算コストを低減することが可能となる。
本発明の実施形態に係るニューラルネットワークの構成例を示す図である。 従来の実数型ニューラルネットワークの結合関係を示す図である。 従来の複素数型ニューラルネットワークの結合関係を示す図である。 同実施形態に係る情報処理装置の機能ブロック図である。 同実施形態に係るウィルティンガー微分による誤差逆伝播法について説明するための図である。 同実施形態に係るウィルティンガー微分による誤差逆伝播法について説明するための図である。 同実施形態に係る実部・虚部方式によるニューロンの入出力の変換について説明するための図である。 同実施形態に係る振幅・位相方式によるニューロンの入出力の変換について説明するための図である。 同実施形態に係る複合方式によるニューロンの入出力の変換について説明するための図である。 同実施形態に係る位相N分割方式によるニューロンの入出力の変換について説明するための図である。 同実施形態に係る位相N分割方式による分割領域の一例を示す図である。 同実施形態に係る多元数型ニューロンの入出力の変換について説明するための図である。 同実施形態に係る全結合パターンについて説明するための図である。 同実施形態に係る分離結合パターンについて説明するための図である。 同実施形態に係る一部分離結合パターンについて説明するための図である。 同実施形態に係る比較対象に用いた実数型ニューラルネットワークの構成を示す図である。 同実施形態に係る従来の実数型ニューラルネットワークによる位相差学習の結果を示す図である。 同実施形態に係るニューラルネットワークによる位相差の学習結果を示す図である。 本発明に係る情報処理装置のハードウェア構成例である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.第1の実施形態>
<<1.1.実施形態の概要>>
近年、情報処理技術の発展に伴い、種々のニューラルネットワークモデルが提案されている。また、上記のようなニューラルネットワークモデルには、入力される複素数や四元数などの多次元データに基づいて識別を行うモデルも存在する。
一方、上述したとおり、多次元データを入力とするニューラルネットワークでは、ネットワーク規模や計算コストが増大する傾向があり、当該問題を解決する手法が求められていた。
本発明の一実施形態に係る情報処理装置、情報処理方法、およびプログラムは、上記の点に着目して発想されたものであり、多次元データを入力とするニューラルネットワークにおいて、ネットワーク規模および計算コストを抑えながら、精度の高い推定を行うことを可能とする。このために、本実施形態に係るニューラルネットモデルは、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換する変換層を備えることを特徴の一つとする。ここで、上記第2型のニューロンは、第1型のニューロンと比較して低次元のデータに基づく処理を行うニューロンであってよい。
図1は、本実施形態に係るニューラルネットワークNN0の構成例を示す図である。図1を参照すると、本実施形態に係るニューラルネットワークNN0は、第1型のニューラルネットワークNN1、変換層TL、および第2型のニューラルネットワークNN2を備える。
なお、ここで、本実施形態に係る多次元データとは、1つの観測対象に対して1つ以上の観測値が得られるもの指す。例えば、x、y、z座標上の点を含む観測値は、3つの次元を持つ多次元データといえる。また、以下の説明で言及されるニューロンの入力あるいは出力の次元とは、多次元ニューロンの次元を意味する。上記の多次元ニューロンとは、1つの多次元データを1つのニューロンに対応付けたものであり、例えば、複素平面のx、y座標上の点(2つの次元を持つ多次元データ)を1つのニューロンに対応付けたものは、1つの多次元ニューロン(複素数型ニューロン)となる。
また、多次元データは、多次元ニューロンの入力の次元と同じ次元を持つ。一般にニューラルネットワークでは、各層は複数のニューロンで構成されることから、複数個の多次元ニューロンで一つの層を構成し、その層の出力値は、複数個分の多次元データとなる。この際、複数の層で構成されるニューラルネットワークにおいて、各層に含まれるニューロンの数は同一であってもよいし。異なっていてもよい。
また、層間の接続は、全結合であってもよいし、例えば、CNN(Convolutional Neural Network)のような局所的な結合であってもよい。また、一般にニューラルネットワークでは、一つの結合には一つの重みを持たせ、ニューロンの出力値が重み付き結合を介して次層のニューロンの入力となるが、この際、上記の重みは、多次元ニューロンと同じ数の次元を持ち、前後の層のニューロンの次元数は一致する。ここで、多次元データの入力データ配列を多次元ニューロンの入力層と考えると、当該入力層は、複数の多次元ニューロンが個々にニューラルネットワークの入力値としての多次元データを有し、次の層へは多次元の結合を通して同じ次元数の次の層へ接続することとなる。
(第1型のニューラルネットワークNN1)
本実施形態に係る第1型のニューラルネットワークNN1は、多次元データを入力とするニューラルネットワークであってよい。また、本実施形態に係る第1型のニューラルネットワークNN1は、第2型のニューラルネットワークNN2と比較して高次元のデータに基づく処理を実行する。例えば、本実施形態に係る第1型のニューラルネットワークNN1は、複素数に基づく処理を実行する複素数型ニューラルネットワークであってもよいし、四元数に基づく処理を実行する四元数型ニューラルネットワークであってもよい。また、本実施形態に係る第1型のニューラルネットワークNN1は、2以上の次元を有するニューロンに対して異なる次元のデータ間で任意の演算処理を実行するタイプのニューラルネットワークであってもよい。
以下、本実施形態に係る第1型のニューラルネットワークNN1が複素数型ニューラルネットワークである場合を例に説明する。すなわち、本実施形態に係る第1型のニューラルネットワークNN1は、複素数データを入力層に持つ少なくとも1層以上の複素数型ネットワーク層であってよい。
図1を参照すると、本実施形態に係る第1型のニューラルネットワークNN1は、入力層ILおよび中間層ML1を備える。この際、上記の入力層ILおよび中間層ML1では、入力、結合荷重、出力などの処理がすべて複素数で定義されてよい。図1に示す一例では、入力層MLおよび中間層ML1における第1型のニューロン、すなわち複素数型ニューロンがドットのハッチングで示されている。
(変換層TL)
本実施形態に係る変換層TLは、第1型のニューラルネットワークNN1と第2型のニューラルネットワークNN2を接続する機能を有する。また、本実施形態に係る変換層TLは、第1型のニューラルネットワークNN1における第1型のニューロンの出力を、第2のニューラルネットワークNN2における第2型のニューロンの入力に対応する次元に変換する機能を有する。例えば、本実施形態に係る変換層TLは、複素数型ニューロンを実数型ニューロンに変換してよい。本実施形態に係る変換層TLの有する機能の詳細については後述する。
(第2型のニューラルネットワークNN2)
本実施形態に係る第2型のニューラルネットワークNN2は、第1型のニューラルネットワークNN1と比較して低次元のデータに基づく処理を実行する。例えば、第1型のニューラルネットワークNN1が複素数型ニューラルネットワークである場合、本実施形態に係る第1型のニューラルネットワークNN1は、実数型ニューラルネットワークであってよい。
以下、本実施形態に係る第2型のニューラルネットワークNN2が実数型ニューラルネットワークである場合を例に説明する。すなわち、本実施形態に係る第2型のニューラルネットワークNN2は、実数データを出力層に持つ少なくとも1層以上の実数型ネットワーク層であってよい。
図1を参照すると、本実施形態に係る第2型のニューラルネットワークNN2は、中間層ML2および出力層OLを備える。この際、上記の中間層ML2および出力層OLでは、入力、結合荷重、出力などの処理がすべて実数で定義されてよい。図1に示す一例では、中間層ML2および出力層OLにおける第2型のニューロン、すなわち実数型ニューロンが斜線のハッチングで示されている。
以上、本実施形態に係るニューラルネットワークNN0の構成例について説明した。上述したとおり、本実施形態に係るニューラルネットワークNN0は、例えば、複素数型である第1型のニューラルネットワークNN1、変換層TL、および実数型である第2型のニューラルネットワークNN2を備える。また、本実施形態に係る変換層TLは、例えば、複素数型である第1型のニューロンの出力を実数型である第2型のニューロンの入力に対応する次元に変換する機能を有する。
本実施形態に係るニューラルネットワークNN0によれば、上述したような組み合わせペアの入力が不要となり、複素数などの多次元データを直接入力することができるため、ネットワーク規模や計算コストを大きく低減することが可能となる。
また、本実施形態に係るニューラルネットワークNN0では、従来の複素数型ニューラルネットワークや実数型ニューラルネットワークを単独で用いる場合と比較して、推定精度の向上が期待される。
図2は、従来の実数型ニューラルネットワークの結合関係を示す図である。図2に示すように、実数型ニューラルネットワークでは、入力x、結合荷重w、および出力yは、すべて実数で定義される。すなわち、実数型ニューラルネットワークの結合関係は、下記の数式(1)により表現され得る。ここで、図2および下記の数式(1)におけるRは実数であってよい。
Figure 0006690489
このため、実数型ニューラルネットワークでは、複素数データをそのまま入力することができず、予め複素数データから実数を抽出する処理が求められる。
一方、図3は、従来の複素数型ニューラルネットワークの結合関係を示す図である。図3に示すように、複素数型ニューラルネットワークでは、入力x、結合荷重w、および出力yは、すべて複素数で定義される。すなわち、複素数型ニューラルネットワークの結合関係は、下記の数式(2)により表現され得る。ここで、図3および下記の数式(2)におけるCは複素数であってよい。
Figure 0006690489
このため、複素数型ニューラルネットワークは、複素数データを入力とする処理に優れている。ここで、上記の複素数データとは、例えば、電波や音波など、波動の大きさや位相の進み・遅れに意味を持つデータや、風向きなど特定の方向に意味を持つデータを指す。しかし、複素数型ニューラルネットワークでは、出力も複素数データとなるため、例えば、位相差のような実数データを直接的に出力することができない。従って、複素数型ニューラルネットワークにおいて、上記のような実数値に対する回帰を行う場合、出力の振動または位相の値がどのような実数値に対応するかを予めルール付けするなどの工夫が求められる。
また、上記のような方法では、本来実数として表現できないデータに対して実数を当てはめるため、位相における0〜2πのような折り返し性や、振幅の正値性を考慮することが困難であり、精度が劣化してしまう。
他方、本実施形態に係るニューラルネットワークNN0は、複素数型ニューロンの出力を実数型ニューロンの入力に対応する次元に変換する変換層TLを備えることで、上記のような課題を解決することが可能となる。なお、本実施形態に係る変換層TLが有する機能については、別途詳細に説明する。
以上、本実施形態に係るニューラルネットワークNN0の概要について説明した。なお、上記では、ニューラルネットワークNN0が第1型および第2型の2つのニューラルネットワークと、1つの変換層TLを有する場合を例に説明した。一方、本実施形態に係るニューラルネットワークNN0は、3つ以上の型のニューラルネットワークと、2つ以上の変換層を備えてもよい。また、以下の説明では、第1型のニューラルネットワークNN1が複素数型であり、第2型のニューラルネットワークNN2が実数型である場合を例に説明するが、本実施形態に係るニューラルネットワークNN0の構成は、係る例に限定されない。本実施形態に係る第1型のニューラルネットワークNN1は、例えば、四元数型であってもよい。本実施形態に係るニューラルネットワークNN0の構成は、扱うデータの性質により柔軟に変更され得る。
<<1.2.情報処理装置10の機能構成>>
次に、本実施形態に係る情報処理装置10の機能構成について説明する。図4は、本実施形態に係る情報処理装置10の機能ブロック図である。図4を参照すると、本実施形態に係る情報処理装置10は、入力部110、推定部120、記憶部130、および出力部140を備える。以下、上記構成について、当該構成が有する機能を中心に説明する。
(入力部110)
入力部110は、操作者による種々の入力操作を検出する機能を有する。本実施形態に係る入力部110は、例えば、後述する推定部120による推定に用いるデータを指定する操作者の入力操作を検出してよい。このために、本実施形態に係る入力部110は、操作者による入力操作を検出するための各種の装置を含んでよい。入力部110は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。
(推定部120)
推定部120は、入力される多次元データを用いて、機械学習モデルに基づく状態推定を行う機能を有する。このため、本実施形態に係る推定部120は、上述したニューラルネットワークNN0を含んで構成される。本実施形態に係る推定部120は、例えば、入力される複素数データに基づいて、2つの信号における位相差などを推定してよい。
(記憶部130)
記憶部130は、情報処理装置10の各構成で用いられるプログラムやデータなどを記憶する機能を有する。本実施形態に係る記憶部130は、例えば、推定部120が含むニューラルネットワークNN0に用いられる種々のパラメータや、推定部120が出力する出力結果などを記憶してよい。
(出力部140)
出力部140は、操作者に対し種々の情報出力を行う機能を有する。本実施形態に係る出力部140は、例えば、推定部120による推定結果を出力してよい。このために、本実施形態に係る出力部140は、視覚情報を出力するディスプレイ装置を含んで構成され得る。ここで、上記のディスプレイ装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネル、プロジェクタなどにより実現され得る。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。なお、上記で説明した機能構成例はあくまで一例であり、本実施形態に係る情報処理装置10の機能構成例は係る例に限定されない。本実施形態に係る情報処理装置10は、図4に示す以外の構成をさらに備えてもよい。情報処理装置10は、例えば、他の情報処理端末との情報通信を行う通信部などをさらに備えるように構成されてもよい。本実施形態に係る情報処理装置10の機能構成は、柔軟に設計変更され得る。
<<1.3.変換層TLによるニューロンの入出力変換>>
次に、本実施形態に係る変換層TLによるニューロンの入出力変換について詳細に説明する。上述したとおり、本実施形態に係る変換層TLは、第1型のニューラルネットワークNN1における複素数型ニューロンの出力を第2型のニューラルネットワークNN2における実数型のニューロンの入力に対応する次元に変換する機能を有する。この際、推定精度を向上させるためには、第1型のニューラルネットワークNN1が出力する情報を可能な限り損失させることなく、第2型のニューラルネットワークNN2に順伝播することが重要となる。
また、この際、情報損失を最小化するためには、入力データの性質に応じて変換方法を選択することが望ましい。例えば、入力される複素数データを実部成分と虚部成分とで解釈する場合、抽出される実数は実軸および虚軸にどの程度近いかを示す指標となり得る。具体的には、入力される複素数データが、風向や風量のように方位性に意味を持つデータである場合には、実部および虚部に基づいた変換を行うことで、情報損失を最小化することが期待できる。
また、例えば、複素数データを振幅成分および位相成分で解釈する場合、抽出される実数は回転成分の大きさ、および方向を示す指標となり得る。具体的には、入力される複素数データが、電波データのような特定の位相方向に意味を持たないデータである場合、振幅および位相に基づく変換を行うことで、情報損失を最小化することが期待できる。
このため、本実施形態に係る変換層TLは、入力される複素数データの性質に応じて、複数の変換方式を用いてよい。本実施形態に係る変換層TLは、例えば、上述したような実部・虚部方式や振幅・位相方式、上記の2方式を複合した複合方式、また、位相値に基づいて振幅を分割する位相N分割方式などを選択し得る。
また、上述した通り、本実施形態に係るニューラルネットワークNN0は、複素数型である第1型のニューラルネットワークNN1および実数型である第2型のニューラルネットワークNN2を備える。このため、学習の整合性を確保するためには、第2型のニューラルネットワークNN2で算出された誤差情報が変換層TLを介して第1型のニューラルネットワークNN1まで正しく伝達されることが求められる。このため、本実施形態に係る変換層TLは、第2型のニューラルネットワークにおける誤差情報を複素数型ネットワークにおける誤差情報の形式に変換して第1型のニューラルネットワークに逆伝播する機能を有する。
Figure 0006690489
Figure 0006690489
また、複素数を実数に変換する関数fを用いると複素数から実部を抽出することができる。ここで、上記の関数f、および関数fを用いた実部の抽出は、下記の数式(4)および数式(5)のように表される。
Figure 0006690489
この際、図5Bに示すような実数型ニューロンxの上層からの誤差勾配をδとし、当該変換を図5Aに示した逆伝播に当てはまると、x=x、となる。このため、誤差勾配δzは、下記の数式(6)により求められる。
Figure 0006690489
以上、本実施形態に係る誤差情報の逆伝播について説明した。上述したように、本実施形態に係る変換層TLは、第1型のニューラルネットワークNN1と第2型のニューラルネットワークNN2との間における順伝播および逆伝播を実現する。以下では、変換層TLが用いる各変換方式における順伝播および逆伝播の手法について詳細に説明する。
(実部・虚部方式)
まず、本実施形態に係る実部・虚部方式について説明する。本実施形態に係る変換層TLは、複素数型ニューロンの出力を実部および虚部に基づいて分割し、実数型ニューロンの入力に対応する次元に変換してよい。上述したように、本実施形態に係る実部・虚部方式は、実部・虚部への近さに意味を持つデータに特に有効である。
図6は、本実施形態に係る実部・虚部方式によるニューロンの入出力の変換について説明するための図である。図6に示すように、本実施形態に係る変換層TLは、第1のニューラルネットワークNN1における複素数型ニューロンzの出力に複素重みwを掛けたz(=Wz)の出力を、第2型のニューラルネットワークにおける実数型ニューロンxおよびyの入力に対応する次元に変換することができる。ただし、上記のzは、z=x+iy、とする。
この際、本実施形態に係る変換層TLは、順伝播において、実部を抽出する関数f、および虚部を抽出する関数fを用いることで、複素数型ニューロンの出力を実数型ニューロンの入力に対応する次元に変換してよい。関数fおよび関数fは、それぞれ下記の数式(7)および数式(8)で表される。
Figure 0006690489
また、逆伝播においては、実数型ニューロンxから伝播する誤差勾配をδ、実数型ニューロンyから伝播する誤差勾配をδとすると、複素重みwの更新量Δwは、下記の数式(9)により表される。ただし、この際、偏微分は、下記の数式(10)となる。
Figure 0006690489
このように、本実施形態に係る変換層TLは、上記の数式(9)により、第2型のニューラルネットワークNN2における誤差情報を第1型のニューラルネットワークNN1の重みまで伝播することができる。
(振幅・位相方式)
次に、本実施形態に係る振幅・位相方式について説明する。本実施形態に係る変換層TLは、複素数型ニューロンの出力を振幅および位相に基づいて分割し、実数型ニューロンの入力に対応する次元に変換してよい。上述したように、本実施形態に係る振幅・位相方式は、特定の位相方向に意味を持たないデータに特に有効である。
図7は、本実施形態に係る振幅・位相方式によるニューロンの入出力の変換について説明するための図である。図7に示すように、本実施形態に係る変換層TLは、第1のニューラルネットワークNN1における複素数型ニューロンzの出力を、振幅に対応する実数型ニューロンAおよび位相に対応する実数型ニューロンθの入力に変換することができる。
この際、本実施形態に係る変換層TLは、順伝播において、zの出力をzの入力に変換する複素対数関数f、実部・虚部方式で用いた関数fと関数f、および実部に対応するxの出力を振幅に対応するAの入力に変換する指数関数fを用いることで、複素数型ニューロンの出力を実数型ニューロンの入力に対応する次元に変換してよい。ここで、複素対数関数fと指数関数fは、それぞれ下記の数式(11)および(12)で表される。
Figure 0006690489
また、逆伝播においては、実数型ニューロンAから伝播する誤差勾配をδ、実数型ニューロンθから伝播する誤差勾配をδθとすると、複素重みwの更新量Δwは、下記の数式(13)により表される。ただし、この際、偏微分は、下記の数式(14)となる。
Figure 0006690489
このように、本実施形態に係る変換層TLは、上記の数式(13)により、第2型のニューラルネットワークNN2における誤差情報を第1型のニューラルネットワークNN1の重みまで伝播することができる。
(複合方式)
次に、本実施形態に係る複合方式について説明する。本実施形態に係る複合方式は、上述した実部・虚部方式および振幅・位相方式を組み合わせた方式であってよい。具体的には、本実施形態に係る変換層TLは、振幅・位相方式で変換した位相に対応する実数型ニューロンの出力を、正弦波および余弦波に対応する実数型ニューロンの入力にさらに分割することができる。このため、本実施形態に係る複合方式は、実部・虚部の近さとその際の振幅の大きさに意味を持つデータに特に有効である。
図8は、本実施形態に係る複合方式によるニューロンの入出力の変換について説明するための図である。図8に示すように、本実施形態に係る変換層TLは、振幅・位相方式と同様の変換を行ったのち、位相に対応する実数型ニューロンθの出力を、正弦波および余弦波に対応する実数型ニューロンsinθおよびcosθの入力にさらに分割することができる。
この際、本実施形態に係る変換層TLは、順伝播において、正弦波関数fおよび余弦波関数fを用いることで、上記の変換を実現することができる。なお、正弦波関数fおよび余弦波関数fは下記の数式(15)および数式(16)で表される。
Figure 0006690489
また、逆伝播においては、実数型ニューロンAから伝播する誤差勾配をδ、実数型ニューロンsinθおよびcosθから伝播する誤差勾配をδおよびδとすると、複素重みwの更新量Δwは、下記の数式(17)により表される。ただし、この際、偏微分は、下記の数式(18)となる。
Figure 0006690489
このように、本実施形態に係る変換層TLは、上記の数式(17)により、第2型のニューラルネットワークNN2における誤差情報を第1型のニューラルネットワークNN1の重みまで伝播することができる。
(位相N分割方式)
次に、本実施形態に係る位相N分割方式について説明する。本実施形態に係る位相N分割方式を採用する場合、変換層TLは、複素数型ニューロンzの位相値に基づいて、振幅に対応する実数型ニューロンの分割数を決定することができる。本実施形態に係る位相N分割方式は、特定の位相方向に意味を持つデータに特に有効である。
図9は、本実施形態に係る位相N分割方式によるニューロンの入出力の変換について説明するための図である。図9に示すように、本実施形態に係る変換層TLは、複素数型ニューロンzの出力を、振幅に対応する複数の実数型ニューロンA(n=1,・・・,N)の入力に対応する次元に変換することができる。
この際、本実施形態に係る変換層TLは、順伝播において、複素数型ニューロンz=Aeiθの出力をN個の実数型ニューロンの入力に対応する次元に変換する場合、n番目の実数型ニューロンAの入力を下記の数式(19)により表される分割関数gを用いて決定してよい。ただし、θ(0≦θ<2π)を所与の初期位相とする。また、図10は、N=4、θ=0である場合の分割領域を示している。
Figure 0006690489
また、逆伝播においては、実数型ニューロンAから伝播する誤差勾配をδAnとすると、複素重みwの更新量Δwは、下記の数式(20)により表される。ただし、この際、偏微分∂f/∂zは、下記の数式(21)となり、条件を満たすニューロン以外に対しては0となる。
Figure 0006690489
このように、本実施形態に係る変換層TLは、上記の数式(20)により、第2型のニューラルネットワークNN2における誤差情報を第1型のニューラルネットワークNN1の重みまで伝播することができる。
(多元数型ニューロンの入出力の変換)
次に、本実施形態に係る多元数型ニューロンの入出力の変換について説明する。上記の説明では、本実施形態に係る変換層TLが、第1型のニューラルネットワークNN1における複素数型ニューロンの出力を第2型のニューラルネットワークNN2における実数型ニューロンの入力に対応する次元に変換する場合を中心に述べた。一方、本実施形態に係る変換層TLは、多元数型ニューロンに係る入出力の変換を行うことも可能である。本実施形態に係る変換層TLは、例えば、第1型のニューラルネットワークNN1における四元数型ニューロンの出力を第2型のニューラルネットワークNN2における実数型ニューロンの入力に対応する次元に変換してもよい。
図11は、本実施形態に係る多元数型ニューロンの入出力の変換について説明するための図である。図11には、本実施形態に係る変換層TLが四元数型ニューロンqの出力を、関数fを用いて実数型ニューロンaの入力に対応する次元に変換する場合の例が示されている。ここで、例えば、四元数型ニューロンqは、q=a+bi+cj+dk、と表現することができる。なお、上記のi、j、およびkは、虚数単位である。
この際、本実施形態に係る変換層TLは、qと共役四元数であるq(q=a−bi−cj−dk)を用いて実部を抽出する関数fや、ノルムを抽出する関数fを用いて、四元素型ニューロンqの出力を実数型ニューロンaの入力に対応する次元に変換することができる。なお、関数fおよび関数fは、それぞれ下記の数式(22)および数式(23)で表される。
Figure 0006690489
このように、本実施形態に係る変換層TLは、多元数を実数に写像する関数を用いることで、複素数型ニューロンの場合と同様に、多元数型ニューロンの入力に対応する次元に変換することが可能である。
<<1.4.変換後のニューロンの結合パターン>>
次に、本実施形態に係る変換後のニューロンの結合パターンについて説明する。上記の説明では、本実施形態に係る変換層TLがニューロンの入出力の変換に複数の方式を選択し得ることについて述べた。同様に、本実施形態に係る第2型のニューラルネットワークNN2では、変換された実数型ニューロンの結合パターンを複数の方式から選択してよい。本実施形態に係る第2型のニューラルネットワークNN2は、例えば、実数型ニューロンの結合パターンとして、全結合パターン、分離結合パターン、および一部分離結合パターンを採用し得る。
(全結合パターン)
まず、本実施形態に係る全結合パターンについて説明する。図12は、本実施形態に係る全結合パターンについて説明するための図である。図12には、2つの複素数型ニューロンが図中左列にドットのハッチングで示されている。上述したとおり、本実施形態に係る変換層TLは、上記の複素数型ニューロンの出力を実数ニューロンの入力に対応する次元に変換することができる。図12の中央列には、変換層TLにより変換された4つの実数型ニューロンが斜線のハッチングで示されている。この際、図12に示すように、本実施形態に係る第2型のニューラルネットワークNN2では、変換後の実数型ニューロンを次の層ですべて結合してもよい。図12には、複素数型ニューロンから変換された4つの実数型ニューロンが、次層における4つの実数型ニューロンと全結合する様子が示されている。
(分離結合パターン)
次に、本実施形態に係る分離パターンについて説明する。図13は、本実施形態に係る分離結合パターンについて説明するための図である。図13には、図12と同様に、2つの複素数型ニューロンの出力から変換された4つの実数型ニューロンへの入力が中央列に示されている。一方、図13に示す分離結合パターンでは、図12とは異なり、変換された実数型ニューロンの出力を振幅・位相などに分離して学習を進め、後に結合してよい。図13には、振幅に係る第2型のニューラルネットワークNN2−1と、位相に係る第2型のニューラルネットワークNN2−2とが示されている。このように、本実施形態に係る分離結合パターンでは、実数データの特性に応じて学習を分離することができる。本実施形態に係る分離結合パターンは、振幅や位相などが独立に意味を持つデータに対し特に有効である。
(一部分離結合パターン)
次に、本実施形態に係る一部分離結合パターンについて説明する。図14は、本実施形態に係る一部分離結合パターンについて説明するための図である。図14には、図13と同様に、振幅に係る第2型のニューラルネットワークNN2−1と、位相に係る第2型のニューラルネットワークNN2−2とが示されている。一方、図14に示す一部分離結合パターンでは、振幅に係る第2型のニューラルネットワークNN2−1と位相に係る第2のニューラルネットワークNN−2における実数型ニューロンの結合レベルが異なっている。すなわち、本実施形態に係る一部分離結合パターンでは、実数データの特性に応じて異なる結合レベルの学習を行うことが可能である。例えば、本実施形態に係る一部分離結合パターンでは、位相のみがより抽象化するよう結合レベルが設定されてもよい。本実施形態に係る一部分離結合パターンによれば、実数データの特性に応じた抽象化を実現することが可能である。
<<1.5.実施形態の効果>>
次に、本実施形態の効果について説明する。上述したとおり、本実施形態に係るニューラルネットワークNN0は、第1型のニューラルネットワークNN1と第2型のニューラルネットワークNN2、および当該2つのニューラルネットワークを接続する変換層TLを備える。本実施形態に係るニューラルネットワークNN0によれば、複素数データおよび実数データの学習を同時に行うことが可能となり、推定精度の向上が期待される。
一方、従来の実数型ニューラルネットワークにおいても、複素数データを分割して扱うことで、複素数データに基づく処理を行うことは可能である。しかし、この場合、複素数データを2次元ベクトルのように捉えるのみであり、例えば、位相回転などの学習を行うことは困難である。従って、従来の実数型ニューラルネットワークにおいて複素数データに基づく処理を行う場合、推定精度が劣化することが予想される。
そこで、上記の検証のため、本実施形態に係るニューラルネットワークNN0、および従来の実数型ニューラルネットワークにおける推定精度の比較を実施した。以下、周波数の異なる2信号に係る位相差学習における推定精度の比較結果について述べる。なお、当該検証では、訓練データおよびテストデータとして、それぞれ30000サンプルを使用した。ここで、訓練データには、周波数6.5Hz、および周波数4.0Hzの2信号を用い、教師データには、上記の2信号から求めた位相差を用いた。また、テストデータには、周波数5.5Hz、および周波数5.0Hzの2信号を用い、正解データには、上記の2信号から求めた位相差を用いている。
また、検証には、図1に示す構成を備えるニューラルネットワークNN0を利用した。この際、入力層ILにおいては2つの複素数型ニューロンを、中間層ML1およびML2においては、それぞれ50の複素数型ニューロンおよび100の実数型ニューロンを用いた。
また、比較対象とした実数型ニューラルネットワークの構成を図15に示す。図15に示すように、比較対象とした実数型ニューラルネットワークは、入力層IL2、中間層ML1−2とML2−2、および出力層OL2を備える。この際、入力層IL2においては、4つの実数型ニューロンを、中間層ML1−2およびML2−2においては、それぞれ100の実数型ニューロンを用いた。
図16は、従来の実数型ニューラルネットワークによる位相差学習の結果を示す図である。図16には、上述した正解データA1が破線で、テストデータT1が点線で示されている。また、図16では、縦軸に位相差が、横軸に時間(サンプル)がそれぞれ示されている。図16を参照すると、従来の実数型ニューラルネットワークによる学習結果では、位相端における振動が目立つことがわかる。
一方、図17は、本実施形態に係るニューラルネットワークNN0による位相差の学習結果を示す図である。図17には、正解データA1が破線で、テストデータT2が点線で示されている。また、図17では、図16と同様に、縦軸に位相差が、横軸に時間(サンプル)がそれぞれ示されている。図17を参照すると、本実施形態に係るニューラルネットワークNN0による学習結果では、従来の実数型ニューラルネットワークによる学習結果と比較し、特に位相端における位相ずれが緩やかとなっていることがわかる。すなわち、当該結果は、本実施形態に係るニューラルネットワークNN0が、位相の折り返し性など複素数データの持つ特性に基づいた精度の高い推定を行っていることを示している。
<2.ハードウェア構成例>
次に、本発明に係る情報処理装置10のハードウェア構成例について説明する。図18は、本発明に係る情報処理装置10のハードウェア構成例を示すブロック図である。図18を参照すると、情報処理装置10は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
<3.まとめ>
以上説明したように、本発明に係るニューラルネットワークNN0は、第1型のニューラルネットワークNN1と第2型のニューラルネットワークNN2、および上記の2つのニューラルネットワークを接続する変換層TLを備える。第1型のニューラルネットワークNN1は、例えば、複素数型ニューラルネットワークであり、第2型のニューラルネットワークNN2は、例えば、実数型のニューラルネットワークであってもよい。この際、本発明に係る変換層TLは、第1型のニューラルネットワークNN1における複素数型ニューロンの出力を第2型のニューラルネットワークNN2における実数型ニューロンの入力に対応する次元に変換することができる。係る構成によれば、多次元データを入力とするニューラルネットワークにおけるネットワーク規模および計算コストを低減することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 情報処理装置
110 入力部
120 推定部
130 記憶部
140 出力部
NN0 ニューラルネットワーク
NN1 第1型のニューラルネットワーク
NN2 第2型のニューラルネットワーク
TL 変換層

Claims (10)

  1. 入力される多次元データに基づく出力を行う、単数あるいは複数の次元を有するニューロンから構成されるニューラルネットワークを用いて状態推定を行う推定部、
    を備え、
    前記ニューラルネットワークは、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換する変換層を備え、
    前記第2型のニューロンは、前記第1型のニューロンと比較して低次元のデータに基づく処理を行う、
    情報処理装置。
  2. 前記第1型のニューロンは、複素数型ニューロンであり、
    前記第2型のニューロンは、実数型ニューロンである、
    請求項1に記載の情報処理装置。
  3. 前記ニューラルネットワークは、
    複素数データを入力層に持つ少なくとも1層以上の複素数型ネットワーク層と、
    実数データを出力層に持つ少なくとも1層以上の実数型ネットワーク層と、
    をさらに備え、
    前記変換層は、前記複素数型ネットワーク層と前記実数型ネットワーク層とを接続する、
    請求項2に記載の情報処理装置。
  4. 前記変換層は、前記実数型ネットワーク層における誤差情報を前記複素数型ネットワーク層に逆伝播する、
    請求項3に記載の情報処理装置。
  5. 前記変換層は、前記複素数型ニューロンの出力を実部および虚部に基づいて分割し、前記実数型ニューロンの入力に対応する次元に変換する、
    請求項2〜4のいずれかに記載の情報処理装置。
  6. 前記変換層は、前記複素数型ニューロンの出力を位相および振幅に基づいて分割し、前記実数型ニューロンの入力に対応する次元に変換する、
    請求項2〜5のいずれかに記載の情報処理装置。
  7. 前記変換層は、位相に基づいて分割した実数型ニューロンの出力を、正弦波および余弦波に基づいてさらに分割し、前記実数型ニューロンの入力に対応する次元に変換する、
    請求項6に記載の情報処理装置。
  8. 前記変換層は、位相に基づいて前記実数型ニューロンの数を決定する、
    請求項2〜7のいずれかに記載の情報処理装置。
  9. 多次元データを入力とする、単数あるいは複数の次元を有するニューロンで構成されるニューラルネットワークを用いた情報処理方法であって、
    第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換すること、
    を含み、
    前記変換することにおいて、前記第2型のニューロンは、前記第1型のニューロンと比較し低次元のデータに基づく処理を行うこと、
    をさらに含む、
    情報処理方法。
  10. コンピュータを、
    入力される多次元データに基づく出力を行う、単数あるいは複数の次元を有するニューロンで構成されるニューラルネットワークを用いて状態推定を行う推定部、
    を備え、
    前記ニューラルネットワークは、第1型のニューロンの出力を第2型のニューロンの入力に対応する次元に変換する変換層を備え、
    前記第2型のニューロンは、前記第1型のニューロンと比較し低次元のデータに基づく処理を行う、
    情報処理装置、
    として機能させるためのプログラム。
JP2016192482A 2016-09-30 2016-09-30 情報処理装置、情報処理方法、およびプログラム Active JP6690489B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016192482A JP6690489B2 (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法、およびプログラム
US15/615,872 US20180096246A1 (en) 2016-09-30 2017-06-07 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016192482A JP6690489B2 (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018055514A JP2018055514A (ja) 2018-04-05
JP6690489B2 true JP6690489B2 (ja) 2020-04-28

Family

ID=61758778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016192482A Active JP6690489B2 (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US20180096246A1 (ja)
JP (1) JP6690489B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200061164A (ko) 2018-11-23 2020-06-02 삼성전자주식회사 뉴럴 네트워크 연산 수행을 위한 뉴럴 네트워크 장치, 뉴럴 네트워크 장치의 동작 방법 및 뉴럴 네트워크 장치를 포함하는 애플리케이션 프로세서
JP7118938B2 (ja) * 2019-09-13 2022-08-16 Kddi株式会社 分類装置、学習装置、方法及びプログラム
CN110991620A (zh) * 2019-12-11 2020-04-10 上海交通大学 一种具有隐私保护作用的新型神经网络模块
JP6856112B1 (ja) * 2019-12-25 2021-04-07 沖電気工業株式会社 ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
CN111368993B (zh) * 2020-02-12 2023-03-31 华为技术有限公司 一种数据处理方法及相关设备
US11863221B1 (en) * 2020-07-14 2024-01-02 Hrl Laboratories, Llc Low size, weight and power (swap) efficient hardware implementation of a wide instantaneous bandwidth neuromorphic adaptive core (NeurACore)
US12057989B1 (en) * 2020-07-14 2024-08-06 Hrl Laboratories, Llc Ultra-wide instantaneous bandwidth complex neuromorphic adaptive core processor
CN112257858B (zh) * 2020-09-21 2024-06-14 华为技术有限公司 一种模型压缩方法及装置

Also Published As

Publication number Publication date
US20180096246A1 (en) 2018-04-05
JP2018055514A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6690489B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6801529B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021012929A1 (zh) 通道间特征提取方法、音频分离方法和装置、计算设备
CN103426435B (zh) 具有移动约束的通过独立分量分析的源分离
CN110222762A (zh) 对象预测方法、装置、设备、及介质
US20190026630A1 (en) Information processing apparatus and information processing method
CN109919244A (zh) 用于生成场景识别模型的方法和装置
CN109872276A (zh) 用于生成图像超分辨率模型的方法和装置
CN111931877B (zh) 目标检测方法、装置、设备及存储介质
CN102147865B (zh) 信息处理设备、信息处理方法以及程序
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
JP2018026040A (ja) 情報処理装置および情報処理方法
JP2014095967A (ja) 情報処理装置、情報処理方法およびプログラム
CN107688783A (zh) 3d图像检测方法、装置、电子设备及计算机可读介质
CN109948699A (zh) 用于生成特征图的方法和装置
CN111598160A (zh) 图像分类模型的训练方法、装置、计算机设备及存储介质
CN109948700A (zh) 用于生成特征图的方法和装置
CN109800730A (zh) 用于生成头像生成模型的方法和装置
CN109583367A (zh) 图像文本行检测方法及装置、存储介质和电子设备
CN109416836A (zh) 信息处理设备、信息处理方法、以及信息处理系统
CN108885716A (zh) 信息处理装置、信息处理方法以及信息提供方法
WO2023202285A1 (zh) 图像处理方法、装置、计算机设备及存储介质
TW201918866A (zh) 觸控面板上的敲擊事件的分類方法及系統,以及觸控面板產品
CN115049783A (zh) 模型的确定方法、场景重建模型、介质、设备及产品
EP4102460A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6690489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150