JP7384081B2 - 情報処理装置、データ分解方法、及びデータ分解プログラム - Google Patents

情報処理装置、データ分解方法、及びデータ分解プログラム Download PDF

Info

Publication number
JP7384081B2
JP7384081B2 JP2020047103A JP2020047103A JP7384081B2 JP 7384081 B2 JP7384081 B2 JP 7384081B2 JP 2020047103 A JP2020047103 A JP 2020047103A JP 2020047103 A JP2020047103 A JP 2020047103A JP 7384081 B2 JP7384081 B2 JP 7384081B2
Authority
JP
Japan
Prior art keywords
data
matrix
evaluation index
approximate
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047103A
Other languages
English (en)
Other versions
JP2021149353A (ja
Inventor
正史 門脇
満 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020047103A priority Critical patent/JP7384081B2/ja
Priority to US17/202,504 priority patent/US20210295157A1/en
Priority to EP21162756.7A priority patent/EP3889845B1/en
Publication of JP2021149353A publication Critical patent/JP2021149353A/ja
Application granted granted Critical
Publication of JP7384081B2 publication Critical patent/JP7384081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Complex Calculations (AREA)

Description

本発明は、情報処理装置、データ分解方法、及びデータ分解プログラムに関する。
従来から、例えば、ニューラルネットワークを用いた機械学習が広く行われている。ここで、ニューラルネットワークの入力層及び出力層又は中間層との間には、例えば行列で表される重み(重み行列)が定義されている。ニューラルネットワークでは層数を多くすると、情報処理の精度が向上するものの、重み行列を用いた演算を層数に応じて行うことになり、重み行列の記憶及び重み行列を用いた演算処理に必要なメモリ容量が大きくなる。
そこで、特許文献1では、ニューラルネットワークモデルの少なくとも1つの層の重み行列を、整数の行列である基底行列と実数の行列である係数行列との積で表される近似行列で構成することが開示されている。これにより、重み行列はよりデータ数の少ない基底行列と係数行列の積で近似されることになる。この積である近似行列は、換言すると、重み行列をデータ圧縮したものである。この近似行列を重み行列の替わりに用いることで、ニューラルネットワークモデルにおける結合層の演算において、必要とするメモリ容量が小さくなり、処理時間も短くなる。
国際公開2018/016608号公報
ここで、特許文献1では、重み行列を実数の係数行列と整数の基底行列との積に分解するために、分解誤差を表すコスト関数を解く。より具体的には、基底行列の要素を固定して係数行列の要素を最小二乗法により最適化することで、コスト関数が最小になるように係数行列の要素を更新する。また、係数行列の要素を固定して、コスト関数が最小となるように基底行列の要素を更新する。そして、収束するまでこれらを繰り返す。
しかしながら、特許文献1に記載の方法では、基底行列及び係数行列の一方を固定して他方を変化させるため、固定した一方が適切でなければ他方を変化させても、重み行列に対して近似度の高い基底行列と係数行列との積に分解することが難しい。すなわち、重み行列に対してより近似度の高い近似行列を得ることが難しい。
本発明は上記背景に鑑み、所定のデータに対してより近似度の高い基底データと係数データとの積である近似データを得ることができる、情報処理装置、データ分解方法、及びデータ分解プログラムを提供することを目的とする。
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。
本発明の一態様の情報処理装置(10)は、複数の値で構成されるモデルデータを基底データと係数データとの組合せで構成される近似データで近似する情報処理装置であって、前記近似データを構成しうる候補となる基底データ候補を選択する選択手段(20)と、前記基底データ候補を用いて近似データ候補を求め、前記近似データ候補を評価する評価指標を算出する評価指標算出手段(22)と、前記評価指標と前記近似データ候補を構成する前記基底データ候補との関係を表す回帰式を生成する回帰式生成手段(24)と、選択された前記基底データ候補を用いて、前記評価指標算出手段及び前記回帰式生成手段での処理を少なくとも1回以上行う繰返制御手段(26)と、所定の終了条件を満たした時点で、前記評価指標が望ましい値を持つ前記近似データ候補を構成する前記基底データ候補を用いて前記係数データを算出する係数データ算出手段(30)と、を備え、前記選択手段は、前記回帰式が前記評価指標をより正確に予測するように前記基底データ候補を選択する。
本発明によれば、所定のデータに対してより近似度の高い基底データと係数データとの積である近似データを得ることができる。
本実施形態の情報処理装置の概略構成図である。 本実施形態の重み行列を基底行列と係数行列とに分解する処理を示す概念図である。 本実施形態の基底行列候補の組み合わせを示す模式図である。 本実施形態の重みパラメータの確率分布を示す模式図である。 本実施形態の重み行列分解処理の流れを示すフローチャートである。 本実施形態の重み行列分解処理による実験結果を示す図である。
以下、図面を参照して本発明の実施形態を説明する。なお、以下に説明する実施形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施形態に応じた具体的構成が適宜採用されてよい。
図1は、本実施形態の情報処理装置10の電気的構成を示すブロック図である。本実施形態に係る情報処理装置10は、量子コンピュータ等で構成される演算部12、各種プログラム及び各種データ等が予め記憶されたROM(Read Only Memory)14、演算部12による各種プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)16、各種プログラムや各種データ等を記憶する大容量記憶装置18を備えている。
なお、量子コンピュータとは、電子や光子などの量子力学の原理が妥当する物質を利用して、情報の基本単位(これを量子ビットという)を構成し、この量子ビットを用いて計算を行うコンピュータをいう。また、演算部12は、量子コンピュータに限らず、古典ビット(例えばCMOSトランジスタ)により演算を行う任意のコンピュータであってもよい。また、量子コンピュータと上記任意のコンピュータとが併用されて、情報処理装置10が構成されてもよい。すなわち、情報処理装置10の演算部12の全てまたは一部分が、量子コンピュータとされてもよい。
大容量記憶装置18は、ニューラルネットワークに用いられる重み行列や、後述する重み行列分解処理を実行するためのプログラム等を記憶している。なお、大容量記憶装置18は、例えばHDD(Hard Disk Drive)や半導体記憶装置であるが、特に限定されない。
さらに、情報処理装置10は、キーボード及びマウス等から構成され、各種操作の入力を受け付ける操作入力部、各種画像を表示する、例えば液晶ディスプレイ装置等の画像表示部、通信回線を介して他の情報処理装置等と接続され、他の情報処理装置等との間で各種データの送受信を行う外部インタフェースを備えている。
本実施形態に係る情報処理装置10は、複数の値で構成されるモデルデータを基底データと係数データとの組み合わせで構成される近似データに近似するものである。本実施形態では一例として基底データは整数であり、係数データは実数である。また、ここでいう組み合わせとは、一例として基底データと係数データとの積である。なお、本実施形態ではモデルデータを、一例として、複数層で構成されるニューラルネットワークモデルの層毎の重みを示す重みデータとする。
なお、本実施形態のニューラルネットワークは、一例として、自動車等の車両の自動運転に用いられるものであり、例えば、ニューラルネットワークに入力されるデータが車載カメラによる撮像で取得した画像データであり、出力は車両の自動運転に要するデータ(アクセルやブレーキの操作量、ハンドルの操作量等)である。
重みデータは行列で表すことが可能なデータ(以下「重み行列W」という。)とされ、これに伴い、基底データは基底行列Mとされ、係数データは係数行列Cとされ、近似データも近似行列Vとされる。しかしながら、モデルデータは、必ずしも、行列で表されるデータである必要はなく、これに伴い、基底データ、係数データ、及び近似データも、行列で表されるデータでなくてもよい。換言すると、モデルデータは、基底データと係数データとの組み合わせである近似データで表すことができるデータであれば限定されない。
そして、本実施形態の情報処理装置10は、重み行列Wを基底行列Mと係数行列Cとの組み合せで構成される近似行列Vで近似するために、重み行列Wを基底行列Mと係数行列Cとの積に分解する重み行列分解処理を実行する機能を有する。
図2は、D行×N列の重み行列Wを基底行列Mと係数行列Cとに分解する処理(整数基底分解法)を示す概念図である。この処理は、重み行列Wを基底行列Mと係数行列Cとにデータ圧縮することに相当する。なお、本実施形態の基底行列Mは整数行列であり、係数行列Cは実数行列である。
重み行列Wは、整数データをmとし、実数データをcとすると下記(1)式で表される近似行列V=F(m,c)の関数で近似できる。関数F(m,c)はD×N個の関数fdnで表され、dは1,・・・,Dであり、nは1,・・・,Nである。そして、(1)式で表される近似行列Vは、(2)式のように基底行列Mと係数行列Cとの行列積MCで表される。
Figure 0007384081000001
重み行列WがD行×N列で表される場合、基底行列MはD行×K列(KはNより小さな整数)で表され、係数行列CはK行×N列で表される。一例として、重み行列Wを下記(3)式で表すと、基底行列Mは下記(4)式で表され、係数行列Cは下記(5)式で表される。なお、重み行列Wを構成する成分を重みデータwとする。
Figure 0007384081000002
本実施形態の基底行列Mの成分mは、一例として“0”又は“1”の二値とするが、これに限らず、成分mは“-1”、“0”、“1”の何れかとする三値やそれ以上の多値であってもよい。基底行列Mの成分mは二値又は多値を取ることができ、行列成分mがm行n列の行列における各成分となっている行列が基底行列Mである。このように基底行列Mは、複数の二値又は多値の組合せとされる。なお、二値の例として“0”又は“1”に限らず、例えば“-1”又は“1”等、他の値が適用されてもよい。
また、係数行列Cは下記(6)式で表され、(6)式を(1)式に代入することで近似行列Vは下記(7)式で表される。なお、関数Gは、L個の関数gで表される。
Figure 0007384081000003
そして、(1),(2)式で示されるようにV=F(m,c)=MCとすると、(6)式と(7)式は各々下記(8)式と(9)式で表される。なお、(8)式と(9)式における“T”は転置行列を示し、“-1”は逆行列を示す。
Figure 0007384081000004
(9)式で示されるように、重み行列Wを近似する近似行列Vは、基底行列Mと重み行列Wとによって表すことが可能である。そして、近似行列Vの重み行列Wに対する近似の度合いは、最小二乗法を用いて下記(10)式で表される。すなわち、誤差zを最小化する基底行列Mを求めることで、重み行列Wにより近似する近似行列Vを得ることができる。
Figure 0007384081000005
しかしながら、(10)式に基づいて、誤差zを最小化する最適な基底行列Mを直接的に求めることは困難である。そこで、本実施形態の情報処理装置10は、重み行列分解処理として、ブラックボックス最適化を用いて最適な基底行列Mを算出し、それにより近似行列Vを得る。
本実施形態の重み行列分解処理の概要として、情報処理装置10は、まず、近似行列Vを構成しうる候補となる基底行列候補Mcを選択し、基底行列候補Mcを用いて近似行列候補Vcを求めて近似行列候補Vcを評価する評価指標を算出する。なお、評価指標は、(10)式で表されるように、近似行列候補Vcと重み行列Wとの誤差zである。
さらに、情報処理装置10は、基底行列候補Mcと評価指標との関係から回帰式を生成し、この回帰式の予測精度を向上させるために適切な基底行列候補Mcをさらに選択して、選択した基底行列候補Mcから算出される近似行列候補Vcについて評価指標を求める、という処理を繰り返し行い、回帰式をより良好なものにする。そして情報処理装置10は、最終的な回帰式に基づいて最も重み行列Wに近似する近似行列候補Vcを得た基底行列候補Mcを用いて(8)式で示されるC=(MM)-1Wから、係数行列Cを算出する。
すなわち、上記処理の繰り返しは、回帰式の予測精度を上げることを目的としており、回帰式の予測精度が十分に高くなった後に、回帰式に基づいて基底行列候補Mcが決定される。
次に、本実施形態の重み行列分解処理を実行する演算部12について図1を参照して詳述する。本実施形態の情報処理装置10が備える演算部12は、基底行列候補選択部20、評価指標算出部22、回帰式生成部24、繰返制御部26、及び係数行列算出部30を備える。
基底行列候補選択部20は、近似行列Vを構成しうる候補となる基底行列候補Mcを選択する。基底行列候補Mcは各成分が“1”又は“0”の二値であるため、基底行列候補Mcを(4)式であらわすと、例えばm=1、m=1、m=0、m=1、m=1、m=0とのように表される。なお、基底行列候補選択部20は、繰り返し処理の最初はランダムに基底行列候補Mcを選択してもよい。そして、基底行列候補選択部20は、繰り返し処理の2回目以降は、最小化関数に基づいて基底行列候補Mcを選択するが、これについては後述する。
評価指標算出部22は、基底行列候補Mcを用いて近似行列候補Vcを求め、近似行列候補Vcを評価する評価指標を算出する。なお、本実施形態の評価指標は、上述のように、基底行列候補Mcで構成された近似行列候補Vcと重み行列Wとの誤差zであり、一例として(10)式を用いて算出される。
回帰式生成部24は、評価指標(誤差z)と近似行列候補Vcを構成する基底行列候補Mcとの関係を表す回帰式を生成する。ここで、基底行列候補Mcを1回選択した段階では、基底行列候補Mc(近似行列候補Vc)と評価指標との関係を示すデータは一つであるが、基底行列候補Mcの選択と評価指標の算出とを繰り返し行うことで、基底行列候補Mcと評価指標との関係を示すデータは繰り返し数分だけ蓄積されていく。回帰式生成部24は、このように蓄積されたデータを用いて、基底行列候補Mcと評価指標との関係を表す回帰式を生成する。すなわち、データが蓄積されることで回帰式が予測する評価指標の予測精度が向上する。
具体的には、回帰式生成部24は、基底行列候補Mcを構成する各成分mを選択識別子s,sとした下記(11)式で示される回帰式(回帰モデル)を生成する。すなわち、本実施形態の選択識別子s,sは、成分m,mの値である“1”又は“0”を示す。
Figure 0007384081000006
本構成によれば、基底行列候補Mcを構成する各成分m,mと重みパラメータaijとの積の総和と、成分mと重みパラメータをbとの積の総和との和によって、評価指標である誤差zを予測する回帰式が表される。なお、(11)式で示される回帰式は、誤差zの最小化に用いられるモデル式であり、以下では最小化関数ともいう。
なお、本実施形態の(11)式で示される回帰式は、2次の項で構成されるが、これに限らず回帰式は3次以上の項を含んでもよい。これによれば、2次の項で表される回帰式よりもより、最適な近似行列Vを生成できる。なお、3次以上の項として補助変数を用いることで、回帰式を2次の項で表してもよい。
繰返制御部26は、選択された基底行列候補Mcを用いて係数行列算出部30、評価指標算出部22及び回帰式生成部24での処理を少なくとも1回以上行う。より具体的には、繰返制御部26は、回帰式生成部24によって生成された回帰式が評価指標をより正確に予測するように、換言すると、回帰式による評価指標の予測精度が向上するように基底行列候補選択部20によって基底行列候補Mcを選択させる。そして繰返制御部26は、所定の終了条件を満たすまで、選択された基底行列候補Mcを用いて係数行列算出部30、評価指標算出部22及び回帰式生成部24での処理を繰り返し行わせる。
基底行列特定部28は、所定の終了条件を満たした時点で、評価指標が望ましい値を持つ近似行列候補Vcを構成する基底行列候補Mcを特定する。なお、基底行列特定部28によって特定された基底行列候補Mcは、求めるべき近似行列Vを構成する基底行列Mとされる。また、望ましい値の評価指標とは、例えば、予め定められた値以下の評価指標や、最良となる評価指標である。
係数行列算出部30は、所定の終了条件を満たした時点で基底行列特定部28が特定した基底行列候補Mcを用いて係数行列Cを算出する。なお、係数行列算出部30によって算出された係数行列Cは、求めるべき近似行列Vを構成する係数行列Cとされる。
図3は、繰り返し処理によって、基底行列候補MT(基底行列候補Mc~Mc)と誤差Z(誤差z1~zn)のデータが蓄積されていく様子を示す模式図である。最初の基底行列候補Mcは、上述したとおり、{1,1,0,1,1,0}であり、これらの基底行列候補Mcで構成される近似行列候補Vcと重み行列Wを比較して求まった誤差z(評価指標)は、z1となる。この結果に基づいて回帰式が生成され、基底行列候補選択部20は、回帰式に基づいて2回目の基底行列候補Mcを{1,0,1,1,0,1}とのように決定し、この基底行列候補Mcで構成される近似行列候補Vcの誤差はz2となる。3回目では、1回目の基底行列候補Mcと誤差z1と、2回目の基底行列候補Mcと誤差z2との両方を用いて回帰式が生成される。これにより求まる回帰式は、用いるデータが多い分だけ、前回の回帰式よりも予測精度が高くなる。続いて、基底行列候補選択部20は、回帰式に基づいて3回目の基底行列候補Mcを求め、同じ処理を繰り返す。
このように、基底行列候補Mcの選択及び誤差znの算出を繰り返すことにより、回帰式を生成するためのデータが増加し、基底行列候補MTと誤差Zとの関係を示すモデル式としてより正確な回帰式が生成される。
次に、回帰式の予測精度が高くなる、という点について説明をする。回帰式生成部24は、最小化関数である回帰式の重みパラメータaij,bを図4に示されるように確率分布P(aij),P(b)として求める。なお、図4は、重みパラメータaijの確率分布P(aij)を示す図であるが、重みパラメータbの確率分布P(b)も同様である。基底行列候補Mcnとそれに対する誤差znのデータが少ないと、重みパラメータaij,bがとる確率分布P(aij),P(b)はブロードな分布であるが、基底行列候補Mcの選択および誤差zの算出を繰り返し行い、データ数(図3参照)が増加するに連れて重みパラメータaij,bの確率分布P(aij),P(b)はシャープな形状となる。すなわち、回帰式の予測精度が高くなる。
なお、基底行列候補選択部20は、基底行列候補Mcを選択する際に、確率分布P(aij),P(b)で示される重みパラメータaij,bの代表値を用いて、最小化関数を最小とする基底行列候補Mcを求める。一例として、最小化関数の重みパラメータaij,bとして適用される代表値は、確率分布P(aij),P(b)に従ってサンプリングした値とする。
また、基底行列候補Mcは回帰式の予測精度を向上させるために最小化関数によって選択されるが、回帰式の予測精度を向上させる選択手段であれば、最小化関数による最小化以外の手段が用いられてもよい。一例として、効率的でないがランダムな組合せを選択することも可能である。
次に、重み行列分解処理について図5を用いて説明する。図5は、情報処理装置10で実行され重み行列分解処理の流れを示すフローチャートである。また、重み行列分解処理は、情報処理装置10が備える大容量記憶装置18等の記録媒体に格納されたプログラムによって実行される。なお、このプログラムが実行されることで、プログラムに対応する方法が実行される。
まず、ステップS100では、基底行列候補選択部20が、基底行列候補Mcを選択する。なお、最初に選択される基底行列候補Mcは、一例として、成分mがランダムに選択される。
次のステップS102では、評価指標算出部22が、基底行列候補Mcと重み行列Wを用いて(9)式に基づき、近似行列候補Vcを算出する。
次のステップS104では、評価指標算出部22が、(10)式に基づいて近似行列候補Vcの評価指標である誤差zを算出する。
次のステップS106では、回帰式生成部24が、基底行列候補Mc(n=1,・・・,i:iは繰返し数)とその評価指標(誤差z)とに基づいて、上記(11)式に示される回帰式である最小化関数を生成する。
次のステップS108では、終了条件を満たしたか否かを繰返制御部26が判定し、肯定判定の場合はステップS110へ移行し、否定判定の場合はステップS100へ移行する。なお、終了条件は、例えば、基底行列候補Mcの選択数が所定数に達した場合、あるいは評価指標(誤差z)が所定の基準以下となった場合である。
ステップS110では、基底行列候補選択部20が、回帰式の予測精度が向上する(本実施形態では誤差zの予測値と実測値のずれが小さく、特に最小値周辺でのずれがより小さくなる)基底行列候補Mcを選択する。本実施形態では、基底行列候補選択部20は、下記(12)式に従って、次の選択する基底行列候補Mcを決定する。
Figure 0007384081000007
(12)式は、基底行列候補Mcを構成する成分mに対してどの成分mを“1”とし、どの成分mを“0”とすれば、誤差zが最小となるかを回帰式に基づいて求める式である。
ここで、繰り返し回数が少ないときには回帰式の予測精度は低く、選択した基底行列候補Mcはランダムに選択した場合と違いは少ない。一方で繰り返し回数が多くなると回帰式の予測精度は高くなり、選択した基底行列候補Mcは最終的に求めたい基底行列Mと違いは少なくなる。この特性により、選択できる基底行列候補Mcを広くカバーし、かつ求めたい基底行列候補Mcの周辺を高い精度で予測できる回帰式を効率的に得ることができる。なお、この手法に限らず、効率的に高い予測精度の回帰式が得られれば他の手段が用いられてもよい。
そして、重み行列分解処理は、新しい基底行列候補Mcを選択したら、その基底行列候補Mcを用いて、上記した近似行列候補Vcの算出(S102)、近似行列候補Vcによる誤差zの算出(S104)、回帰式の生成(S106)を行い、終了条件を満たすまで、これらの処理を繰り返す。
一方、ステップS108における判定で終了条件を満たした場合、ステップS112において基底行列特定部28が、終了条件を満たした時点において誤差zが最小となる基底行列候補Mcを、近似行列Vを構成する基底行列Mとして特定する。
次のステップS114では、係数行列算出部30が、特定された基底行列Mを用いて係数行列Cを算出し、本重み行列分解処理は終了する。なお、重み行列分解処理によって算出された基底行列M、係数行列C、及び近似行列Vは、大容量記憶装置18に記憶される。
以上説明したように、本実施形態の重み行列分解処理は、近似行列Vと重み行列Wとの誤差zを最小とする最適な基底行列Mをブラックボックス最適化により算出し、この基底行列Mに基づいて一意に係数行列Cを算出する。これにより、本実施形態の重み行列分解処理は、重み行列Wをより近似度の高い基底行列Mと係数行列Cとの積である近似行列Vを得ることができる。
なお、本実施形態の重み行列分解処理によって算出された近似行列V(基底行列Mと係数行列Cとの積)は、例えば、車両の自動運転に用いられるニューラルネットワークで用いられる重みデータである重み行列Wの近似行列Vとされ、車両が備える記憶媒体に記憶され、演算に用いられる。すなわち、車両において自動運転を行うために、重み行列Wをそのまま用いるのであれば重み行列Wを記憶するための大きなメモリ容量を必要とするものの、近似行列Vを用いることにより自動運転に要するメモリ容量をより小さくすることができる。
図6は、本実施形態の重み行列分解処理による実験結果を示す図である。図6の縦軸はモデルデータ(重み行列W)と近似行列Vとの誤差zであり、横軸は繰り返し回数である。図6において実験結果Aと共に示される破線aは従来の近似解法によって到達可能な誤差zであり、破線bは近似行列Vの最適解に対応する誤差zである。図6に示されるように本実施形態の重み行列分解処理では、繰り返し回数が増加するほど最適解により近い近似行列Vを求めることができ、従来の近似解法では到達できない誤差zとなる近似行列Vを算出可能なことが実験的にも確認できた。
以上、本発明を、上記実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。
例えば、上記実施形態では、探索条件として(12)式に示されるように“argmin”を適用する形態について説明した。これは、より適切な基底行列候補Mcを選択するために、近似行列候補Vcと重み行列Wとの誤差zを評価指標としたためである。評価指標の設定の仕方によっては、評価指標が最大となるように、基底行列候補Mcの選択を行ってもよい。
また、上記実施形態では、基底行列Mと係数行列Cとの組み合わせで構成される近似行列Vを、(2)式のように近似行列Vを基底行列Mと係数行列Cとの積で表す形態について説明したが、本発明はこれに限られない。近似行列Vは、基底行列Mと係数行列Cとの組み合わせで構成されていればよく、例えば、基底行列Mと係数行列Cとの積に所定の係数を掛け合わせたり、基底行列Mと係数行列Cとの積に所定の定数を足し合わせたものを近似行列Vとしてもよい。
また、上記実施形態では、重み行列Wと近似行列Vとの誤差zを(10)式に示すように最小二乗法を用いて算出する形態について説明したが、本発明はこれに限られない。例えば、重み行列Wと近似行列Vとの誤差を重み行列Wと近似行列Vとの差の絶対値としてもよい。
また、上記実施形態では、回帰モデルとして(11)式の重みパラメータaij,bとして確率分布を用いた回帰式を適用する形態について説明したが、本発明はこれに限られない。例えば、回帰モデルとしてFactorization Machine等の他の手法(アルゴリズム)を適用してもよい。
本発明は、所定のモデルデータに近似する近似データの算出に用いることができる。
10・・・情報処理装置、20・・・選択部、22・・・評価指標算出部、
24・・・回帰式生成部、26・・・繰返制御部、30・・・係数行列算出部

Claims (11)

  1. 複数の値で構成されるモデルデータを基底データと係数データとの組合せで構成される近似データで近似する情報処理装置(10)であって、
    前記近似データを構成しうる候補となる基底データ候補を選択する選択手段(20)と、
    前記基底データ候補を用いて近似データ候補を求め、前記近似データ候補を評価する評価指標を算出する評価指標算出手段(22)と、
    前記評価指標と前記近似データ候補を構成する前記基底データ候補との関係を表す回帰式を生成する回帰式生成手段(24)と、
    選択された前記基底データ候補を用いて、前記評価指標算出手段及び前記回帰式生成手段での処理を少なくとも1回以上行う繰返制御手段(26)と、
    所定の終了条件を満たした時点で、前記評価指標が望ましい値を持つ前記近似データ候補を構成する前記基底データ候補を用いて前記係数データを算出する係数データ算出手段(30)と、
    を備え、
    前記選択手段は、前回生成された前記回帰式に基づいて前記基底データ候補を決定し、決定した前記基底データ候補及び前記評価指標並びに前回までに決定した前記基底データ候補及び前記評価指標を用いて生成された前記回帰式に基づいて、次回の前記基底データ候補を決定することを繰り返す、情報処理装置。
  2. 前記モデルデータ、前記基底データ、前記係数データ、及び近似データは、行列で表され、前記近似データは、下記(1)式で表され、前記基底データは、下記(2)式で表される請求項1記載の情報処理装置。
    Figure 0007384081000008
    Figure 0007384081000009
  3. 前記基底データは、複数の二値又は多値の組合せである、請求項1又は請求項2記載の情報処理装置。
  4. 前記評価指標は、前記基底データ候補で構成された前記近似データ候補と前記モデルデータとの誤差である、請求項1から請求項3の何れか1記載の情報処理装置。
  5. 前記回帰式生成手段は、前記評価指標をzとし、前記基底データ候補を構成する値をsi,sjとした下記(3)式で示される回帰式を生成する、請求項1から請求項4の何れか1項記載の情報処理装置。
    Figure 0007384081000010
  6. 前記回帰式生成手段は、前記回帰式の重みパラメータを確率分布として求める、請求項5記載の情報処理装置。
  7. 前記回帰式は、3次以上の項を含む、請求項1から請求項6の何れか1項記載の情報処理装置。
  8. 前記モデルデータは、複数層で構成されるニューラルネットワークモデルの層毎の重みを示す重みデータである、請求項1から請求項7の何れか1記載の情報処理装置。
  9. 前記情報処理装置の全て又は一部分は、量子コンピュータである、請求項1から請求項8の何れか1記載の情報処理装置。
  10. 複数の値で構成されるモデルデータを基底データと係数データとの組合せで構成される近似データで近似するデータ分解方法であって、
    前記近似データを構成しうる候補となる基底データ候補を選択する選択工程と、
    前記基底データ候補を用いて近似データ候補を求め、前記近似データ候補を評価する評価指標を算出する評価指標算出工程と、
    前記評価指標と前記近似データ候補を構成する前記基底データ候補との関係を表す回帰式を生成する回帰式生成工程と、
    選択された前記基底データ候補を用いて、前記評価指標算出工程及び前記回帰式生成工程での処理を少なくとも1回以上行う繰返制御工程と、
    所定の終了条件を満たした時点で、前記評価指標が望ましい値を持つ前記近似データ候補を構成する前記基底データ候補を用いて前記係数データを算出する係数データ算出工程と、
    を備え、
    前記選択工程は、前回生成された前記回帰式に基づいて前記基底データ候補を決定し、決定した前記基底データ候補及び前記評価指標並びに前回までに決定した前記基底データ候補及び前記評価指標を用いて生成された前記回帰式に基づいて、次回の前記基底データ候補を決定することを繰り返す、データ分解方法。
  11. 複数の値で構成されるモデルデータを基底データと係数データとの組合せで構成される近似データで近似する情報処理装置が備えるコンピュータを、
    前記近似データを構成しうる候補となる基底データ候補を選択する選択手段と、
    前記基底データ候補を用いて近似データ候補を求め、前記近似データ候補を評価する評価指標を算出する評価指標算出手段と、
    前記評価指標と前記近似データ候補を構成する前記基底データ候補との関係を表す回帰式を生成する回帰式生成手段と、
    選択された前記基底データ候補を用いて、前記評価指標算出手段及び前記回帰式生成手段での処理を少なくとも1回以上行う繰返制御手段と、
    所定の終了条件を満たした時点で、前記評価指標が望ましい値を持つ前記近似データ候補を構成する前記基底データ候補を用いて前記係数データを算出する係数データ算出手段と、
    して機能させ、
    前記選択手段は、前回生成された前記回帰式に基づいて前記基底データ候補を決定し、決定した前記基底データ候補及び前記評価指標並びに前回までに決定した前記基底データ候補及び前記評価指標を用いて生成された前記回帰式に基づいて、次回の前記基底データ候補を決定することを繰り返す、データ分解プログラム。
JP2020047103A 2020-03-18 2020-03-18 情報処理装置、データ分解方法、及びデータ分解プログラム Active JP7384081B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020047103A JP7384081B2 (ja) 2020-03-18 2020-03-18 情報処理装置、データ分解方法、及びデータ分解プログラム
US17/202,504 US20210295157A1 (en) 2020-03-18 2021-03-16 Information process device, data decomposition method, and storage medium storing data decomposition program
EP21162756.7A EP3889845B1 (en) 2020-03-18 2021-03-16 Information process device, data decomposition method, and data decomposition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047103A JP7384081B2 (ja) 2020-03-18 2020-03-18 情報処理装置、データ分解方法、及びデータ分解プログラム

Publications (2)

Publication Number Publication Date
JP2021149353A JP2021149353A (ja) 2021-09-27
JP7384081B2 true JP7384081B2 (ja) 2023-11-21

Family

ID=74884827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047103A Active JP7384081B2 (ja) 2020-03-18 2020-03-18 情報処理装置、データ分解方法、及びデータ分解プログラム

Country Status (3)

Country Link
US (1) US20210295157A1 (ja)
EP (1) EP3889845B1 (ja)
JP (1) JP7384081B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007305048A (ja) 2006-05-15 2007-11-22 Mitsubishi Electric Information Systems Corp 影響因子推定装置及び影響因子推定プログラム
US20170213134A1 (en) 2016-01-27 2017-07-27 The Regents Of The University Of California Sparse and efficient neuromorphic population coding
WO2018016608A1 (ja) 2016-07-21 2018-01-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム
CN110377942A (zh) 2019-06-10 2019-10-25 广东工业大学 一种基于有限高斯混合模型的多模型时空建模方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090150126A1 (en) * 2007-12-10 2009-06-11 Yahoo! Inc. System and method for sparse gaussian process regression using predictive measures
US9563825B2 (en) * 2014-11-20 2017-02-07 Adobe Systems Incorporated Convolutional neural network using a binarized convolution layer
JP6563858B2 (ja) * 2016-06-02 2019-08-21 株式会社デンソーアイティーラボラトリ 特徴点位置推定装置、特徴点位置推定システム、特徴点位置推定方法、および特徴点位置推定プログラム
US11386326B2 (en) * 2018-06-11 2022-07-12 The Regents Of The University Of California Training a machine learning model with limited training data
US20200293864A1 (en) * 2019-03-12 2020-09-17 Qualcomm Incorporated Data-aware layer decomposition for neural network compression
JP7114528B2 (ja) * 2019-07-08 2022-08-08 株式会社東芝 推論装置、学習装置、推論方法及び学習方法
US20210124988A1 (en) * 2019-10-28 2021-04-29 Denso Corporation Information processing apparatus and method and program for generating integrated model
JP7459681B2 (ja) * 2020-06-23 2024-04-02 株式会社デンソー 情報処理装置、回帰モデル生成方法、及び回帰モデル生成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007305048A (ja) 2006-05-15 2007-11-22 Mitsubishi Electric Information Systems Corp 影響因子推定装置及び影響因子推定プログラム
US20170213134A1 (en) 2016-01-27 2017-07-27 The Regents Of The University Of California Sparse and efficient neuromorphic population coding
WO2018016608A1 (ja) 2016-07-21 2018-01-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム
CN110377942A (zh) 2019-06-10 2019-10-25 广东工业大学 一种基于有限高斯混合模型的多模型时空建模方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N. Benjamin Erichson et al.,Randomized Nonnegative Matrix Factorization,arXiv:1711.02037v2 ,2018年04月,<URL: https://arxiv.org/abs/1711.02037v2>

Also Published As

Publication number Publication date
US20210295157A1 (en) 2021-09-23
EP3889845B1 (en) 2024-10-09
JP2021149353A (ja) 2021-09-27
EP3889845A1 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP7497653B2 (ja) 情報処理装置、統合モデル生成方法、及び統合モデル生成プログラム
JP4591794B2 (ja) 情報処理装置および方法、並びにプログラム
CN110413878B (zh) 基于自适应弹性网络的用户-商品偏好的预测装置和方法
CN113392971A (zh) 策略网络训练方法、装置、设备及可读存储介质
Muller et al. Kernelized synaptic weight matrices
CN115563858A (zh) 一种工作机稳态性能提升的方法、装置、设备及介质
CN111563203A (zh) 一种基于快速非负隐特征分析的智能家居用户-服务兴趣度个性化预测装置和预测方法
Fedorov et al. UDC: Unified DNAS for compressible TinyML models
JP7384081B2 (ja) 情報処理装置、データ分解方法、及びデータ分解プログラム
Rahman et al. A Feature-Driven Fixed-Ratio Lossy Compression Framework for Real-World Scientific Datasets
JP7512631B2 (ja) イジングマシンデータ入力機器、及びイジングマシンにデータを入力する方法
Ritter et al. TyXe: Pyro-based Bayesian neural nets for Pytorch
US8219517B2 (en) Multi-class Poisson disk sampling
CN113095508A (zh) 回归模型构建优化方法、设备、介质及计算机程序产品
Cornford et al. Sequential, Bayesian geostatistics: a principled method for large data sets
CN111259255A (zh) 一种基于三维张量迭代填补的推荐方法
JP4591793B2 (ja) 推定装置および方法、並びにプログラム
CN113360218B (zh) 一种业务方案选择方法、装置、设备以及存储介质
van Beek et al. Global emulation through normative decision making and thrifty adaptive batch sampling
JP7290133B2 (ja) 情報処理装置、重要ノード特定方法、及び重要ノード特定プログラム
CN111767980A (zh) 模型优化方法、装置及设备
Ha et al. Two-Stage Estimation and Variance Modeling for Latency-Constrained Variational Quantum Algorithms
JP2023006003A (ja) 機械学習プログラム、機械学習方法および情報処理装置
CN110210077B (zh) 基于关键项筛选策略的优化响应面方法和装置
CN111476366B (zh) 深度神经网络的模型压缩方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7384081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151