JP7156416B2 - データ圧縮システム、送信端末、学習モデル構築装置及びプログラム - Google Patents

データ圧縮システム、送信端末、学習モデル構築装置及びプログラム Download PDF

Info

Publication number
JP7156416B2
JP7156416B2 JP2021004750A JP2021004750A JP7156416B2 JP 7156416 B2 JP7156416 B2 JP 7156416B2 JP 2021004750 A JP2021004750 A JP 2021004750A JP 2021004750 A JP2021004750 A JP 2021004750A JP 7156416 B2 JP7156416 B2 JP 7156416B2
Authority
JP
Japan
Prior art keywords
data
compression
data piece
pattern
compressed data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021004750A
Other languages
English (en)
Other versions
JP2022109443A (ja
Inventor
理敏 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2021004750A priority Critical patent/JP7156416B2/ja
Publication of JP2022109443A publication Critical patent/JP2022109443A/ja
Application granted granted Critical
Publication of JP7156416B2 publication Critical patent/JP7156416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のデータ片を個別に所得し夫々に圧縮処理を施したものを送信するデータ圧縮システム、送信端末、学習モデル構築装置及びプログラムに関する。
近年、検知対象に設置した複数のセンサ端末によって検出されたセンサデータ片の各々をサーバに送信し、サーバ側で受信した各センサデータ片を分析することで、検知対象に係る各種の状態を判定する技術が普及している。
また、複数のセンサ端末の各々として、検出したセンサデータ片に対してデータ圧縮を施したものを送信することで通信効率を高めるようにしたセンサデータ圧縮システムが提案されている(例えば特許文献1参照)。
当該センサデータ圧縮システムでは、ニューラルネットワークを備えた学習用端末に、センサデータを入力することで、最適な圧縮比を推定する学習モデルを構築する。各センサ端末は、この学習モデルに基づき、自身が検知したセンサデータを圧縮(データサンプルの間引き)して復元した際に、低い圧縮比と復元誤差率を得ることができる最適な圧縮比を設定する。そして、センサ端末の各々は、その圧縮比でセンサデータを圧縮したものを個別にデータ受信装置に送信する。この際、データ受信装置は、センサ端末の各々が送信した圧縮センサデータを受信し、当該圧縮センサデータを基に圧縮前の元のセンサデータを夫々復元する。
また、近年、各エージェントが自身以外の他の環境下にある他のエージェントの状態をリカレントニューラルネットワークで予測する技術が提案されている(例えば非特許文献1参照)。
特許第6593519号
Rose E. Wang, Michael Everett, Jonathan P. How, R-MADDPG for Partially Observable Environments and Limited Communication https://arxiv.org/abs/2002.06684
ところで、上記したセンサデータ圧縮システムでは、複数のセンサ端末が例えば同一の検知対象に設置されている場合、各センサ端末は、互いに類似性の高いセンサデータ片を検出する場合がある。このような場合でも、センサ端末の各々は、夫々が検出した互いに類似性の高いセンサデータを個別に圧縮した圧縮データ片を送信することになる。よって、当該センサデータ圧縮システムでは、検知対象に設置するセンサ端末の数に比例して、複数のセンサ端末から送信される圧縮データ片の伝送量が多くなり、伝送効率が低くなるという問題があった。
そこで、複数のセンサ端末が取得したセンサデータ片を夫々受信して、所定の受信端末に送信する中継装置を設け、これら複数のセンサ端末同士の間、並びに中継端末との間で互い協調してお互いの保有するセンサデータ片に関する情報を共有し、圧縮パターンや復元パターンを最適化することが考えられる。
ところが、複数のセンサ端末及び中継端末間で互い協調して圧縮パターンや復元パターンの最適化を行うには、お互いの保有するセンサデータ片に関する情報の共有のために無線によるデータの送信や受信を行うための傍受が必要となる。よって、送受信を行うために無線インタフェースを有効にしておく必要があり、共有する情報の量に応じて消費電力が増大するという問題が生じる。
例えば3つのセンサ端末(第1~第3の端末と称する)同士でデータの送受信を行うにあたり、第1~第3の端末の順に夫々のデータを送信する場合、第2の端末は自身のデータ送信時までの間、無線インタフェースを待機状態にすることで、第1の端末から送信される第1のデータを受信する。また、第3の端末は自身のデータ送信時までの間、無線インタフェースを待機状態にすることで、第1の端末から送信される第1のデータ及び第2の端末から送信される第3のデータを順に受信する。この際、第2の端末は、第1の端末から送信された第1のデータだけで圧縮パターンの推定を行わなければならないので、第1及び第2のデータを用いて圧縮パターンの推定を行う第3の端末に比べて、圧縮パターンの推定精度が低くなるという問題が生じる。
そこで、このような協調を行うにあたり、非特許文献1に記載のリカレントニューラルネットワークを用いることで、データの送受信による情報共有を行わずに、各センサ端末において、自身以外のセンサ端末の状態を予測することが考えられる。
しかしながら、上記したリカレントニューラルネットワークにより、例えば第1の端末で取得したデータに基づき第2の端末で取得されるであろうデータを推定する場合、第1の端末で取得したデータの状態によっては、第2の端末で取得が推定されるデータのばらつきが大きくなる場合がある。これにより、データを圧縮する際に用いる最適な圧縮パターンを推定する精度が低下する虞があった。
そこで、本発明は、消費電力を抑え且つ推定精度の低下を招くことなく最適な圧縮パターンを推定し、複数の送信端末の各々が取得したデータを圧縮することが可能なデータ圧縮システム、送信端末、学習モデル構築装置及びプログラムを提供することを目的とする。
本発明に係るデータ圧縮システムは、夫々がデータ片を取得し、取得したデータ片を圧縮前データ片とし当該圧縮前データ片に圧縮パターンに基づく圧縮処理を施して得た圧縮データ片と、前記圧縮パターンとを含む圧縮データブロックを送信する複数の送信端末と、前記複数の送信端末から送信された複数の前記圧縮データブロックを受信し、前記複数の前記圧縮データブロックに基づき復元処理の為の復元パターンを得て、前記復元パターン及び前記複数の前記圧縮データブロックを、前記復元処理を行うデータ復元部を含む受信端末に送信する中継端末と、を有し、前記複数の送信端末の各々は、自身が取得した前記圧縮前データ片に基づき自身以外の他の前記送信端末が取得するであろう前記圧縮前データ片を推定する圧縮前データ推定部と、前記自身が取得した前記圧縮前データ片に基づき前記圧縮前データ推定部で推定された前記圧縮前データ片と前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する誤差推定部と、前記推定誤差の大きさに基づき前記他の送信端末が送信した前記圧縮データ片の傍受を行うか否かを決定するか又は前記圧縮データ片の傍受の頻度を決定し、前記圧縮データ片の傍受を行わない場合には、前記圧縮前データ推定部で推定された前記圧縮前データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行い、前記圧縮データ片の傍受を行う場合には、当該傍受した前記圧縮データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う圧縮パターン推定部と、を含む。
また、本発明に係る送信端末は、データ片を圧縮前データ片として取得するデータ取得部と、取得した前記圧縮前データ片に圧縮パターンに基づく圧縮処理を施して圧縮データ片を生成するデータ圧縮部と、前記圧縮データ片及び前記圧縮パターンを含む圧縮データブロックを送信する送信部と、を含む送信端末であって、前記データ圧縮部は、前記データ取得部で取得した前記圧縮前データ片に基づき、自身以外の他の送信端末が取得するであろう圧縮前データ片を推定する圧縮前データ推定部と、前記自身が取得した前記圧縮前データ片に基づき前記圧縮前データ推定部で推定された前記圧縮前データ片と前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する誤差推定部と、前記推定誤差の大きさに基づき前記他の送信端末が送信した圧縮データ片の傍受を行うか否かを決定するか又は前記圧縮データ片の傍受の頻度を決定し、前記圧縮データ片の傍受を行わない場合には、前記圧縮前データ推定部で推定された前記データ片及び前記データ取得部で取得した前記データ片に基づき前記圧縮パターンの推定を行い、前記圧縮データ片の傍受を行う場合には、当該傍受した前記圧縮データ片及び前記データ取得部で取得した前記データ片に基づき前記圧縮パターンの推定を行う圧縮パターン推定部と、を含む。
また、本発明に係る学習モデル構築装置は、夫々がデータ片を取得する取得部を有し、取得したデータ片を圧縮前データ片とし当該圧縮前データ片に圧縮パターンに基づく圧縮処理を施して得た圧縮データ片及び前記圧縮パターンを送信する複数の送信端末の各々に学習モデルを構築する学習モデル構築装置であって、前記複数の送信端末の各々に、自身が取得した前記データ片を強化学習における行動として入力することで、前記自身以外の他の送信端末で取得するであろうデータ片を推定する第1の学習モデル、及び前記自身が取得したデータ片と前記他の送信端末で取得するであろうデータ片との誤差を推定する第2の学習モデルと、前記自身が取得したデータ片、前記他の送信端末で取得するであろうデータ片、及び前記誤差を、強化学習における行動として入力し、強化学習における報酬としての復元誤差が最小となる学習を施すことで、前記他の送信端末から送信された前記圧縮データ片を傍受するか否かを示す情報、及び前記圧縮パターンを推定する第3の学習モデルと、を構築することを特徴とする。
また、本発明に係るプログラムは、夫々が、データ片を取得し前記データ片に対して圧縮パターンに基づく圧縮処理を施して得た圧縮データ片を送信する複数の送信端末を制御する制御装置が実行するプログラムであって、前記複数の送信端末の各々において自身が取得した前記データ片を圧縮前データ片として取得する第1のステップと、前記自身が取得した前記圧縮前データ片に基づき、自身以外の他の前記送信端末が取得するであろう圧縮前データ片を推定する第2のステップと、前記自身が取得した前記圧縮前データ片に基づき、前記第2のステップで推定された前記圧縮前データ片と、前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する第3のステップと、前記第2のステップで推定された前記圧縮前データ片、前記自身が取得した前記圧縮前データ片、及び前記推定誤差を行動器(Actor)に入力することで前記圧縮パターン及び前記他の送信端末から送信された圧縮データ片を傍受するか否かを推定する第4のステップと、前記第4のステップで前記圧縮データ片を傍受すると推定された場合には、当該傍受した前記圧縮データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う第5のステップと、前記第4のステップで前記圧縮データ片を傍受しないと推定された場合には、前記第2のステップで推定された前記圧縮前データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う第6のステップと、を含む。
本発明では、複数の送信端末の各々が、自身以外の他の送信端末で処理されるデータをも利用することで、自身が取得したデータ片に施す圧縮処理のための最適な圧縮パターンを精度良く推定できるようにしている。この際、当該データ圧縮システムでは、複数の送信端末の各々で、自身が取得したデータ片(圧縮前データ片)に基づき他の送信端末で取得されるであろうデータ片(圧縮前データ片)を推定している。これにより、複数の送信端末の各々は、送信端末間での通信を行うことなく、他の送信端末で処理されるデータ片を取得できるので、通信処理に費やされる消費電力を抑えることが可能となる。
更に、当該データ圧縮システムでは、複数の送信端末の各々で、自身が取得した圧縮前データ片と、推定によって取得した他の送信端末の圧縮前データ片との誤差(推定誤差)が大きい場合には、当該他の送信端末が送信した圧縮処理後の圧縮データ片を傍受する。そして、推定によって取得した他の送信端末の圧縮前データ片に代えて、当該傍受した他の送信端末の圧縮データ片を用いて圧縮パターンの推定を行う。これにより、上記した推定誤差が大きいが故に生じる圧縮パターンの推定精度の低下を抑えることが可能となる。
よって、本発明に係るデータ圧縮システムによれば、消費電力を抑え且つ圧縮パターンの推定精度の低下を招くことなく、複数の送信端末の各々が取得したデータを圧縮することが可能となる。
センサデータ圧縮システム100の構成を示すブロック図である。 学習用端末301の構成を示すブロック図である。 送信端末302a~302c各々の構成を示すブロック図である。 中継端末303及び受信端末304の構成を示すブロック図である。 学習段階の処理手順を示すフローチャートである。 送信端末302a~302cの各々に構築される圧縮前データ推定器NN1~NN3を示す図である。 送信端末302a~302cの各々に構築される誤差推定器EN1~EN3を示す図である。 学習用端末301で用いられるマルチエージェント深層強化学習用の学習モデルの全体を表す図である。 送信端末302a~302c各々の「行動」を表す符号情報の一例を表す図である。 強化学習の「状態」、「行動」、「報酬」の態様の一例を表す図である。 送信端末302a~302c及び中継端末303に構築される学習モデルの一例を示す図である。 送信端末302a~302cによるデータ送信タイミングの一例を示すタイムチャートである。 推論段階の処理手順を示すフローチャートである。 学習用端末301、送信端末302a~302c及び中継端末303の各々の動作をソフトウェアで実行する場合に採用される情報制御装置400の構成を示すブロック図である。
図1は、本発明に係るセンサデータ圧縮システム100の構成を示すブロック図である。
図1に示すように、センサデータ圧縮システム100は、学習用端末301、夫々がデータ取得端末としての送信端末302a~302c、中継端末303及び受信端末304を含む。
学習用端末301及び送信端末302a~302cは、検知対象300から振動、画像、又は音等を検知して得られた検出結果をセンサデータとして取得する。尚、検知対象300は、例えば、工場に設置された各種の設備、オフィスに設置された各種の機器、または各種の建設物・建築物等である。
学習用端末301は、検知対象300から検出したセンサデータに基づき、最適な圧縮パターン及び復元パターンの学習モデルや、データの外れ値を検出する学習モデルを構築する。尚、圧縮パターンとは、センサデータのサンプル系列中において送信(出力)する少なくとも1つのサンプルの位置を示す出力位置情報からなる。出力位置情報は、各サンプル毎に、そのサンプルを出力するか否かを示す出力選択値にて表される。例えば、出力選択値が出力有りを示す場合(例えば論理値1)には、この出力選択値に対応したサンプルが出力データサンプルとなる。一方、出力選択値が出力無を示す場合(例えば論理値0)には、当該出力選択値に対応したサンプルは間引きされる。また、復元パターンとは、送信端末302a~302cが送信した複数の圧縮データ片を、元のセンサデータ片に夫々復元する復元処理において用いられる情報である。例えば、復元パターンは、送信端末302a~302cが送信した複数の圧縮データ片各々のサンプル系列(過去に送信された圧縮データのサンプル系列を含む)のうちで同時に復元処理を施す少なくとも1つの圧縮データ片を含むグループと、当該グループに施す復元処理で用いる復元アルゴリズムと、を示す情報である。
尚、学習用端末301は、送信端末302a~302cや中継端末303と兼用しても良い。学習用端末301は、構築した学習モデルを表す情報を無線又は有線にて、送信端末302a~302c、中継端末303に送信する。
送信端末302a~302cは、検知対象300の表面付近又はその内部に、夫々分散して配置されている。送信端末302a~302cの各々は、学習済みのモデルを用いて、夫々が取得したセンサデータに基づき、送信するセンサデータにおけるサンプルの位置や圧縮単位期間(圧縮パターン)を推定し、当該推定結果に従った圧縮処理を当該センサデータに施す。ここで、圧縮パターンの代わりに、ある一定期間におけるセンサデータの全サンプル数に対する送信するサンプルの数の割合を示す圧縮比を推定してもよい。尚、圧縮処理とは、センサデータにおけるサンプルの系列中から1つ又は複数のサンプルを間引くこと、つまり、センサデータにおけるサンプルの系列中から一部のサンプルのみを選択して出力することである。
上記した動作により、送信端末302a~302cの各々は、センサデータのサンプル系列中から一部のサンプルを省いたものを圧縮データとして得る。そして、送信端末302a~302cは、夫々が生成した圧縮データ及び圧縮パターンを含む圧縮データブロックを、端末毎に異なるタイミングで無線送信する。
中継端末303は、学習用端末301から送信された学習モデル、送信端末302a~302cから送信された圧縮データブロックを受信する。中継端末303は、受信した学習モデルを自身に構築し、当該学習モデルを用いて、受信した送信端末毎の圧縮データブロックに基づき、復元する圧縮データ片の組み合わせ等を表す復元パターンを推定する。そして、中継端末303は、当該復元パターンに、送信端末302a~302cの各々から送信された圧縮データブロックを付加したものを、最終的な宛先端末となる受信端末304に送信する。
受信端末304は、中継端末303から送信された圧縮データブロックの系列及び復元パターンを受け、当該復元パターンに基づき、各圧縮データブロックに含まれる圧縮データ片に復元処理を施す。これにより、受信端末304は、送信端末302a~302cの各々が検知対象300から検出したセンサデータを夫々得る。
図2は、学習用端末301の構成を示すブロック図である。
図2に示すように、学習用端末301は、センサ305、AD変換部306、データ前処理部307、最適圧縮学習モデル構築部308、乖離度検出学習モデル構築部309、及び送信部310を含む。
センサ305は、例えば建築物等からなる検知対象300から発せられる音や振動等を検知してその検知結果を示すセンサ信号SS1をAD変換部306に供給する。
AD変換部306は、センサ信号SS1がアナログ信号である場合には、当該センサ信号SS1にアナログ・デジタル変換を施すことで、所定のサンプリングタイミング毎に当該センサ信号SS1をサンプリングする。そして、AD変換部306は、各サンプル毎にセンサ信号SS1のレベルをデジタル値で表すデータサンプルの系列からなるセンサデータ信号DS1を生成し、これをデータ前処理部307に供給する。
データ前処理部307は、センサデータ信号DS1に対して雑音除去のフィルタリング、計測値変換、又はFFT(fast fourier transform)等の周波数変換処理を施すことで、データサンプルの系列からなるセンサデータ信号SD1を生成する。データ前処理部307は、生成したセンサデータ信号SD1を最適圧縮学習モデル構築部308及び乖離度検出学習モデル構築部309に供給する。
最適圧縮学習モデル構築部308は、圧縮前データ推定部308a、誤差推定部308b及び最適圧縮・復元パターン推定部308cを含む。
圧縮前データ推定部308aは、センサデータ信号SD1に基づき、自身を含む送信端末の隣に配置されている各送信端末が取得するであろう圧縮処理前のセンサデータ(圧縮前データとも称する)を推定する。
誤差推定部308bは、センサデータ信号SD1に基づき、上記したように推定した隣の送信端末の圧縮前データと、当該隣接送信端末が実際に取得した圧縮前データとの誤差を推定する。
最適圧縮・復元パターン推定部308cは、センサデータ信号SD1、周囲に配置されている他の送信端末から送信された圧縮データ片又はこの他の送信端末で取得されるであろう圧縮処理前のセンサデータ、及びサポート情報を保持するバッファ(図示せず)の状態に基づき、一度に圧縮を行う期間の分割、及び中継端末303での復号処理における圧縮データ片の組み合わせ方を学習によって取得する。尚、最適圧縮・復元パターン推定部308cは、その学習過程で、上記した圧縮前データ及び誤差に基づく所定の演算、又は学習モデルにより、圧縮前データのスパース表現でのゼロ要素位置を示すサポート情報を推定する。
当該学習により、最適圧縮・復元パターン推定部308cは、評価指標としての復元誤差が最小となるような圧縮パターン及び復元パターンを夫々出力する学習モデルを構築し、その学習モデルを最適圧縮学習モデルとして表す最適圧縮学習モデル情報を送信部310に供給する。
尚、最適圧縮学習モデル構築部308は、送信端末302a~302cのうちの少なくとも1つから未学習データとしての乖離データサンプルが送信された場合にはこれを受信し、当該乖離データサンプルを反映させた最適圧縮学習モデルを再構築する。
乖離度検出学習モデル構築部309は、センサデータ信号SD1を用いた学習により、当該センサデータ信号SD1に含まれるサンプル系列と、最適圧縮学習モデルの構築に用いられたサンプル系列との乖離度を検出する学習モデルを構築する。乖離度検出学習モデル構築部309は、構築した学習モデルを乖離度検出学習モデルとして表す乖離度検出学習モデル情報を送信部310に供給する。
送信部310は、上記した最適圧縮学習モデル情報及び乖離度検出学習モデル情報を、無線又は有線にて送信端末302a~302cの各々に送信する。更に、送信部310は、最適圧縮学習モデル情報を無線又は有線にて中継端末303に送信する。
かかる構成により、学習用端末301は、自身が取得したセンサデータ信号SD1、送信端末302a~302cから送信されたデータを入力とした学習を行うことで、データに対して送信すべき最適なサンプル点及び圧縮対象区間を示す圧縮パターン及び復元パターンを出力する学習モデルを構築する。そして、学習用端末301は、当該学習モデルを最適圧縮学習モデルとして表す情報を、無線又は有線にて送信端末302a~302cに送信する。
図3は、送信端末302a~302c各々の構成を示すブロック図である。
送信端末302a~302cは、夫々が検知対象300の異なる位置に設置されており、互いに同一の内部構成を有する。
図3に示すように、送信端末302a~302cの各々は、センサ311、AD変換部312、データ前処理部313、乖離度検出部314、データ圧縮部315及び送信部316を有する。
センサ311は、自身が設置された位置で検知対象300の振動や音等を検知し、その検知結果を示すセンサ信号SS2をAD変換部312に供給する。
AD変換部312は、センサ信号SS2にアナログ・デジタル変換を施すことで、所定のサンプリングタイミング毎に当該センサ信号をサンプリングする。AD変換部312は、各サンプル毎にセンサ信号SS2のレベルをデジタル値で表すサンプルの系列からなるセンサデータ信号DS2を生成し、これをデータ前処理部313に供給する。
データ前処理部313は、センサデータ信号DS2に対して雑音除去のフィルタリング、計測値変換、又はFFT等の周波数変換処理を施すことで、データサンプルの系列からなるセンサデータ信号SD2を生成し、これを乖離度検出部314及びデータ圧縮部315に供給する。
乖離度検出部314は、学習用端末301から送信された乖離度検出学習モデル情報を受け、当該乖離度検出学習モデル情報に基づく乖離度検出学習モデルを構築する。乖離度検出部314は、構築した乖離度検出学習モデルを用いて、取得したセンサデータ信号SD2に含まれるサンプル系列と、上記した最適圧縮学習モデルの構築に用いたサンプル系列との間で外れ値を検出し、この検出した外れ値に対応したデータを未学習のデータとみなし、そのデータのサンプル系列を圧縮せずに送信部316に供給する。
データ圧縮部315は、先ず、学習用端末301から送信された最適圧縮学習モデル情報を受信し、当該最適圧縮学習モデル情報に基づく最適圧縮学習モデルを構築する。
ここで、データ圧縮部315は、先ず、センサデータ信号SD2を上記最適圧縮学習モデルに入力することで、送信端末302a~302cのうちで自身が属する送信端末以外の少なくとも1つの他の送信端末が取得するであろうセンサデータ信号SD2を圧縮前データとして推定する。次に、データ圧縮部315は、当該最適圧縮学習モデルにより、自身が受けた圧縮前データ(SD2)と、他の送信端末が取得するであろう圧縮前データ(SD2)との誤差を推定誤差として推定する。次に、データ圧縮部315は、これら自身が受けた圧縮前データ(SD2)と、他の送信端末が取得するであろう圧縮前データ(SD2)と、上記した推定誤差とを最適圧縮学習モデルに入力することで、センサデータ信号SD2に対する最適な圧縮率を実現する圧縮パターンを推定する。
尚、当該推定誤差が所定閾値より大きい場合には、他の送信端末から送信された圧縮データを傍受し、傍受した圧縮データを推定された圧縮前データに代えて最適圧縮学習モデルに入力することで、センサデータ信号SD2に対する最適な圧縮率を実現する圧縮パターンを推定する。
そして、データ圧縮部315は、推定した圧縮パターンに基づき、センサデータ信号SD2に対して圧縮処理を施すことで圧縮データを得て、引き続き、当該圧縮データ及び圧縮処理で用いた圧縮パターンを送信部316に供給する。
送信部316は、上記した圧縮データ及び圧縮パターンに識別IDを付加したものを圧縮データブロックとして生成する。そして、送信部316は、所定の送信周期からなるステップ毎に、そのステップ内においてデータ端末302a~302c毎に異なるタイミングで、当該圧縮データブロックをブロードキャストする。これにより、学習用端末301、送信端末302a~302c、及び中継端末303が当該圧縮データブロックを受信する。
また、送信部316は、上記したように乖離度検出部314にて外れ値として検出したデータを学習用端末301に送信する。これにより、学習用端末301は、外れ値としての検出データを未学習データとし、当該未学習データを反映させた学習を行うことで最適圧縮学習モデルの再構築を行う。
図4は、中継端末303及び受信端末304の内部構成を示すブロック図である。
図4に示すように、中継端末303は、データ受信部317、復元パターン推定部318、及びデータ送信部319を含む。
データ受信部317は、所定期間毎に、その1つの所定期間に亘って送信端末302a~302cの各々から送信された圧縮データブロックを受信し、夫々をバッファBFに保持する。
復元パターン推定部318は、学習用端末301から送信された最適圧縮学習モデル情報を受信して最適圧縮学習モデルを構築する。復元パターン推定部318は、構築した最適圧縮学習モデルに、バッファBFに保持されている複数の圧縮データブロックの各々に含まれる圧縮データのサンプル系列を入力する。これにより、復元パターン推定部318は、複数の圧縮データブロックのうちで同時に復元処理を施す少なくとも1つの圧縮データのサンプル系列からなるグループと、そのグループに施す復元処理で用いる復元アルゴリズムと、次回の処理に持ち越す圧縮データのサンプル系列と、を表す情報を復元パターンとして推定する。
復元パターン推定部318は、かかる復元パターン、及び当該復元パターンで示されるグループに属する圧縮データブロックをデータ送信部319に供給する。
データ送信部319は、かかる復元パターン、及びこの復元パターンにて示される各グループに属する圧縮データブロックを受信端末304に送信する。
受信端末304は、データ受信部320及びデータ復元部321を含む。
データ受信部320は、中継端末303から送信された復元パターン及び複数の圧縮データブロックを受信し、夫々をデータ復元部321に供給する。
データ復元部321は、先ず、かかる復元パターンに基づき、同時に復元処理の対象とする少なくとも1系統の圧縮データのサンプル系列からなるグループと、そのグループに対して復元処理を施す際に用いる復元アルゴリズムとを夫々示す情報を取得する。そして、データ復元部321は、各グループに対してその復元アルゴリズムに従った復元処理を施すことで、送信端末302a~302cが夫々個別に検知対象300から検出したセンサ信号SS2を復元する。
以下に、センサデータ圧縮システム100の動作について、学習モデルの構築を行う学習段階と、学習モデルを移植して送信端末302a~302c及び中継端末303を動作させる推論段階(運用段階とも称する)とに、分けて説明する。
尚、学習段階では、各送信端末(302a~302c)は、自身が受けた圧縮前データから他の送信端末の圧縮前データを推定する学習、又はこの学習により得られた学習モデルを利用して自身の圧縮前データから、当該学習モデルが推定した他の端末の圧縮前データと、実際の圧縮前データとの誤差を推定する。その後、各送信端末の圧縮前データを利用して送信端末毎に最適な圧縮パターンを推定する学習モデル、及び中継端末303において最適な復元パターンを推定するモデルをそれぞれ学習する。
このように、センサデータ圧縮システム100の学習段階では、送信端末302a~302c各々の状態として、他の送信端末から送信された圧縮データではなく、推定された他の送信端末の圧縮前データと、自身が実際に受けた圧縮前データとの誤差を、各送信端末の状態として利用する。
また、推論段階では、各学習モデルを、対応する送信端末(302a~302c)及び中継端末303に移植する。これにより、送信端末の各々は、他の送信端末が取得した圧縮前データから最適な圧縮パターンを推定し、中継端末は、最適な復元パターンを推定する。
以下に学習段階での具体的な処理手順、及び推論段階での処理手順について説明する。
<学習段階>
学習段階では、複数の送信端末(302a~302c)の各々からデータを受け取って学習モデルを構築する学習用端末301において、以下の処理が行われる。尚、学習用端末301は中継端末303や送信端末302a~302cの各々と兼用されていても良い。ここで、学習段階では送信端末と学習用端末は有線または無線で接続しているとする。尚、各送信端末と中継端末303とが無線接続されている場合には、中継端末303は、各送信端末に対して無線通信が可能な距離の範囲内に存在するものとする。
図5は、学習用端末301で実施される学習段階での処理手順を示すフローチャートである。
学習用端末301は、まず、送信端末毎に、圧縮前データ推定器及び誤差推定モデルを用意して圧縮前データを推定させる学習を行う。
[圧縮前データ推定]
すなわち、学習用端末301の圧縮前データ推定部308aが、先ず、送信端末302a~302c各々が受けた全てのセンサデータ(SD2)を圧縮前データとして取得する(S401)。次に、圧縮前データ推定部308aは、ある処理ステップでの自送信端末の圧縮前データに基づき、同じ処理ステップでの他の送信端末の圧縮前データを推定する為の圧縮前データ推定器モデルに教師あり学習を施す(S402)。例えば、図6に示すように、送信端末302a~302c毎に圧縮前データ推定器NN1~NN3を用意する。ここで、送信端末302aで取得された圧縮前データを圧縮前データ推定器NN1に入力することで、送信端末302a以外の他の送信端末(302b又は302c)で取得されるであろう圧縮前データを推定させる学習を行う。また、送信端末302bで取得された圧縮前データを圧縮前データ推定器NN2に入力することで、送信端末302b以外の他の送信端末(302a又は302c)で取得されるであろう圧縮前データを推定させる学習を行う。更に、送信端末302cで取得された圧縮前データを圧縮前データ推定器NN3に入力することで、送信端末302c以外の他の送信端末(302a又は302b)で取得されるであろう圧縮前データを推定させる学習を行う。
このように、圧縮前データ推定部308aの動作(S401、S402)により、送信端末毎に、その送信端末がある処理ステップで取得した圧縮前データから、他の送信端末がその処理ステップで取得するであろう圧縮前データを推定する。これにより、他の送信端末が生成した圧縮データを傍受しなくとも、各送信端末の状態の把握が可能となる。
尚、ある処理ステップにおける他の送信端末の状態を推定するために、自身の過去の処理ステップで取得した圧縮前データを利用しても良い。
また、他の送信端末の圧縮前データを推定する代わりに、入出力が圧縮前データとなるオートエンコーダ(自己符号化器)で抽出された中間層の出力を推定しても良い。
次に、学習用端末301は、上記のように推定した圧縮前データと、実際に取得した圧縮前データとの誤差を推定誤差として推定させる学習を行う。
[推定誤差の推定]
すなわち、圧縮前データ推定部308aによる学習(S401、S402)の終了後、誤差推定部308bが、自身が受けた圧縮前データにより、上記したように推定した圧縮前データと、自身が受けた圧縮前データとの誤差を推定する誤差推定器を学習させる(S403)。
例えば、図7に示すように、送信端末302a~302c毎に誤差推定器EN1~EN3を用意する。ここで、送信端末302aで取得された圧縮前データを誤差推定器EN1に入力することで、送信端末302a以外の他の送信端末(302b又は302c)で取得されるであろう圧縮前データと、送信端末302aで取得された圧縮前データとの誤差を推定させる学習を行う。また、送信端末302bで取得された圧縮前データを誤差推定器EN2に入力することで、送信端末302b以外の他の送信端末(302a又は302c)で取得されるであろう圧縮前データと、送信端末302bで取得された圧縮前データとの誤差を推定させる学習を行う。更に、送信端末302cで取得された圧縮前データを誤差推定器EN3に入力することで、送信端末302c以外の他の送信端末(302a又は302b)で取得されるであろう圧縮前データと、送信端末302cで取得された圧縮前データとの誤差を推定させる学習を行う。
すなわち、送信端末302a~302cのうちの1の送信端末の圧縮前データに対して、他の送信端末の圧縮前データのばらつきが小さい場合(例えば圧縮前データ同士におけるサンプル系列のデータ値の変化周期や振幅に大きな差が無い場合)には、高い精度で圧縮前データの推定を行うことができる。
ところが、当該1の送信端末の圧縮前データのサンプル系列の形態によっては、推定した他の送信端末の圧縮前データと、実際の圧縮前データとの間でばらつきが大きくなる場合があり、この際、精度良く圧縮前データの推定ができなくなることから圧縮パターンを推定する精度が低下する。
このような場合には、上記のように推定した他の送信端末の圧縮前データの代わりに、他の送信端末から送信された圧縮データを傍受することで、圧縮パターンの精度を上げることができる。よって、1の送信端末の圧縮前データと、推定した他の送信端末の圧縮前データとの誤差を推定し、この推定誤差をマルチエージェント深層強化学習による行動器の「状態」として用いることで、他の送信端末の圧縮データを傍受する傍受モードを有効にするか否かを示す「行動」に活かすことが考えられる。
そこで、前述したように、先ず、誤差推定部308bの処理(S403)により、1の送信端末の圧縮前データと、この圧縮前データに基づいて推定した他の送信端末の圧縮前データとの誤差を推定する学習を行う。
図8は、学習用端末301で用いられるマルチエージェント深層強化学習用の学習モデルの全体を表す図である。
図8に示すように、当該学習モデルは、圧縮前データ推定部308aで用いる図6に示す圧縮前データ推定器NN1~NN3、誤差推定部308bで用いる図7に示す誤差推定器EN1~EN3、及び最適圧縮・復元パターン推定部308cで用いるエージェントAGa~AGc、AGx及び環境CIRを有する。
尚、エージェントAGa~AGcは、夫々が送信端末302a~302cに対応しており、エージェントAGxは、中継端末303に対応して設けられたものである。
エージェントAGa~AGcの各々は、他の送信端末の圧縮データを傍受する傍受モードを有効にするか否かを決定するための傍受パターン行動器An1及び傍受パターン評価器Cn1、また最適な圧縮パターンを推定するための圧縮パターン行動器An2及び圧縮パターン評価器Cn2を有する。また、エージェントAGxは、最適な復元パターンを推定するための復元パターン行動器Anxと復元パターン評価器Cnxを有する。
行動器Anは、「状態」を入力し、「行動」を出力するニューラルネットワークである。一方、評価器Cnは、「状態」と「行動」から、その価値を示すQ値を出力するニューラルネットワークである。
尚、エージェントAGa、AGb及びAGcに含まれる傍受パターン行動器An1を夫々Ana1、Anb1及びAnc1と表し、これらエージェントAGa、AGb及びAGcに含まれる傍受パターン評価器Cn1を夫々Cna1、Cnb1及びCnc1と表すものとする。また、圧縮パターン行動器An2を夫々Ana2、Anb2及びAnc2と表し、これらエージェントAGa、AGb及びAGcに含まれる圧縮パターン評価器Cn2を夫々Cna2、Cnb2及びCnc2と表すものとする。
環境CIRは、強化学習における各エージェントの「行動」に基づき、「報酬」及び「状態」を各エージェントAGa~AGc及びAGxに提供する。尚、環境CIRは、「状態」を各エージェントAGa~AGcに提供するにあたり、圧縮前データ推定器NN1~NN3及び誤差推定器EN1~EN3によって取得された推定誤差を「状態」として、エージェントAGa~AGcに夫々提供する。環境CIRは、このような強化学習における各エージェントの「状態」、「行動」、「報酬」の受領までの一連の処理を1ステップとし、当該一連の処理を周期的に繰り返し実行する。
[送信端末の「状態」]
尚、送信端末302a~302c各々の「状態」とは、送信端末302a~302cのうちの1の圧縮前データと、圧縮前データ推定モデルによって推定された他の送信端末の圧縮前データと、誤差推定モデルによって推定された推定誤差と、である。
そこで、送信端末302a~302cの各々毎に、自身の圧縮前データの値と、図6に示す圧縮前データ推定モデルで推定された他の送信端末の圧縮前データと、図7に示す誤差推定モデルで推定された推定誤差とを、各送信端末に対応したエージェントAGa~AGcの傍受パターン行動器Ana1に入力する(図5:S404)。
次に、エージェントAGa~AGcから出力される傍受モードの情報に従って、傍受モードを有効にするか否かを判定する(S405)。
傍受モードを有効にすると判定した場合、学習用端末301は、傍受モードとなり、他の送信端末で生成された圧縮データを傍受し(S406)、当該圧縮データを「状態」として用い、圧縮パターン行動器Ana2を利用した学習を行う(S407)。この際、ある処理ステップにおいて、1の送信端末の送信時に、当該1の送信端末が他の送信端末の圧縮データを受信していない場合には受信したデータを0などで穴埋めする。そして、各処理ステップの先頭部で、各送信端末がランダムの順番で送信を行う。
一方、傍受モードを無効にすると判定した場合、上記のように推定された推定誤差を「状態」として用いた学習を行う(S408)。
[送信端末の「行動」]
また、送信端末302a~302c各々の「行動」とは、圧縮パターン及び傍受モードの有効又は無効を示す符号情報である。
図9は、送信端末302a~302c各々の「行動」を表す符号情報の一例を表す図である。図9に示すように、当該符号情報は、各送信端末でのデータサンプルの位置を示す1次元の2値(1又は0)の連続値と、その先頭に傍受モードの有効又は無効を示す1ビット情報を付加した符号形態を有する。
ここで、送信端末302a~302cの各々が、自身の圧縮データを送信することのみを行うのか、或いは通信相手の送信端末の圧縮データを傍受する傍受モードを有効にするのか否かを選択する。尚、圧縮パターン、及び傍受モードの有効又は無効の選択は、同一のニューラルネットワーク、又は個別のニューラルネットワークのいずれで推定しても良い。
[中継端末の「状態」]
中継端末303の「状態」とは、ある処理ステップにおいて送信端末302a~302cの各々から送信された圧縮データと,その処理ステップ以前に送信端末302a~302cの各々から送信され、バッファBFに残存している圧縮データである。
[中継端末の「行動」]
中継端末303での「行動」とは復元パターンであり、バッファBF内のいずれの圧縮データ同士を同時に復元し、いずれの圧縮データを次の処理ステップに残すか、また、いずれの手法で同時に復元するかを示す情報を含む。
[送信端末及び中継端末の「報酬」]
送信端末302a~302c及び中継端末303の「報酬」としては、圧縮データの圧縮パターン及び元パターンに基づき各圧縮データに対して復元処理を施して得られた復元データと元データとの復元誤差、元データに対する圧縮データの圧縮比及び消費電力が含まれる。また中継端末303で受信したデータを長期間バッファリングすることで、長期に亘るデータの圧縮の最適化ができる反面、バッファBFを浪費したり、送信遅延の増加を招く可能性がある。そのため、「報酬」には送信時の遅延時間をも考慮する必要がある。
そこで、復元誤差をE、データ量をV、遅延時間をD、及び消費電力Pとすると、報酬Rは以下のように表される。
R=f(E、V、D、P)
この際、復元誤差Eが小さいほど、又はデータ量V、つまり圧縮比が少ないほど、又は遅延時間Dが少ないほど、或いは消費電力Pが小さいほど「報酬」は高くなる。そこで、圧縮データ単位毎に「報酬」を求め、その「報酬」をその圧縮データの送信元である送信端末(302a~302c)及び中継端末303に夫々対応した各エージェント(AGa~AGc、AGx)に割り振る。
ところで、消費電力は、送信端末302a~302c各々の無線インタフェースが有効になる時間の長さに応じて変動する。無線インタフェースが有効になる時間の長さが増えると、各送信端末が自身以外の他の送信端末の圧縮前データを推定する精度が上がるが、その反面、消費電力が増加するというトレードオフの関係がある。この際、学習が進むにつれて、圧縮前データの推定精度が高いときには他の送信端末の圧縮データを傍受せず、圧縮前データの推定精度が低いときには他の送信端末の圧縮データを傍受するという適応的な行動をとることが望ましい。
以下に、かかる点を踏まえて学習段階での動作を説明する。
[センサデータの送信]
送信端末302a~302cで夫々検出されたセンサデータを学習用端末301に送信する。この際、送信端末302a~302cの各々は、夫々のセンサデータの送信開始時刻及び送信終了時刻も同時に送信する。
[強化学習の実施]
学習用端末301は、送信端末302a~302c及び中継端末303の図8に示す学習モデルにおいて、強化学習での「状態」、「行動」、「報酬」を夫々図10に示すように設定して、エージェントAGa~AGc、AGx各々の行動器Ana及び評価器(Critic)Cnaの学習を行う。尚、図10では、1送信端末あたりの最大送信サンプル数を「N」、送信端末の総数を「n」、1送信端末あたりの隣接端末数を「(n-1)」、中継端末303のバッファBFにおける最大圧縮データ数を「M」と表している。
[学習モデルの送信端末及び中継端末への提供]
学習用端末301は、上記した強化学習によって得られた、各送信端末用の圧縮前データ推定器(例えばNN1~NN3)、誤差推定器(例えばEN1~EN3)及び中継端末303の行動器(例えばAnX)を表す情報を、対応する端末に送信する。また、学習用端末301は、中継端末用の行動器を表す情報を、対応する送信端末に送信する。なお、各送信端末や中継端末自体で学習を行う場合には、学習用端末301は、夫々に対応した評価器を表す情報も各端末に送信する。
<推論(運用)段階>
推論段階では、送信端末302a~302c各々のデータ圧縮部315、及び中継端末303の各々には、図11に示す学習モデルが構築されている。つまり、図8に示す学習モデルに対して学習を施した、ニューラルネットワークとしての誤差推定器G1a~G1c、圧縮前データ推定器G2a~G2c、傍受パターン推定行動器G3a~G3c、圧縮パターン推定行動器G4a~G4c、及び復元パターン行動推定器GXが構築されている。
すなわち、図11に示すように、送信端末302aのデータ圧縮部315には、誤差推定部としての誤差推定器G1a、圧縮前データ推定部としての圧縮前データ推定器G2a、最適圧縮・復元パターン推定部としての傍受パターン推定行動器G3a及び圧縮パターン推定行動器G4aが構築されている。また、送信端末302bのデータ圧縮部315には、誤差推定部としての誤差推定器G1b、圧縮前データ推定部としての圧縮前データ推定器G2b、最適圧縮・復元パターン推定部としての傍受パターン推定行動器G3b及び圧縮パターン推定行動器G4bが構築されている。また、送信端末302cのデータ圧縮部315には、誤差推定部としての誤差推定器G1c、圧縮前データ推定部としての圧縮前データ推定器G2c、最適圧縮・復元パターン推定部としての傍受パターン推定行動器G3c及び圧縮パターン推定行動器G4cが構築されている。また、中継端末303には、復元パターン行動器GXが構築されている。
ここで、送信端末302a~302cの各々は、自身が取得したセンサデータ(SD2)を、図11に示す誤差推定器及び圧縮前データ推定器を経て傍受パターン行動器に入力する。これにより、送信端末302a~302cの各々は、自身のセンサデータ(SD2)を圧縮する際の圧縮パターンと、他の送信端末が送信した圧縮データを傍受する傍受モードを有効にするか否かを示す傍受パターンを取得する。
そして、送信端末302a~302cの各々は、自身のセンサデータ(SD2)に対して上記した圧縮パターン及び傍受パターンに従った圧縮処理を施すことで圧縮データを得る。送信端末302a~302cの各々は、自身が取得した圧縮データ及び圧縮パターンを含む圧縮データブロックを、互いに異なるタイミングで無線送信(ブロードキャスト)する。尚、送信端末302a~302cは、所定の処理ステップ毎に夫々の送信順番を変更する。
例えば、図12に示すように、送信端末302a~302cは、ステップST1及びST2の各々毎に、そのステップST内の異なる時点t1~t3で圧縮データブロックを送信(ブロードキャスト)する。尚、送信端末302a~302cは、当該ステップ毎に、そのステップ内で圧縮データブロックを送信するタイミングをランダムに変更する。図12に示す一例では、ステップST1では送信端末302a、302b、302cの順に、夫々時点t1~t3で圧縮データブロックを送信する。次のステップST2では、送信端末302b、302c、302aの順に、夫々時点t1~t3で圧縮データブロックを送信する。尚、送信端末302a~302cは、前段の処理ステップ(例えばST1)で取得したセンサデータ(SD2)を、後続の処理ステップ(例えばST2)で上記した圧縮処理を施して無線送信する。
以下に、上記した推論段階での処理手順について、図13に示すフローチャートに沿って説明する。
先ず、各処理ステップにおいて、送信端末302a~302cの各々で、所定の一定期間に亘りセンサデータ(SD2)を圧縮前データとして取得する(S501)。
次に、送信端末302a~302cの各々で、各処理ステップで取得した自身の圧縮前データを圧縮前データ推定器(G2a~G2c)に入力することで、他の送信端末の圧縮前データを推定する(S502)。
次に、送信端末302a~302cの各々で、自身の圧縮前データを誤差推定器(G1a~G1c)に入力することで、推定した他の端末の圧縮前データと、実際に取得した自身の圧縮前データとの誤差を推定する(S503)。
次に、送信端末302a~302cの各々で、自身の圧縮前データと、上記S502で推定された他の送信端末の圧縮前データと、上記S503で推定された推定誤差と、を「状態」として傍受パターン行動器(G3a~G3c)に入力(S504)することで、傍受モードを有効にするか否かを推定し、その推定結果を示す傍受パターンを得る(S505)。
ここで、傍受パターンが傍受モードの有効を示すと判定した送信端末は、他の送信端末の圧縮データの傍受を行い(S506)、その傍受した圧縮データを「状態」として用いて圧縮パターン行動器(G4a~G4c)に入力することで最適な圧縮パターンの推定を行う(S507)。そして、この送信端末は、自身が取得したセンサデータ(圧縮前データ)を、上記S507で推定された最適な圧縮パターンで圧縮して得た圧縮データと、上記圧縮パターンとを含む圧縮データブロックを無線送信する。
一方、上記S505において、傍受パターンが傍受モードの無効を示すと判定された場合、当該送信端末は、上記のように推定された圧縮前データを「状態」として用いて最適な圧縮パターンの推定を行う(S508)。そして、この送信端末は、自身が取得したセンサデータ(圧縮前データ)を、上記S508で推定された最適な圧縮パターンで圧縮して得た圧縮データと、当該圧縮パターンとを含む圧縮データブロックを無線送信する。
ここで、中継端末303は、各送信端末から無線送信された圧縮データブロックを受信し、送信端末毎の各圧縮データブロックを順次、バッファBFに取り込んで保持する。中継端末303は、当該バッファBFに保持されている圧縮データ及び圧縮パターンを、図11に示すように自身に構築されている復元パターン行動器に入力することで復元パターンを推定する。そして、中継端末303は、推定した復元パターン、圧縮データ及び圧縮パターンを含む情報を受信端末に送信する。
尚、上記S502では、1つの処理ステップだけではなく、それ以前の過去の処理ステップで取得した圧縮前データを用いて圧縮前データを推定しても良い。
また、上記実施例における、学習用端末301、送信端末302a~302c及び中継端末303の各々で実施される動作は、ハードウェア、或いはソフトウェアのどちらで実行しても構わない。
図14は、学習用端末301、送信端末302a~302c及び中継端末303で実施される上記した動作をソフトウェアで実行する場合に採用される情報制御装置400の構成を示すブロック図である。
情報制御装置400は、記憶媒体としてのROM71及びRAM72と、データ通信回路73と、CPU(Central Processing Unit)74とを含む。ROM71には、学習用端末301、送信端末302a~302c及び中継端末303各々の動作を担うプログラムが記憶されている。CPU74は、かかるROM71に記憶されているプログラムを実行する。例えば、図5に示す学習段階の処理及び図13に示す推論段階の処理を夫々表すプログラムがROM71に記憶されており、CPU74が当該プログラムを実行することで、上記したような学習段階及び推論段階の動作を実現する。
また、各送信端末で、未知のセンサデータ、つまり現時点までに取得したことが無いサンプル系列を有するセンサデータを検出した場合には、そのセンサデータに基づき学習モデルの再学習を行っても良い。この場合、送信端末302a~302cや中継端末303に構築された学習モデルを学習用端末301に移行し、上記した学習段階で説明した方法で再学習を行うようにしても良い。また、送信端末302a~302cや中継端末303に構築された学習モデルはそのまま維持し、各送信端末や中継端末間の学習に関する情報交換等による再学習を行っても良い。
また、上記実施例では、傍受モードが有効を示す場合にのみ他の送信端末から送信された圧縮データを傍受しているが、所定周期で他の送信端末の圧縮データを傍受する構成とし、推定精度の大小によって当該所定周期の長さを変更するようにしても良い。
また、上記実施例では、送信端末302a~302cの各々が、自身が取得したセンサデータ(圧縮前データ)に圧縮処理を施すにあたり、他の送信端末から送信された圧縮前データを考慮して最適な圧縮パターンを推定している。しかしながら、1つの送信端末が例えばX軸、Y軸及びZ軸各々での3軸分の互いに相関のある3つのセンサデータ片を取得する場合には、これら3つの圧縮前データ片に基づき最適な圧縮パターンを推定する処理を施すようにしても良い。
また、上記実施例では、センサーデータを取得し、当該センサーデータに圧縮処理を施したものを送信する送信端末の動作を、3つの送信端末302a~302cを用いて説明したが、当該送信端末の数は3つに限らず2つ以上の複数であれば良い。
また、上記実施例では、1の送信端末の圧縮前データと、この圧縮前データに基づいて推定した他の送信端末の圧縮前データとの推定誤差をニューラルネットワークに入力することで、傍受モードを有効にするか否かを示す傍受パターンを得ている。つまり、推定誤差が大きい場合には圧縮パターンの推定精度が低下してしまうので、このような場合には、送信端末302a~302cの各々は他の送信端末の圧縮前データに代えて、当該他の送信端末から送信(ブロードキャスト)された圧縮処理後の圧縮データを用いて圧縮パターンの推定を行う。よって、他の送信端末から送信された圧縮処理後の圧縮データを傍受するか否かの決定を、推定誤差を用いたニューラルネットワークによって推定しているのである。
しかしながら、ニューラルネットワークを用いずに、当該推定誤差の大きさ基づき、他の送信端末から送信された圧縮データの傍受を行うか否かを決定する、又は当該傍受を行う頻度を決定するようにしても良い。例えば、推定誤差が所定の閾値よりも大きい場合には他の送信端末から送信された圧縮データの傍受を行い、推定誤差が所定の閾値以下である場合には、他の送信端末から送信された圧縮データの傍受を行わないという決定を行う。尚、ここでは、頻度がゼロである場合には傍受を行わないことを表すものとする。
要するに、センサデータ圧縮システム100としては、以下のような圧縮前データ推定部、誤差推定部及び圧縮パターン推定部を夫々が含む複数の送信端末と、中継端末と、を有するものであれば良い。
つまり、複数の送信端末(302a~302c)は、夫々がデータ片(SD2)を取得し、取得したデータ片を圧縮前データ片とし、この圧縮前データ片に圧縮パターンに基づく圧縮処理を施して得た圧縮データ片と上記圧縮パターンとを含む圧縮データブロックを送信する。中継端末(303)は、複数の送信端末から送信された複数の圧縮データブロックを受信し、当該複数の圧縮データブロックに基づき復元処理の為の復元パターンを得て、複数の圧縮データブロック及び復元パターンを、復元処理を行うデータ復元部(321)を含む受信端末(304)に送信する。尚、複数の送信端末の各々は、自身が取得した圧縮前データ片に基づき自身以外の他の送信端末が取得するであろう圧縮前データ片を推定する圧縮前データ推定部(例えばG2a)、及び自身が取得した圧縮前データ片に基づき、圧縮前データ推定部で推定された圧縮前データ片と自身が取得した圧縮前データ片との間の誤差を推定誤差として推定する誤差推定部(例えばG1a)を有する。
更に、複数の送信端末の各々は、推定誤差の大きさに基づき他の送信端末が送信した圧縮データ片の傍受を行うか否かを決定するか、又は圧縮データ片の傍受の頻度を決定し、圧縮データ片の傍受を行わない場合には、圧縮前データ推定部で推定された圧縮前データ片及び自身が取得した圧縮前データ片に基づき圧縮パターンの推定を行う圧縮パターン推定部(例えばG4a)を含む。尚、圧縮パターン推定部は、圧縮データ片の傍受を行う場合には、当該傍受した圧縮データ片及び自身が取得した圧縮前データ片に基づき圧縮パターンの推定を行う。
すなわち、本発明に係るデータ圧縮システムでは、複数の送信端末の各々が、自身以外の他の送信端末で処理されるデータをも利用することで、自身が取得したデータ片に施す圧縮処理のための最適な圧縮パターンを精度良く推定できるようにしている。この際、当該データ圧縮システムでは、複数の送信端末の各々において、自身が取得したデータ片(圧縮前データ片)に基づき、他の送信端末で取得されるであろうデータ片(圧縮前データ片)を推定している。これにより、複数の送信端末の各々は、送信端末間での通信を行うことなく、他の送信端末で処理されるデータ片を取得できるので、通信処理に費やされる消費電力を抑えることが可能となる。
更に、当該データ圧縮システムでは、複数の送信端末の各々で、自身が取得した圧縮前データ片と、推定によって取得した他の送信端末の圧縮前データ片との誤差(推定誤差)が大きい場合には、当該他の送信端末が送信した圧縮処理後の圧縮データ片を傍受する。そして、推定によって取得した他の送信端末の圧縮前データ片に代えて、当該傍受した他の送信端末の圧縮データ片を用いて圧縮パターンの推定を行う。これにより、推定誤差が小さい時は他の送信端末の圧縮前データ片を精度良く推定し、送信端末間でお互い情報交換することなく低消費電力で圧縮パターンを推定する。一方、推定誤差が大きい時には送信端末間でお互い情報交換を行い、上記した推定誤差が大きいが故に生じる圧縮パターンの推定精度の低下を抑えることが可能となる。この結果、低消費電力かつ高精度での圧縮パターンの推定が可能となる。
よって、本発明に係るデータ圧縮システムによれば、消費電力を抑え且つ圧縮パターンの推定精度の低下を招くことなく、複数の送信端末の各々が取得したデータを圧縮することが可能となる。
100 センサデータ圧縮システム
301 学習用端末
302a~302c 送信端末
303 中継端末
308 最適圧縮学習モデル構築部
308a 圧縮前データ推定部
308b 誤差推定部
308c 最適圧縮・復元パターン推定部
G1a~G1c 誤差推定器
G2a~G2c 圧縮前データ推定器
G3a~G3c 行動器

Claims (8)

  1. 夫々がデータ片を取得し、取得したデータ片を圧縮前データ片とし当該圧縮前データ片に圧縮パターンに基づく圧縮処理を施して得た圧縮データ片と、前記圧縮パターンとを含む圧縮データブロックを送信する複数の送信端末と、
    前記複数の送信端末から送信された複数の前記圧縮データブロックを受信し、前記複数の前記圧縮データブロックに基づき復元処理の為の復元パターンを得て、前記復元パターン及び前記複数の前記圧縮データブロックを、前記復元処理を行うデータ復元部を含む受信端末に送信する中継端末と、を有し、
    前記複数の送信端末の各々は、
    自身が取得した前記圧縮前データ片に基づき自身以外の他の前記送信端末が取得するであろう前記圧縮前データ片を推定する圧縮前データ推定部と、
    前記自身が取得した前記圧縮前データ片に基づき前記圧縮前データ推定部で推定された前記圧縮前データ片と前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する誤差推定部と、
    前記推定誤差の大きさに基づき前記他の送信端末が送信した前記圧縮データ片の傍受を行うか否かを決定するか又は前記圧縮データ片の傍受の頻度を決定し、前記圧縮データ片の傍受を行わない場合には、前記圧縮前データ推定部で推定された前記圧縮前データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行い、前記圧縮データ片の傍受を行う場合には、当該傍受した前記圧縮データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う圧縮パターン推定部と、を含むことを特徴とするデータ圧縮システム。
  2. 前記圧縮パターン推定部は、夫々の前記推定誤差が所定の閾値よりも大きい場合には前記他の送信端末から送信された圧縮データの傍受を行うと決定し、前記推定誤差が所定の閾値以下である場合には前記他の送信端末から送信された圧縮データの傍受を行わないと決定することを特徴とする請求項1に記載のデータ圧縮システム。
  3. 前記圧縮前データ推定部には、前記自身が取得した前記圧縮前データ片を入力として、他の前記送信端末が取得するであろう前記圧縮前データ片を出力する学習モデルが構築されており、前記誤差推定部には、前記自身が取得した前記圧縮前データ片を入力として、前記推定誤差を出力する学習モデルが構築されており、前記圧縮パターン推定部には、前記自身が取得した前記圧縮前データ片及び前記推定誤差を入力として、前記圧縮データ片の傍受を行うか否かを示す情報及び前記圧縮パターンを出力する学習モデルが構築されていることを特徴とする請求項1又は2に記載のデータ圧縮システム。
  4. 前記圧縮パターン推定部に構築されている前記学習モデルは、前記送信端末の消費電力、前記圧縮処理でのデータの圧縮比、データの復元誤差、及び遅延時間を報酬として、強化学習が施された行動器であることを特徴とする請求項3に記載のデータ圧縮システム。
  5. 前記複数の送信端末の各々が取得した前記圧縮前データ片に基づき前記学習モデルの各々に学習を施す学習端末を有し、
    前記学習端末は、前記複数の送信端末のうちの少なくとも1つから前記学習に使用されていない未学習データを受けた場合には、前記未学習データを反映させた学習を前記学習モデルの各々に施すことで学習モデルの再構築を行うことを特徴とする請求項3又は4に記載のデータ圧縮システム。
  6. 前記複数の送信端末は、単一の検知対象から夫々検知した検知結果を示すセンサデータ片を前記圧縮前データ片として取得することを特徴とする請求項1~5のいずれか1に記載のデータ圧縮システム
  7. データ片を圧縮前データ片として取得するデータ取得部と、
    取得した前記圧縮前データ片に圧縮パターンに基づく圧縮処理を施して圧縮データ片を生成するデータ圧縮部と、
    前記圧縮データ片及び前記圧縮パターンを含む圧縮データブロックを送信する送信部と、を含む送信端末であって、
    前記データ圧縮部は、
    前記データ取得部で取得した前記圧縮前データ片に基づき、自身以外の他の送信端末が取得するであろう圧縮前データ片を推定する圧縮前データ推定部と、
    前記自身が取得した前記圧縮前データ片に基づき前記圧縮前データ推定部で推定された前記圧縮前データ片と前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する誤差推定部と、
    前記推定誤差の大きさに基づき前記他の送信端末が送信した圧縮データ片の傍受を行うか否かを決定するか又は前記圧縮データ片の傍受の頻度を決定し、前記圧縮データ片の傍受を行わない場合には、前記圧縮前データ推定部で推定された前記データ片及び前記データ取得部で取得した前記データ片に基づき前記圧縮パターンの推定を行い、前記圧縮データ片の傍受を行う場合には、当該傍受した前記圧縮データ片及び前記データ取得部で取得した前記データ片に基づき前記圧縮パターンの推定を行う圧縮パターン推定部と、を含むことを特徴とする送信端末。
  8. 夫々が、データ片を取得し前記データ片に対して圧縮パターンに基づく圧縮処理を施して得た圧縮データ片を送信する複数の送信端末を制御する制御装置が実行するプログラムであって、
    前記複数の送信端末の各々において自身が取得した前記データ片を圧縮前データ片として取得する第1のステップと、
    前記自身が取得した前記圧縮前データ片に基づき、自身以外の他の前記送信端末が取得するであろう圧縮前データ片を推定する第2のステップと、
    前記自身が取得した前記圧縮前データ片に基づき、前記第2のステップで推定された前記圧縮前データ片と、前記自身が取得した前記圧縮前データ片との誤差を推定誤差として推定する第3のステップと、
    前記第2のステップで推定された前記圧縮前データ片、前記自身が取得した前記圧縮前データ片、及び前記推定誤差を行動器に入力することで前記圧縮パターン及び前記他の送信端末から送信された圧縮データ片を傍受するか否かを推定する第4のステップと、
    前記第4のステップで圧縮データ片を傍受すると推定された場合には、当該傍受した前記圧縮データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う第5のステップと、
    前記第4のステップで前記圧縮データ片を傍受しないと推定された場合には、前記第2のステップで推定された前記圧縮前データ片及び前記自身が取得した前記圧縮前データ片に基づき前記圧縮パターンの推定を行う第6のステップと、を含むことを特徴とするプログラム。
JP2021004750A 2021-01-15 2021-01-15 データ圧縮システム、送信端末、学習モデル構築装置及びプログラム Active JP7156416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021004750A JP7156416B2 (ja) 2021-01-15 2021-01-15 データ圧縮システム、送信端末、学習モデル構築装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021004750A JP7156416B2 (ja) 2021-01-15 2021-01-15 データ圧縮システム、送信端末、学習モデル構築装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2022109443A JP2022109443A (ja) 2022-07-28
JP7156416B2 true JP7156416B2 (ja) 2022-10-19

Family

ID=82560231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021004750A Active JP7156416B2 (ja) 2021-01-15 2021-01-15 データ圧縮システム、送信端末、学習モデル構築装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7156416B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084854A (ja) 2016-11-21 2018-05-31 日本電気株式会社 センサデータ処理方法
JP6593519B1 (ja) 2018-10-25 2019-10-23 沖電気工業株式会社 センサデータ圧縮システム、センサ端末、モデル構築装置、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353295A (ja) * 1998-06-09 1999-12-24 Fujitsu Ltd 内部モデル学習方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084854A (ja) 2016-11-21 2018-05-31 日本電気株式会社 センサデータ処理方法
JP6593519B1 (ja) 2018-10-25 2019-10-23 沖電気工業株式会社 センサデータ圧縮システム、センサ端末、モデル構築装置、およびプログラム

Also Published As

Publication number Publication date
JP2022109443A (ja) 2022-07-28

Similar Documents

Publication Publication Date Title
Rabi et al. Adaptive sampling for linear state estimation
Ribeiro et al. Kalman filtering in wireless sensor networks
CN114389975A (zh) 网络带宽预估方法、装置、系统、电子设备及存储介质
JP7156416B2 (ja) データ圧縮システム、送信端末、学習モデル構築装置及びプログラム
Panigrahi et al. Block least mean squares algorithm over distributed wireless sensor network
Azarnia et al. A variable tap-length DILMS algorithm with variable parameters for wireless sensor networks
Garcia Ad hoc positioning for sensors in underwater acoustic networks
Sun et al. PM-LPDR: A prediction model for lost packets based on data reconstruction on lossy links in sensor networks
Davoli et al. Non-linear coding and decoding strategies exploiting spatial correlation in wireless sensor networks
Ismail et al. Jamming mitigation in JRC systems via deep reinforcement learning and backscatter-supported intelligent deception strategy
Liu et al. One-bit recursive least-squares algorithm with application to distributed target localization
JP2019080144A (ja) 無線環境状況予測システム、無線環境状況予測方法、および、プログラム
JP7036143B2 (ja) データ圧縮システム、データ圧縮端末、中継装置、学習モデル構築装置及びプログラム
KR101644560B1 (ko) 통신 신호에 대한 tdoa/fdoa 정보 추정 장치 및 방법
Xu et al. Analysis of quantization noise and state estimation with quantized measurements
Chakravorty et al. On the optimal thresholds in remote state estimation with communication costs
Joseph et al. Online recovery of temporally correlated sparse signals using multiple measurement vectors
Dutta et al. An energy efficient audio compression scheme using wavelet with dynamic difference detection technique in wireless sensor network
Nikolaou et al. In-network predictive analytics in edge computing
Xu et al. State estimation with quantized measurements in wireless sensor networks
Frezzetti et al. Evaluation of energy efficiency-reconstruction error trade-off in the co-design of compressive sensing techniques for wireless lossy sensor networks
Aysal et al. Decentralized estimation over noisy channels for bandwidth-constrained sensor networks
JP7040543B2 (ja) データ圧縮装置、データ圧縮システム、学習モデル構築装置及びプログラム
WO2024007957A1 (zh) Csi反馈的方法、装置、设备及可读存储介质
Liu et al. Novel sensor scheduling and energy-efficient quantization for tracking target in wireless sensor networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R150 Certificate of patent or registration of utility model

Ref document number: 7156416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150