JP6936474B2 - 情報処理装置、システムおよび情報処理方法 - Google Patents

情報処理装置、システムおよび情報処理方法 Download PDF

Info

Publication number
JP6936474B2
JP6936474B2 JP2017146404A JP2017146404A JP6936474B2 JP 6936474 B2 JP6936474 B2 JP 6936474B2 JP 2017146404 A JP2017146404 A JP 2017146404A JP 2017146404 A JP2017146404 A JP 2017146404A JP 6936474 B2 JP6936474 B2 JP 6936474B2
Authority
JP
Japan
Prior art keywords
update amount
medium
learning model
actual data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017146404A
Other languages
English (en)
Other versions
JP2019028656A (ja
Inventor
裕次朗 大塚
裕次朗 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PLUSMAN LLC.
Original Assignee
PLUSMAN LLC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PLUSMAN LLC. filed Critical PLUSMAN LLC.
Priority to JP2017146404A priority Critical patent/JP6936474B2/ja
Priority to PCT/JP2018/027629 priority patent/WO2019022052A1/ja
Publication of JP2019028656A publication Critical patent/JP2019028656A/ja
Application granted granted Critical
Publication of JP6936474B2 publication Critical patent/JP6936474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、機械学習のための情報処理装置、システムおよび情報処理方法に関する。
機械学習は、例えば自然言語処理、画像認識や音声認識、医療診断、データ分析、マーケティングなど様々な分野で活用されている。一般的に、機械学習の主要な目的は、入力されるデータから出力を生成する機械学習モデルを較正することにある。機械学習モデルの品質は、この結果が適切であるか否かによって評価される。機械学習モデルの品質を向上させるために、例えば、入力データに対する適切な結果が既にわかっているデータを用意し、そのデータに対して適切な結果が出力されるように機械学習モデルのパラメータを更新することが行われる。このような機械学習モデルの訓練に用いられるデータを訓練データともいう。
このような機械学習に関連する技術として、例えば、特許文献1には、音声認識のモデル更新方法が記載されている。この方法では、携帯電話などのクライアント装置が取得した音声がサーバ装置に送信され、サーバ装置において学習モデルを用いた音声認識が実行される。音声認識の結果はクライアント装置に送信され、クライアント装置は音声認識の結果に対するユーザからのフィードバックを取得する。フィードバックはサーバ装置に送信される。サーバ装置は、フィードバックに基づいて音声認識の結果のうちの正解部分を抽出し、正解部分のデータを利用して学習モデルを更新する。
上記のような構成によれば、実際のユーザの音声と正しい音声認識の結果との組み合わせを訓練データとして利用することができるため、学習モデルの品質を効果的に向上させることができる。このように、機械学習における学習モデルの品質は、訓練データの質および量に大きく影響される。例えば、実際のユーザなどから収集された実データを訓練データとして利用することができれば、学習モデルの品質は著しく向上することが期待される。このような実データは、例えば、医療診断における実際に検査で撮影された画像と診断結果との組み合わせや、マーケティングにおける実在する消費者の属性と実際に購買された商品との組み合わせなどを含む。
特開2010−048890号公報
しかしながら、上記のような実データは、必ずしも学習モデルのための訓練データとして利用可能であるとは限らない。例えば、医療診断において撮影された画像や診断結果は患者の個人情報であり、実在する消費者の属性や実際に購買した商品もまた、消費者の個人情報である。このような個人情報は、本人が流出を望まない情報である可能性が高いのみならず、個人情報を管理する病院や事業者にとっても、法規上の、またはモラル上の理由から第三者への提供には慎重にならざるを得ない情報である。
この結果、医療診断やマーケティングなどの個人に関わる情報を扱う分野では、訓練データとして利用可能な実データを個別の病院や事業者が保有しているにもかかわらず、機械学習のサービスを提供する第三者がそのデータを収集することができず、また個別の病院や事業者の間でデータを共有することもできず、結果として訓練データの質および量が十分でないために学習モデルの品質を十分に向上させられない場合があった。
そこで、本発明は、学習モデルのための訓練データとして利用可能な実データを保有者の元から移転させることなく、したがって実データに内在するプライバシーを侵すことをしない一方で、当該実データを用いた学習モデルの訓練を実行することで学習モデルの品質を向上させることを可能にする、新規かつ改良された機械学習のための情報処理装置、システムおよび情報処理方法を提供することを目的とする。
本発明のある観点によれば、第1の媒体を介して外部装置から少なくとも1つのパラメータを含む学習モデルを取得するモデル取得部と、第1の媒体から独立した第2の媒体を介して学習モデルのための訓練データとして利用可能な実データを取得するデータ取得部と、実データを用いて学習モデルを訓練した結果に基づいてパラメータの更新量を算出する更新量算出部と、第2の媒体から独立した第3の媒体を介して更新量を外部装置に提供する更新量提供部とを備える情報処理装置が提供される。
本発明の別の観点によれば、少なくとも1つのパラメータを含む学習モデルを保持するモデル保持部と、学習モデルを第1の媒体を介して外部装置に提供するモデル提供部と、学習モデルのための訓練データとして利用可能な実データを用いて学習モデルを訓練した結果に基づいて算出されたパラメータの更新量を、第2の媒体を介して外部装置から取得する更新量取得部と、更新量に基づいてパラメータの少なくとも一部を更新するパラメータ更新処理部とを備える情報処理装置が提供される。この情報装置において、第1の媒体および第2の媒体は、外部装置が実データを取得するために用いられる第3の媒体から独立している。
本発明のさらに別の観点によれば、クライアント装置およびサーバ装置を含むシステムが提供される。このシステムにおいて、クライアント装置は、第1の媒体を介してサーバ装置から少なくとも1つのパラメータを含む学習モデルを取得するモデル取得部と、第1の媒体から独立した第2の媒体を介して学習モデルのための訓練データとして利用可能な実データを取得するデータ取得部と、実データを用いて学習モデルを訓練した結果に基づいてパラメータの更新量を算出する更新量算出部と、第2の媒体から独立した第3の媒体を介して更新量をサーバ装置に提供する更新量提供部とを備える。また、サーバ装置は、学習モデルを保持するモデル保持部と、学習モデルを第1の媒体を介してクライアント装置に提供するモデル提供部と、第3の媒体を介してクライアント装置から更新量を取得する更新量取得部と、更新量に基づいてパラメータの少なくとも一部を更新するパラメータ更新処理部とを備える。
本発明のなおも別の観点によれば、クライアント装置およびサーバ装置を含むシステムにおいて実行される情報処理方法が提供される。情報処理方法は、少なくとも1つのパラメータを含む学習モデルを、第1の媒体を介してサーバ装置からクライアント装置に提供するステップと、クライアント装置のプロセッサが、学習モデルのための訓練データとして利用可能な実データを、第1の媒体から独立した第2の媒体を介して取得するステップと、クライアント装置のプロセッサが、実データを用いて学習モデルを訓練した結果に基づいてパラメータの更新量を算出するステップと、更新量を、第2の媒体から独立した第3の媒体を介してクライアント装置からサーバ装置に提供するステップと、サーバ装置が、更新量に基づいてパラメータの少なくとも一部を更新するステップとを含む。
以上のような本発明の構成によって、学習モデルのための訓練データとして利用可能な実データを保有者の元から移転させることなく、当該実データを用いた学習モデルの訓練を実行することで学習モデルの品質を向上させることができる。
本発明の一実施形態に係るシステムの例を示す図である。 図1に示されたシステムの構成を示すブロック図である。 図1および図2に示されたシステムにおける学習モデルの更新について概念的に説明するための図である。 本発明の一実施形態における処理の例を示すフローチャートである。 例示的なコンピュータのハードウェア構成を示すブロック図である。
以下、添付図面を参照しながら、本発明の例示的な実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1は、本発明の例示的な実施形態に係るシステムの例を示す図である。図1を参照すると、システム10は、サーバ装置100と、クライアント装置300a,300b,300c,・・・とを含む。サーバ装置100は、外部ネットワーク200を介してクライアント装置300a,300b,300c,・・・に接続されている。ここで、外部ネットワーク200は、例えばインターネットを含む。本実施形態では、この外部ネットワーク200が、サーバ装置100からクライアント装置300に学習モデルを送信する第1の媒体、およびクライアント装置300からサーバ装置100に更新量を送信する第3の媒体として用いられる。
一方、クライアント装置300a,300b,300c,・・・は、それぞれ異なる場所に設置される。具体的には、クライアント装置300aは場所Sに、クライアント装置300bは場所Sに、クライアント装置300cは場所Sに、それぞれ設置される。場所S,S,Sは、学習モデルのための訓練データとして利用可能な実データを保有する場所、具体的には例えば病院や事業所である。クライアント装置300a,300b,300c,・・・は、場所S,S,S,・・・のそれぞれで保有されている実データを取得することができる。ただし、以下で説明するように、クライアント装置300a,300b,300c,・・・が実データを取得するのに用いる第2の媒体は、上記の第1および第3の媒体、すなわち外部ネットワーク200から独立している。
クライアント装置300aは、場所Sに配置された内部サーバであり、内部ネットワーク301を介して、場所Sで収集された実データを保持する端末302に接続されている。内部ネットワーク301は、例えばLAN(Local Area Network)を含む。それゆえ、後述する学習モデルの訓練にあたり、クライアント装置300aのプロセッサは、外部ネットワーク200から独立した内部ネットワーク301を介して、端末302に保持されている実データを取得する処理を実行する。
クライアント装置300bは、場所Sに配置された端末であり、自身のストレージに場所Sで収集された実データを保持している。ここで、クライアント装置300bのストレージは、外部ネットワーク200を介して自由にアクセスできるようには設定されていない。それゆえ、後述する学習モデルの訓練にあたり、クライアント装置300bのプロセッサは、外部ネットワーク200から独立したバスインターフェースのような内部伝送経路を介して、ストレージから実データを取得する処理を実行することになる。
クライアント装置300cは、場所Sに配置された端末であるが、場所Sで収集された実データを保持している他の端末には接続されていない。実データは、他の端末でリムーバブルメディア303に記録され、クライアント装置300cはリムーバブルメディア303から実データを読み出す。それゆえ、後述する学習モデルの訓練にあたり、クライアント装置300cのプロセッサは、外部ネットワーク200から独立したリムーバブルメディア303を介して実データを取得する処理を実行する。
なお、図1に示されたクライアント装置300a,300b,300c(以下、総称してクライアント装置300ともいう)は例にすぎず、他にも様々なクライアント装置300の構成が可能である。注目すべきは、クライアント装置300が、サーバ装置100に接続される外部ネットワーク200から独立した媒体(内部ネットワーク301、内部伝送経路、およびリムーバブルメディア303)を介して実データを取得する点である。これによって、クライアント装置300において明示的に外部ネットワーク200を介して実データを送信する処理が実行されない限り、実データが外部ネットワーク200を介して場所S,S,Sの外部に流出することはない。
図2は、図1に示されたシステムの構成を示すブロック図である。図2を参照すると、サーバ装置100は、ストレージ110と、モデル送信部120と、更新量受信部130と、パラメータ更新処理部140とを含む。クライアント装置300は、モデル受信部310と、データ取得部320と、更新量算出部330と、更新量送信部340と、検証処理部350とを含む。以下、各部の機能について説明する。
サーバ装置100において、ストレージ110は、モデル保持部として機能し、学習モデル111を保持している。学習モデル111は、例えば線形回帰モデル、一般線形化モデル、ロジスティック回帰モデル、サポート・ベクター・マシン、決定木、ランダムフォレスト、ニューラル・ネット・ワーク、および畳み込みニューラル・ネット・ワークなどの機械学習モデルであり、少なくとも1つのパラメータPを含む。モデル送信部120は、例えばストレージ110からデータを読み出すプロセッサの機能と、外部ネットワーク200を介してデータを送信する通信装置の機能とを含み、学習モデル111をクライアント装置300に送信する。更新量受信部130は、外部ネットワーク200を介してデータを受信する通信装置の機能を含み、後述する更新量をクライアント装置300から受信する。パラメータ更新処理部140は、ストレージ110のデータを更新するプロセッサの機能を含み、更新量受信部130が受信した更新量に基づいてパラメータPの少なくとも一部を更新する。
一方、クライアント装置300において、モデル受信部310は、外部ネットワーク200を介してデータを受信する通信装置の機能を含み、サーバ装置100から送信された学習モデル111を受信する。データ取得部320は、図1を参照して説明したように各種の媒体を介して実データを取得する機能を含む。具体的には、例えば、データ取得部320は、クライアント装置300aにおいて内部ネットワーク301でデータを受信する通信装置の機能、クライアント装置300bにおいてバスインターフェースを介してストレージからデータを読み出すプロセッサの機能、またはクライアント装置300cにおいてリムーバブルメディア303からデータを読み出すドライバの機能を含む。
また、クライアント装置300において、更新量算出部330は、プロセッサの演算機能を含み、データ取得部320が取得した実データを用いて、モデル受信部310が受信した学習モデル111の訓練を実行する。加えて、更新量算出部330は、実データを学習モデル111の訓練に利用するための前処理を実行してもよい。さらに、更新量算出部330は、訓練の結果に基づいて、学習モデル111のパラメータPの更新量を算出する。更新量送信部340は、外部ネットワーク200を介してデータを送信する通信装置の機能を含み、更新量算出部330によって算出された更新量をサーバ装置100に送信する。一方、必要に応じて設けられる検証処理部350は、プロセッサの演算機能を含み、更新量算出部330が算出した更新量から実データが復元不可能であることを検証する。
具体的には、検証処理部350は、学習モデル111、そのパラメータP、および算出された更新量から、元になった実データが部分的または完全に復元不可能であるか否かを検証する。例えば、パラメータPの数が1であり、実データが100ある場合、パラメータPの更新量から実データを完全に復元することは数学的に不可能である。加えて、検証処理部350は、実データの全部または一部の属性に対して、その復元可能性に関する閾値を超えているか否かを判定する機能を持ってもよい。例えば、100ある実データのうち少なくとも1つに非常に稀なデータ、例えば希少疾患例が含まれることが判別可能な場合、当該希少疾患例のデータ数が5以下である場合は否とするなどの判定を行ってもよい。検証処理部350による検証結果は、更新量送信部340が外部ネットワーク200を介してデータを送信するための送信許可として利用されるほか、例えばディスプレイなどの出力装置を介してクライアント装置300のユーザに向けて出力される。
図3は、図1および図2に示されたシステムにおける学習モデルの更新について概念的に説明するための図である。上述のように、システム10では、サーバ装置100において保持されている学習モデル111が、クライアント装置300に送信される。図示された例において、学習モデル111のパラメータPは、パラメータP,P,P,・・・Pを含む。クライアント装置300の更新量算出部330は、このような学習モデル111を実データ321を用いて訓練した結果に基づいてパラメータPの更新量ΔPを算出する。
ここで、実データ321、または実データ321の前処理によって得られるデータは、学習モデル111の入力データと、当該入力データに対して期待される出力とを含む1または複数のデータセットからなる。学習モデル111の訓練は、例えば、入力データに対する学習モデル111の出力が期待される出力とは異なる場合に、それらの出力の差分に基づいてパラメータPを更新することによって実行される。図示された例では、パラメータPがP’に、パラメータPがP’に、パラメータPがP’に、それぞれ更新されている。パラメータPのように更新されないパラメータがあってもよい。このようにパラメータPを更新した学習モデル111’は、実データ321を含むより多くのデータに対して妥当な結果を出力することができる。
このようにして算出された更新量ΔPは、上記で説明したようにクライアント装置300からサーバ装置100に送信される。図示された例において、更新量ΔPは、パラメータPの更新量ΔP(PとP’との差分)、パラメータPの更新量ΔP(PとP’との差分)、およびパラメータPの更新量ΔP(PとP’との差分)を含む。
ここで、機械学習モデルの訓練は通常、勾配法、レーベンバーグ・マーカート法、準ニュートン法、およびその他の数値最適化アルゴリズムを利用して算出されるところ、クライアント装置300からサーバ装置100に送信されるデータは、更新量ΔPそのものではなく、パラメータPの微分係数およびヘッシアン等、当該数値計算アルゴリズムから更新量ΔPを算出するための数値情報でもよい。あるいは、クライアント装置300からサーバ装置100に送信されるデータは、更新量ΔPの替わりに更新後のパラメータP’でもよく、更新後のパラメータP’が設定された学習モデルそのものでもよい。
サーバ装置100のパラメータ更新処理部140は、更新量ΔPに基づいて学習モデル111のパラメータPを更新する。なお、図1を参照して説明したように、システム10は互いに異なる場所S,S,S,・・・に設置された複数のクライアント装置300a,300b,300c,・・・を含む。従って、以下で説明するように、パラメータ更新処理部140は、複数のクライアント装置300からそれぞれ送信された更新量ΔPと統合した結果に基づいて、サーバ装置100において保持されている学習モデル111のパラメータPを更新してもよい。
例えば、パラメータ更新処理部140は、それぞれのクライアント装置300で更新量ΔPを算出するために用いられた実データ321に含まれるデータセットの数に応じて、それぞれのクライアント装置300から送信された更新量ΔPを重みづけしてもよい。あるいは、パラメータ更新処理部140は、それぞれのクライアント装置300から送信された更新量ΔPの傾向に応じて、更新量ΔPに重みづけしてもよい。例えば、更新量ΔPをベクトルとしてみた場合に、あるクライアント装置300から送信された更新量ΔPと、他のクライアント装置300から送信された更新量ΔPとの間の距離が著しく大きかったとする。この場合、当該クライアント装置300から送信された更新量ΔPは、特殊な条件の実データ321を用いて学習モデル111を訓練した結果に基づいて算出されており、一般的な多くのデータについて妥当な結果を出力することには必ずしも寄与しない可能性がある。このような場合に、パラメータ更新処理部140は、更新量ΔPの重みを他のクライアント装置から送信された更新量ΔPに比べて小さくしてもよい。
上記の例では、実データ321が単一のデータセットしか含んでいなかったとしても、更新量ΔPから実データ321のデータセットを復元することは必ずしも容易ではない。さらに、実データ321が複数のデータセットを含む場合には、更新量ΔPから実データ321に含まれていた個々のデータセットを復元することは不可能である。加えて、実データに非常に希少なデータが含まれていることにより実質的に当該データに関するプライバシーが侵される危険がある場合であっても、検証処理部350における処理によって一定の基準に基づいて送信不可とすることにより、推論やその他の情報を活用した実データの一部の特定を実質的に不可能とすることができる。従って、クライアント装置300からサーバ装置100への更新量ΔPの送信は、もはや実データ321の送信にはあたらない。従って、上記の例において実データ321はその保有者の元から移転していないとみなすことができる。
図4は、本発明の一実施形態における処理の例を示すフローチャートである。図示された例では、まず、サーバ装置100において、モデル送信部120が、学習モデル111を、外部ネットワーク200を介してクライアント装置300に送信する(ステップS101)。クライアント装置300では、モデル受信部310が学習モデル111を受信する(ステップS102)。その一方で、クライアント装置300では、データ取得部320が上記で図1を参照して説明したような各種の媒体を介して実データ321を取得する(ステップS103)。実データ321の取得は、所定の数のデータセットが取得されるまで繰り返される(ステップS104)。
なお、ステップS101,S102と、ステップS103,S104とが実行される順序は任意である。つまり、学習モデルがサーバ装置100からクライアント装置300に送信されてから実データ321が取得されてもよく、実データ321が取得されてから学習モデルが送信されてもよく、これらの処理が並行して実行されてもよい。
クライアント装置300において、実データ321として所定の数のデータセットが取得されると、更新量算出部330が、取得された実データ321を用いて学習モデル111の訓練を実行し、訓練の結果に基づいてパラメータPの更新量ΔPを算出する(ステップS105)。さらに、図示された例では、検証処理部350が、更新量ΔPから実データ321が復元不可能であることを検証する(ステップS106)。検証処理部350による検証結果の出力を参照したクライアント装置300のユーザが、更新量ΔPの送信を許可する操作をクライアント装置300に与えた場合、または、検証処理部350が自動的に実データ321が復元不可能であるか否かを判断して更新量ΔPの送信を許可した場合(ステップS107)、更新量送信部340が外部ネットワーク200を介して更新量ΔPをサーバ装置100に送信する(ステップS108)。
なお、図示された例では、ステップS107において更新量ΔPの送信が許可されなかった場合に、処理がステップS103に戻り、追加で実データ321が取得される。例えば、実データ321に含まれるデータセットの数が少ないために更新量ΔPから実データ321が復元可能であった場合や、実データ321に含まれるデータセットが共通または類似した特徴を有していたために更新量ΔPから実データ321が復元可能であった場合、追加のデータセットを含む実データ321に基づいて再び更新量ΔPを算出することによって、更新量ΔPから実データ321を復元することを不可能にし、更新量ΔPをサーバ装置100に送信できる可能性がある。
サーバ装置100において、クライアント装置300から更新量ΔPが受信されると(ステップS109)、パラメータ更新処理部140が、ストレージ110において保持されている学習モデル111のパラメータPを受信された更新量ΔPに基づいて更新する(ステップS110)。上述の通り、パラメータ更新処理部140は、複数のクライアント装置300からそれぞれ送信された更新量ΔPを統合した結果に基づいてパラメータPを更新してもよい。以上のステップS101からステップS110の処理は、所定の終了条件が満たされるまで繰り返される(ステップS111)。
ここで、終了条件は、例えば、複数のクライアント装置300においてそれぞれ取得された実データ321に含まれるデータセットの合計が所定の数に到達し、それらのデータセットに基づいて学習モデル111のパラメータPが更新されたことであってもよい。この場合、クライアント装置300は、更新量ΔPとともに、更新量ΔPを算出するときに利用された実データ321に含まれていたデータセットの数をサーバ装置100に送信し、サーバ装置100はこのデータセットの数を集計してもよい。
以上、本発明の一実施形態について説明した。本実施形態において、クライアント装置300は、外部ネットワーク200を介してサーバ装置100に接続され、サーバ装置100から学習モデル111を受信する。その一方で、クライアント装置300は、外部ネットワーク200から独立した媒体(例えば、内部ネットワーク301、内部伝送経路、およびリムーバブルメディア303)を介して実データ321を取得する。クライアント装置300は実データ321を用いて学習モデル111の訓練を実施するが、このときに実データ321はクライアント装置300の内部に保持されているため、外部ネットワーク200には流出しない。クライアント装置300は、訓練の結果に基づく学習モデル111のパラメータPの更新量ΔPを、外部ネットワーク200を介してサーバ装置100に送信するが、上述のように更新量ΔPから元の実データ321を復元することは実質的に不可能であるため、更新量ΔPの送信は実データ321の移転にはあたらない。その一方で、サーバ装置100では、更新量ΔPに基づいて学習モデル111のパラメータPを更新することによって、上記の実データ321を用いた訓練の結果を学習モデル111に反映させ、学習モデル111の品質を向上させることができる。
図5は、例示的なコンピュータのハードウェア構成を示すブロック図である。図5に示された情報処理装置900は、例えば、上記で図1および図2を参照して説明したサーバ装置100およびクライアント装置300として機能する。情報処理装置900は、例えばパーソナルコンピュータや、タブレット、スマートフォンのような端末装置であってもよく、データセンタなどに設置されるサーバコンピュータであってもよい。また、情報処理装置900の機能は、必ずしも物理的に単一の装置において実現されなくてもよく、例えばネットワークを介して接続された複数の装置のリソースを統合的に利用することによって実現されてもよい。以下では、情報処理装置900の各部の構成について説明する。
情報処理装置900は、プロセッサ901、メモリ903、入力装置905、出力装置907、およびバスインターフェース909を含む。さらに、情報処理装置900は、ストレージ911、ドライブ913、接続ポート915、および通信装置917を含んでもよい。
プロセッサ901は、例えば、CPU(Central Processing unit)、GPU(Graphics Processing unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、および/またはFPGA(Field-Programmable Gate Array)などの処理回路によって構成される。プロセッサ901は、メモリ903、ストレージ911、またはリムーバブルメディア919に記録されたプログラムに従って情報処理装置900の動作を制御する。
メモリ903は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む。ROMは、例えばプロセッサ901のためのプログラム、および演算パラメータなどを記憶する。RAMは、例えばプロセッサ901の実行時に展開されたプログラム、およびプログラムの実行時のパラメータなどを一次記憶する。
入力装置905は、例えば、マウス、キーボード、タッチパネル、ボタン、または各種のスイッチなど、ユーザによって操作される装置である。入力装置905は、必ずしも情報処理装置900と一体化していなくてもよく、例えば、無線通信によって制御信号を送信するリモートコントローラであってもよい。入力装置905は、ユーザが入力した情報に基づいて入力信号を生成してプロセッサ901に出力する入力制御回路を含む。
出力装置907は、視覚や聴覚、触覚などの感覚を用いてユーザに向けて情報を出力することが可能な装置で構成される。出力装置907は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどを含みうる。出力装置907は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ911は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ911は、例えばプロセッサ901のためのプログラム、プログラムの実行時に読み出される、またはプログラムの実行によって生成された各種のデータ、および外部から取得した各種のデータなどを格納する。
ドライブ913は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア919のためのリーダ/ライタである。ドライブ913は、装着されているリムーバブルメディア919に記録されている情報を読み出して、メモリ903に出力してもよい。また、ドライブ913は、装着されているリムーバブルメディア919に各種のデータを書き込んでもよい。
接続ポート915は、外部接続機器921を情報処理装置900に接続するためのポートである。接続ポート915は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどを含みうる。また、接続ポート915は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどを含んでもよい。接続ポート915に外部接続機器921を接続することで、情報処理装置900と外部接続機器921との間で各種のデータを交換することができる。
通信装置917は、ネットワーク923に接続される。なお、ネットワーク923は、例えばインターネットのような不特定多数の装置が接続される開かれた通信ネットワークであってもよく、例えばBluetooth(登録商標)のような限られた装置、例えば2つの装置が接続される閉じられた通信ネットワークであってもよい。通信装置917は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi−Fi、またはWUSB(Wireless USB)用の通信カードを含みうる。通信装置917は、ネットワーク923に応じた所定のプロトコルを用いて、他の装置との間で信号またはデータなどを送受信する。
なお、上記で例示的に説明された情報処理装置900の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、当業者は、上述したような情報処理装置900の構成を、実施する時々の技術レベルに応じて適宜変更することができる。
以上、添付図面を参照しながら本発明の例示的な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、図1に示された例では、サーバ装置からクライアント装置に学習モデルを送信するための第1の媒体と、クライアント装置からサーバ装置に更新量を送信するための第3の媒体とが同じ媒体(外部ネットワーク)として説明されたが、これらの媒体は互いに異なっていてもよい。例えば、外部ネットワークを用いてサーバ装置からクライアント装置に学習モデルを送信する一方で、クライアント装置からサーバ装置への更新量の送信にはリムーバブルメディアを用いてもよい。あるいは、サーバ装置とクライアント装置との間で、学習モデルおよび更新量の両方をリムーバブルメディアを用いてやりとりしてもよい。この場合、クライアント装置を外部ネットワークから遮断することによって、実データの流出をより確実に防止することができる。
上記のように、本発明の実施形態において、学習モデルや更新量などのデータは、必ずしも通信回線を用いて送受信されなくてもよく、例えばリムーバブルメディアを用いて物理的に移動されてもよい。この点に関して、上記の実施形態で送信および受信として説明された処理は、他の実施形態では提供および取得と言い換えられてもよい。
本発明の実施形態は、例えば、情報処理装置、複数の情報処理装置を含むシステム、情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された媒体を含みうる。
10…システム、100…サーバ装置、110…ストレージ、120…モデル送信部、130…更新量受信部、140…パラメータ更新処理部、200…外部ネットワーク、300…クライアント装置、310…モデル受信部、320…データ取得部、330…更新量算出部、340…更新量送信部、350…検証処理部。

Claims (7)

  1. 第1の媒体を介して外部装置から少なくとも1つのパラメータを含む学習モデルを取得するモデル取得部と、
    前記第1の媒体から独立した第2の媒体を介して前記学習モデルのための訓練データとして利用可能な実データを取得するデータ取得部と、
    前記実データを用いて前記学習モデルを訓練した結果に基づいて前記パラメータの更新量を算出する更新量算出部と
    前記更新量から前記実データが復元不可能であることを検証する検証処理部と
    前記第2の媒体から独立した第3の媒体を介して前記更新量を前記外部装置に提供する更新量提供部と
    を備える情報処理装置。
  2. 前記データ取得部は、少なくとも所定の数の前記実データを取得し、
    前記更新量提供部は、前記所定の数の前記実データを用いて前記学習モデルを訓練した結果に基づいて前記更新量が算出されるまで、前記更新量を前記外部装置に提供しない、請求項1に記載の情報処理装置。
  3. 前記第1の媒体および前記第3の媒体は、同一である、請求項1または請求項に記載の情報処理装置。
  4. 前記第1の媒体、前記第2の媒体または前記第3の媒体の少なくともいずれかは、リムーバブルメディアである、請求項1から請求項のいずれか1項に記載の情報処理装置。
  5. 前記第1の媒体および前記第3の媒体は、前記情報処理装置が設置された場所における外部ネットワークであり、
    前記第2の媒体は、前記情報処理装置の内部伝送経路、または前記場所における内部ネットワークである、請求項1または請求項に記載の情報処理装置。
  6. クライアント装置およびサーバ装置を含むシステムであって、
    前記クライアント装置は、
    第1の媒体を介して前記サーバ装置から少なくとも1つのパラメータを含む学習モデルを取得するモデル取得部と、
    前記第1の媒体から独立した第2の媒体を介して前記学習モデルのための訓練データとして利用可能な実データを取得するデータ取得部と、
    前記実データを用いて前記学習モデルを訓練した結果に基づいて前記パラメータの更新量を算出する更新量算出部と
    前記更新量から前記実データが復元不可能であることを検証する検証処理部と
    前記第2の媒体から独立した第3の媒体を介して前記更新量を前記サーバ装置に提供する更新量提供部と
    を備え、
    前記サーバ装置は、
    前記学習モデルを保持するモデル保持部と、
    前記学習モデルを前記第1の媒体を介して前記クライアント装置に提供するモデル提供部と、
    前記第3の媒体を介して前記クライアント装置から前記更新量を取得する更新量取得部と、
    前記更新量に基づいて前記パラメータの少なくとも一部を更新するパラメータ更新処理部と
    を備えるシステム。
  7. クライアント装置およびサーバ装置を含むシステムにおいて実行される情報処理方法であって、
    少なくとも1つのパラメータを含む学習モデルを、第1の媒体を介して前記サーバ装置から前記クライアント装置に提供するステップと、
    前記クライアント装置のプロセッサが、前記学習モデルのための訓練データとして利用可能な実データを、前記第1の媒体から独立した第2の媒体を介して取得するステップと、
    前記クライアント装置のプロセッサが、前記実データを用いて前記学習モデルを訓練した結果に基づいて前記パラメータの更新量を算出するステップと
    前記更新量から前記実データが復元不可能であることを検証するステップと
    前記更新量を、前記第2の媒体から独立した第3の媒体を介して前記クライアント装置から前記サーバ装置に提供するステップと、
    前記サーバ装置が、前記更新量に基づいて前記パラメータの少なくとも一部を更新するステップと
    を含む情報処理方法。
JP2017146404A 2017-07-28 2017-07-28 情報処理装置、システムおよび情報処理方法 Active JP6936474B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017146404A JP6936474B2 (ja) 2017-07-28 2017-07-28 情報処理装置、システムおよび情報処理方法
PCT/JP2018/027629 WO2019022052A1 (ja) 2017-07-28 2018-07-24 情報処理装置、システムおよび情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146404A JP6936474B2 (ja) 2017-07-28 2017-07-28 情報処理装置、システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2019028656A JP2019028656A (ja) 2019-02-21
JP6936474B2 true JP6936474B2 (ja) 2021-09-15

Family

ID=65040678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146404A Active JP6936474B2 (ja) 2017-07-28 2017-07-28 情報処理装置、システムおよび情報処理方法

Country Status (2)

Country Link
JP (1) JP6936474B2 (ja)
WO (1) WO2019022052A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020003387T5 (de) * 2019-09-26 2022-04-14 Fujifilm Corporation System und verfahren für maschinelles lernen, integrationsserver, informationsverarbeitungsvorrichtung, programm und inferenzmodell-erzeugungsverfahren
WO2021059604A1 (ja) * 2019-09-26 2021-04-01 富士フイルム株式会社 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法
JP2023003557A (ja) * 2021-06-24 2023-01-17 国立大学法人 東京大学 情報処理システム、情報処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US10402469B2 (en) * 2015-10-16 2019-09-03 Google Llc Systems and methods of distributed optimization
JP6118887B1 (ja) * 2015-12-24 2017-04-19 エヌ・ティ・ティ・コムウェア株式会社 人工知能育成システム、人工知能育成方法、及びプログラム

Also Published As

Publication number Publication date
WO2019022052A1 (ja) 2019-01-31
JP2019028656A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
WO2021120676A1 (zh) 联邦学习网络下的模型训练方法及其相关设备
CN110245510B (zh) 用于预测信息的方法和装置
US20230039182A1 (en) Method, apparatus, computer device, storage medium, and program product for processing data
CN113688855B (zh) 数据处理方法、联邦学习的训练方法及相关装置、设备
CN110955907A (zh) 一种基于联邦学习的模型训练方法
CN111210003B (zh) 纵向联邦学习系统优化方法、装置、设备及可读存储介质
JP6936474B2 (ja) 情報処理装置、システムおよび情報処理方法
WO2018170454A2 (en) Using different data sources for a predictive model
US11106809B2 (en) Privacy-preserving transformation of continuous data
CN107004024A (zh) 上下文驱动的多用户通信
WO2021228110A1 (zh) 联邦建模方法、装置、设备及计算机可读存储介质
Elahi et al. A human-centered artificial intelligence approach for privacy protection of elderly App users in smart cities
CN101924786A (zh) 计算设备之间的动态内容偏好和行为共享
CN103294939A (zh) 用于虚拟化身认证的方法和系统
US20200152328A1 (en) Cognitive analysis for identification of sensory issues
US20220358240A1 (en) Adaptive data privacy platform
CN107809368A (zh) 信息过滤方法及装置
CN113836584B (zh) 分布式隐私保护学习的推荐方法、设备和学习系统
KR102200817B1 (ko) 몰입형 가상피팅 연계 서비스 제공 시스템 및 몰입형 가상피팅 연계 서비스 제공 방법
CN114127801A (zh) 跨设备网络使用人物可识别性的系统和方法
Ali-Eldin et al. A risk evaluation approach for authorization decisions in social pervasive applications
CN115965093A (zh) 模型训练方法、装置、存储介质及电子设备
CN116743743A (zh) 一种元宇宙数据分享方法及系统
US20160203408A1 (en) Systems and methods for a cloud-based artificial intelligence engine
Yang et al. A context-aware system in Internet of Things using modular Bayesian networks

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210820

R150 Certificate of patent or registration of utility model

Ref document number: 6936474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150