JP7353328B2 - Terminal device, information processing method, and information processing program - Google Patents
Terminal device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP7353328B2 JP7353328B2 JP2021114800A JP2021114800A JP7353328B2 JP 7353328 B2 JP7353328 B2 JP 7353328B2 JP 2021114800 A JP2021114800 A JP 2021114800A JP 2021114800 A JP2021114800 A JP 2021114800A JP 7353328 B2 JP7353328 B2 JP 7353328B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor data
- terminal device
- sensor
- data
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 29
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000004891 communication Methods 0.000 claims description 46
- 238000010801 machine learning Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 12
- 230000007115 recruitment Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 4
- 230000002427 irreversible effect Effects 0.000 claims description 2
- 230000002457 bidirectional effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、端末装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to a terminal device, an information processing method, and an information processing program.
サーバ装置に機械学習させるための教師データをサーバ装置へ送る技術が開示されている。 A technique for sending training data to a server device for causing the server device to perform machine learning has been disclosed.
上記の従来技術のように、機械学習はサーバ装置によって行われるのが一般的である。しかしながら、データに個人情報が含まれている場合、企業等の外部のサーバ装置へ送るのが好ましくないこともある。また、個人情報を含むデータの送受信には様々な制限があるため、自由に送受信することが容易ではないこともある。 As in the prior art described above, machine learning is generally performed by a server device. However, if the data includes personal information, it may not be desirable to send it to an external server device such as a company. Furthermore, there are various restrictions on sending and receiving data including personal information, so it may not be easy to send and receive data freely.
そのため、近年、フェデレーテッドラーニング(Federated Learning:連合学習)のように、データをサーバ装置に集約せずに個々の端末装置に分散した状態で機械学習を行うオンデバイス機械学習が注目されている。しかし、端末装置の形状や性能の影響を受けるセンサデータ等を用いて個々の端末装置で機械学習を行う場合、個々のユーザが所有する端末装置の機種や、搭載されているセンサの種類や性能によって計測結果に差が生じるという問題がある。 Therefore, in recent years, on-device machine learning, such as federated learning, in which machine learning is performed while data is distributed to individual terminal devices without being aggregated on a server device, has been attracting attention. . However, when performing machine learning on individual terminal devices using sensor data that is affected by the shape and performance of the terminal device, it is necessary to There is a problem that differences occur in the measurement results depending on the method.
本願は、上記に鑑みてなされたものであって、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することを目的とする。 The present application has been made in view of the above, and aims to share sensor data between individual terminal devices that perform machine learning and learn using sensor data of other terminal devices.
本願に係る端末装置は、利用者が所有する端末装置であって、当該端末装置のセンサにより自己センサデータを収集する取得部と、他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、前記自己センサデータと前記他者センサデータとを比較する比較部と、比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用部と、連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用部により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習部と、前記推論モデルを利用して入力データから推論を行う推論部と、推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信部と、を備えることを特徴とする。 The terminal device according to the present application is a terminal device owned by a user, and includes an acquisition unit that collects self-sensor data using a sensor of the terminal device, and an acquisition unit that collects self-sensor data from other terminal devices owned by other users. a receiving unit that receives other person's sensor data collected by a sensor of a terminal device; a comparing unit that compares the self sensor data and the other person's sensor data; and a comparison unit that compares the self sensor data and the other person's sensor data according to the comparison result. Based on the shared model provided by the recruitment department that adopts sensor data measured by a higher-performance sensor and more accurate than the other sensor data, and the information provision device that uses federated learning, A unique inference model is constructed by performing on-device machine learning using the sensor data adopted by the recruitment department as learning data among the self-sensor data and the other person's sensor data, and the inference model is combined with the shared model. a learning unit that generates a difference parameter ; an inference unit that performs inference from input data using the inference model; an inference result obtained as a result of inference; the inference model obtained as a result of learning; and the shared model. and a transmitting section that transmits a difference parameter between the information providing apparatus and the information providing apparatus .
実施形態の一態様によれば、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 According to one aspect of the embodiment, sensor data can be shared between individual terminal devices that perform machine learning, and learning can be performed using sensor data of other terminal devices.
以下に、本願に係る端末装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, a terminal device, an information processing method, and an embodiment for implementing an information processing program (hereinafter referred to as "embodiments") according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the terminal device, information processing method, and information processing program according to the present application. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.
〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. Note that in FIG. 1, an example will be described in which sensor data is shared between individual terminal devices that perform machine learning, and learning is performed using sensor data of other terminal devices.
図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。
As shown in FIG. 1, the
端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。
The
情報提供装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。
The
また、情報提供装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報提供装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報提供装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。
Further, the
図1に示すように、本実施形態では、情報提供装置100(サーバ側)は、フェデレーテッドラーニング(Federated Learning:連合学習)を採用し、各利用者Uの端末装置10(端末側)に共有モデル(コアモデル)を提供する(ステップS1)。 As shown in FIG. 1, in the present embodiment, the information providing apparatus 100 (server side) employs federated learning, and the information providing apparatus 100 (server side) uses the terminal device 10 (terminal side) of each user U. A shared model (core model) is provided (step S1).
端末装置10は、共有モデルをベースとして、当該端末装置10に搭載(又は接続)された各種センサを用いて収集したセンサデータ(利用者Uのコンテキスト情報)を学習データとしてオンデバイス機械学習を行うことでパターンを作り、そのパターンを利用して入力データから推論を行う(ステップS2)。
Based on the shared model, the
続いて、端末装置10は、推論の結果としてられた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する(ステップS3)。このとき、端末装置10は、推論結果を多次元のベクトルに変換(ベクトル化)したベクトルデータの形式で送信してもよい。ベクトルデータは不可逆な情報であり、ベクトルデータのベクトル値から元のデータを復元することはできない。例えば、端末装置10は、いわゆるエンベディング(embedding:埋め込み)を行い、推論結果に基づくエンベディングベクトル(埋め込みベクトル)を生成してもよい。なお、送信データであるベクトルデータを暗号化して伝送することは技術常識の範疇で可能である。また、トンネリング(tunneling)により、端末側とサーバ側との間に閉じられた仮想的な直結回線を確立してもよい。例えば、端末側とサーバ側との間にVPN(Virtual Private Network)を構築してもよい。
Subsequently, the
情報提供装置100は、各利用者Uの端末装置10から受信した推論結果の集計処理を行う(ステップS4)。集計処理には、統計や分析等の演算処理が含まれる。
The
続いて、情報提供装置100は、各利用者Uの端末装置10から受信した差分パラメータに基づいて、共有モデルを修正する(ステップS5)。そして、情報提供装置100は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を各利用者Uの端末装置10に提供する(ステップS1に戻る)。すなわち、情報提供装置100は、各利用者Uの端末装置10に提供した共有モデルを更新してグレードアップする。
Subsequently, the
なお、情報提供装置100による共有モデルの更新が不要であれば、ステップS5の処理は実施しなくてもよい。この場合、ステップS3では、端末装置10は、推論結果のみ送信すればよい。
Note that if the
このように、情報提供装置100(サーバ側)ではなく、端末装置10(端末側)がセンサデータを学習データとして機械学習を行っている場合、個々の利用者が所有する端末装置の機種や、搭載されているセンサの種類や性能等の違いによって、計測されるセンサデータにも違いが生じる場合がある。例えば、同じ場所にいる利用者や、同じ行動をとっている利用者であっても、端末装置の機種や、搭載されているセンサの種類や性能等によって、計測されるセンサデータの数や精度は大きく異なることがある。その結果、学習結果にも影響が出る可能性がある。したがって、同じ場所にいる利用者や、同じ行動をとっている利用者については、可能な限り、センサデータを均一化/均質化することが望ましい。 In this way, when the terminal device 10 (terminal side) rather than the information providing device 100 (server side) performs machine learning using sensor data as learning data, the model of the terminal device owned by each user, Differences in the type and performance of the installed sensors may cause differences in the measured sensor data. For example, even if users are in the same place or taking the same actions, the number and accuracy of sensor data measured will vary depending on the terminal device model, the type and performance of the installed sensor, etc. can vary greatly. As a result, learning results may also be affected. Therefore, it is desirable to equalize/homogenize sensor data as much as possible for users who are in the same place or take the same actions.
ただし、センサデータも、個人の位置や行動及びコンテキストを推定できる情報であるため、全ての利用者間で無条件に共有するのは好ましくない場合もある。そのため、あらかじめ互いにセンサデータの共有を許可/同意した利用者同士(例えば、家族同士、友人同士等)で共有することや、相手が現在自分の目の前(同じ場所)にいるのでリアルタイムの位置情報やセンサデータを共有しても問題ないといった状況で共有すること等が望ましい。以下、利用者Uの周囲の端末装置は、利用者Uの端末装置10とのセンサデータの共有を許可/同意した他の利用者の端末装置を示す。
However, since sensor data is also information that can estimate an individual's location, behavior, and context, it may not be desirable to share it unconditionally among all users. Therefore, it is possible to share sensor data between users who have previously given permission/agreed to share sensor data with each other (for example, between family members, friends, etc.), or to share sensor data with other users who are currently in front of you (in the same location). It is desirable to share information and sensor data in situations where there is no problem in sharing it. Hereinafter, terminal devices around user U refer to terminal devices of other users who have permitted/agreed to share sensor data with user U's
本実施形態では、自動的に/周期的に、各利用者Uの端末装置10の間でセンサデータを共有する(ステップS6)。これにより、利用者Uの周囲の端末装置から収集したデータを、「当該利用者Uの端末装置10が取得したデータ」とみなして学習を行う。このとき、各利用者Uの端末装置10のうち、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。
In this embodiment, sensor data is automatically/periodically shared between the
例えば、第2の利用者U(U2)の端末装置10(10B)は、自動的に/周期的に、ブロードキャストでセンサデータを要求し、第1の利用者U(U1)の端末装置10(10A)が応答としてセンサデータを送信する。この場合、利用者Uの端末装置10は、周囲の端末装置に所定のセンサデータの有無を問い合わせ、周囲の端末装置がそのセンサデータを持っている場合に、そのセンサデータを要求してもよい。また、利用者Uの端末装置10は、希望するセンサデータと利用者Uのコンテキストとの表明を行い、当該利用者Uとコンテキストが類似する他の利用者の端末装置からそのセンサデータを受信してもよい。
For example, the terminal device 10 (10B) of the second user U (U2) automatically/periodically requests sensor data by broadcast, and the terminal device 10 (10B) of the first user U (U1) automatically/periodically requests sensor data by broadcasting. 10A) sends sensor data in response. In this case, the
例えば、利用者Uの端末装置10は、温度センサがない場合、周囲の端末装置に対して、「温度センサのデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置が温度センサのデータを利用者Uの端末装置10に送信する。なお、温度センサは一例に過ぎない。また、複数のセンサのデータを要求してもよい。また、無条件に全てのセンサのデータを要求してもよい。
For example, if the
また、利用者Uの端末装置10は、利用者Uが歩いているときのセンサデータはあるが、利用者Uが走っているときのセンサデータがない場合には、「利用者が走っているときのセンサデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置がその端末装置の利用者が走っているときのセンサデータを利用者Uの端末装置10に送信する。
Further, if the
また、利用者Uの端末装置10は、利用者Uが所定の場所(店舗、地点等)にいるときのセンサデータが少ない場合には、学習データの不足を補うため、「利用者が当該場所にいるときのデータをください」といった情報をブロードキャストして、周囲の端末装置からその端末装置の利用者が当該場所にいるときのセンサデータを受信する。
In addition, if there is not enough sensor data when the user U is at a predetermined location (store, point, etc.), the
なお、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、P2P(Peer to Peer)でセンサデータを渡すようにしてもよい。あるいは、同じアプリ(ゲーム、決済アプリ等)を起動している利用者や、同じ行動を取っている利用者の端末装置間でセンサデータを渡すようにしてもよい。なお、双方の利用者が同じアプリを使用している場合、当該アプリを介して利用者の端末装置間でセンサデータを渡すようにしてもよい。 Note that the terminal device 10 (10A) of the first user U (U1) automatically/periodically sends P2P (Peer to Peer) may be used to pass sensor data. Alternatively, sensor data may be passed between terminal devices of users who are running the same application (game, payment application, etc.) or taking the same action. Note that if both users are using the same app, sensor data may be passed between the users' terminal devices via the app.
また、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、端末装置10(10A)は端末装置10(10B)へ、Bluetooth(登録商標)又は無線LAN(Local Area Network)等の近距離無線通信でセンサデータを伝送してもよい。なお、いわゆる「すれ違い通信」でセンサデータを伝送してもよい。近距離通信で通信可能なほど近くにいる利用者の端末装置から収集したデータであれば、その時点でのセンサデータは共通であると推測される。 Further, the terminal device 10 (10A) of the first user U (U1) automatically/periodically sends the terminal device 10 (10A) to the terminal device 10 (10B) using Bluetooth (registered trademark) or wireless communication. Sensor data may be transmitted by short-range wireless communication such as a LAN (Local Area Network). Note that sensor data may be transmitted by so-called "passing communication". If the data is collected from the terminal devices of users who are close enough to communicate via short-range communication, it is assumed that the sensor data at that time is common.
あるいは、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、家庭内LANを介してセンサデータを伝送してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、スマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、又は個人所有のPCや自宅サーバ(ホームサーバ)等を介してセンサデータを伝送してもよい。このとき、利用者Uは、端末装置10(10A)からスマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、あるいは個人所有のPCや自宅サーバ等にセンサデータをバックアップしてもよい。なお、端末装置10(10A)からのセンサデータのバックアップは、センサデータを取得した際にリアルタイムで行われてもよい(リアルタイム対応)。そして、端末装置10(10B)は、バックアップされたセンサデータを取得してもよい。同じ家庭内にいる家族等の端末装置から収集したデータであれば、家庭内でのセンサデータは共通であると推測される。なお、家族は一例に過ぎない。例えば、同一構内にいる職場の同僚やグループのメンバー等であってもよいし、同一施設内にいる従業員及び利用客等であってもよい。 Alternatively, the terminal device 10 (10A) of the first user U (U1) automatically/periodically connects the home LAN to the terminal device 10 (10B) of the second user U (U2). Sensor data may also be transmitted via the For example, the terminal device 10 (10A) of the first user U (U1) connects the terminal device 10 (10B) of the second user U (U2) to a hub such as a smart home or a home router (use The sensor data may be transmitted via a local relay device managed by person U), a personally owned PC or a home server (home server), or the like. At this time, user U transfers sensor data from the terminal device 10 (10A) to a hub such as a smart home, a home router (a local relay device managed by user U), a personal PC, a home server, etc. You may back up the . Note that the backup of sensor data from the terminal device 10 (10A) may be performed in real time when the sensor data is acquired (real-time support). Then, the terminal device 10 (10B) may acquire the backed up sensor data. If the data is collected from terminal devices of family members or the like within the same household, it is assumed that the sensor data within the household is common. Please note that family is just one example. For example, they may be colleagues at work or members of a group located in the same campus, or employees and customers located in the same facility.
あるいは、利用者Uは、端末装置10(10A)においてセンサデータを自分でのみ解凍できる形式のファイルに圧縮して、圧縮されたファイルを端末装置10(10B)側でダウンロードして解凍してもよい。例えば、端末装置10(10A)は、センサデータを秘密鍵で暗号化し、暗号化されたセンサデータとともに公開鍵を端末装置10(10B)にのみ提供するようにしてもよい。なお、実際には、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、閉域網(クローズドネットワーク:closed network)を介してセンサデータを渡してもよい。 Alternatively, the user U can compress the sensor data into a file in a format that can only be decompressed by the user on the terminal device 10 (10A), and then download and decompress the compressed file on the terminal device 10 (10B). good. For example, the terminal device 10 (10A) may encrypt sensor data with a private key, and provide the encrypted sensor data and the public key only to the terminal device 10 (10B). Note that, in reality, the terminal device 10 (10A) of the first user U (U1) connects to the terminal device 10 (10B) of the second user U (U2) via a closed network. ) may be used to pass sensor data.
このように、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。 In this way, the method of transmitting/sharing sensor data between devices owned by each user U may be P2P, home LAN (home hub format), or file compression type.
ここで、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する際に、第1の利用者U(U1)の端末装置10(10A)と第2の利用者U(U2)の端末装置10(10B)との間で認証を行うようにしてもよい。認証は、FIDO(Fast Identity Online)認証であってもよい。そして、認証に成功した場合にのみ、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。なお、送信されるセンサデータを暗号化して伝送することは技術常識の範疇で可能である。 Here, when transmitting/sharing sensor data between devices owned by each user U, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10A) of the second user U (U2) Authentication may be performed with the terminal device 10 (10B). The authentication may be FIDO (Fast Identity Online) authentication. Then, only when the authentication is successful, the terminal device 10 (10A) of the first user U (U1) transmits the sensor data to the terminal device 10 (10B) of the second user U (U2). . Note that it is possible to encrypt and transmit the sensor data to be transmitted within the scope of common technical knowledge.
また、実際には、第2の利用者U(U2)の端末装置10(10B)も、第1の利用者U(U1)の端末装置10(10A)へ、自身のセンサデータを伝送することができる。すなわち、端末間でのセンサデータの伝送は、一方向ではなく双方向で行うことができる。この場合、第1の利用者U(U1)の端末装置10(10A)も、第2の利用者U(U2)の端末装置10(10B)と同様の処理を行う。 In fact, the terminal device 10 (10B) of the second user U (U2) also transmits its own sensor data to the terminal device 10 (10A) of the first user U (U1). I can do it. That is, the transmission of sensor data between terminals can be performed bidirectionally rather than unidirectionally. In this case, the terminal device 10 (10A) of the first user U (U1) also performs the same process as the terminal device 10 (10B) of the second user U (U2).
さらに、各利用者Uの端末装置10の間で、センサデータだけでなく、学習済みのモデルも共有してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、当該センサデータだけでなく、当該センサデータを学習データとして学習したモデルを伝送してもよい。
Furthermore, not only sensor data but also learned models may be shared between the
本実施形態では、各利用者Uの端末装置10のうち、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する(ステップS7)。
In this embodiment, among the
ここで、比較の対象となるセンサデータは、同じ(又は近い)時間及び位置で計測されたセンサデータ(すなわち、位置情報やロケーション履歴が共通のセンサデータ)であることが望ましい。そのため、第2の利用者U(U2)の端末装置10(10B)は、位置情報を基準として、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する。この場合、位置情報とセンサデータとは紐づけられている。なお、時間情報をキーとして位置情報とセンサデータとが紐づけられていてもよい。また、実際には、センサデータの中に、測位された位置情報と、他のセンサでの計測データとが含まれていてもよい。 Here, it is desirable that the sensor data to be compared be sensor data measured at the same (or close) time and location (that is, sensor data having common position information and location history). Therefore, the terminal device 10 (10B) of the second user U (U2) uses the sensor data of the terminal device 10 (10A) of the first user U (U1) and the second The sensor data of the terminal device 10 (10B) of the user U (U2) is compared. In this case, position information and sensor data are linked. Note that position information and sensor data may be linked using time information as a key. Furthermore, in reality, the sensor data may include measured position information and measurement data from other sensors.
但し、利用者Uの端末装置10は、リアルタイムのセンサデータを使用する場合には、位置情報や時間情報に関係なく、収集した時点での自他のリアルタイムのセンサデータを比較してもよい。
However, when using real-time sensor data, the
続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータに含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、当該端末装置10(10B)のセンサデータよりも精度の高いデータ(より高性能なセンサの計測データ)を採用する(ステップS8)。 Subsequently, the second user U (U2)'s terminal device 10 (10B) reads the sensor data of the first user U (U1)'s terminal device 10 (10A) from the sensor data of the terminal device 10 (10B). data that is not included in the sensor data of the terminal device (measurement data of a sensor not installed in the terminal device) or data that is more accurate than the sensor data of the terminal device 10 (10B) (measurement data of a sensor with higher performance). ) is adopted (step S8).
このとき、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、当該端末装置10(10B)のセンサデータとの差分から、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。例えば、端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータから欠落しているデータや、当該端末装置10(10B)のセンサデータよりも数値の小数点以下の桁数が多いデータ(詳細なデータ)等を採用してもよい。 At this time, the second user U (U2)'s terminal device 10 (10B) receives the sensor data of the first user U (U1)'s terminal device 10 (10A) and the terminal device 10 (10B). Based on the difference with the sensor data, data that is not included in the sensor data of the terminal device 10 (10B) or data that is more accurate than the sensor data of the terminal device 10 (10B) may be determined. For example, the terminal device 10 (10B) collects data that is missing from the sensor data of the terminal device 10 (10B) among the sensor data of the terminal device 10 (10A) of the first user U (U1), Data (detailed data) having a larger number of digits after the decimal point than the sensor data of the terminal device 10 (10B) may be adopted.
あるいは、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータとともに、端末装置10(10A)に関する情報を取得し、端末装置10(10A)に関する情報と、当該端末装置10(10B)に関する情報とに基づいて、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。端末装置10に関する情報は、例えば端末装置10の機種情報や、端末装置10に搭載されているセンサに関する情報等である。
Alternatively, the terminal device 10 (10B) of the second user U (U2) transmits information regarding the terminal device 10 (10A) along with the sensor data of the terminal device 10 (10A) of the first user U (U1). Based on the information about the terminal device 10 (10A) and the information about the terminal device 10 (10B), data not included in the sensor data of the terminal device 10 (10B) and information about the terminal device 10 (10B) are acquired. Data with higher precision than the sensor data in 10B) may be determined. The information regarding the
続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとのうち、採用されたセンサデータを学習データとしてオンデバイス機械学習を行い、学習結果に基づいて推論する(ステップS9)。 Subsequently, the terminal device 10 (10B) of the second user U (U2) receives the sensor data of the terminal device 10 (10A) of the first user U (U1) and the second user U (U2). ), on-device machine learning is performed using the adopted sensor data as learning data, and inference is made based on the learning results (step S9).
これにより、利用者Uの端末装置10は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。特に、自身の端末装置にはないセンサを持つ他の端末装置のセンサデータを用いて学習することができる。また、自他の端末装置のセンサデータを比較してより優れたセンサデータを用いて学習することができる。
Thereby, the
なお、上記の説明では、自他のセンサデータを比較し、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用しているが、実際には、比較せずに自他のセンサデータをそのまま全て学習データとして用いて機械学習をしてもよい。
In addition, in the above description, the sensor data of one's own and other devices are compared, and data not included in the sensor data of the
また、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には、自己のセンサデータのみを学習データとして用いて機械学習を実施する。あるいは、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には機械学習を実施せず、他の端末装置10からセンサデータを収集できた場合にのみ上記の手順で機械学習を実施するようにしてもよい。
Furthermore, when the
〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。図2では、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを示す。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the
また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを1台ずつ示したが、これはあくまでも例示であって限定されるものではなく、それぞれ2台以上であってもよい。例えば、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とは、利用者ごとに存在していてもよい。
Furthermore, the number of devices included in the
端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス、スマートスピーカ、カメラ等である。但し、実際には、これらの例に限定されない。
The
また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。
The
情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。
The
〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the
(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the
(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.
(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.
(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) sent from a GPS (Global Positioning System) satellite, and based on the received signal, determines position information (for example, latitude and longitude). That is, the positioning unit 14 positions the
また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。
Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the
(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the
(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the
(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the
(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the
測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。
The positioning unit 14 may position the
(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(sensor section 20)
The
なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。
Note that each of the sensors 21 to 28 described above is merely an example and is not limited to the above. That is, the
加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。
The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the
端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。
Since the
例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。
For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the
気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。
The temperature sensor 24 detects, for example, the temperature around the
上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。
The above-mentioned
(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33、学習部34と、取得部35と、比較部36と、採用部37とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31 , a receiving section 32 , a processing section 33 , a learning section 34 , an acquiring section 35 , a comparing section 36 , and a recruiting section 37 .
(送信部31)
送信部31は、通信部11を介して、オンデバイス機械学習に基づく推論の結果として得られた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する。
(Transmission unit 31)
The transmitting unit 31 transmits the inference result obtained as a result of inference based on on-device machine learning and the difference parameter from the shared model obtained as a result of learning to the information providing apparatus 100 (server) via the communication unit 11. side).
また、送信部31は、通信部11を介して、又は近距離無線通信により、自身が収集したセンサデータを他の利用者Uが所有する他の端末装置10に送信する。例えば、送信部31は、当該端末装置10が第1の利用者U(U1)の端末装置10(10A)である場合、通信部11を介して、又は近距離無線通信により、自身の端末装置10(10A)が収集したセンサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。
Further, the transmitting unit 31 transmits the sensor data collected by itself to another
すなわち、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。例えば、送信部31は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、センサデータを学習データとして学習したモデルを送信してもよい。
That is, the transmitting unit 31 transmits sensor data collected by the sensor installed in the
また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。
In addition, the transmitting unit 31 transmits the information to another
(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される共有モデルを受信する。また、受信部32は、通信部11を介して、情報提供装置100から、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を受信する。
(Receiving unit 32)
The receiving unit 32 receives the shared model provided from the
また、受信部32は、通信部11を介して、又は近距離無線通信により、他の利用者Uが所有する他の端末装置10からセンサデータを受信する。例えば、受信部32は、当該端末装置10が第2の利用者U(U2)の端末装置10(10B)である場合、通信部11を介して、又は近距離無線通信により、第1の利用者U(U1)の端末装置10(10A)のセンサデータを受信する。
Further, the receiving unit 32 receives sensor data from another
すなわち、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、センサデータを学習データとして学習したモデルを受信してもよい。
That is, the receiving unit 32 receives sensor data collected by a sensor installed in another
また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。
In addition, the receiving unit 32 can receive information from other
このように、受信部32は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。このとき、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信してもよい。また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信してもよい。
In this way, the receiving unit 32 receives other person's sensor data collected by the sensor of the other
(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire
また、処理部33は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)に基づいて、現在の共有モデルを更新してグレードアップする。 Furthermore, the processing unit 33 updates and upgrades the current shared model based on the corrected shared model (or the difference parameter from the previous shared model).
(学習部34)
学習部34は、共有モデルをベースとして、端末装置10のセンサデータを学習データとしてオンデバイス機械学習を行う。これにより、学習部34は、共有モデルをベースとした独自の推論モデルを構築し、推論モデルと共有モデルとの差分パラメータを生成する。すなわち、学習部34は、センサデータを学習データとして機械学習を行う。
(Learning Department 34)
The learning unit 34 performs on-device machine learning based on the shared model and using sensor data of the
本実施形態では、学習部34は、他者センサデータを学習データとして機械学習を行う。例えば、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。このとき、学習部34は、自己センサデータと他者センサデータとのうち採用されたセンサデータを学習データとして機械学習を行う。 In this embodiment, the learning unit 34 performs machine learning using other person's sensor data as learning data. For example, the learning unit 34 performs machine learning using self-sensor data and other-person sensor data as learning data. At this time, the learning unit 34 performs machine learning using the adopted sensor data among the own sensor data and the other person's sensor data as learning data.
(取得部35)
取得部35は、利用者Uが所有する端末装置10に搭載されたセンサによりセンサデータを収集する。すなわち、取得部35は、当該端末装置10のセンサにより自己センサデータを収集する。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等を、センサデータとして収集する。
(Acquisition unit 35)
The acquisition unit 35 collects sensor data using a sensor installed in the
(比較部36)
比較部36は、自己センサデータと他者センサデータとを比較する。このとき、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較してもよい。
(Comparison section 36)
The comparison unit 36 compares self-sensor data and other-person sensor data. At this time, the comparison unit 36 may compare the own sensor data and the other person's sensor data using the position information as a reference.
(採用部37)
採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する。このとき、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。例えば、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。
(Recruitment Department 37)
The hiring unit 37 adopts one of the self-sensor data and the other person's sensor data (preferred sensor data) according to the comparison result. At this time, the hiring unit 37 adopts other person's sensor data that includes data that is not included in the self-sensor data. For example, the recruitment unit 37 employs other person sensor data collected by a sensor installed in another
(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.
本実施形態では、記憶部40は、モデル41と、自己センサデータ42と、他者センサデータ43と、採用規則44とを記憶する。 In this embodiment, the storage unit 40 stores a model 41, self-sensor data 42, other-person sensor data 43, and employment rules 44.
モデル41は、情報提供装置100から提供された共有モデルや、センサデータを学習データとしてオンデバイス機械学習を行った結果として得られた推論モデル等である。
The model 41 is a shared model provided by the
また、自己センサデータ42は、当該端末装置10により収集されたセンサデータである。例えば、自己センサデータ42は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等である。また、自己センサデータ42は、利用者Uの属性情報や、利用者Uの行動を示す各種履歴情報(ログデータ)を含んでいてもよい。また、自己センサデータ42は、利用者Uの端末装置10に関する各種情報を含んでいてもよい。
Further, the self-sensor data 42 is sensor data collected by the
また、他者センサデータ43は、他の利用者Uが所有する他の端末装置10から収集したセンサデータである。すなわち、他者センサデータ43は、他の利用者Uが所有する他の端末装置10により収集されたセンサデータである。
Further, the other person's sensor data 43 is sensor data collected from another
また、採用規則44は、自己センサデータ42と、他者センサデータ43とのいずれか一方を採用する際の規則(ルール)を示す。例えば、他者センサデータ43のうち、自己センサデータ42に含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、自己センサデータ42よりも精度の高いデータ(より高性能なセンサの計測データ)を採用するといった規則を示す。なお、採用規則44は、他者センサデータ43(及び自己センサデータ42)と採用されたセンサデータとを学習データとした機械学習により得られた採用モデルであってもよい。この場合、他者センサデータ43(及び自己センサデータ42)を入力データとして採用モデルに入力することで、出力として得られたセンサデータを採用してもよい。 Further, the adoption rule 44 indicates a rule when either one of the self-sensor data 42 and the other-person sensor data 43 is adopted. For example, out of the other person's sensor data 43, data that is not included in the self-sensor data 42 (measurement data of a sensor not installed in the terminal device) or data that is more accurate than the self-sensor data 42 (higher performance rules such as adopting sensor measurement data). Note that the adoption rule 44 may be an adoption model obtained by machine learning using other person's sensor data 43 (and self-sensor data 42) and adopted sensor data as learning data. In this case, the sensor data obtained as output may be adopted by inputting the other person's sensor data 43 (and the self-sensor data 42) as input data to the adopted model.
なお、記憶部40は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、記憶部40は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、記憶部40は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、記憶部40は、利用者Uの位置や日時の履歴である位置履歴、利用者Uが入力した検索クエリの履歴である検索履歴、利用者Uが閲覧したコンテンツの履歴である閲覧履歴、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴、利用者Uの投稿の履歴である投稿履歴等を記憶してもよい。また、記憶部40は、利用者Uが端末装置10にインストールした各種アプリの利用履歴や、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。これらの情報は、センサデータとともに学習データとして使用可能である。
Note that the storage unit 40 is not limited to the above, and may store various information depending on the purpose. For example, the storage unit 40 stores attributes such as demographic, psychographic, geographical, and behavioral attributes of the user U. Information may also be stored. For example, the storage unit 40 stores name, family structure, place of birth (locality), occupation, position, income, qualifications, residence type (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting route, etc. Even if you memorize information such as commuter pass sections (stations, routes, etc.), frequently used stations (other than the stations closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. good. The storage unit 40 also stores a location history that is a history of the location and date and time of the user U, a search history that is a history of search queries input by the user U, a viewing history that is a history of contents viewed by the user U, Purchase history (payment history), which is the history of user U's product purchases and payment processing, listing history and sales history, which is the history of user U's listings on the marketplace, and posting history, which is the history of user U's posts. etc. may be stored. Further, the storage unit 40 may store the usage history of various applications installed on the
〔4.処理手順〕
次に、図4を用いて実施形態に係る端末装置10による処理手順について説明する。図4は、実施形態に係る処理手順を示すシーケンス図である。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。ここでは、端末装置10と表記した処理は、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とに共通の処理を示す。
[4. Processing procedure]
Next, a processing procedure by the
図4に示すように、端末装置10の取得部35は、当該端末装置10に搭載されたセンサによりセンサデータ(自己センサデータ)を収集する(ステップS101)。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、当該端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された当該端末装置10の位置情報等を、センサデータとして収集する。
As shown in FIG. 4, the acquisition unit 35 of the
続いて、端末装置10の送信部31は、通信部11を介して、センサデータを他の利用者Uの所有する他の端末装置10に送信する(ステップS102)。例えば、第1の利用者U(U1)の端末装置10(10A)の送信部31は、通信部11を介して、センサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。このとき、端末装置10Bの受信部32は、通信部11を介して、端末装置10Aのセンサデータ(他者センサデータ)を受信する。逆も同様である。すなわち、端末装置10Aと端末装置10Bとの間でセンサデータを共有する。なお、端末装置10の処理部33は、センサデータを暗号化してもよい。この場合、送信部31は、暗号化されたセンサデータとともに、復号鍵(公開鍵等)を他の端末装置10に送信してもよい。また、デバイス間でセンサデータを伝送する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。
Subsequently, the transmitting unit 31 of the
続いて、端末装置10の比較部36は、自己センサデータと他者センサデータとを比較する(ステップS103)。このとき、比較部36は、位置情報に基づいて、自己センサデータと他者センサデータとを比較してもよい。なお、比較部36は、近距離無線通信又は同一構内のLANを介して他者センサデータを受信した場合や、リアルタイムに収集されたセンサデータを比較する場合には、位置情報に関係なく、自己センサデータと他者センサデータとをそのまま比較してもよい。
Subsequently, the comparison unit 36 of the
続いて、端末装置10の採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する(ステップS104)。例えば、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。具体的には、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。本実施形態では、採用部37は、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用する。
Subsequently, the adoption unit 37 of the
続いて、端末装置10Aの学習部34は、共有モデルをベースとして、採用されたセンサデータを学習データとしてオンデバイス機械学習を行う(ステップS105)。なお、端末装置10Aの受信部32は、通信部11を介して、情報提供装置100(サーバ側)から提供された共有モデルを受信してもよい。また、端末装置10Aの送信部31は、通信部11を介して、学習結果としての共有モデルとの差分パラメータや、推論結果を情報提供装置100(サーバ側)に送信してもよい。本実施形態では、学習部34は、比較結果に応じて採用されたセンサデータを学習データとしてオンデバイス機械学習を行っているが、実際には、比較結果に関係なく、自他のセンサデータをそのまま全て学習データとして用いて学習してもよい。
Subsequently, the learning unit 34 of the
〔5.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[5. Modified example]
The
上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、情報提供装置100を備えているともいえる。
In the above embodiment, part or all of the processing executed by the
また、上記の実施形態において、機械学習を行う個々の端末装置間でセンサデータを共有する事例について説明しているが、実際には、利用者Uの端末装置10は、他の利用者が所有する他の端末装置以外の外部装置からセンサデータを取得してもよい。例えば、利用者Uの端末装置10は、街頭や店頭に設置された固定端末装置からセンサデータを取得してもよいし、街中を移動する車両等の移動体からセンサデータを取得してもよい。街頭や店頭に設置された固定端末装置の例として、店頭設置端末、デジタルサイネージ(電子看板)、基地局又はアクセスポイント等がある。この場合、これらの外部装置が、他の利用者が所有する他の端末装置に相当する。
Furthermore, although the above embodiment describes a case in which sensor data is shared between individual terminal devices that perform machine learning, in reality, the
また、上記の実施形態において、端末装置10は、オンデバイスAI(Artificial Intelligence:人工知能)によりカメラ機能の高機能化を実現したスマートフォン等であってもよい。また、端末装置10は、オンデバイスAIを搭載したロボットや自動運転車、ドローン等であってもよい。
Furthermore, in the above embodiment, the
〔6.効果〕
上述してきたように、本願に係る端末装置10は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する受信部32と、他者センサデータを学習データとして機械学習を行う学習部34と、を備えることを特徴とする。
[6. effect〕
As described above, the
また、本願に係る端末装置10は、利用者Uが所有する当該端末装置10のセンサにより自己センサデータを収集する取得部35と、をさらに備える。そして、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。
The
また、本願に係る端末装置10は、自己センサデータと他者センサデータとを比較する比較部36と、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータを採用する採用部37と、をさらに備える。そして、学習部34は、採用されたセンサデータを学習データとして機械学習を行う。
The
また、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較する。 Furthermore, the comparison unit 36 compares the own sensor data and the other person's sensor data using the position information as a reference.
また、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。 Further, the hiring unit 37 adopts other person's sensor data that includes data that is not included in the self-sensor data.
また、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。
Further, the recruitment unit 37 employs other person sensor data collected by a sensor installed in another
また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。 Further, the hiring unit 37 adopts other person's sensor data that is more accurate than the self-sensor data.
また、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。
Further, the receiving unit 32 receives other person's sensor data collected by the sensor of the other
また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信する。
The receiving unit 32 also receives other person sensor data collected in real time by the sensors of the other
上述した各処理のいずれかもしくは組合せにより、本願に係る端末装置は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 By using any one or a combination of the above-described processes, the terminal device according to the present application can share sensor data among individual terminal devices that perform machine learning, and can learn using the sensor data of other terminal devices.
〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置10を例に挙げて説明する。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
The
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
The
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。
The output I/
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
Further, the output I/
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
Moreover, the
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
Note that the
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
Network I/
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部30の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
For example, when the computer 1000 functions as the
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.
例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
For example, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the control section can be read as a control means or a control circuit.
1 情報処理システム
10 端末装置
11 通信部
14 測位部
20 センサ部
30 制御部
31 送信部
32 受信部
33 処理部
34 学習部
35 取得部
36 比較部
37 採用部
40 記憶部
100 情報提供装置
1
Claims (11)
当該端末装置のセンサにより自己センサデータを収集する取得部と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、
前記自己センサデータと前記他者センサデータとを比較する比較部と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用部と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用部により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習部と、
前記推論モデルを利用して入力データから推論を行う推論部と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信部と、
を備えることを特徴とする端末装置。 A terminal device owned by a user,
an acquisition unit that collects self-sensor data using a sensor of the terminal device;
a receiving unit that receives other person's sensor data collected by the sensor of the other terminal device from another terminal device owned by another user;
a comparison unit that compares the self-sensor data and the other-person sensor data;
a hiring unit that adopts sensor data that is measured by a higher-performance sensor and has higher accuracy than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Perform on-device machine learning based on a shared model provided by an information providing device that employs federated learning, using sensor data adopted by the hiring unit among the self-sensor data and other-person sensor data as learning data. a learning unit that constructs a unique inference model by doing so, and generates a difference parameter between the inference model and the shared model ;
an inference unit that performs inference from input data using the inference model;
a transmitting unit that transmits an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
A terminal device comprising:
リアルタイムのセンサデータを使用する場合には、位置情報や時間情報に関係なく、収集した時点でのリアルタイムの前記自己センサデータと前記他者センサデータとを比較する
ことを特徴とする請求項1に記載の端末装置。 When real-time sensor data is not used, the comparison unit compares the self-sensor data and the other person measured at the same or close time and position based on the position information and time information linked to the sensor data. Compare with sensor data ,
When real-time sensor data is used, the real-time self-sensor data and the other-person sensor data at the time of collection are compared, regardless of location information or time information . The terminal device described.
ことを特徴とする請求項1又は2に記載の端末装置。 The recruitment department collects the other person's sensor data received from the other terminal device which has a different model or the type and performance of the installed sensor from the terminal device and which is not included in the self-sensor data. , employing the other person's sensor data having data missing from the self-sensor data or data having more digits after the decimal point than the self-sensor data . The terminal device described.
ことを特徴とする請求項1~3のうちいずれか1つに記載の端末装置。 The receiving unit receives the sensor data of the other person collected by the sensor of the other terminal device from the other terminal device that is close enough to be able to communicate with the terminal device by short-range wireless communication. Receive the other person's sensor data from the other terminal device whose sensor data at the time of collection is presumed to be common to the terminal device.
The terminal device according to any one of claims 1 to 3 , characterized in that:
ことを特徴とする請求項1~4のうちいずれか1つに記載の端末装置。 The receiving unit is configured to receive the other person's sensor data collected by the sensor of the other terminal device from the other terminal device via a LAN in the same campus , so that the reception unit is configured to receive the other person's sensor data collected by the sensor of the other terminal device via a LAN in the same campus. receiving the other person's sensor data from the other terminal device owned by the other user;
The terminal device according to any one of claims 1 to 4 , characterized in that:
ことを特徴とする請求項1~5のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 5.
ことを特徴とする請求項1~6のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 6.
をさらに備えることを特徴とする請求項1~7のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 7, further comprising the following.
前記ベクトルデータは不可逆な情報であり、前記ベクトルデータのベクトル値から元のデータを復元することはできない The vector data is irreversible information, and the original data cannot be restored from the vector value of the vector data.
ことを特徴とする請求項1~8のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 8.
当該端末装置のセンサにより自己センサデータを収集する取得工程と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信工程と、
前記自己センサデータと前記他者センサデータとを比較する比較工程と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用工程と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用工程により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習工程と、
前記推論モデルを利用して入力データから推論を行う推論工程と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信工程と、
を含むことを特徴とする情報処理方法。 An information processing method executed by a terminal device owned by a user ,
an acquisition step of collecting self-sensor data using a sensor of the terminal device;
a receiving step of receiving other person's sensor data collected by the sensor of the other terminal device from another terminal device owned by another user;
a comparison step of comparing the self-sensor data and the other-person sensor data;
a hiring step of adopting sensor data that is measured by a higher-performance sensor and has higher precision than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Perform on-device machine learning based on a shared model provided by an information providing device that employs federated learning, using the sensor data adopted in the adoption process among the self-sensor data and the other- person sensor data as learning data. a learning step of constructing a unique inference model and generating a difference parameter between the inference model and the shared model ;
an inference step of inferring from input data using the inference model;
a transmission step of transmitting an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
An information processing method characterized by comprising:
当該端末装置のセンサにより自己センサデータを収集する取得手順と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信手順と、
前記自己センサデータと前記他者センサデータとを比較する比較手順と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用手順と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用手順により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習手順と、
前記推論モデルを利用して入力データから推論を行う推論手順と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信手順と、
を端末装置に実行させるための情報処理プログラム。 An information processing program to be executed by a terminal device owned by a user,
an acquisition procedure for collecting self-sensor data using a sensor of the terminal device;
A reception procedure for receiving other person's sensor data collected by a sensor of the other terminal device from another terminal device owned by another user;
a comparison procedure of comparing the self-sensor data and the other-person sensor data;
a hiring procedure of adopting sensor data that is measured by a higher performance sensor and has higher accuracy than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Based on a shared model provided by an information providing device that employs federated learning, on-device machine learning is performed using the sensor data adopted by the adoption procedure among the self-sensor data and the other-person sensor data as learning data. a learning procedure for constructing a unique inference model and generating a difference parameter between the inference model and the shared model ;
an inference step of inferring from input data using the inference model;
a transmission procedure of transmitting an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
An information processing program that causes a terminal device to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021114800A JP7353328B2 (en) | 2021-07-12 | 2021-07-12 | Terminal device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021114800A JP7353328B2 (en) | 2021-07-12 | 2021-07-12 | Terminal device, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023011145A JP2023011145A (en) | 2023-01-24 |
JP7353328B2 true JP7353328B2 (en) | 2023-09-29 |
Family
ID=85120182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114800A Active JP7353328B2 (en) | 2021-07-12 | 2021-07-12 | Terminal device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7353328B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018524711A (en) | 2015-06-19 | 2018-08-30 | 株式会社Preferred Networks | Cross-domain time-series data conversion apparatus, method, and system |
CN111985649A (en) | 2020-06-22 | 2020-11-24 | 华为技术有限公司 | Data processing method and device based on federal learning |
WO2021064737A1 (en) | 2019-10-04 | 2021-04-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Federated learning using heterogeneous model types and architectures |
-
2021
- 2021-07-12 JP JP2021114800A patent/JP7353328B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018524711A (en) | 2015-06-19 | 2018-08-30 | 株式会社Preferred Networks | Cross-domain time-series data conversion apparatus, method, and system |
WO2021064737A1 (en) | 2019-10-04 | 2021-04-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Federated learning using heterogeneous model types and architectures |
CN111985649A (en) | 2020-06-22 | 2020-11-24 | 华为技术有限公司 | Data processing method and device based on federal learning |
Also Published As
Publication number | Publication date |
---|---|
JP2023011145A (en) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9857177B1 (en) | Personalized points of interest for mapping applications | |
JP7353328B2 (en) | Terminal device, information processing method, and information processing program | |
JP2023027548A (en) | Device, method, and program for processing information | |
JP7388744B2 (en) | Information processing device, information processing method, and information processing program | |
JP7291177B2 (en) | Terminal device, information processing method and information processing program | |
JP7436436B2 (en) | Information processing device, information processing method, and information processing program | |
JP7342079B2 (en) | Information processing device, information processing method, and information processing program | |
JP7407152B2 (en) | Information processing device, information processing method, and information processing program | |
JP7122432B1 (en) | Information processing device, information processing method and information processing program | |
JP7317901B2 (en) | Information processing device, information processing method and information processing program | |
JP7305703B2 (en) | Authentication server, terminal device, key management method and key management program | |
JP7145247B2 (en) | Information processing device, information processing method and information processing program | |
JP7326382B2 (en) | Information processing device, information processing method and information processing program | |
JP7459021B2 (en) | Information processing device, information processing method, and information processing program | |
JP7145997B2 (en) | Information processing device, information processing method and information processing program | |
JP7193519B2 (en) | Information processing device, information processing method and information processing program | |
JP7280227B2 (en) | Information processing device, information processing method and information processing program | |
JP2023179878A (en) | Information processing device, information processing method and information processing program | |
JP2024025997A (en) | Information processing device, information processing method, and information processing program | |
JP2023043772A (en) | Information processing device, information processing method, and information processing program | |
JP2023028857A (en) | Information processing system | |
JP2023180322A (en) | Information processing device, information processing method, and information processing program | |
JP2023043762A (en) | Information processing device, information processing method, and information processing program | |
JP2023120696A (en) | Information processing device, information processing method, and information processing program | |
JP2024042231A (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7353328 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |