JP7353328B2 - Terminal device, information processing method, and information processing program - Google Patents

Terminal device, information processing method, and information processing program Download PDF

Info

Publication number
JP7353328B2
JP7353328B2 JP2021114800A JP2021114800A JP7353328B2 JP 7353328 B2 JP7353328 B2 JP 7353328B2 JP 2021114800 A JP2021114800 A JP 2021114800A JP 2021114800 A JP2021114800 A JP 2021114800A JP 7353328 B2 JP7353328 B2 JP 7353328B2
Authority
JP
Japan
Prior art keywords
sensor data
terminal device
sensor
data
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021114800A
Other languages
Japanese (ja)
Other versions
JP2023011145A (en
Inventor
孝太 坪内
崇史 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021114800A priority Critical patent/JP7353328B2/en
Publication of JP2023011145A publication Critical patent/JP2023011145A/en
Application granted granted Critical
Publication of JP7353328B2 publication Critical patent/JP7353328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、端末装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to a terminal device, an information processing method, and an information processing program.

サーバ装置に機械学習させるための教師データをサーバ装置へ送る技術が開示されている。 A technique for sending training data to a server device for causing the server device to perform machine learning has been disclosed.

特許第6880290号公報Patent No. 6880290

上記の従来技術のように、機械学習はサーバ装置によって行われるのが一般的である。しかしながら、データに個人情報が含まれている場合、企業等の外部のサーバ装置へ送るのが好ましくないこともある。また、個人情報を含むデータの送受信には様々な制限があるため、自由に送受信することが容易ではないこともある。 As in the prior art described above, machine learning is generally performed by a server device. However, if the data includes personal information, it may not be desirable to send it to an external server device such as a company. Furthermore, there are various restrictions on sending and receiving data including personal information, so it may not be easy to send and receive data freely.

そのため、近年、フェデレーテッドラーニング(Federated Learning:連合学習)のように、データをサーバ装置に集約せずに個々の端末装置に分散した状態で機械学習を行うオンデバイス機械学習が注目されている。しかし、端末装置の形状や性能の影響を受けるセンサデータ等を用いて個々の端末装置で機械学習を行う場合、個々のユーザが所有する端末装置の機種や、搭載されているセンサの種類や性能によって計測結果に差が生じるという問題がある。 Therefore, in recent years, on-device machine learning, such as federated learning, in which machine learning is performed while data is distributed to individual terminal devices without being aggregated on a server device, has been attracting attention. . However, when performing machine learning on individual terminal devices using sensor data that is affected by the shape and performance of the terminal device, it is necessary to There is a problem that differences occur in the measurement results depending on the method.

本願は、上記に鑑みてなされたものであって、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することを目的とする。 The present application has been made in view of the above, and aims to share sensor data between individual terminal devices that perform machine learning and learn using sensor data of other terminal devices.

本願に係る端末装置は、利用者が所有する端末装置であって、当該端末装置のセンサにより自己センサデータを収集する取得部と、他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、前記自己センサデータと前記他者センサデータとを比較する比較部と、比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用部と、連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用部により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習部と、前記推論モデルを利用して入力データから推論を行う推論部と、推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信部と、を備えることを特徴とする。 The terminal device according to the present application is a terminal device owned by a user, and includes an acquisition unit that collects self-sensor data using a sensor of the terminal device, and an acquisition unit that collects self-sensor data from other terminal devices owned by other users. a receiving unit that receives other person's sensor data collected by a sensor of a terminal device; a comparing unit that compares the self sensor data and the other person's sensor data; and a comparison unit that compares the self sensor data and the other person's sensor data according to the comparison result. Based on the shared model provided by the recruitment department that adopts sensor data measured by a higher-performance sensor and more accurate than the other sensor data, and the information provision device that uses federated learning, A unique inference model is constructed by performing on-device machine learning using the sensor data adopted by the recruitment department as learning data among the self-sensor data and the other person's sensor data, and the inference model is combined with the shared model. a learning unit that generates a difference parameter ; an inference unit that performs inference from input data using the inference model; an inference result obtained as a result of inference; the inference model obtained as a result of learning; and the shared model. and a transmitting section that transmits a difference parameter between the information providing apparatus and the information providing apparatus .

実施形態の一態様によれば、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 According to one aspect of the embodiment, sensor data can be shared between individual terminal devices that perform machine learning, and learning can be performed using sensor data of other terminal devices.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図4は、実施形態に係る処理手順を示すシーケンス図である。FIG. 4 is a sequence diagram showing the processing procedure according to the embodiment. 図5は、ハードウェア構成の一例を示す図である。FIG. 5 is a diagram showing an example of the hardware configuration.

以下に、本願に係る端末装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, a terminal device, an information processing method, and an embodiment for implementing an information processing program (hereinafter referred to as "embodiments") according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the terminal device, information processing method, and information processing program according to the present application. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. Note that in FIG. 1, an example will be described in which sensor data is shared between individual terminal devices that perform machine learning, and learning is performed using sensor data of other terminal devices.

図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and an information providing device 100. The terminal device 10 and the information providing device 100 are connected to each other via a network N (see FIG. 2) so that they can communicate with each other by wire or wirelessly.

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or a tablet used by a user U (user), and can communicate with any server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). This is a mobile terminal device that can perform Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and displays data such as content through a tap operation, a slide operation, a scroll operation, etc. from the user U using a finger or a stylus. Accepts various operations on. Note that an operation performed on an area of the screen where content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

情報提供装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。 The information providing device 100 cooperates with the terminal device 10 of each user U, and provides API (Application Programming Interface) services for various applications (hereinafter referred to as applications), etc., to the terminal device 10 of each user U, and various It is an information processing device that provides data, and is realized by a server device, a cloud system, etc.

また、情報提供装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報提供装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報提供装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Further, the information providing device 100 may be an information processing device that provides some kind of web service online to the terminal device 10 of each user U. For example, the information providing device 100 provides web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce, electronic payment, online games, online banking, online trading, accommodation/ticket reservation, video/music distribution, Services such as news, maps, route searches, route guidance, route information, operation information, weather forecasts, etc. may be provided. In reality, the information providing apparatus 100 may cooperate with various servers that provide the above-mentioned Web services, mediate the Web services, or may be in charge of processing the Web services.

図1に示すように、本実施形態では、情報提供装置100(サーバ側)は、フェデレーテッドラーニング(Federated Learning:連合学習)を採用し、各利用者Uの端末装置10(端末側)に共有モデル(コアモデル)を提供する(ステップS1)。 As shown in FIG. 1, in the present embodiment, the information providing apparatus 100 (server side) employs federated learning, and the information providing apparatus 100 (server side) uses the terminal device 10 (terminal side) of each user U. A shared model (core model) is provided (step S1).

端末装置10は、共有モデルをベースとして、当該端末装置10に搭載(又は接続)された各種センサを用いて収集したセンサデータ(利用者Uのコンテキスト情報)を学習データとしてオンデバイス機械学習を行うことでパターンを作り、そのパターンを利用して入力データから推論を行う(ステップS2)。 Based on the shared model, the terminal device 10 performs on-device machine learning using sensor data (context information of user U) collected using various sensors installed in (or connected to) the terminal device 10 as learning data. A pattern is created by this, and inference is made from the input data using the pattern (step S2).

続いて、端末装置10は、推論の結果としてられた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する(ステップS3)。このとき、端末装置10は、推論結果を多次元のベクトルに変換(ベクトル化)したベクトルデータの形式で送信してもよい。ベクトルデータは不可逆な情報であり、ベクトルデータのベクトル値から元のデータを復元することはできない。例えば、端末装置10は、いわゆるエンベディング(embedding:埋め込み)を行い、推論結果に基づくエンベディングベクトル(埋め込みベクトル)を生成してもよい。なお、送信データであるベクトルデータを暗号化して伝送することは技術常識の範疇で可能である。また、トンネリング(tunneling)により、端末側とサーバ側との間に閉じられた仮想的な直結回線を確立してもよい。例えば、端末側とサーバ側との間にVPN(Virtual Private Network)を構築してもよい。 Subsequently, the terminal device 10 transmits the inference result obtained as a result of the inference and the difference parameter between the shared model obtained as a result of learning to the information providing device 100 (server side) (step S3). At this time, the terminal device 10 may transmit the inference result in the form of vector data converted into a multidimensional vector (vectorized). Vector data is irreversible information, and the original data cannot be restored from the vector value of vector data. For example, the terminal device 10 may perform so-called embedding and generate an embedding vector based on the inference result. Note that it is possible to encrypt and transmit vector data, which is transmission data, within the scope of common technical knowledge. Furthermore, a closed virtual direct connection line may be established between the terminal side and the server side by tunneling. For example, a VPN (Virtual Private Network) may be constructed between the terminal side and the server side.

情報提供装置100は、各利用者Uの端末装置10から受信した推論結果の集計処理を行う(ステップS4)。集計処理には、統計や分析等の演算処理が含まれる。 The information providing device 100 performs aggregation processing of the inference results received from the terminal device 10 of each user U (step S4). The aggregation process includes calculation processes such as statistics and analysis.

続いて、情報提供装置100は、各利用者Uの端末装置10から受信した差分パラメータに基づいて、共有モデルを修正する(ステップS5)。そして、情報提供装置100は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を各利用者Uの端末装置10に提供する(ステップS1に戻る)。すなわち、情報提供装置100は、各利用者Uの端末装置10に提供した共有モデルを更新してグレードアップする。 Subsequently, the information providing device 100 modifies the shared model based on the difference parameters received from the terminal device 10 of each user U (step S5). Then, the information providing device 100 provides the corrected shared model (or the difference parameter from the previous shared model) to the terminal device 10 of each user U (returns to step S1). That is, the information providing device 100 updates and upgrades the shared model provided to the terminal device 10 of each user U.

なお、情報提供装置100による共有モデルの更新が不要であれば、ステップS5の処理は実施しなくてもよい。この場合、ステップS3では、端末装置10は、推論結果のみ送信すればよい。 Note that if the information providing apparatus 100 does not need to update the shared model, the process of step S5 may not be performed. In this case, in step S3, the terminal device 10 only needs to transmit the inference result.

このように、情報提供装置100(サーバ側)ではなく、端末装置10(端末側)がセンサデータを学習データとして機械学習を行っている場合、個々の利用者が所有する端末装置の機種や、搭載されているセンサの種類や性能等の違いによって、計測されるセンサデータにも違いが生じる場合がある。例えば、同じ場所にいる利用者や、同じ行動をとっている利用者であっても、端末装置の機種や、搭載されているセンサの種類や性能等によって、計測されるセンサデータの数や精度は大きく異なることがある。その結果、学習結果にも影響が出る可能性がある。したがって、同じ場所にいる利用者や、同じ行動をとっている利用者については、可能な限り、センサデータを均一化/均質化することが望ましい。 In this way, when the terminal device 10 (terminal side) rather than the information providing device 100 (server side) performs machine learning using sensor data as learning data, the model of the terminal device owned by each user, Differences in the type and performance of the installed sensors may cause differences in the measured sensor data. For example, even if users are in the same place or taking the same actions, the number and accuracy of sensor data measured will vary depending on the terminal device model, the type and performance of the installed sensor, etc. can vary greatly. As a result, learning results may also be affected. Therefore, it is desirable to equalize/homogenize sensor data as much as possible for users who are in the same place or take the same actions.

ただし、センサデータも、個人の位置や行動及びコンテキストを推定できる情報であるため、全ての利用者間で無条件に共有するのは好ましくない場合もある。そのため、あらかじめ互いにセンサデータの共有を許可/同意した利用者同士(例えば、家族同士、友人同士等)で共有することや、相手が現在自分の目の前(同じ場所)にいるのでリアルタイムの位置情報やセンサデータを共有しても問題ないといった状況で共有すること等が望ましい。以下、利用者Uの周囲の端末装置は、利用者Uの端末装置10とのセンサデータの共有を許可/同意した他の利用者の端末装置を示す。 However, since sensor data is also information that can estimate an individual's location, behavior, and context, it may not be desirable to share it unconditionally among all users. Therefore, it is possible to share sensor data between users who have previously given permission/agreed to share sensor data with each other (for example, between family members, friends, etc.), or to share sensor data with other users who are currently in front of you (in the same location). It is desirable to share information and sensor data in situations where there is no problem in sharing it. Hereinafter, terminal devices around user U refer to terminal devices of other users who have permitted/agreed to share sensor data with user U's terminal device 10.

本実施形態では、自動的に/周期的に、各利用者Uの端末装置10の間でセンサデータを共有する(ステップS6)。これにより、利用者Uの周囲の端末装置から収集したデータを、「当該利用者Uの端末装置10が取得したデータ」とみなして学習を行う。このとき、各利用者Uの端末装置10のうち、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。 In this embodiment, sensor data is automatically/periodically shared between the terminal devices 10 of each user U (step S6). Thereby, data collected from terminal devices around the user U is regarded as "data acquired by the terminal device 10 of the user U" and learning is performed. At this time, among the terminal devices 10 of each user U, the terminal device 10 (10A) of the first user U (U1) sends a sensor to the terminal device 10 (10B) of the second user U (U2). Transmit data.

例えば、第2の利用者U(U2)の端末装置10(10B)は、自動的に/周期的に、ブロードキャストでセンサデータを要求し、第1の利用者U(U1)の端末装置10(10A)が応答としてセンサデータを送信する。この場合、利用者Uの端末装置10は、周囲の端末装置に所定のセンサデータの有無を問い合わせ、周囲の端末装置がそのセンサデータを持っている場合に、そのセンサデータを要求してもよい。また、利用者Uの端末装置10は、希望するセンサデータと利用者Uのコンテキストとの表明を行い、当該利用者Uとコンテキストが類似する他の利用者の端末装置からそのセンサデータを受信してもよい。 For example, the terminal device 10 (10B) of the second user U (U2) automatically/periodically requests sensor data by broadcast, and the terminal device 10 (10B) of the first user U (U1) automatically/periodically requests sensor data by broadcasting. 10A) sends sensor data in response. In this case, the terminal device 10 of the user U may inquire of surrounding terminal devices as to the presence or absence of predetermined sensor data, and if the surrounding terminal devices have the sensor data, may request the sensor data. . Further, the terminal device 10 of the user U declares the desired sensor data and the context of the user U, and receives the sensor data from the terminal device of another user whose context is similar to that of the user U. It's okay.

例えば、利用者Uの端末装置10は、温度センサがない場合、周囲の端末装置に対して、「温度センサのデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置が温度センサのデータを利用者Uの端末装置10に送信する。なお、温度センサは一例に過ぎない。また、複数のセンサのデータを要求してもよい。また、無条件に全てのセンサのデータを要求してもよい。 For example, if the terminal device 10 of user U does not have a temperature sensor, it broadcasts a request such as "Please give me temperature sensor data" to surrounding terminal devices. In response to the request, surrounding terminal devices transmit temperature sensor data to user U's terminal device 10. Note that the temperature sensor is just one example. Additionally, data from multiple sensors may be requested. Alternatively, data from all sensors may be unconditionally requested.

また、利用者Uの端末装置10は、利用者Uが歩いているときのセンサデータはあるが、利用者Uが走っているときのセンサデータがない場合には、「利用者が走っているときのセンサデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置がその端末装置の利用者が走っているときのセンサデータを利用者Uの端末装置10に送信する。 Further, if the terminal device 10 of the user U has sensor data when the user U is walking but does not have sensor data when the user U is running, Broadcast a request such as "Please give me the sensor data of the time." In response to the request, surrounding terminal devices transmit sensor data to the terminal device 10 of the user U when the user of the terminal device is running.

また、利用者Uの端末装置10は、利用者Uが所定の場所(店舗、地点等)にいるときのセンサデータが少ない場合には、学習データの不足を補うため、「利用者が当該場所にいるときのデータをください」といった情報をブロードキャストして、周囲の端末装置からその端末装置の利用者が当該場所にいるときのセンサデータを受信する。 In addition, if there is not enough sensor data when the user U is at a predetermined location (store, point, etc.), the terminal device 10 of the user U will display a message "The user is at the location" to compensate for the lack of learning data. The system broadcasts information such as "Please give me data when you are at that location" and receives sensor data from surrounding terminal devices when the user of that terminal device is at that location.

なお、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、P2P(Peer to Peer)でセンサデータを渡すようにしてもよい。あるいは、同じアプリ(ゲーム、決済アプリ等)を起動している利用者や、同じ行動を取っている利用者の端末装置間でセンサデータを渡すようにしてもよい。なお、双方の利用者が同じアプリを使用している場合、当該アプリを介して利用者の端末装置間でセンサデータを渡すようにしてもよい。 Note that the terminal device 10 (10A) of the first user U (U1) automatically/periodically sends P2P (Peer to Peer) may be used to pass sensor data. Alternatively, sensor data may be passed between terminal devices of users who are running the same application (game, payment application, etc.) or taking the same action. Note that if both users are using the same app, sensor data may be passed between the users' terminal devices via the app.

また、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、端末装置10(10A)は端末装置10(10B)へ、Bluetooth(登録商標)又は無線LAN(Local Area Network)等の近距離無線通信でセンサデータを伝送してもよい。なお、いわゆる「すれ違い通信」でセンサデータを伝送してもよい。近距離通信で通信可能なほど近くにいる利用者の端末装置から収集したデータであれば、その時点でのセンサデータは共通であると推測される。 Further, the terminal device 10 (10A) of the first user U (U1) automatically/periodically sends the terminal device 10 (10A) to the terminal device 10 (10B) using Bluetooth (registered trademark) or wireless communication. Sensor data may be transmitted by short-range wireless communication such as a LAN (Local Area Network). Note that sensor data may be transmitted by so-called "passing communication". If the data is collected from the terminal devices of users who are close enough to communicate via short-range communication, it is assumed that the sensor data at that time is common.

あるいは、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、家庭内LANを介してセンサデータを伝送してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、スマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、又は個人所有のPCや自宅サーバ(ホームサーバ)等を介してセンサデータを伝送してもよい。このとき、利用者Uは、端末装置10(10A)からスマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、あるいは個人所有のPCや自宅サーバ等にセンサデータをバックアップしてもよい。なお、端末装置10(10A)からのセンサデータのバックアップは、センサデータを取得した際にリアルタイムで行われてもよい(リアルタイム対応)。そして、端末装置10(10B)は、バックアップされたセンサデータを取得してもよい。同じ家庭内にいる家族等の端末装置から収集したデータであれば、家庭内でのセンサデータは共通であると推測される。なお、家族は一例に過ぎない。例えば、同一構内にいる職場の同僚やグループのメンバー等であってもよいし、同一施設内にいる従業員及び利用客等であってもよい。 Alternatively, the terminal device 10 (10A) of the first user U (U1) automatically/periodically connects the home LAN to the terminal device 10 (10B) of the second user U (U2). Sensor data may also be transmitted via the For example, the terminal device 10 (10A) of the first user U (U1) connects the terminal device 10 (10B) of the second user U (U2) to a hub such as a smart home or a home router (use The sensor data may be transmitted via a local relay device managed by person U), a personally owned PC or a home server (home server), or the like. At this time, user U transfers sensor data from the terminal device 10 (10A) to a hub such as a smart home, a home router (a local relay device managed by user U), a personal PC, a home server, etc. You may back up the . Note that the backup of sensor data from the terminal device 10 (10A) may be performed in real time when the sensor data is acquired (real-time support). Then, the terminal device 10 (10B) may acquire the backed up sensor data. If the data is collected from terminal devices of family members or the like within the same household, it is assumed that the sensor data within the household is common. Please note that family is just one example. For example, they may be colleagues at work or members of a group located in the same campus, or employees and customers located in the same facility.

あるいは、利用者Uは、端末装置10(10A)においてセンサデータを自分でのみ解凍できる形式のファイルに圧縮して、圧縮されたファイルを端末装置10(10B)側でダウンロードして解凍してもよい。例えば、端末装置10(10A)は、センサデータを秘密鍵で暗号化し、暗号化されたセンサデータとともに公開鍵を端末装置10(10B)にのみ提供するようにしてもよい。なお、実際には、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、閉域網(クローズドネットワーク:closed network)を介してセンサデータを渡してもよい。 Alternatively, the user U can compress the sensor data into a file in a format that can only be decompressed by the user on the terminal device 10 (10A), and then download and decompress the compressed file on the terminal device 10 (10B). good. For example, the terminal device 10 (10A) may encrypt sensor data with a private key, and provide the encrypted sensor data and the public key only to the terminal device 10 (10B). Note that, in reality, the terminal device 10 (10A) of the first user U (U1) connects to the terminal device 10 (10B) of the second user U (U2) via a closed network. ) may be used to pass sensor data.

このように、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。 In this way, the method of transmitting/sharing sensor data between devices owned by each user U may be P2P, home LAN (home hub format), or file compression type.

ここで、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する際に、第1の利用者U(U1)の端末装置10(10A)と第2の利用者U(U2)の端末装置10(10B)との間で認証を行うようにしてもよい。認証は、FIDO(Fast Identity Online)認証であってもよい。そして、認証に成功した場合にのみ、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。なお、送信されるセンサデータを暗号化して伝送することは技術常識の範疇で可能である。 Here, when transmitting/sharing sensor data between devices owned by each user U, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10A) of the second user U (U2) Authentication may be performed with the terminal device 10 (10B). The authentication may be FIDO (Fast Identity Online) authentication. Then, only when the authentication is successful, the terminal device 10 (10A) of the first user U (U1) transmits the sensor data to the terminal device 10 (10B) of the second user U (U2). . Note that it is possible to encrypt and transmit the sensor data to be transmitted within the scope of common technical knowledge.

また、実際には、第2の利用者U(U2)の端末装置10(10B)も、第1の利用者U(U1)の端末装置10(10A)へ、自身のセンサデータを伝送することができる。すなわち、端末間でのセンサデータの伝送は、一方向ではなく双方向で行うことができる。この場合、第1の利用者U(U1)の端末装置10(10A)も、第2の利用者U(U2)の端末装置10(10B)と同様の処理を行う。 In fact, the terminal device 10 (10B) of the second user U (U2) also transmits its own sensor data to the terminal device 10 (10A) of the first user U (U1). I can do it. That is, the transmission of sensor data between terminals can be performed bidirectionally rather than unidirectionally. In this case, the terminal device 10 (10A) of the first user U (U1) also performs the same process as the terminal device 10 (10B) of the second user U (U2).

さらに、各利用者Uの端末装置10の間で、センサデータだけでなく、学習済みのモデルも共有してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、当該センサデータだけでなく、当該センサデータを学習データとして学習したモデルを伝送してもよい。 Furthermore, not only sensor data but also learned models may be shared between the terminal devices 10 of each user U. For example, the terminal device 10 (10A) of the first user U (U1) learns not only the sensor data but also the sensor data to the terminal device 10 (10B) of the second user U (U2). The learned model may be transmitted as data.

本実施形態では、各利用者Uの端末装置10のうち、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する(ステップS7)。 In this embodiment, among the terminal devices 10 of each user U, the terminal device 10 (10B) of the second user U (U2) is the terminal device 10 (10A) of the first user U (U1). The sensor data of the terminal device 10 (10B) of the second user U (U2) are compared (step S7).

ここで、比較の対象となるセンサデータは、同じ(又は近い)時間及び位置で計測されたセンサデータ(すなわち、位置情報やロケーション履歴が共通のセンサデータ)であることが望ましい。そのため、第2の利用者U(U2)の端末装置10(10B)は、位置情報を基準として、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する。この場合、位置情報とセンサデータとは紐づけられている。なお、時間情報をキーとして位置情報とセンサデータとが紐づけられていてもよい。また、実際には、センサデータの中に、測位された位置情報と、他のセンサでの計測データとが含まれていてもよい。 Here, it is desirable that the sensor data to be compared be sensor data measured at the same (or close) time and location (that is, sensor data having common position information and location history). Therefore, the terminal device 10 (10B) of the second user U (U2) uses the sensor data of the terminal device 10 (10A) of the first user U (U1) and the second The sensor data of the terminal device 10 (10B) of the user U (U2) is compared. In this case, position information and sensor data are linked. Note that position information and sensor data may be linked using time information as a key. Furthermore, in reality, the sensor data may include measured position information and measurement data from other sensors.

但し、利用者Uの端末装置10は、リアルタイムのセンサデータを使用する場合には、位置情報や時間情報に関係なく、収集した時点での自他のリアルタイムのセンサデータを比較してもよい。 However, when using real-time sensor data, the terminal device 10 of the user U may compare real-time sensor data of itself and others at the time of collection, regardless of location information or time information.

続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータに含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、当該端末装置10(10B)のセンサデータよりも精度の高いデータ(より高性能なセンサの計測データ)を採用する(ステップS8)。 Subsequently, the second user U (U2)'s terminal device 10 (10B) reads the sensor data of the first user U (U1)'s terminal device 10 (10A) from the sensor data of the terminal device 10 (10B). data that is not included in the sensor data of the terminal device (measurement data of a sensor not installed in the terminal device) or data that is more accurate than the sensor data of the terminal device 10 (10B) (measurement data of a sensor with higher performance). ) is adopted (step S8).

このとき、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、当該端末装置10(10B)のセンサデータとの差分から、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。例えば、端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータから欠落しているデータや、当該端末装置10(10B)のセンサデータよりも数値の小数点以下の桁数が多いデータ(詳細なデータ)等を採用してもよい。 At this time, the second user U (U2)'s terminal device 10 (10B) receives the sensor data of the first user U (U1)'s terminal device 10 (10A) and the terminal device 10 (10B). Based on the difference with the sensor data, data that is not included in the sensor data of the terminal device 10 (10B) or data that is more accurate than the sensor data of the terminal device 10 (10B) may be determined. For example, the terminal device 10 (10B) collects data that is missing from the sensor data of the terminal device 10 (10B) among the sensor data of the terminal device 10 (10A) of the first user U (U1), Data (detailed data) having a larger number of digits after the decimal point than the sensor data of the terminal device 10 (10B) may be adopted.

あるいは、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータとともに、端末装置10(10A)に関する情報を取得し、端末装置10(10A)に関する情報と、当該端末装置10(10B)に関する情報とに基づいて、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。端末装置10に関する情報は、例えば端末装置10の機種情報や、端末装置10に搭載されているセンサに関する情報等である。 Alternatively, the terminal device 10 (10B) of the second user U (U2) transmits information regarding the terminal device 10 (10A) along with the sensor data of the terminal device 10 (10A) of the first user U (U1). Based on the information about the terminal device 10 (10A) and the information about the terminal device 10 (10B), data not included in the sensor data of the terminal device 10 (10B) and information about the terminal device 10 (10B) are acquired. Data with higher precision than the sensor data in 10B) may be determined. The information regarding the terminal device 10 is, for example, model information of the terminal device 10, information regarding a sensor installed in the terminal device 10, and the like.

続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとのうち、採用されたセンサデータを学習データとしてオンデバイス機械学習を行い、学習結果に基づいて推論する(ステップS9)。 Subsequently, the terminal device 10 (10B) of the second user U (U2) receives the sensor data of the terminal device 10 (10A) of the first user U (U1) and the second user U (U2). ), on-device machine learning is performed using the adopted sensor data as learning data, and inference is made based on the learning results (step S9).

これにより、利用者Uの端末装置10は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。特に、自身の端末装置にはないセンサを持つ他の端末装置のセンサデータを用いて学習することができる。また、自他の端末装置のセンサデータを比較してより優れたセンサデータを用いて学習することができる。 Thereby, the terminal device 10 of the user U can share sensor data among the individual terminal devices that perform machine learning and learn using the sensor data of other terminal devices. In particular, learning can be performed using sensor data from other terminal devices that have sensors that are not present in the own terminal device. Furthermore, by comparing the sensor data of one's own and other terminal devices, it is possible to learn using better sensor data.

なお、上記の説明では、自他のセンサデータを比較し、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用しているが、実際には、比較せずに自他のセンサデータをそのまま全て学習データとして用いて機械学習をしてもよい。 In addition, in the above description, the sensor data of one's own and other devices are compared, and data not included in the sensor data of the terminal device 10 among the sensor data collected from the other terminal device 10 and the sensor data of the terminal device 10 are compared. Although data with higher accuracy than the data is used, in reality, machine learning may be performed using all sensor data of own and others as learning data without comparison.

また、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には、自己のセンサデータのみを学習データとして用いて機械学習を実施する。あるいは、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には機械学習を実施せず、他の端末装置10からセンサデータを収集できた場合にのみ上記の手順で機械学習を実施するようにしてもよい。 Furthermore, when the terminal device 10 of the user U cannot collect sensor data from other terminal devices 10, the terminal device 10 of the user U performs machine learning using only its own sensor data as learning data. Alternatively, the terminal device 10 of the user U does not perform machine learning if sensor data cannot be collected from other terminal devices 10, and performs the above procedure only if sensor data can be collected from other terminal devices 10. Machine learning may also be performed using

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。図2では、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを示す。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the information providing apparatus 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and an information providing device 100. In FIG. 2, as the terminal devices 10, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2) are shown. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを1台ずつ示したが、これはあくまでも例示であって限定されるものではなく、それぞれ2台以上であってもよい。例えば、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とは、利用者ごとに存在していてもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, for simplification of illustration, the terminal device 10 is the terminal device 10 (10A) of the first user U (U1), and the terminal device 10 (10A) of the second user U (U2). 10B) are shown one by one, but this is just an example and is not limiting, and there may be two or more of each. For example, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2) may exist for each user.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス、スマートスピーカ、カメラ等である。但し、実際には、これらの例に限定されない。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 may be a smart device such as a smartphone or a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a game console or AV device with a communication function, a car navigation system, a smart watch, or the like. These include wearable devices such as head-mounted displays, smart glasses, smart speakers, cameras, etc. However, in reality, it is not limited to these examples.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。 The terminal device 10 also supports wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation), Bluetooth (registered trademark), and wireless LAN (Local It is possible to connect to a network N via short-distance wireless communication such as a local area network) and communicate with the information providing device 100.

情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。 The information providing device 100 is, for example, a PC, a server device, a mainframe, a workstation, or the like. Note that the information providing device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 3. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a positioning section 14, a sensor section 20, a control section 30 (controller), and a storage section 40. Be prepared.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the information providing device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) sent from a GPS (Global Positioning System) satellite, and based on the received signal, determines position information (for example, latitude and longitude). That is, the positioning unit 14 positions the terminal device 10 . Note that GPS is just one example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the terminal device 10 to measure the position as an auxiliary positioning means for position correction and the like, as described below.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication, etc., and determines the position of the terminal device 10 by measuring the distance to nearby base stations and access points.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected by a Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at station ticket gates, stores, etc., or has a function to read an RFID tag. In this case, the location where the terminal device 10 used the terminal device 10 is recorded together with the information that the payment was made. The positioning unit 14 may measure the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the terminal device 10 using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(sensor section 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. Note that the connection may be a wired connection or a wireless connection. For example, the sensors may be a detection device other than the terminal device 10, such as a wearable device or a wireless device. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 Note that each of the sensors 21 to 28 described above is merely an example and is not limited to the above. That is, the sensor section 20 may be configured to include a portion of each of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or instead of each of the sensors 21 to 28. .

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the terminal device 10, such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects physical movements of the terminal device 10 such as tilt in three axes directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 is equipped with the above-mentioned acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., it is possible to implement technologies such as pedestrian autonomous navigation (PDR) using these sensors 21 to 23, etc. It becomes possible to measure the position of the terminal device 10 using the . This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the gyro sensor 22, it is possible to know the direction of travel of the user U, the direction of the line of sight, and the inclination of the user's body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is also possible to know the altitude and the number of floors where the terminal device 10 of the user U is located.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sounds around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, the earth's magnetism around the terminal device 10. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned atmospheric pressure sensor 23, temperature sensor 24, sound sensor 25, optical sensor 26, and image sensor 28 each detect atmospheric pressure, temperature, sound, and illuminance, and capture images of the surroundings, so that the terminal device 10 It is possible to detect the surrounding environment and situation. Furthermore, it is possible to improve the accuracy of the location information of the terminal device 10 based on the environment and situation around the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33、学習部34と、取得部35と、比較部36と、採用部37とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31 , a receiving section 32 , a processing section 33 , a learning section 34 , an acquiring section 35 , a comparing section 36 , and a recruiting section 37 .

(送信部31)
送信部31は、通信部11を介して、オンデバイス機械学習に基づく推論の結果として得られた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する。
(Transmission unit 31)
The transmitting unit 31 transmits the inference result obtained as a result of inference based on on-device machine learning and the difference parameter from the shared model obtained as a result of learning to the information providing apparatus 100 (server) via the communication unit 11. side).

また、送信部31は、通信部11を介して、又は近距離無線通信により、自身が収集したセンサデータを他の利用者Uが所有する他の端末装置10に送信する。例えば、送信部31は、当該端末装置10が第1の利用者U(U1)の端末装置10(10A)である場合、通信部11を介して、又は近距離無線通信により、自身の端末装置10(10A)が収集したセンサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。 Further, the transmitting unit 31 transmits the sensor data collected by itself to another terminal device 10 owned by another user U via the communication unit 11 or by short-range wireless communication. For example, if the terminal device 10 is the terminal device 10 (10A) of the first user U (U1), the transmitting section 31 transmits the information to the own terminal device via the communication section 11 or by short-range wireless communication. 10 (10A) transmits the collected sensor data to the terminal device 10 (10B) of the second user U (U2).

すなわち、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。例えば、送信部31は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、センサデータを学習データとして学習したモデルを送信してもよい。 That is, the transmitting unit 31 transmits sensor data collected by the sensor installed in the terminal device 10 to another terminal device 10 owned by another user U via the communication unit 11. For example, the transmitter 31 transmits sensor data collected by a sensor installed in the terminal device 10 to another terminal device 10 having a different number of sensors or performance than the terminal device 10 via the communication unit 11. Send. Further, the transmitting unit 31 may transmit the learned model using the sensor data as learning data to another terminal device 10 owned by another user U via the communication unit 11.

また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。 In addition, the transmitting unit 31 transmits the information to another terminal device 10 owned by another user U through the communication unit 11 using P2P, a home LAN, or a closed network without leaking the information to the outside. Sensor data collected by a sensor mounted on the terminal device 10 is transmitted.

(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される共有モデルを受信する。また、受信部32は、通信部11を介して、情報提供装置100から、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を受信する。
(Receiving unit 32)
The receiving unit 32 receives the shared model provided from the information providing device 100 via the communication unit 11 . The receiving unit 32 also receives the revised shared model (or the difference parameter from the previous shared model) from the information providing device 100 via the communication unit 11 .

また、受信部32は、通信部11を介して、又は近距離無線通信により、他の利用者Uが所有する他の端末装置10からセンサデータを受信する。例えば、受信部32は、当該端末装置10が第2の利用者U(U2)の端末装置10(10B)である場合、通信部11を介して、又は近距離無線通信により、第1の利用者U(U1)の端末装置10(10A)のセンサデータを受信する。 Further, the receiving unit 32 receives sensor data from another terminal device 10 owned by another user U via the communication unit 11 or by short-range wireless communication. For example, when the terminal device 10 is the terminal device 10 (10B) of the second user U (U2), the receiving section 32 receives the first usage information via the communication section 11 or by short-range wireless communication. The sensor data of the terminal device 10 (10A) of the person U (U1) is received.

すなわち、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、センサデータを学習データとして学習したモデルを受信してもよい。 That is, the receiving unit 32 receives sensor data collected by a sensor installed in another terminal device 10 from another terminal device 10 owned by another user U via the communication unit 11. The receiving unit 32 also receives sensor data collected by sensors installed in the other terminal device 10 from another terminal device 10 having a different number of sensors or performance from the terminal device 10 through the communication unit 11. receive. Further, the receiving unit 32 may receive a model learned using sensor data as learning data from another terminal device 10 owned by another user U via the communication unit 11.

また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。 In addition, the receiving unit 32 can receive information from other terminal devices 10 owned by other users U through the communication unit 11 using P2P, home LAN, or closed network without leaking to the outside. The sensor data collected by the sensor installed in the terminal device 10 is received.

このように、受信部32は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。このとき、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信してもよい。また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信してもよい。 In this way, the receiving unit 32 receives other person's sensor data collected by the sensor of the other terminal device 10 from the other terminal device 10 owned by the other user U. At this time, the receiving unit 32 may receive other person's sensor data collected by the sensor of the other terminal device 10 from the other terminal device 10 via short-range wireless communication or a LAN in the same campus. Further, the receiving unit 32 may receive other person's sensor data collected in real time by the sensor of the other terminal device 10 from the other terminal device 10 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12 and the like. For example, the processing unit 33 can output various types of information transmitted by the transmitting unit 31 and various types of information received by the receiving unit 32 from the information providing device 100 to the display unit 12 for display.

また、処理部33は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)に基づいて、現在の共有モデルを更新してグレードアップする。 Furthermore, the processing unit 33 updates and upgrades the current shared model based on the corrected shared model (or the difference parameter from the previous shared model).

(学習部34)
学習部34は、共有モデルをベースとして、端末装置10のセンサデータを学習データとしてオンデバイス機械学習を行う。これにより、学習部34は、共有モデルをベースとした独自の推論モデルを構築し、推論モデルと共有モデルとの差分パラメータを生成する。すなわち、学習部34は、センサデータを学習データとして機械学習を行う。
(Learning Department 34)
The learning unit 34 performs on-device machine learning based on the shared model and using sensor data of the terminal device 10 as learning data. Thereby, the learning unit 34 constructs a unique inference model based on the shared model, and generates a difference parameter between the inference model and the shared model. That is, the learning unit 34 performs machine learning using sensor data as learning data.

本実施形態では、学習部34は、他者センサデータを学習データとして機械学習を行う。例えば、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。このとき、学習部34は、自己センサデータと他者センサデータとのうち採用されたセンサデータを学習データとして機械学習を行う。 In this embodiment, the learning unit 34 performs machine learning using other person's sensor data as learning data. For example, the learning unit 34 performs machine learning using self-sensor data and other-person sensor data as learning data. At this time, the learning unit 34 performs machine learning using the adopted sensor data among the own sensor data and the other person's sensor data as learning data.

(取得部35)
取得部35は、利用者Uが所有する端末装置10に搭載されたセンサによりセンサデータを収集する。すなわち、取得部35は、当該端末装置10のセンサにより自己センサデータを収集する。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等を、センサデータとして収集する。
(Acquisition unit 35)
The acquisition unit 35 collects sensor data using a sensor installed in the terminal device 10 owned by the user U. That is, the acquisition unit 35 collects self-sensor data using the sensor of the terminal device 10 . For example, the acquisition unit 35 receives various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, and information obtained by the positioning unit 14. The position information of the terminal device 10 that has been positioned is collected as sensor data.

(比較部36)
比較部36は、自己センサデータと他者センサデータとを比較する。このとき、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較してもよい。
(Comparison section 36)
The comparison unit 36 compares self-sensor data and other-person sensor data. At this time, the comparison unit 36 may compare the own sensor data and the other person's sensor data using the position information as a reference.

(採用部37)
採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する。このとき、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。例えば、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。
(Recruitment Department 37)
The hiring unit 37 adopts one of the self-sensor data and the other person's sensor data (preferred sensor data) according to the comparison result. At this time, the hiring unit 37 adopts other person's sensor data that includes data that is not included in the self-sensor data. For example, the recruitment unit 37 employs other person sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned. Further, the hiring unit 37 adopts other person's sensor data that is more accurate than the self-sensor data.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.

本実施形態では、記憶部40は、モデル41と、自己センサデータ42と、他者センサデータ43と、採用規則44とを記憶する。 In this embodiment, the storage unit 40 stores a model 41, self-sensor data 42, other-person sensor data 43, and employment rules 44.

モデル41は、情報提供装置100から提供された共有モデルや、センサデータを学習データとしてオンデバイス機械学習を行った結果として得られた推論モデル等である。 The model 41 is a shared model provided by the information providing device 100, an inference model obtained as a result of on-device machine learning using sensor data as learning data, or the like.

また、自己センサデータ42は、当該端末装置10により収集されたセンサデータである。例えば、自己センサデータ42は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等である。また、自己センサデータ42は、利用者Uの属性情報や、利用者Uの行動を示す各種履歴情報(ログデータ)を含んでいてもよい。また、自己センサデータ42は、利用者Uの端末装置10に関する各種情報を含んでいてもよい。 Further, the self-sensor data 42 is sensor data collected by the terminal device 10. For example, the self-sensor data 42 includes various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, and the positioning unit 14. This is the position information of the terminal device 10 determined by the above. Further, the self-sensor data 42 may include attribute information of the user U and various kinds of history information (log data) indicating the user U's actions. Further, the self-sensor data 42 may include various information regarding the terminal device 10 of the user U.

また、他者センサデータ43は、他の利用者Uが所有する他の端末装置10から収集したセンサデータである。すなわち、他者センサデータ43は、他の利用者Uが所有する他の端末装置10により収集されたセンサデータである。 Further, the other person's sensor data 43 is sensor data collected from another terminal device 10 owned by another user U. That is, the other person's sensor data 43 is sensor data collected by another terminal device 10 owned by another user U.

また、採用規則44は、自己センサデータ42と、他者センサデータ43とのいずれか一方を採用する際の規則(ルール)を示す。例えば、他者センサデータ43のうち、自己センサデータ42に含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、自己センサデータ42よりも精度の高いデータ(より高性能なセンサの計測データ)を採用するといった規則を示す。なお、採用規則44は、他者センサデータ43(及び自己センサデータ42)と採用されたセンサデータとを学習データとした機械学習により得られた採用モデルであってもよい。この場合、他者センサデータ43(及び自己センサデータ42)を入力データとして採用モデルに入力することで、出力として得られたセンサデータを採用してもよい。 Further, the adoption rule 44 indicates a rule when either one of the self-sensor data 42 and the other-person sensor data 43 is adopted. For example, out of the other person's sensor data 43, data that is not included in the self-sensor data 42 (measurement data of a sensor not installed in the terminal device) or data that is more accurate than the self-sensor data 42 (higher performance rules such as adopting sensor measurement data). Note that the adoption rule 44 may be an adoption model obtained by machine learning using other person's sensor data 43 (and self-sensor data 42) and adopted sensor data as learning data. In this case, the sensor data obtained as output may be adopted by inputting the other person's sensor data 43 (and the self-sensor data 42) as input data to the adopted model.

なお、記憶部40は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、記憶部40は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、記憶部40は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、記憶部40は、利用者Uの位置や日時の履歴である位置履歴、利用者Uが入力した検索クエリの履歴である検索履歴、利用者Uが閲覧したコンテンツの履歴である閲覧履歴、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴、利用者Uの投稿の履歴である投稿履歴等を記憶してもよい。また、記憶部40は、利用者Uが端末装置10にインストールした各種アプリの利用履歴や、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。これらの情報は、センサデータとともに学習データとして使用可能である。 Note that the storage unit 40 is not limited to the above, and may store various information depending on the purpose. For example, the storage unit 40 stores attributes such as demographic, psychographic, geographical, and behavioral attributes of the user U. Information may also be stored. For example, the storage unit 40 stores name, family structure, place of birth (locality), occupation, position, income, qualifications, residence type (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting route, etc. Even if you memorize information such as commuter pass sections (stations, routes, etc.), frequently used stations (other than the stations closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. good. The storage unit 40 also stores a location history that is a history of the location and date and time of the user U, a search history that is a history of search queries input by the user U, a viewing history that is a history of contents viewed by the user U, Purchase history (payment history), which is the history of user U's product purchases and payment processing, listing history and sales history, which is the history of user U's listings on the marketplace, and posting history, which is the history of user U's posts. etc. may be stored. Further, the storage unit 40 may store the usage history of various applications installed on the terminal device 10 by the user U, the payment history of the user U's payments (electronic payments) using the terminal device 10, etc. . This information can be used as learning data together with sensor data.

〔4.処理手順〕
次に、図4を用いて実施形態に係る端末装置10による処理手順について説明する。図4は、実施形態に係る処理手順を示すシーケンス図である。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。ここでは、端末装置10と表記した処理は、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とに共通の処理を示す。
[4. Processing procedure]
Next, a processing procedure by the terminal device 10 according to the embodiment will be described using FIG. 4. FIG. 4 is a sequence diagram showing the processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10. Here, the process expressed as terminal device 10 is common to the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2). Indicates processing.

図4に示すように、端末装置10の取得部35は、当該端末装置10に搭載されたセンサによりセンサデータ(自己センサデータ)を収集する(ステップS101)。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、当該端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された当該端末装置10の位置情報等を、センサデータとして収集する。 As shown in FIG. 4, the acquisition unit 35 of the terminal device 10 collects sensor data (self-sensor data) using the sensor installed in the terminal device 10 (step S101). For example, the acquisition unit 35 receives various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, and the positioning unit 14. The position information of the terminal device 10 determined by the above is collected as sensor data.

続いて、端末装置10の送信部31は、通信部11を介して、センサデータを他の利用者Uの所有する他の端末装置10に送信する(ステップS102)。例えば、第1の利用者U(U1)の端末装置10(10A)の送信部31は、通信部11を介して、センサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。このとき、端末装置10Bの受信部32は、通信部11を介して、端末装置10Aのセンサデータ(他者センサデータ)を受信する。逆も同様である。すなわち、端末装置10Aと端末装置10Bとの間でセンサデータを共有する。なお、端末装置10の処理部33は、センサデータを暗号化してもよい。この場合、送信部31は、暗号化されたセンサデータとともに、復号鍵(公開鍵等)を他の端末装置10に送信してもよい。また、デバイス間でセンサデータを伝送する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。 Subsequently, the transmitting unit 31 of the terminal device 10 transmits the sensor data to another terminal device 10 owned by another user U via the communication unit 11 (step S102). For example, the transmitting unit 31 of the terminal device 10 (10A) of the first user U (U1) transmits sensor data to the terminal device 10 (10B) of the second user U (U2) via the communication unit 11. Send to. At this time, the receiving unit 32 of the terminal device 10B receives the sensor data (other person's sensor data) of the terminal device 10A via the communication unit 11. The same is true vice versa. That is, sensor data is shared between the terminal device 10A and the terminal device 10B. Note that the processing unit 33 of the terminal device 10 may encrypt the sensor data. In this case, the transmitter 31 may transmit a decryption key (such as a public key) to the other terminal device 10 along with the encrypted sensor data. Furthermore, the method of transmitting sensor data between devices may be P2P, home LAN (home hub format), or file compression type.

続いて、端末装置10の比較部36は、自己センサデータと他者センサデータとを比較する(ステップS103)。このとき、比較部36は、位置情報に基づいて、自己センサデータと他者センサデータとを比較してもよい。なお、比較部36は、近距離無線通信又は同一構内のLANを介して他者センサデータを受信した場合や、リアルタイムに収集されたセンサデータを比較する場合には、位置情報に関係なく、自己センサデータと他者センサデータとをそのまま比較してもよい。 Subsequently, the comparison unit 36 of the terminal device 10 compares the self-sensor data and the other person's sensor data (step S103). At this time, the comparison unit 36 may compare the own sensor data and the other person's sensor data based on the position information. Note that when receiving sensor data from another person via short-range wireless communication or LAN within the same campus, or when comparing sensor data collected in real time, the comparing unit The sensor data and the other person's sensor data may be directly compared.

続いて、端末装置10の採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する(ステップS104)。例えば、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。具体的には、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。本実施形態では、採用部37は、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用する。 Subsequently, the adoption unit 37 of the terminal device 10 adopts one of the self-sensor data and the other person's sensor data (preferred sensor data) according to the comparison result (step S104). For example, the hiring unit 37 adopts other person's sensor data that includes data that is not included in the self-sensor data. Specifically, the recruitment unit 37 employs other person sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned. Further, the hiring unit 37 adopts other person's sensor data that is more accurate than the self-sensor data. In the present embodiment, the recruitment unit 37 selects data that is not included in the sensor data of the terminal device 10 from among the sensor data collected from other terminal devices 10 or data that is more accurate than the sensor data of the terminal device 10. Embrace data.

続いて、端末装置10Aの学習部34は、共有モデルをベースとして、採用されたセンサデータを学習データとしてオンデバイス機械学習を行う(ステップS105)。なお、端末装置10Aの受信部32は、通信部11を介して、情報提供装置100(サーバ側)から提供された共有モデルを受信してもよい。また、端末装置10Aの送信部31は、通信部11を介して、学習結果としての共有モデルとの差分パラメータや、推論結果を情報提供装置100(サーバ側)に送信してもよい。本実施形態では、学習部34は、比較結果に応じて採用されたセンサデータを学習データとしてオンデバイス機械学習を行っているが、実際には、比較結果に関係なく、自他のセンサデータをそのまま全て学習データとして用いて学習してもよい。 Subsequently, the learning unit 34 of the terminal device 10A performs on-device machine learning based on the shared model and using the adopted sensor data as learning data (step S105). Note that the receiving unit 32 of the terminal device 10A may receive the shared model provided from the information providing device 100 (server side) via the communication unit 11. Further, the transmitting unit 31 of the terminal device 10A may transmit the difference parameters with respect to the shared model as learning results and the inference results to the information providing device 100 (server side) via the communication unit 11. In the present embodiment, the learning unit 34 performs on-device machine learning using the sensor data adopted according to the comparison result as learning data, but in reality, the learning unit 34 performs on-device machine learning using the sensor data adopted according to the comparison result. All of the data may be used as learning data for learning.

〔5.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[5. Modified example]
The terminal device 10 and the information providing device 100 described above may be implemented in various different forms other than the above embodiments. Therefore, a modification of the embodiment will be described below.

上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、情報提供装置100を備えているともいえる。 In the above embodiment, part or all of the processing executed by the information providing device 100 may actually be executed by the terminal device 10. For example, the process may be completed stand-alone (by the terminal device 10 alone). In this case, it is assumed that the terminal device 10 has the functions of the information providing device 100 in the above embodiment. Furthermore, in the embodiment described above, since the terminal device 10 cooperates with the information providing device 100, it appears to the user U that the terminal device 10 also executes the processing of the information providing device 100. That is, from another perspective, it can be said that the terminal device 10 includes the information providing device 100.

また、上記の実施形態において、機械学習を行う個々の端末装置間でセンサデータを共有する事例について説明しているが、実際には、利用者Uの端末装置10は、他の利用者が所有する他の端末装置以外の外部装置からセンサデータを取得してもよい。例えば、利用者Uの端末装置10は、街頭や店頭に設置された固定端末装置からセンサデータを取得してもよいし、街中を移動する車両等の移動体からセンサデータを取得してもよい。街頭や店頭に設置された固定端末装置の例として、店頭設置端末、デジタルサイネージ(電子看板)、基地局又はアクセスポイント等がある。この場合、これらの外部装置が、他の利用者が所有する他の端末装置に相当する。 Furthermore, although the above embodiment describes a case in which sensor data is shared between individual terminal devices that perform machine learning, in reality, the terminal device 10 of user U is owned by another user. Sensor data may be acquired from an external device other than the other terminal device. For example, the terminal device 10 of the user U may acquire sensor data from a fixed terminal device installed on the street or in a store, or may acquire sensor data from a mobile object such as a vehicle moving around the city. . Examples of fixed terminal devices installed on streets or in stores include terminals installed in stores, digital signage (electronic signboards), base stations, access points, and the like. In this case, these external devices correspond to other terminal devices owned by other users.

また、上記の実施形態において、端末装置10は、オンデバイスAI(Artificial Intelligence:人工知能)によりカメラ機能の高機能化を実現したスマートフォン等であってもよい。また、端末装置10は、オンデバイスAIを搭載したロボットや自動運転車、ドローン等であってもよい。 Furthermore, in the above embodiment, the terminal device 10 may be a smartphone or the like that has a highly functional camera function using on-device AI (Artificial Intelligence). Further, the terminal device 10 may be a robot, a self-driving car, a drone, etc. equipped with on-device AI.

〔6.効果〕
上述してきたように、本願に係る端末装置10は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する受信部32と、他者センサデータを学習データとして機械学習を行う学習部34と、を備えることを特徴とする。
[6. effect〕
As described above, the terminal device 10 according to the present application has a reception unit 32 that receives other person sensor data collected by the sensor of the other terminal device 10 from another terminal device 10 owned by another user U. and a learning unit 34 that performs machine learning using other person's sensor data as learning data.

また、本願に係る端末装置10は、利用者Uが所有する当該端末装置10のセンサにより自己センサデータを収集する取得部35と、をさらに備える。そして、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。 The terminal device 10 according to the present application further includes an acquisition unit 35 that collects self-sensor data using a sensor of the terminal device 10 owned by the user U. The learning unit 34 then performs machine learning using the self-sensor data and the other-person sensor data as learning data.

また、本願に係る端末装置10は、自己センサデータと他者センサデータとを比較する比較部36と、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータを採用する採用部37と、をさらに備える。そして、学習部34は、採用されたセンサデータを学習データとして機械学習を行う。 The terminal device 10 according to the present application also includes a comparison unit 36 that compares self-sensor data and other-person sensor data, and sensor data of one of the self-sensor data and other-person sensor data according to the comparison result. The system further includes a recruitment section 37 that employs. The learning unit 34 then performs machine learning using the adopted sensor data as learning data.

また、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較する。 Furthermore, the comparison unit 36 compares the own sensor data and the other person's sensor data using the position information as a reference.

また、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。 Further, the hiring unit 37 adopts other person's sensor data that includes data that is not included in the self-sensor data.

また、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。 Further, the recruitment unit 37 employs other person sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned.

また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。 Further, the hiring unit 37 adopts other person's sensor data that is more accurate than the self-sensor data.

また、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。 Further, the receiving unit 32 receives other person's sensor data collected by the sensor of the other terminal device 10 from the other terminal device 10 via short-range wireless communication or a LAN in the same campus.

また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信する。 The receiving unit 32 also receives other person sensor data collected in real time by the sensors of the other terminal devices 10 from the other terminal devices 10 .

上述した各処理のいずれかもしくは組合せにより、本願に係る端末装置は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 By using any one or a combination of the above-described processes, the terminal device according to the present application can share sensor data among individual terminal devices that perform machine learning, and can learn using the sensor data of other terminal devices.

〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置10を例に挙げて説明する。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Further, the terminal device 10 and the information providing device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. The following will explain the terminal device 10 as an example. FIG. 5 is a diagram showing an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface) and HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by, for example, a USB or the like.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部30の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the terminal device 10, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 30 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Furthermore, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the control section can be read as a control means or a control circuit.

1 情報処理システム
10 端末装置
11 通信部
14 測位部
20 センサ部
30 制御部
31 送信部
32 受信部
33 処理部
34 学習部
35 取得部
36 比較部
37 採用部
40 記憶部
100 情報提供装置
1 Information processing system 10 Terminal device 11 Communication unit 14 Positioning unit 20 Sensor unit 30 Control unit 31 Transmission unit 32 Receiving unit 33 Processing unit 34 Learning unit 35 Acquisition unit 36 Comparison unit 37 Recruitment unit 40 Storage unit 100 Information providing device

Claims (11)

利用者が所有する端末装置であって、
当該端末装置のセンサにより自己センサデータを収集する取得部と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、
前記自己センサデータと前記他者センサデータとを比較する比較部と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用部と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用部により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習部と、
前記推論モデルを利用して入力データから推論を行う推論部と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信部と、
を備えることを特徴とする端末装置。
A terminal device owned by a user,
an acquisition unit that collects self-sensor data using a sensor of the terminal device;
a receiving unit that receives other person's sensor data collected by the sensor of the other terminal device from another terminal device owned by another user;
a comparison unit that compares the self-sensor data and the other-person sensor data;
a hiring unit that adopts sensor data that is measured by a higher-performance sensor and has higher accuracy than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Perform on-device machine learning based on a shared model provided by an information providing device that employs federated learning, using sensor data adopted by the hiring unit among the self-sensor data and other-person sensor data as learning data. a learning unit that constructs a unique inference model by doing so, and generates a difference parameter between the inference model and the shared model ;
an inference unit that performs inference from input data using the inference model;
a transmitting unit that transmits an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
A terminal device comprising:
前記比較部は、リアルタイムのセンサデータを使用しない場合には、センサデータに紐づけられた位置情報及び時間情報を基準として、同じ又は近い時間及び位置で計測された前記自己センサデータと前記他者センサデータとを比較し、
リアルタイムのセンサデータを使用する場合には、位置情報や時間情報に関係なく、収集した時点でのリアルタイムの前記自己センサデータと前記他者センサデータとを比較する
ことを特徴とする請求項に記載の端末装置。
When real-time sensor data is not used, the comparison unit compares the self-sensor data and the other person measured at the same or close time and position based on the position information and time information linked to the sensor data. Compare with sensor data ,
When real-time sensor data is used, the real-time self-sensor data and the other-person sensor data at the time of collection are compared, regardless of location information or time information . The terminal device described.
前記採用部は、当該端末装置とは機種あるいは搭載されているセンサの種類や性能が異なる前記他の端末装置から受信した前記他者センサデータであって、前記自己センサデータに含まれていないデータ、前記自己センサデータから欠落しているデータ、又は前記自己センサデータよりも数値の小数点以下の桁数が多いデータを有する前記他者センサデータを採用する
ことを特徴とする請求項又はに記載の端末装置。
The recruitment department collects the other person's sensor data received from the other terminal device which has a different model or the type and performance of the installed sensor from the terminal device and which is not included in the self-sensor data. , employing the other person's sensor data having data missing from the self-sensor data or data having more digits after the decimal point than the self-sensor data . The terminal device described.
前記受信部は、当該端末装置と近距離無線通信で通信可能なほど近くに存在する前記他の端末装置から、前記他の端末装置のセンサにより収集された前記他者センサデータを近距離無線通信で受信することで、収集時点でのセンサデータが当該端末装置と共通であると推測される前記他の端末装置から前記他者センサデータを受信する
ことを特徴とする請求項1~のうちいずれか1つに記載の端末装置。
The receiving unit receives the sensor data of the other person collected by the sensor of the other terminal device from the other terminal device that is close enough to be able to communicate with the terminal device by short-range wireless communication. Receive the other person's sensor data from the other terminal device whose sensor data at the time of collection is presumed to be common to the terminal device.
The terminal device according to any one of claims 1 to 3 , characterized in that:
前記受信部は、同一構内のLANを介して、前記他の端末装置から、前記他の端末装置のセンサにより収集された前記他者センサデータを受信することで、前記利用者と同一構内にいる前記他の利用者が所有する前記他の端末装置から前記他者センサデータを受信する
ことを特徴とする請求項1~のうちいずれか1つに記載の端末装置。
The receiving unit is configured to receive the other person's sensor data collected by the sensor of the other terminal device from the other terminal device via a LAN in the same campus , so that the reception unit is configured to receive the other person's sensor data collected by the sensor of the other terminal device via a LAN in the same campus. receiving the other person's sensor data from the other terminal device owned by the other user;
The terminal device according to any one of claims 1 to 4 , characterized in that:
前記受信部は、当該端末装置の周囲の前記他の端末装置に、当該端末装置に搭載されていないセンサにより収集される所定のセンサデータの有無を問い合わせ、周囲の前記端末装置が前記所定のセンサデータを持っている場合に、前記所定のセンサデータを要求し、応答として前記所定のセンサデータを受信する The receiving unit inquires of the other terminal devices around the terminal device about the presence or absence of predetermined sensor data collected by a sensor not installed in the terminal device, and the surrounding terminal devices check the predetermined sensor data. If the data is available, request the predetermined sensor data and receive the predetermined sensor data as a response.
ことを特徴とする請求項1~5のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 5.
前記受信部は、希望するセンサデータと前記利用者のコンテキストとの表明を行い、前記利用者とコンテキストが類似する前記他の利用者が所有する前記他の端末装置から前記他者センサデータを受信する The receiving unit asserts desired sensor data and a context of the user, and receives the other person's sensor data from the other terminal device owned by the other user whose context is similar to that of the user. do
ことを特徴とする請求項1~6のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 6.
当該端末装置と前記他の端末装置との端末間でのセンサデータの伝送を一方向ではなく双方向で行い、端末間でセンサデータを共有する際に、当該端末装置と前記他の端末装置との端末間での認証を行う認証部 When transmitting sensor data between the terminal device and the other terminal device is not unidirectional but bidirectional, and the sensor data is shared between the terminal devices, the terminal device and the other terminal device Authentication section that performs authentication between terminals
をさらに備えることを特徴とする請求項1~7のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 7, further comprising the following.
前記送信部は、推論の結果としてられた推論結果を多次元のベクトルに変換したベクトルデータの形式で前記情報提供装置に送信し、 The transmitting unit transmits the inference result obtained as a result of the inference to the information providing device in the form of vector data obtained by converting the inference result into a multidimensional vector,
前記ベクトルデータは不可逆な情報であり、前記ベクトルデータのベクトル値から元のデータを復元することはできない The vector data is irreversible information, and the original data cannot be restored from the vector value of the vector data.
ことを特徴とする請求項1~8のうちいずれか1つに記載の端末装置。 The terminal device according to any one of claims 1 to 8.
利用者が所有する端末装置が実行する情報処理方法であって、
当該端末装置のセンサにより自己センサデータを収集する取得工程と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信工程と、
前記自己センサデータと前記他者センサデータとを比較する比較工程と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用工程と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用工程により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習工程と、
前記推論モデルを利用して入力データから推論を行う推論工程と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信工程と、
を含むことを特徴とする情報処理方法。
An information processing method executed by a terminal device owned by a user ,
an acquisition step of collecting self-sensor data using a sensor of the terminal device;
a receiving step of receiving other person's sensor data collected by the sensor of the other terminal device from another terminal device owned by another user;
a comparison step of comparing the self-sensor data and the other-person sensor data;
a hiring step of adopting sensor data that is measured by a higher-performance sensor and has higher precision than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Perform on-device machine learning based on a shared model provided by an information providing device that employs federated learning, using the sensor data adopted in the adoption process among the self-sensor data and the other- person sensor data as learning data. a learning step of constructing a unique inference model and generating a difference parameter between the inference model and the shared model ;
an inference step of inferring from input data using the inference model;
a transmission step of transmitting an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
An information processing method characterized by comprising:
利用者が所有する端末装置に実行させるための情報処理プログラムであって、
当該端末装置のセンサにより自己センサデータを収集する取得手順と、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信手順と、
前記自己センサデータと前記他者センサデータとを比較する比較手順と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうち、より高性能なセンサにより計測され、他方よりも精度の高いセンサデータを採用する採用手順と、
連合学習を採用した情報提供装置から提供された共有モデルをベースとして、前記自己センサデータと前記他者センサデータとのうち前記採用手順により採用されたセンサデータを学習データとしてオンデバイス機械学習を行うことで独自の推論モデルを構築し、前記推論モデルと前記共有モデルとの差分パラメータを生成する学習手順と、
前記推論モデルを利用して入力データから推論を行う推論手順と、
推論の結果としてられた推論結果と、学習の結果として得られた前記推論モデルと前記共有モデルとの差分パラメータとを前記情報提供装置に送信する送信手順と、
端末装置に実行させるための情報処理プログラム。
An information processing program to be executed by a terminal device owned by a user,
an acquisition procedure for collecting self-sensor data using a sensor of the terminal device;
A reception procedure for receiving other person's sensor data collected by a sensor of the other terminal device from another terminal device owned by another user;
a comparison procedure of comparing the self-sensor data and the other-person sensor data;
a hiring procedure of adopting sensor data that is measured by a higher performance sensor and has higher accuracy than the other one of the self-sensor data and the other-person sensor data according to the comparison result;
Based on a shared model provided by an information providing device that employs federated learning, on-device machine learning is performed using the sensor data adopted by the adoption procedure among the self-sensor data and the other-person sensor data as learning data. a learning procedure for constructing a unique inference model and generating a difference parameter between the inference model and the shared model ;
an inference step of inferring from input data using the inference model;
a transmission procedure of transmitting an inference result obtained as a result of inference and a difference parameter between the inference model and the shared model obtained as a result of learning to the information providing device;
An information processing program that causes a terminal device to execute
JP2021114800A 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program Active JP7353328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021114800A JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114800A JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2023011145A JP2023011145A (en) 2023-01-24
JP7353328B2 true JP7353328B2 (en) 2023-09-29

Family

ID=85120182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114800A Active JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7353328B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524711A (en) 2015-06-19 2018-08-30 株式会社Preferred Networks Cross-domain time-series data conversion apparatus, method, and system
CN111985649A (en) 2020-06-22 2020-11-24 华为技术有限公司 Data processing method and device based on federal learning
WO2021064737A1 (en) 2019-10-04 2021-04-08 Telefonaktiebolaget Lm Ericsson (Publ) Federated learning using heterogeneous model types and architectures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524711A (en) 2015-06-19 2018-08-30 株式会社Preferred Networks Cross-domain time-series data conversion apparatus, method, and system
WO2021064737A1 (en) 2019-10-04 2021-04-08 Telefonaktiebolaget Lm Ericsson (Publ) Federated learning using heterogeneous model types and architectures
CN111985649A (en) 2020-06-22 2020-11-24 华为技术有限公司 Data processing method and device based on federal learning

Also Published As

Publication number Publication date
JP2023011145A (en) 2023-01-24

Similar Documents

Publication Publication Date Title
US9857177B1 (en) Personalized points of interest for mapping applications
JP7353328B2 (en) Terminal device, information processing method, and information processing program
JP2023027548A (en) Device, method, and program for processing information
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP7291177B2 (en) Terminal device, information processing method and information processing program
JP7436436B2 (en) Information processing device, information processing method, and information processing program
JP7342079B2 (en) Information processing device, information processing method, and information processing program
JP7407152B2 (en) Information processing device, information processing method, and information processing program
JP7122432B1 (en) Information processing device, information processing method and information processing program
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7305703B2 (en) Authentication server, terminal device, key management method and key management program
JP7145247B2 (en) Information processing device, information processing method and information processing program
JP7326382B2 (en) Information processing device, information processing method and information processing program
JP7459021B2 (en) Information processing device, information processing method, and information processing program
JP7145997B2 (en) Information processing device, information processing method and information processing program
JP7193519B2 (en) Information processing device, information processing method and information processing program
JP7280227B2 (en) Information processing device, information processing method and information processing program
JP2023179878A (en) Information processing device, information processing method and information processing program
JP2024025997A (en) Information processing device, information processing method, and information processing program
JP2023043772A (en) Information processing device, information processing method, and information processing program
JP2023028857A (en) Information processing system
JP2023180322A (en) Information processing device, information processing method, and information processing program
JP2023043762A (en) Information processing device, information processing method, and information processing program
JP2023120696A (en) Information processing device, information processing method, and information processing program
JP2024042231A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350