JP2023011145A - Terminal device, information processing method, and information processing program - Google Patents

Terminal device, information processing method, and information processing program Download PDF

Info

Publication number
JP2023011145A
JP2023011145A JP2021114800A JP2021114800A JP2023011145A JP 2023011145 A JP2023011145 A JP 2023011145A JP 2021114800 A JP2021114800 A JP 2021114800A JP 2021114800 A JP2021114800 A JP 2021114800A JP 2023011145 A JP2023011145 A JP 2023011145A
Authority
JP
Japan
Prior art keywords
terminal device
sensor data
unit
data
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021114800A
Other languages
Japanese (ja)
Other versions
JP7353328B2 (en
Inventor
孝太 坪内
Kota Tsubouchi
崇史 宮崎
Takashi Miyazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021114800A priority Critical patent/JP7353328B2/en
Publication of JP2023011145A publication Critical patent/JP2023011145A/en
Application granted granted Critical
Publication of JP7353328B2 publication Critical patent/JP7353328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

To share sensor data between terminal devices for machine learning, to learn with sensor data of the other terminal devices.SOLUTION: A terminal device includes: a receiving unit which receives, from another terminal device carried by another user, other-device sensor data collected by sensors of the other terminal devices; and a learning unit which executes machine learning using the other-device sensor data as learning data. The terminal device also includes: an acquisition unit which collects device sensor data through a sensor of the terminal device carried by a user; a comparison unit which compares the device sensor data with the other-device sensor data; and an adoption unit which adopts one of the device sensor data and the other-device sensor data, in accordance with a result of the comparison. The learning unit may execute machine learning using the adopted sensor data, as learning data.SELECTED DRAWING: Figure 1

Description

本発明は、端末装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to a terminal device, an information processing method and an information processing program.

サーバ装置に機械学習させるための教師データをサーバ装置へ送る技術が開示されている。 A technique is disclosed for sending teacher data to a server device for causing the server device to perform machine learning.

特許第6880290号公報Japanese Patent No. 6880290

上記の従来技術のように、機械学習はサーバ装置によって行われるのが一般的である。しかしながら、データに個人情報が含まれている場合、企業等の外部のサーバ装置へ送るのが好ましくないこともある。また、個人情報を含むデータの送受信には様々な制限があるため、自由に送受信することが容易ではないこともある。 Machine learning is generally performed by a server device, as in the conventional technology described above. However, if the data contains personal information, it may not be desirable to send the data to an external server device such as a company. In addition, since there are various restrictions on the transmission and reception of data including personal information, it may not be easy to freely transmit and receive data.

そのため、近年、フェデレーテッドラーニング(Federated Learning:連合学習)のように、データをサーバ装置に集約せずに個々の端末装置に分散した状態で機械学習を行うオンデバイス機械学習が注目されている。しかし、端末装置の形状や性能の影響を受けるセンサデータ等を用いて個々の端末装置で機械学習を行う場合、個々のユーザが所有する端末装置の機種や、搭載されているセンサの種類や性能によって計測結果に差が生じるという問題がある。 Therefore, in recent years, attention has been focused on on-device machine learning, such as federated learning, in which data is distributed to individual terminal devices without being aggregated in a server device. . However, when machine learning is performed on individual terminal devices using sensor data that is affected by the shape and performance of the terminal device, the model of the terminal device owned by each user, the type and performance of the installed sensor, etc. There is a problem that a difference occurs in the measurement result depending on the

本願は、上記に鑑みてなされたものであって、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することを目的とする。 This application is made in view of the above, and an object of this application is to share sensor data between individual terminal devices that perform machine learning, and to learn using sensor data of other terminal devices.

本願に係る端末装置は、他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、前記他者センサデータを学習データとして機械学習を行う学習部と、を備えることを特徴とする。 A terminal device according to the present application includes a receiving unit that receives other person's sensor data collected by a sensor of the other terminal device from another terminal device owned by another user; and a learning unit that performs machine learning as a

実施形態の一態様によれば、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 According to one aspect of the embodiment, it is possible to share sensor data among individual terminal devices that perform machine learning, and to perform learning using sensor data of other terminal devices.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to the embodiment; 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to the embodiment; 図4は、実施形態に係る処理手順を示すシーケンス図である。FIG. 4 is a sequence diagram illustrating a processing procedure according to the embodiment; 図5は、ハードウェア構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a hardware configuration;

以下に、本願に係る端末装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing a terminal device, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. In addition, the terminal device, the information processing method, and the information processing program according to the present application are not limited to this embodiment. Also, in the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習する場合を例に挙げて説明する。
[1. Outline of information processing method]
First, an outline of an information processing method performed by an information processing apparatus according to an embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. Note that in FIG. 1, an example will be described in which sensor data is shared between individual terminal devices that perform machine learning, and learning is performed using sensor data from other terminal devices.

図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。 As shown in FIG. 1 , the information processing system 1 includes a terminal device 10 and an information providing device 100 . The terminal device 10 and the information providing device 100 are communicably connected to each other by wire or wirelessly via a network N (see FIG. 2).

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or tablet used by a user U (user), and communicates with an arbitrary server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). It is a portable terminal device capable of performing The terminal device 10 has a screen such as a liquid crystal display and has a touch panel function. Accepts various operations for . An operation performed on an area where content is displayed on the screen may be an operation on the content. In addition, the terminal device 10 may be an information processing device such as a desktop PC (Personal Computer) or a notebook PC as well as a smart device.

情報提供装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。 The information providing device 100 cooperates with the terminal device 10 of each user U, and provides the terminal device 10 of each user U with API (Application Programming Interface) services for various applications (hereinafter referred to as apps) and various It is an information processing device that provides data, and is realized by a server device, a cloud system, or the like.

また、情報提供装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報提供装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報提供装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Also, the information providing device 100 may be an information processing device that provides some web service online to the terminal device 10 of each user U. FIG. For example, the information providing apparatus 100 provides Web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce, electronic payment, online game, online banking, online trading, accommodation/ticket reservation, video/music distribution, Services such as news, maps, route search, route guidance, route information, operation information, and weather forecast may be provided. In practice, the information providing apparatus 100 may cooperate with various servers that provide web services as described above, mediate web services, or take charge of web service processing.

図1に示すように、本実施形態では、情報提供装置100(サーバ側)は、フェデレーテッドラーニング(Federated Learning:連合学習)を採用し、各利用者Uの端末装置10(端末側)に共有モデル(コアモデル)を提供する(ステップS1)。 As shown in FIG. 1, in the present embodiment, the information providing device 100 (server side) employs federated learning, and the terminal device 10 (terminal side) of each user U A shared model (core model) is provided (step S1).

端末装置10は、共有モデルをベースとして、当該端末装置10に搭載(又は接続)された各種センサを用いて収集したセンサデータ(利用者Uのコンテキスト情報)を学習データとしてオンデバイス機械学習を行うことでパターンを作り、そのパターンを利用して入力データから推論を行う(ステップS2)。 Based on the shared model, the terminal device 10 performs on-device machine learning using sensor data (user U's context information) collected using various sensors mounted (or connected) to the terminal device 10 as learning data. A pattern is created by this, and inference is performed from the input data using the pattern (step S2).

続いて、端末装置10は、推論の結果としてられた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する(ステップS3)。このとき、端末装置10は、推論結果を多次元のベクトルに変換(ベクトル化)したベクトルデータの形式で送信してもよい。ベクトルデータは不可逆な情報であり、ベクトルデータのベクトル値から元のデータを復元することはできない。例えば、端末装置10は、いわゆるエンベディング(embedding:埋め込み)を行い、推論結果に基づくエンベディングベクトル(埋め込みベクトル)を生成してもよい。なお、送信データであるベクトルデータを暗号化して伝送することは技術常識の範疇で可能である。また、トンネリング(tunneling)により、端末側とサーバ側との間に閉じられた仮想的な直結回線を確立してもよい。例えば、端末側とサーバ側との間にVPN(Virtual Private Network)を構築してもよい。 Subsequently, the terminal device 10 transmits the inference result obtained as the inference result and the difference parameter between the shared model obtained as the learning result to the information providing device 100 (server side) (step S3). At this time, the terminal device 10 may transmit the inference result in the form of vector data converted (vectorized) into a multidimensional vector. Vector data is irreversible information, and the original data cannot be restored from the vector values of the vector data. For example, the terminal device 10 may perform so-called embedding to generate an embedding vector based on the inference result. Encrypting and transmitting vector data, which is transmission data, is possible within the scope of common technical knowledge. Alternatively, tunneling may be used to establish a closed virtual direct line between the terminal side and the server side. For example, a VPN (Virtual Private Network) may be constructed between the terminal side and the server side.

情報提供装置100は、各利用者Uの端末装置10から受信した推論結果の集計処理を行う(ステップS4)。集計処理には、統計や分析等の演算処理が含まれる。 The information providing device 100 performs an aggregation process of the inference results received from the terminal device 10 of each user U (step S4). Aggregation processing includes arithmetic processing such as statistics and analysis.

続いて、情報提供装置100は、各利用者Uの端末装置10から受信した差分パラメータに基づいて、共有モデルを修正する(ステップS5)。そして、情報提供装置100は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を各利用者Uの端末装置10に提供する(ステップS1に戻る)。すなわち、情報提供装置100は、各利用者Uの端末装置10に提供した共有モデルを更新してグレードアップする。 Subsequently, the information providing device 100 modifies the sharing model based on the difference parameters received from the terminal device 10 of each user U (step S5). Then, the information providing device 100 provides the modified sharing model (or the difference parameter from the previous sharing model) to the terminal device 10 of each user U (returns to step S1). That is, the information providing device 100 updates and upgrades the sharing model provided to the terminal device 10 of each user U. FIG.

なお、情報提供装置100による共有モデルの更新が不要であれば、ステップS5の処理は実施しなくてもよい。この場合、ステップS3では、端末装置10は、推論結果のみ送信すればよい。 Note that if the information providing apparatus 100 does not need to update the sharing model, the process of step S5 may not be performed. In this case, in step S3, the terminal device 10 should transmit only the inference result.

このように、情報提供装置100(サーバ側)ではなく、端末装置10(端末側)がセンサデータを学習データとして機械学習を行っている場合、個々の利用者が所有する端末装置の機種や、搭載されているセンサの種類や性能等の違いによって、計測されるセンサデータにも違いが生じる場合がある。例えば、同じ場所にいる利用者や、同じ行動をとっている利用者であっても、端末装置の機種や、搭載されているセンサの種類や性能等によって、計測されるセンサデータの数や精度は大きく異なることがある。その結果、学習結果にも影響が出る可能性がある。したがって、同じ場所にいる利用者や、同じ行動をとっている利用者については、可能な限り、センサデータを均一化/均質化することが望ましい。 In this way, when the terminal device 10 (terminal side), not the information providing device 100 (server side), performs machine learning using sensor data as learning data, the model of the terminal device owned by each user, Depending on the type and performance of the installed sensors, there may be differences in the measured sensor data. For example, even if users are in the same place or are doing the same thing, the number and accuracy of sensor data measured depends on the model of the terminal device and the type and performance of the installed sensor. can vary greatly. As a result, learning outcomes may also be affected. Therefore, it is desirable to equalize/homogenize sensor data as much as possible for users who are in the same place or who are taking the same action.

ただし、センサデータも、個人の位置や行動及びコンテキストを推定できる情報であるため、全ての利用者間で無条件に共有するのは好ましくない場合もある。そのため、あらかじめ互いにセンサデータの共有を許可/同意した利用者同士(例えば、家族同士、友人同士等)で共有することや、相手が現在自分の目の前(同じ場所)にいるのでリアルタイムの位置情報やセンサデータを共有しても問題ないといった状況で共有すること等が望ましい。以下、利用者Uの周囲の端末装置は、利用者Uの端末装置10とのセンサデータの共有を許可/同意した他の利用者の端末装置を示す。 However, since sensor data is also information that can estimate the position, behavior, and context of an individual, it may not be desirable to share it unconditionally among all users. Therefore, it is possible to share sensor data between users who have permitted/agreed to share sensor data with each other in advance (for example, between family members, between friends, etc.). It is desirable to share information and sensor data in situations where there is no problem. Hereinafter, terminal devices around the user U indicate terminal devices of other users who have permitted/agreed to share sensor data with the terminal device 10 of the user U. FIG.

本実施形態では、自動的に/周期的に、各利用者Uの端末装置10の間でセンサデータを共有する(ステップS6)。これにより、利用者Uの周囲の端末装置から収集したデータを、「当該利用者Uの端末装置10が取得したデータ」とみなして学習を行う。このとき、各利用者Uの端末装置10のうち、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。 In this embodiment, sensor data is automatically/periodically shared between the terminal devices 10 of each user U (step S6). As a result, the data collected from the terminal devices around the user U are regarded as "the data acquired by the terminal device 10 of the user U" and learning is performed. At this time, among the terminal devices 10 of each user U, the terminal device 10 (10A) of the first user U (U1) is sent to the terminal device 10 (10B) of the second user U (U2). Transmit data.

例えば、第2の利用者U(U2)の端末装置10(10B)は、自動的に/周期的に、ブロードキャストでセンサデータを要求し、第1の利用者U(U1)の端末装置10(10A)が応答としてセンサデータを送信する。この場合、利用者Uの端末装置10は、周囲の端末装置に所定のセンサデータの有無を問い合わせ、周囲の端末装置がそのセンサデータを持っている場合に、そのセンサデータを要求してもよい。また、利用者Uの端末装置10は、希望するセンサデータと利用者Uのコンテキストとの表明を行い、当該利用者Uとコンテキストが類似する他の利用者の端末装置からそのセンサデータを受信してもよい。 For example, the terminal device 10 (10B) of the second user U (U2) automatically/periodically requests sensor data by broadcast, and the terminal device 10 (10B) of the first user U (U1) 10A) sends sensor data in response. In this case, the terminal device 10 of the user U may inquire whether or not the surrounding terminal device has predetermined sensor data, and if the surrounding terminal device has the sensor data, request the sensor data. . In addition, the terminal device 10 of the user U declares the desired sensor data and the context of the user U, and receives the sensor data from the terminal device of another user whose context is similar to that of the user U. may

例えば、利用者Uの端末装置10は、温度センサがない場合、周囲の端末装置に対して、「温度センサのデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置が温度センサのデータを利用者Uの端末装置10に送信する。なお、温度センサは一例に過ぎない。また、複数のセンサのデータを要求してもよい。また、無条件に全てのセンサのデータを要求してもよい。 For example, if the terminal device 10 of the user U does not have a temperature sensor, it broadcasts a request such as "give me temperature sensor data" to surrounding terminal devices. In response to the request, the surrounding terminal devices transmit the temperature sensor data to the user U's terminal device 10 . Note that the temperature sensor is merely an example. Data from multiple sensors may also be requested. Alternatively, the data of all sensors may be requested unconditionally.

また、利用者Uの端末装置10は、利用者Uが歩いているときのセンサデータはあるが、利用者Uが走っているときのセンサデータがない場合には、「利用者が走っているときのセンサデータをください」といった要求をブロードキャストする。その要求に応じて、周囲の端末装置がその端末装置の利用者が走っているときのセンサデータを利用者Uの端末装置10に送信する。 Further, when the terminal device 10 of the user U has the sensor data when the user U is walking but does not have the sensor data when the user U is running, the terminal device 10 reads "the user is running Broadcast a request such as "Give me the sensor data of the time". In response to the request, the surrounding terminal devices transmit sensor data to the terminal device 10 of the user U when the user of the terminal device is running.

また、利用者Uの端末装置10は、利用者Uが所定の場所(店舗、地点等)にいるときのセンサデータが少ない場合には、学習データの不足を補うため、「利用者が当該場所にいるときのデータをください」といった情報をブロードキャストして、周囲の端末装置からその端末装置の利用者が当該場所にいるときのセンサデータを受信する。 In addition, when there is little sensor data when the user U is at a predetermined place (a store, a spot, etc.), the terminal device 10 of the user U may make up for the lack of learning data by Please broadcast the information "Give me the data when you are at", and receive the sensor data when the user of the terminal device is at the location from the surrounding terminal devices.

なお、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、P2P(Peer to Peer)でセンサデータを渡すようにしてもよい。あるいは、同じアプリ(ゲーム、決済アプリ等)を起動している利用者や、同じ行動を取っている利用者の端末装置間でセンサデータを渡すようにしてもよい。なお、双方の利用者が同じアプリを使用している場合、当該アプリを介して利用者の端末装置間でセンサデータを渡すようにしてもよい。 Note that the terminal device 10 (10A) of the first user U (U1) automatically/periodically communicates P2P (Peer to Peer) to pass the sensor data. Alternatively, sensor data may be passed between terminal devices of users running the same application (game, payment application, etc.) or users taking the same action. If both users are using the same application, the sensor data may be passed between the terminal devices of the users via the application.

また、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、端末装置10(10A)は端末装置10(10B)へ、Bluetooth(登録商標)又は無線LAN(Local Area Network)等の近距離無線通信でセンサデータを伝送してもよい。なお、いわゆる「すれ違い通信」でセンサデータを伝送してもよい。近距離通信で通信可能なほど近くにいる利用者の端末装置から収集したデータであれば、その時点でのセンサデータは共通であると推測される。 In addition, the terminal device 10 (10A) of the first user U (U1) automatically/periodically connects the terminal device 10 (10A) to the terminal device 10 (10B) via Bluetooth (registered trademark) or wireless The sensor data may be transmitted by short-range wireless communication such as LAN (Local Area Network). The sensor data may be transmitted by so-called "passing communication". If the data is collected from the terminal devices of users who are close enough to be able to communicate by short-range communication, it is presumed that the sensor data at that time is common.

あるいは、第1の利用者U(U1)の端末装置10(10A)は、自動的に/周期的に、第2の利用者U(U2)の端末装置10(10B)へ、家庭内LANを介してセンサデータを伝送してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、スマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、又は個人所有のPCや自宅サーバ(ホームサーバ)等を介してセンサデータを伝送してもよい。このとき、利用者Uは、端末装置10(10A)からスマートホームのようなハブや家庭内ルータ(利用者Uが管理するローカルな中継機器)、あるいは個人所有のPCや自宅サーバ等にセンサデータをバックアップしてもよい。なお、端末装置10(10A)からのセンサデータのバックアップは、センサデータを取得した際にリアルタイムで行われてもよい(リアルタイム対応)。そして、端末装置10(10B)は、バックアップされたセンサデータを取得してもよい。同じ家庭内にいる家族等の端末装置から収集したデータであれば、家庭内でのセンサデータは共通であると推測される。なお、家族は一例に過ぎない。例えば、同一構内にいる職場の同僚やグループのメンバー等であってもよいし、同一施設内にいる従業員及び利用客等であってもよい。 Alternatively, the terminal device 10 (10A) of the first user U (U1) automatically/periodically connects the home LAN to the terminal device 10 (10B) of the second user U (U2). Sensor data may be transmitted via. For example, the terminal device 10 (10A) of the first user U (U1) sends the terminal device 10 (10B) of the second user U (U2) to a hub such as a smart home or a home router (using The sensor data may be transmitted via a local relay device managed by person U), a personal PC, a home server (home server), or the like. At this time, the user U sends the sensor data from the terminal device 10 (10A) to a hub such as a smart home, a home router (a local relay device managed by the user U), a personal PC, a home server, or the like. can be backed up. The backup of sensor data from the terminal device 10 (10A) may be performed in real time when the sensor data is acquired (real-time support). Then, the terminal device 10 (10B) may acquire the backed up sensor data. If the data is collected from terminal devices such as family members in the same household, it is assumed that the sensor data in the household is common. The family is just one example. For example, it may be a colleague or a member of a group in the same facility, or an employee and a customer in the same facility.

あるいは、利用者Uは、端末装置10(10A)においてセンサデータを自分でのみ解凍できる形式のファイルに圧縮して、圧縮されたファイルを端末装置10(10B)側でダウンロードして解凍してもよい。例えば、端末装置10(10A)は、センサデータを秘密鍵で暗号化し、暗号化されたセンサデータとともに公開鍵を端末装置10(10B)にのみ提供するようにしてもよい。なお、実際には、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、閉域網(クローズドネットワーク:closed network)を介してセンサデータを渡してもよい。 Alternatively, the user U may compress the sensor data into a file in a format that can be decompressed only by the user U on the terminal device 10 (10A), and download and decompress the compressed file on the terminal device 10 (10B) side. good. For example, the terminal device 10 (10A) may encrypt sensor data with a private key and provide the public key together with the encrypted sensor data only to the terminal device 10 (10B). In practice, the terminal device 10 (10A) of the first user U (U1) connects to the terminal device 10 (10B) of the second user U (U2) via a closed network. ) to pass sensor data.

このように、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。 Thus, the method of transmitting/sharing sensor data between devices owned by each user U may be P2P, home LAN (home hub format), or file compression.

ここで、各利用者Uが所有するデバイス間でセンサデータを伝送/共有する際に、第1の利用者U(U1)の端末装置10(10A)と第2の利用者U(U2)の端末装置10(10B)との間で認証を行うようにしてもよい。認証は、FIDO(Fast Identity Online)認証であってもよい。そして、認証に成功した場合にのみ、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へセンサデータを伝送する。なお、送信されるセンサデータを暗号化して伝送することは技術常識の範疇で可能である。 Here, when transmitting/sharing sensor data between devices owned by each user U, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10A) of the second user U (U2) Authentication may be performed with the terminal device 10 (10B). The authentication may be FIDO (Fast Identity Online) authentication. Then, only when the authentication is successful, the terminal device 10 (10A) of the first user U (U1) transmits the sensor data to the terminal device 10 (10B) of the second user U (U2). . It should be noted that it is possible within the scope of common technical knowledge to encrypt and transmit the transmitted sensor data.

また、実際には、第2の利用者U(U2)の端末装置10(10B)も、第1の利用者U(U1)の端末装置10(10A)へ、自身のセンサデータを伝送することができる。すなわち、端末間でのセンサデータの伝送は、一方向ではなく双方向で行うことができる。この場合、第1の利用者U(U1)の端末装置10(10A)も、第2の利用者U(U2)の端末装置10(10B)と同様の処理を行う。 Moreover, actually, the terminal device 10 (10B) of the second user U (U2) also transmits its own sensor data to the terminal device 10 (10A) of the first user U (U1). can be done. That is, the transmission of sensor data between terminals can be bidirectional rather than unidirectional. In this case, the terminal device 10 (10A) of the first user U (U1) also performs the same process as the terminal device 10 (10B) of the second user U (U2).

さらに、各利用者Uの端末装置10の間で、センサデータだけでなく、学習済みのモデルも共有してもよい。例えば、第1の利用者U(U1)の端末装置10(10A)は、第2の利用者U(U2)の端末装置10(10B)へ、当該センサデータだけでなく、当該センサデータを学習データとして学習したモデルを伝送してもよい。 Furthermore, not only the sensor data but also the learned model may be shared between the terminal devices 10 of each user U. For example, the terminal device 10 (10A) of the first user U (U1) transmits not only the sensor data but also the sensor data to the terminal device 10 (10B) of the second user U (U2). A learned model may be transmitted as data.

本実施形態では、各利用者Uの端末装置10のうち、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する(ステップS7)。 In this embodiment, among the terminal devices 10 of each user U, the terminal device 10 (10B) of the second user U (U2) is the terminal device 10 (10A) of the first user U (U1). and the sensor data of the terminal device 10 (10B) of the second user U (U2) (step S7).

ここで、比較の対象となるセンサデータは、同じ(又は近い)時間及び位置で計測されたセンサデータ(すなわち、位置情報やロケーション履歴が共通のセンサデータ)であることが望ましい。そのため、第2の利用者U(U2)の端末装置10(10B)は、位置情報を基準として、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとを比較する。この場合、位置情報とセンサデータとは紐づけられている。なお、時間情報をキーとして位置情報とセンサデータとが紐づけられていてもよい。また、実際には、センサデータの中に、測位された位置情報と、他のセンサでの計測データとが含まれていてもよい。 Here, the sensor data to be compared is desirably sensor data measured at the same (or close to) time and position (that is, sensor data having common position information and location history). Therefore, the terminal device 10 (10B) of the second user U (U2) uses the position information as a reference to store the sensor data of the terminal device 10 (10A) of the first user U (U1) and the second The sensor data of the terminal device 10 (10B) of the user U (U2) is compared. In this case, the position information and the sensor data are linked. Position information and sensor data may be associated with time information as a key. Further, in practice, the sensor data may include positional information obtained by positioning and data measured by other sensors.

但し、利用者Uの端末装置10は、リアルタイムのセンサデータを使用する場合には、位置情報や時間情報に関係なく、収集した時点での自他のリアルタイムのセンサデータを比較してもよい。 However, when using real-time sensor data, the terminal device 10 of the user U may compare real-time sensor data of itself and others at the time of collection regardless of position information or time information.

続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータに含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、当該端末装置10(10B)のセンサデータよりも精度の高いデータ(より高性能なセンサの計測データ)を採用する(ステップS8)。 Subsequently, the terminal device 10 (10B) of the second user U (U2) selects the terminal device 10 (10B) of the sensor data of the terminal device 10 (10A) of the first user U (U1). data not included in the sensor data (measurement data of a sensor not installed in the terminal device) or data with higher precision than the sensor data of the terminal device 10 (10B) (measurement data of a higher performance sensor ) is employed (step S8).

このとき、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、当該端末装置10(10B)のセンサデータとの差分から、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。例えば、端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータのうち、当該端末装置10(10B)のセンサデータから欠落しているデータや、当該端末装置10(10B)のセンサデータよりも数値の小数点以下の桁数が多いデータ(詳細なデータ)等を採用してもよい。 At this time, the terminal device 10 (10B) of the second user U (U2) receives the sensor data of the terminal device 10 (10A) of the first user U (U1) and the data of the terminal device 10 (10B). Data that is not included in the sensor data of the terminal device 10 (10B) or data that is more accurate than the sensor data of the terminal device 10 (10B) may be determined from the difference from the sensor data. For example, the terminal device 10 (10B) detects data missing from the sensor data of the terminal device 10 (10B) in the sensor data of the terminal device 10 (10A) of the first user U (U1), Data (detailed data) having a larger number of digits after the decimal point than the sensor data of the terminal device 10 (10B) may be used.

あるいは、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータとともに、端末装置10(10A)に関する情報を取得し、端末装置10(10A)に関する情報と、当該端末装置10(10B)に関する情報とに基づいて、当該端末装置10(10B)のセンサデータに含まれていないデータや、当該端末装置10(10B)のセンサデータよりも精度の高いデータを判定してもよい。端末装置10に関する情報は、例えば端末装置10の機種情報や、端末装置10に搭載されているセンサに関する情報等である。 Alternatively, the terminal device 10 (10B) of the second user U (U2) sends information about the terminal device 10 (10A) together with the sensor data of the terminal device 10 (10A) of the first user U (U1). Based on the information about the terminal device 10 (10A) and the information about the terminal device 10 (10B), the data not included in the sensor data of the terminal device 10 (10B), the terminal device 10 ( 10B) data with higher precision than the sensor data may be determined. The information about the terminal device 10 is, for example, model information of the terminal device 10, information about sensors installed in the terminal device 10, and the like.

続いて、第2の利用者U(U2)の端末装置10(10B)は、第1の利用者U(U1)の端末装置10(10A)のセンサデータと、第2の利用者U(U2)の端末装置10(10B)のセンサデータとのうち、採用されたセンサデータを学習データとしてオンデバイス機械学習を行い、学習結果に基づいて推論する(ステップS9)。 Subsequently, the terminal device 10 (10B) of the second user U (U2) receives the sensor data of the terminal device 10 (10A) of the first user U (U1) and the sensor data of the second user U (U2). ) and the sensor data of the terminal device 10 (10B) of ), on-device machine learning is performed using the adopted sensor data as learning data, and an inference is made based on the learning result (step S9).

これにより、利用者Uの端末装置10は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。特に、自身の端末装置にはないセンサを持つ他の端末装置のセンサデータを用いて学習することができる。また、自他の端末装置のセンサデータを比較してより優れたセンサデータを用いて学習することができる。 As a result, the terminal device 10 of the user U can share sensor data among individual terminal devices that perform machine learning, and can learn using the sensor data of other terminal devices. In particular, learning can be performed using sensor data of other terminal devices that have sensors not present in the own terminal device. In addition, it is possible to learn by comparing the sensor data of its own and other terminal devices and using better sensor data.

なお、上記の説明では、自他のセンサデータを比較し、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用しているが、実際には、比較せずに自他のセンサデータをそのまま全て学習データとして用いて機械学習をしてもよい。 In the above description, the sensor data of the terminal device 10 is compared with the sensor data of the terminal device 10, and the sensor data of the terminal device 10 is not included in the sensor data collected from the other terminal device 10. Although data with higher accuracy than data is used, in practice, machine learning may be performed by using all the sensor data of the self and others as they are as learning data without comparison.

また、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には、自己のセンサデータのみを学習データとして用いて機械学習を実施する。あるいは、利用者Uの端末装置10は、他の端末装置10からセンサデータを収集できない場合には機械学習を実施せず、他の端末装置10からセンサデータを収集できた場合にのみ上記の手順で機械学習を実施するようにしてもよい。 Further, when the terminal device 10 of the user U cannot collect sensor data from other terminal devices 10, the terminal device 10 performs machine learning using only its own sensor data as learning data. Alternatively, the terminal device 10 of the user U does not perform machine learning when the sensor data cannot be collected from the other terminal device 10, and only when the sensor data can be collected from the other terminal device 10, the above procedure You may make it implement machine learning in .

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。図2では、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを示す。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the information providing device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and an information providing device 100. As shown in FIG. In FIG. 2, as the terminal devices 10, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2) are shown. These various devices are communicatively connected via a network N by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10として、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とを1台ずつ示したが、これはあくまでも例示であって限定されるものではなく、それぞれ2台以上であってもよい。例えば、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とは、利用者ごとに存在していてもよい。 Also, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to the illustrated one. For example, in FIG. 2, for simplification of illustration, the terminal devices 10 are the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10A) of the second user U (U2). 10B) and 10B) are shown one by one, but this is only an example and is not limited, and each may be two or more. For example, the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2) may exist for each user.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス、スマートスピーカ、カメラ等である。但し、実際には、これらの例に限定されない。 The terminal device 10 is an information processing device used by the user U. FIG. For example, the terminal device 10 includes smart devices such as smartphones and tablet terminals, feature phones, PCs (Personal Computers), PDAs (Personal Digital Assistants), game machines and AV equipment with communication functions, car navigation systems, smart watches, These include wearable devices such as head-mounted displays, smart glasses, smart speakers, and cameras. However, in practice, it is not limited to these examples.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。 In addition, the terminal device 10 is compatible with wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), 5G (5th Generation: fifth generation mobile communication system), Bluetooth (registered trademark), wireless LAN (Local It is possible to communicate with the information providing apparatus 100 by connecting to the network N via short-range wireless communication such as Area Network).

情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。 The information providing device 100 is, for example, a PC, a server device, a mainframe, a workstation, or the like. Note that the information providing apparatus 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be described using FIG. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication unit 11, a display unit 12, an input unit 13, a positioning unit 14, a sensor unit 20, a control unit 30 (controller), and a storage unit 40. Prepare.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication unit 11)
The communication unit 11 is connected to the network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the information providing apparatus 100 via the network N. FIG. For example, the communication unit 11 is implemented by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display unit 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescent Display). Also, the display unit 12 is a touch panel display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input unit 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 has buttons and the like for inputting characters, numbers, and the like. The input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Moreover, when the display unit 12 is a touch panel display, a part of the display unit 12 functions as the input unit 13 . Also, the input unit 13 may be a microphone or the like that receives voice input from the user U. FIG. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives signals (radio waves) transmitted from GPS (Global Positioning System) satellites, and based on the received signals, position information (for example, latitude and longitude). That is, the positioning unit 14 positions the position of the terminal device 10 . GPS is merely an example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Also, the positioning unit 14 can measure the position by various methods other than GPS. For example, the positioning unit 14 may measure the position using various communication functions of the terminal device 10 as described below as auxiliary positioning means for position correction and the like.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 measures the position of the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication or the like and measures the position of the terminal device 10 by measuring the distance to a nearby base station or access point.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(beacon positioning)
The positioning unit 14 may also use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting with a beacon transmitter connected by the Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Further, the positioning unit 14 positions the position of the terminal device 10 based on the geomagnetism pattern of the structure measured in advance and the geomagnetic sensor provided in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at station ticket gates, stores, etc., or has a function of reading an RFID tag In this case, the location used is recorded together with the information that the payment was made by the terminal device 10 . The positioning unit 14 may measure the position of the terminal device 10 by acquiring such information. Also, the position may be measured by an optical sensor provided in the terminal device 10, an infrared sensor, or the like.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may measure the position of the terminal device 10 using one or a combination of the positioning means described above, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(Sensor unit 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10 . The connection may be wired connection or wireless connection. For example, the sensors may be detection devices other than the terminal device 10, such as wearable devices and wireless devices. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 The sensors 21 to 28 described above are only examples and are not limited. That is, the sensor unit 20 may be configured to include a part of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or instead of the sensors 21 to 28. .

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects physical movements of the terminal device 10 such as movement direction, speed, and acceleration of the terminal device 10 . The gyro sensor 22 detects physical movements of the terminal device 10 such as inclination in three axial directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 includes the above-described acceleration sensor 21, gyro sensor 22, barometric pressure sensor 23, etc., techniques such as pedestrian dead-reckoning (PDR: Pedestrian Dead-Reckoning) using these sensors 21 to 23, etc. , the position of the terminal device 10 can be determined. This makes it possible to acquire indoor position information that is difficult to acquire with a positioning system such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Further, by using the gyro sensor 22, it is possible to know the traveling direction, the direction of the line of sight, and the inclination of the body of the user U. Also, from the atmospheric pressure detected by the atmospheric pressure sensor 23, the altitude at which the terminal device 10 of the user U is present and the number of floors can be known.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects the temperature around the terminal device 10, for example. The sound sensor 25 detects sounds around the terminal device 10, for example. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, geomagnetism around the terminal device 10 . The image sensor 28 captures an image around the terminal device 10 .

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The atmospheric pressure sensor 23, the temperature sensor 24, the sound sensor 25, the optical sensor 26, and the image sensor 28 described above detect the atmospheric pressure, temperature, sound, and illuminance, respectively, or capture an image of the surroundings to detect the terminal device 10. It is possible to detect the surrounding environment and situations. In addition, it is possible to improve the accuracy of the location information of the terminal device 10 based on the surrounding environment and situation of the terminal device 10 .

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33、学習部34と、取得部35と、比較部36と、採用部37とを備える。
(control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, and various circuits. Also, the control unit 30 may be configured by hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 includes a transmission unit 31 , a reception unit 32 , a processing unit 33 , a learning unit 34 , an acquisition unit 35 , a comparison unit 36 and an adoption unit 37 .

(送信部31)
送信部31は、通信部11を介して、オンデバイス機械学習に基づく推論の結果として得られた推論結果と、学習の結果として得られた共有モデルとの差分パラメータとを情報提供装置100(サーバ側)に送信する。
(Sending unit 31)
The transmission unit 31 transmits, via the communication unit 11, an inference result obtained as a result of inference based on on-device machine learning and a difference parameter between the shared model obtained as a result of the learning and the information providing apparatus 100 (server side).

また、送信部31は、通信部11を介して、又は近距離無線通信により、自身が収集したセンサデータを他の利用者Uが所有する他の端末装置10に送信する。例えば、送信部31は、当該端末装置10が第1の利用者U(U1)の端末装置10(10A)である場合、通信部11を介して、又は近距離無線通信により、自身の端末装置10(10A)が収集したセンサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。 Further, the transmission unit 31 transmits sensor data collected by itself to other terminal devices 10 owned by other users U via the communication unit 11 or by short-range wireless communication. For example, when the terminal device 10 is the terminal device 10 (10A) of the first user U (U1), the transmission unit 31 transmits the terminal device to its own terminal device via the communication unit 11 or by short-range wireless communication. 10 (10A) transmits the collected sensor data to the terminal device 10 (10B) of the second user U (U2).

すなわち、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。例えば、送信部31は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10へ、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、センサデータを学習データとして学習したモデルを送信してもよい。 That is, the transmission unit 31 transmits sensor data collected by the sensor mounted on the terminal device 10 to another terminal device 10 owned by another user U via the communication unit 11 . For example, the transmission unit 31 transmits sensor data collected by the sensors mounted on the terminal device 10 to another terminal device 10 having a different number or performance of sensors from the terminal device 10 via the communication unit 11. Send. Further, the transmission unit 31 may transmit a model learned using sensor data as learning data to another terminal device 10 owned by another user U via the communication unit 11 .

また、送信部31は、通信部11を介して、他の利用者Uが所有する他の端末装置10へ、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、当該端末装置10に搭載されたセンサにより収集されたセンサデータを送信する。 In addition, the transmission unit 31 transmits the information to another terminal device 10 owned by another user U via the communication unit 11 using P2P, a home LAN, or a closed network without leaking the information to the outside. Sensor data collected by a sensor mounted on the terminal device 10 is transmitted.

(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される共有モデルを受信する。また、受信部32は、通信部11を介して、情報提供装置100から、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)を受信する。
(Receiver 32)
The receiving unit 32 receives the sharing model provided from the information providing device 100 via the communication unit 11 . The receiving unit 32 also receives the modified sharing model (or the difference parameter from the previous sharing model) from the information providing device 100 via the communication unit 11 .

また、受信部32は、通信部11を介して、又は近距離無線通信により、他の利用者Uが所有する他の端末装置10からセンサデータを受信する。例えば、受信部32は、当該端末装置10が第2の利用者U(U2)の端末装置10(10B)である場合、通信部11を介して、又は近距離無線通信により、第1の利用者U(U1)の端末装置10(10A)のセンサデータを受信する。 Further, the receiving unit 32 receives sensor data from another terminal device 10 owned by another user U via the communication unit 11 or by short-range wireless communication. For example, when the terminal device 10 is the terminal device 10 (10B) of the second user U (U2), the receiving unit 32 receives the first usage data via the communication unit 11 or by short-range wireless communication. The sensor data of the terminal device 10 (10A) of the person U (U1) is received.

すなわち、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、当該端末装置10とはセンサの数又は性能が異なる他の端末装置10から、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、センサデータを学習データとして学習したモデルを受信してもよい。 That is, the receiving unit 32 receives sensor data collected by the sensors installed in the other terminal devices 10 from the other terminal devices 10 owned by the other users U via the communication unit 11 . In addition, the receiving unit 32 receives sensor data collected by sensors mounted on the other terminal device 10 from another terminal device 10 having a different number or performance of sensors from the terminal device 10 via the communication unit 11. to receive Further, the receiving unit 32 may receive a model learned using sensor data as learning data from another terminal device 10 owned by another user U via the communication unit 11 .

また、受信部32は、通信部11を介して、他の利用者Uが所有する他の端末装置10から、P2P、家庭内LAN又は閉域網を利用して、外部へ流出させることなく、他の端末装置10に搭載されたセンサにより収集されたセンサデータを受信する。 In addition, the receiving unit 32 uses P2P, a home LAN, or a closed network from another terminal device 10 owned by another user U via the communication unit 11, without leaking to the outside. receive the sensor data collected by the sensor mounted on the terminal device 10 of the .

このように、受信部32は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。このとき、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信してもよい。また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信してもよい。 In this way, the receiving unit 32 receives other person's sensor data collected by the sensor of the other terminal device 10 from the other terminal device 10 owned by the other user U. At this time, the receiving unit 32 may receive other person's sensor data collected by the sensor of the other terminal device 10 from the other terminal device 10 via short-range wireless communication or LAN in the same premises. Further, the receiving unit 32 may receive, from the other terminal device 10 , other-person sensor data collected in real time by the sensor of the other terminal device 10 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10 including the display unit 12 and the like. For example, the processing unit 33 can output various types of information transmitted by the transmitting unit 31 and various types of information received by the receiving unit 32 from the information providing apparatus 100 to the display unit 12 for display.

また、処理部33は、修正された共有モデル(又は以前の共有モデルとの差分パラメータ)に基づいて、現在の共有モデルを更新してグレードアップする。 Also, the processing unit 33 updates and upgrades the current sharing model based on the modified sharing model (or the difference parameter from the previous sharing model).

(学習部34)
学習部34は、共有モデルをベースとして、端末装置10のセンサデータを学習データとしてオンデバイス機械学習を行う。これにより、学習部34は、共有モデルをベースとした独自の推論モデルを構築し、推論モデルと共有モデルとの差分パラメータを生成する。すなわち、学習部34は、センサデータを学習データとして機械学習を行う。
(Learning unit 34)
Based on the shared model, the learning unit 34 performs on-device machine learning using the sensor data of the terminal device 10 as learning data. Thereby, the learning unit 34 constructs a unique inference model based on the shared model, and generates a difference parameter between the inference model and the shared model. That is, the learning unit 34 performs machine learning using sensor data as learning data.

本実施形態では、学習部34は、他者センサデータを学習データとして機械学習を行う。例えば、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。このとき、学習部34は、自己センサデータと他者センサデータとのうち採用されたセンサデータを学習データとして機械学習を行う。 In the present embodiment, the learning unit 34 performs machine learning using other person's sensor data as learning data. For example, the learning unit 34 performs machine learning using self sensor data and other sensor data as learning data. At this time, the learning unit 34 performs machine learning using the sensor data adopted from the self sensor data and the other person's sensor data as learning data.

(取得部35)
取得部35は、利用者Uが所有する端末装置10に搭載されたセンサによりセンサデータを収集する。すなわち、取得部35は、当該端末装置10のセンサにより自己センサデータを収集する。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等を、センサデータとして収集する。
(Acquisition unit 35)
The acquisition unit 35 collects sensor data from a sensor mounted on the terminal device 10 owned by the user U. FIG. That is, the acquisition unit 35 collects self-sensor data from the sensor of the terminal device 10 . For example, the acquisition unit 35 obtains various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, and Positional information and the like of the terminal device 10 that has been positioned is collected as sensor data.

(比較部36)
比較部36は、自己センサデータと他者センサデータとを比較する。このとき、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較してもよい。
(Comparator 36)
The comparison unit 36 compares the self sensor data and the other person's sensor data. At this time, the comparison unit 36 may compare the self sensor data and the other person's sensor data on the basis of the position information.

(採用部37)
採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する。このとき、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。例えば、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。
(Recruitment department 37)
The adopting unit 37 adopts either one of the self sensor data and the other person's sensor data (preferred sensor data) according to the comparison result. At this time, the adopting unit 37 adopts the other person's sensor data having data not included in the self sensor data. For example, the adopting unit 37 adopts other person's sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned. Also, the hiring unit 37 employs other person's sensor data that is more accurate than the self sensor data.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory device such as RAM (Random Access Memory) or flash memory, or a storage device such as HDD (Hard Disk Drive), SSD (Solid State Drive), or optical disk. be. Various programs, various data, and the like are stored in the storage unit 40 .

本実施形態では、記憶部40は、モデル41と、自己センサデータ42と、他者センサデータ43と、採用規則44とを記憶する。 In this embodiment, the storage unit 40 stores a model 41 , self sensor data 42 , other sensor data 43 , and employment rules 44 .

モデル41は、情報提供装置100から提供された共有モデルや、センサデータを学習データとしてオンデバイス機械学習を行った結果として得られた推論モデル等である。 The model 41 is a shared model provided by the information providing apparatus 100, an inference model obtained as a result of performing on-device machine learning using sensor data as learning data, or the like.

また、自己センサデータ42は、当該端末装置10により収集されたセンサデータである。例えば、自己センサデータ42は、入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された端末装置10の位置情報等である。また、自己センサデータ42は、利用者Uの属性情報や、利用者Uの行動を示す各種履歴情報(ログデータ)を含んでいてもよい。また、自己センサデータ42は、利用者Uの端末装置10に関する各種情報を含んでいてもよい。 Self-sensor data 42 is sensor data collected by the terminal device 10 . For example, the self sensor data 42 includes various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, the positioning unit 14 It is the position information of the terminal device 10 positioned by. In addition, the self sensor data 42 may include attribute information of the user U and various types of history information (log data) indicating the behavior of the user U. In addition, the self sensor data 42 may include various information regarding the user U's terminal device 10 .

また、他者センサデータ43は、他の利用者Uが所有する他の端末装置10から収集したセンサデータである。すなわち、他者センサデータ43は、他の利用者Uが所有する他の端末装置10により収集されたセンサデータである。 Further, the sensor data 43 of others is sensor data collected from other terminal devices 10 owned by other users U. FIG. That is, the other person's sensor data 43 is sensor data collected by another terminal device 10 owned by another user U. FIG.

また、採用規則44は、自己センサデータ42と、他者センサデータ43とのいずれか一方を採用する際の規則(ルール)を示す。例えば、他者センサデータ43のうち、自己センサデータ42に含まれていないデータ(当該端末装置に搭載されていないセンサの計測データ)や、自己センサデータ42よりも精度の高いデータ(より高性能なセンサの計測データ)を採用するといった規則を示す。なお、採用規則44は、他者センサデータ43(及び自己センサデータ42)と採用されたセンサデータとを学習データとした機械学習により得られた採用モデルであってもよい。この場合、他者センサデータ43(及び自己センサデータ42)を入力データとして採用モデルに入力することで、出力として得られたセンサデータを採用してもよい。 Also, the adoption rule 44 indicates a rule for adopting either the self sensor data 42 or the other sensor data 43 . For example, among the other sensor data 43, data not included in the self sensor data 42 (measurement data of sensors not installed in the terminal device), or data with higher precision than the self sensor data 42 (higher performance data) It shows the rules such as adopting the measurement data of various sensors). Note that the adoption rule 44 may be a adoption model obtained by machine learning using the other sensor data 43 (and self sensor data 42) and the adopted sensor data as learning data. In this case, by inputting the other person's sensor data 43 (and self sensor data 42) as input data to the adoption model, the sensor data obtained as output may be adopted.

なお、記憶部40は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、記憶部40は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、記憶部40は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、記憶部40は、利用者Uの位置や日時の履歴である位置履歴、利用者Uが入力した検索クエリの履歴である検索履歴、利用者Uが閲覧したコンテンツの履歴である閲覧履歴、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴、利用者Uの投稿の履歴である投稿履歴等を記憶してもよい。また、記憶部40は、利用者Uが端末装置10にインストールした各種アプリの利用履歴や、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。これらの情報は、センサデータとともに学習データとして使用可能である。 Note that the storage unit 40 may store various types of information, not limited to the above, depending on the purpose. For example, the storage unit 40 stores user U's demographic (demographic attribute), psychographic (psychological attribute), geographic (geographical attribute), behavioral (behavioral attribute), and other attributes. Information may be stored. For example, the storage unit 40 stores name, family structure, hometown (local), occupation, position, income, qualification, residence type (detached house, condominium, etc.), car availability, school/commuting time, school/commuting route, Commuter pass sections (stations, lines, etc.), frequently used stations (other than the nearest station to your home or place of work), lessons (places, time zones, etc.), hobbies, interests, lifestyle, etc. good. The storage unit 40 also stores a location history that is a history of the location and date and time of the user U, a search history that is a history of search queries input by the user U, a browsing history that is a history of content browsed by the user U, Purchase history (payment history), which is the history of user U's product purchases and payment processing, exhibition history and sales history, which is the history of user U's listings on the marketplace, posting history, which is the history of user U's postings etc. may be stored. In addition, the storage unit 40 may store a usage history of various applications installed in the terminal device 10 by the user U, a payment history of payment (electronic payment) using the terminal device 10 of the user U, and the like. . These information can be used as learning data along with sensor data.

〔4.処理手順〕
次に、図4を用いて実施形態に係る端末装置10による処理手順について説明する。図4は、実施形態に係る処理手順を示すシーケンス図である。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。ここでは、端末装置10と表記した処理は、第1の利用者U(U1)の端末装置10(10A)と、第2の利用者U(U2)の端末装置10(10B)とに共通の処理を示す。
[4. Processing procedure]
Next, a processing procedure performed by the terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 4 is a sequence diagram illustrating a processing procedure according to the embodiment; Note that the processing procedure described below is repeatedly executed by the control unit 30 of the terminal device 10 . Here, the processing denoted by the terminal device 10 is common to the terminal device 10 (10A) of the first user U (U1) and the terminal device 10 (10B) of the second user U (U2). Indicates processing.

図4に示すように、端末装置10の取得部35は、当該端末装置10に搭載されたセンサによりセンサデータ(自己センサデータ)を収集する(ステップS101)。例えば、取得部35は、入力部13を用いて利用者Uにより入力された各種情報や、当該端末装置10に搭載又は接続された各センサ21~28によって計測された各種センサデータ、測位部14によって測位された当該端末装置10の位置情報等を、センサデータとして収集する。 As shown in FIG. 4, the acquiring unit 35 of the terminal device 10 collects sensor data (self sensor data) from sensors mounted on the terminal device 10 (step S101). For example, the acquisition unit 35 receives various information input by the user U using the input unit 13, various sensor data measured by the sensors 21 to 28 mounted on or connected to the terminal device 10, the positioning unit 14 The positional information of the terminal device 10 positioned by is collected as sensor data.

続いて、端末装置10の送信部31は、通信部11を介して、センサデータを他の利用者Uの所有する他の端末装置10に送信する(ステップS102)。例えば、第1の利用者U(U1)の端末装置10(10A)の送信部31は、通信部11を介して、センサデータを第2の利用者U(U2)の端末装置10(10B)に送信する。このとき、端末装置10Bの受信部32は、通信部11を介して、端末装置10Aのセンサデータ(他者センサデータ)を受信する。逆も同様である。すなわち、端末装置10Aと端末装置10Bとの間でセンサデータを共有する。なお、端末装置10の処理部33は、センサデータを暗号化してもよい。この場合、送信部31は、暗号化されたセンサデータとともに、復号鍵(公開鍵等)を他の端末装置10に送信してもよい。また、デバイス間でセンサデータを伝送する方法は、P2Pでも、家庭内LAN(ホームハブ形式)でも、ファイル圧縮型でもよい。 Subsequently, the transmission unit 31 of the terminal device 10 transmits the sensor data to another terminal device 10 owned by another user U via the communication unit 11 (step S102). For example, the transmission unit 31 of the terminal device 10 (10A) of the first user U (U1) transmits the sensor data to the terminal device 10 (10B) of the second user U (U2) via the communication unit 11. Send to At this time, the receiving unit 32 of the terminal device 10B receives the sensor data (other person's sensor data) of the terminal device 10A via the communication unit 11 . The same is true vice versa. That is, the sensor data is shared between the terminal device 10A and the terminal device 10B. Note that the processing unit 33 of the terminal device 10 may encrypt the sensor data. In this case, the transmission unit 31 may transmit the decryption key (public key or the like) to the other terminal device 10 together with the encrypted sensor data. The method of transmitting sensor data between devices may be P2P, home LAN (home hub format), or file compression.

続いて、端末装置10の比較部36は、自己センサデータと他者センサデータとを比較する(ステップS103)。このとき、比較部36は、位置情報に基づいて、自己センサデータと他者センサデータとを比較してもよい。なお、比較部36は、近距離無線通信又は同一構内のLANを介して他者センサデータを受信した場合や、リアルタイムに収集されたセンサデータを比較する場合には、位置情報に関係なく、自己センサデータと他者センサデータとをそのまま比較してもよい。 Subsequently, the comparing unit 36 of the terminal device 10 compares the self sensor data and the other sensor data (step S103). At this time, the comparison unit 36 may compare the self sensor data and the other sensor data based on the position information. When the comparison unit 36 receives sensor data from another person via short-range wireless communication or LAN in the same premises, or when comparing sensor data collected in real time, the comparison unit The sensor data and the other person's sensor data may be directly compared.

続いて、端末装置10の採用部37は、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータ(好適なセンサデータ)を採用する(ステップS104)。例えば、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。具体的には、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。本実施形態では、採用部37は、他の端末装置10から収集したセンサデータのうち、当該端末装置10のセンサデータに含まれていないデータや、当該端末装置10のセンサデータよりも精度の高いデータを採用する。 Subsequently, the adopting unit 37 of the terminal device 10 adopts either one of the self sensor data and the other person's sensor data (preferred sensor data) according to the comparison result (step S104). For example, the adopting unit 37 adopts other person's sensor data having data not included in the self sensor data. Specifically, the adopting unit 37 adopts other person's sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned. Also, the hiring unit 37 employs other person's sensor data that is more accurate than the self sensor data. In the present embodiment, the hiring unit 37 selects, among sensor data collected from other terminal devices 10, data that is not included in the sensor data of the terminal device 10, or data that is more accurate than the sensor data of the terminal device 10. Adopt data.

続いて、端末装置10Aの学習部34は、共有モデルをベースとして、採用されたセンサデータを学習データとしてオンデバイス機械学習を行う(ステップS105)。なお、端末装置10Aの受信部32は、通信部11を介して、情報提供装置100(サーバ側)から提供された共有モデルを受信してもよい。また、端末装置10Aの送信部31は、通信部11を介して、学習結果としての共有モデルとの差分パラメータや、推論結果を情報提供装置100(サーバ側)に送信してもよい。本実施形態では、学習部34は、比較結果に応じて採用されたセンサデータを学習データとしてオンデバイス機械学習を行っているが、実際には、比較結果に関係なく、自他のセンサデータをそのまま全て学習データとして用いて学習してもよい。 Subsequently, the learning unit 34 of the terminal device 10A performs on-device machine learning using the adopted sensor data as learning data based on the shared model (step S105). Note that the receiving unit 32 of the terminal device 10A may receive the sharing model provided from the information providing device 100 (server side) via the communication unit 11 . In addition, the transmission unit 31 of the terminal device 10A may transmit, via the communication unit 11, the difference parameter from the shared model as the learning result and the inference result to the information providing device 100 (server side). In the present embodiment, the learning unit 34 performs on-device machine learning using the sensor data adopted according to the comparison result as learning data. All of them may be used as learning data as they are for learning.

〔5.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[5. Modification]
The terminal device 10 and the information providing device 100 described above may be implemented in various different forms other than the above embodiments. So, below, the modification of embodiment is demonstrated.

上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、情報提供装置100を備えているともいえる。 In the above embodiment, part or all of the processing executed by the information providing device 100 may actually be executed by the terminal device 10 . For example, the processing may be completed stand-alone (by the terminal device 10 alone). In this case, it is assumed that the terminal device 10 has the functions of the information providing device 100 in the above embodiment. In addition, in the above-described embodiment, the terminal device 10 cooperates with the information providing device 100, so from the user U's point of view, it appears that the terminal device 10 is executing the processing of the information providing device 100 as well. That is, from another point of view, it can be said that the terminal device 10 includes the information providing device 100 .

また、上記の実施形態において、機械学習を行う個々の端末装置間でセンサデータを共有する事例について説明しているが、実際には、利用者Uの端末装置10は、他の利用者が所有する他の端末装置以外の外部装置からセンサデータを取得してもよい。例えば、利用者Uの端末装置10は、街頭や店頭に設置された固定端末装置からセンサデータを取得してもよいし、街中を移動する車両等の移動体からセンサデータを取得してもよい。街頭や店頭に設置された固定端末装置の例として、店頭設置端末、デジタルサイネージ(電子看板)、基地局又はアクセスポイント等がある。この場合、これらの外部装置が、他の利用者が所有する他の端末装置に相当する。 In addition, in the above embodiment, a case is described in which sensor data is shared between individual terminal devices that perform machine learning. You may acquire sensor data from external devices other than the other terminal device which carries out. For example, the terminal device 10 of the user U may acquire sensor data from a fixed terminal device installed on the street or in a storefront, or may acquire sensor data from a mobile object such as a vehicle moving in the city. . Examples of fixed terminal devices installed on the street or in stores include terminals installed in stores, digital signage (electronic signboards), base stations, access points, and the like. In this case, these external devices correspond to other terminal devices owned by other users.

また、上記の実施形態において、端末装置10は、オンデバイスAI(Artificial Intelligence:人工知能)によりカメラ機能の高機能化を実現したスマートフォン等であってもよい。また、端末装置10は、オンデバイスAIを搭載したロボットや自動運転車、ドローン等であってもよい。 Further, in the above-described embodiment, the terminal device 10 may be a smart phone or the like that realizes advanced camera functions by on-device AI (Artificial Intelligence). Also, the terminal device 10 may be a robot, self-driving car, drone, or the like equipped with an on-device AI.

〔6.効果〕
上述してきたように、本願に係る端末装置10は、他の利用者Uが所有する他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する受信部32と、他者センサデータを学習データとして機械学習を行う学習部34と、を備えることを特徴とする。
[6. effect〕
As described above, the terminal device 10 according to the present application includes the receiving unit 32 that receives other person's sensor data collected by the sensor of the other terminal device 10 from another terminal device 10 owned by another user U. and a learning unit 34 that performs machine learning using other person's sensor data as learning data.

また、本願に係る端末装置10は、利用者Uが所有する当該端末装置10のセンサにより自己センサデータを収集する取得部35と、をさらに備える。そして、学習部34は、自己センサデータと他者センサデータとを学習データとして機械学習を行う。 In addition, the terminal device 10 according to the present application further includes an acquisition unit 35 that collects self-sensor data from the sensor of the terminal device 10 owned by the user U. Then, the learning unit 34 performs machine learning using the self sensor data and the other sensor data as learning data.

また、本願に係る端末装置10は、自己センサデータと他者センサデータとを比較する比較部36と、比較結果に応じて、自己センサデータと他者センサデータとのうちいずれか一方のセンサデータを採用する採用部37と、をさらに備える。そして、学習部34は、採用されたセンサデータを学習データとして機械学習を行う。 Further, the terminal device 10 according to the present application includes a comparison unit 36 that compares the self sensor data and the other person's sensor data, and one of the self sensor data and the other person's sensor data according to the comparison result. and a hiring unit 37 that employs the . Then, the learning unit 34 performs machine learning using the adopted sensor data as learning data.

また、比較部36は、位置情報を基準として、自己センサデータと他者センサデータとを比較する。 Also, the comparison unit 36 compares the self sensor data and the other sensor data on the basis of the position information.

また、採用部37は、自己センサデータに含まれていないデータを有する他者センサデータを採用する。 In addition, the hiring unit 37 employs other person's sensor data having data not included in the self sensor data.

また、採用部37は、他の端末装置10に搭載されているが当該端末装置10には搭載されていないセンサにより収集された他者センサデータを採用する。 The adopting unit 37 also adopts other person's sensor data collected by a sensor installed in another terminal device 10 but not installed in the terminal device 10 concerned.

また、採用部37は、自己センサデータよりも精度の高い他者センサデータを採用する。 Also, the hiring unit 37 employs other person's sensor data that is more accurate than the self sensor data.

また、受信部32は、近距離無線通信又は同一構内のLANを介して、他の端末装置10から、他の端末装置10のセンサにより収集された他者センサデータを受信する。 In addition, the receiving unit 32 receives sensor data of others collected by sensors of other terminal devices 10 from other terminal devices 10 via short-range wireless communication or LAN in the same premises.

また、受信部32は、他の端末装置10から、他の端末装置10のセンサによりリアルタイムで収集された他者センサデータを受信する。 In addition, the receiving unit 32 receives, from the other terminal device 10 , sensor data of others collected in real time by the sensors of the other terminal device 10 .

上述した各処理のいずれかもしくは組合せにより、本願に係る端末装置は、機械学習を行う個々の端末装置間でセンサデータを共有し、他の端末装置のセンサデータを用いて学習することができる。 By any one or combination of the above-described processes, the terminal device according to the present application can share sensor data among individual terminal devices that perform machine learning, and can learn using sensor data of other terminal devices.

〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置10を例に挙げて説明する。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Also, the terminal device 10 and the information providing device 100 according to the above-described embodiments are implemented by a computer 1000 configured as shown in FIG. 5, for example. Hereinafter, the terminal device 10 will be described as an example. FIG. 5 is a diagram illustrating an example of a hardware configuration; The computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are buses. It has a form connected by 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The arithmetic unit 1030 is implemented by, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (random access memory) that temporarily stores data used for various calculations by the arithmetic device 1030 . The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered. State Drive), flash memory, or the like. The secondary storage device 1050 may be an internal storage or an external storage. Also, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Also, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface), HDMI (registered trademark) (High Definition Multimedia Interface), and other standardized connectors. Also, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, buttons, scanner, etc., and is realized by, for example, USB.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Also, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, the output device 1010 and the input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Also, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 includes, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), PDs (Phase change rewritable discs), magneto-optical recording media such as MOs (Magneto-Optical discs), and tapes. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部30の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the terminal device 10 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 30 by executing programs loaded on the primary storage device 1040 . Further, arithmetic device 1030 of computer 1000 may load a program acquired from another device via network I/F 1080 onto primary storage device 1040 and execute the loaded program. Further, the arithmetic unit 1030 of the computer 1000 may cooperate with another device via the network I/F 1080, and call functions, data, etc. of the program from another program of the other device for use.

〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited by the contents of these embodiments. In addition, the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, replacements, or modifications of components can be made without departing from the gist of the above-described embodiments.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 100 described above may be implemented by a plurality of server computers, and depending on the function, may be implemented by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the control unit can be read as control means or a control circuit.

1 情報処理システム
10 端末装置
11 通信部
14 測位部
20 センサ部
30 制御部
31 送信部
32 受信部
33 処理部
34 学習部
35 取得部
36 比較部
37 採用部
40 記憶部
100 情報提供装置
1 information processing system 10 terminal device 11 communication unit 14 positioning unit 20 sensor unit 30 control unit 31 transmission unit 32 reception unit 33 processing unit 34 learning unit 35 acquisition unit 36 comparison unit 37 employment unit 40 storage unit 100 information providing device

Claims (11)

他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信部と、
前記他者センサデータを学習データとして機械学習を行う学習部と、
を備えることを特徴とする端末装置。
a receiving unit that receives, from another terminal device owned by another user, other person's sensor data collected by a sensor of the other terminal device;
a learning unit that performs machine learning using the other person's sensor data as learning data;
A terminal device comprising:
利用者が所有する当該端末装置のセンサにより自己センサデータを収集する取得部と、
をさらに備え、
学習部は、前記自己センサデータと前記他者センサデータとを学習データとして機械学習を行う
ことを特徴とする請求項1に記載の端末装置。
an acquisition unit that collects self-sensor data from a sensor of the terminal device owned by the user;
further comprising
The terminal device according to claim 1, wherein the learning unit performs machine learning using the self sensor data and the other sensor data as learning data.
前記自己センサデータと前記他者センサデータとを比較する比較部と、
比較結果に応じて、前記自己センサデータと前記他者センサデータとのうちいずれか一方のセンサデータを採用する採用部と、
をさらに備え、
学習部は、採用されたセンサデータを学習データとして機械学習を行う
ことを特徴とする請求項2に記載の端末装置。
a comparison unit that compares the self sensor data and the other person's sensor data;
a hiring unit that adopts either one of the self sensor data and the other person's sensor data according to a comparison result;
further comprising
The terminal device according to claim 2, wherein the learning unit performs machine learning using the adopted sensor data as learning data.
前記比較部は、位置情報を基準として、前記自己センサデータと前記他者センサデータとを比較する
ことを特徴とする請求項3に記載の端末装置。
4. The terminal device according to claim 3, wherein the comparison unit compares the self sensor data and the other sensor data based on position information.
前記採用部は、前記自己センサデータに含まれていないデータを有する前記他者センサデータを採用する
ことを特徴とする請求項3又は4に記載の端末装置。
The terminal device according to claim 3 or 4, wherein the adopting unit adopts the other person's sensor data having data not included in the self sensor data.
前記採用部は、前記他の端末装置に搭載されているが当該端末装置には搭載されていないセンサにより収集された前記他者センサデータを採用する
ことを特徴とする請求項5に記載の端末装置。
6. The terminal according to claim 5, wherein the adopting unit adopts the other person's sensor data collected by a sensor installed in the other terminal device but not installed in the terminal device. Device.
前記採用部は、前記自己センサデータよりも精度の高い前記他者センサデータを採用する
ことを特徴とする請求項3~6のうちいずれか1つに記載の端末装置。
The terminal device according to any one of claims 3 to 6, wherein the adopting unit adopts the other person's sensor data having higher accuracy than the self sensor data.
前記受信部は、近距離無線通信又は同一構内のLANを介して、前記他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する
ことを特徴とする請求項1~7のうちいずれか1つに記載の端末装置。
3. The receiving unit receives sensor data of others collected by a sensor of the other terminal device from the other terminal device via short-range wireless communication or LAN in the same premises. 8. The terminal device according to any one of 1 to 7.
前記受信部は、前記他の端末装置から、前記他の端末装置のセンサによりリアルタイムで収集された他者センサデータを受信する
ことを特徴とする請求項1~8のうちいずれか1つに記載の端末装置。
9. The receiving unit according to any one of claims 1 to 8, wherein the receiving unit receives, from the other terminal device, sensor data of others collected in real time by a sensor of the other terminal device. terminal equipment.
端末装置が実行する情報処理方法であって、
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信工程と、
前記他者センサデータを学習データとして機械学習を行う学習工程と、
を含むことを特徴とする情報処理方法。
An information processing method executed by a terminal device,
a receiving step of receiving, from another terminal device owned by another user, other person's sensor data collected by the sensor of the other terminal device;
a learning step of performing machine learning using the other person's sensor data as learning data;
An information processing method comprising:
他の利用者が所有する他の端末装置から、前記他の端末装置のセンサにより収集された他者センサデータを受信する受信手順と、
前記他者センサデータを学習データとして機械学習を行う学習手順と、
をコンピュータに実行させるための情報処理プログラム。
a receiving procedure for receiving other person's sensor data collected by the sensor of the other terminal device from another terminal device owned by another user;
a learning procedure for performing machine learning using the other person's sensor data as learning data;
An information processing program for executing a computer.
JP2021114800A 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program Active JP7353328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021114800A JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114800A JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2023011145A true JP2023011145A (en) 2023-01-24
JP7353328B2 JP7353328B2 (en) 2023-09-29

Family

ID=85120182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114800A Active JP7353328B2 (en) 2021-07-12 2021-07-12 Terminal device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7353328B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524711A (en) * 2015-06-19 2018-08-30 株式会社Preferred Networks Cross-domain time-series data conversion apparatus, method, and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7383803B2 (en) 2019-10-04 2023-11-20 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Federated learning using heterogeneous model types and architectures
CN111985649A (en) 2020-06-22 2020-11-24 华为技术有限公司 Data processing method and device based on federal learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524711A (en) * 2015-06-19 2018-08-30 株式会社Preferred Networks Cross-domain time-series data conversion apparatus, method, and system

Also Published As

Publication number Publication date
JP7353328B2 (en) 2023-09-29

Similar Documents

Publication Publication Date Title
JP7353328B2 (en) Terminal device, information processing method, and information processing program
JP7291177B2 (en) Terminal device, information processing method and information processing program
JP2022110843A (en) Information processing device, information processing method and information processing program
JP7122432B1 (en) Information processing device, information processing method and information processing program
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP7305703B2 (en) Authentication server, terminal device, key management method and key management program
JP7436436B2 (en) Information processing device, information processing method, and information processing program
JP7342079B2 (en) Information processing device, information processing method, and information processing program
JP7407152B2 (en) Information processing device, information processing method, and information processing program
JP7326382B2 (en) Information processing device, information processing method and information processing program
JP7145247B2 (en) Information processing device, information processing method and information processing program
JP7280227B2 (en) Information processing device, information processing method and information processing program
JP7193519B2 (en) Information processing device, information processing method and information processing program
JP7337123B2 (en) Information processing device, information processing method and information processing program
JP2023179878A (en) Information processing device, information processing method and information processing program
JP2023028857A (en) Information processing system
JP2023043772A (en) Information processing device, information processing method, and information processing program
JP2023120696A (en) Information processing device, information processing method, and information processing program
JP2023043762A (en) Information processing device, information processing method, and information processing program
JP2023089777A (en) Information processing device, information processing method, and information processing program
JP2023089778A (en) Information processing device, information processing method, and information processing program
JP2023043778A (en) Information processing device, information processing method, and information processing program
JP2023124455A (en) Information processing device, information processing method, and information processing program
JP2023127393A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350