JP2020013270A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2020013270A
JP2020013270A JP2018134364A JP2018134364A JP2020013270A JP 2020013270 A JP2020013270 A JP 2020013270A JP 2018134364 A JP2018134364 A JP 2018134364A JP 2018134364 A JP2018134364 A JP 2018134364A JP 2020013270 A JP2020013270 A JP 2020013270A
Authority
JP
Japan
Prior art keywords
information
model
sensor
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018134364A
Other languages
English (en)
Other versions
JP6964562B2 (ja
Inventor
孝太 坪内
Kota Tsubouchi
孝太 坪内
祥太 山中
Shota Yamanaka
祥太 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018134364A priority Critical patent/JP6964562B2/ja
Publication of JP2020013270A publication Critical patent/JP2020013270A/ja
Application granted granted Critical
Publication of JP6964562B2 publication Critical patent/JP6964562B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】効率的な予測を可能にする。【解決手段】本願に係る情報処理装置は、取得部と、予測部とを有する。取得部は、所定の事柄の予測に用いる第1モデルと、第1モデルの要素を補正する第2モデルとを取得する。予測部は、第1モデルに入力情報を入力することにより所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を予測する。【選択図】図4

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
従来、種々の予測に関する技術が提供されている。例えば、ユーザをユーザ情報に基づいてグループ分けしたグループ毎に、ユーザの行動を予測するための予測モデルを生成し、予測対象ユーザに適合する予測モデルを選択して予測を行う技術が提供されている。
特開2016−62509号公報
しかしながら、上記の従来技術では、効率的な予測を可能にすることができるとは限らない。例えば、上記の従来技術では、ユーザグループや、ユーザが操作する端末の特性に応じて、これら毎に予測モデルを生成することが前提となる。しかしながら、1つのモデル(ユーザモデル等)を生成するのに学習処理にかかるコストが大きく、ユーザグループ毎や端末毎の予測モデルを生成し、保持するのは効率的でない面もあり改善の余地がある。
本願は、上記に鑑みてなされたものであって、効率的な予測を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、所定の事柄の予測に用いる第1モデルと、前記第1モデルの要素を補正する第2モデルとを取得する取得部と、前記第1モデルに入力情報を入力することにより前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する予測部と、を備えることを特徴とする。
実施形態の一態様によれば、効率的な予測を可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理の一例を示す図である。 図3は、実施形態に係る情報処理システムの構成例を示す図である。 図4は、実施形態に係る情報処理装置の構成例を示す図である。 図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図6は、実施形態に係る端末機種情報記憶部の一例を示す図である。 図7は、実施形態に係るセンサ情報記憶部の一例を示す図である。 図8は、実施形態に係る第1モデル学習用情報記憶部の一例を示す図である。 図9は、実施形態に係る第1モデル情報記憶部の一例を示す図である。 図10は、実施形態に係る第2モデル学習用情報記憶部の一例を示す図である。 図11は、実施形態に係る第2モデル情報記憶部の一例を示す図である。 図12は、実施形態に係る情報処理の一例を示すフローチャートである。 図13は、実施形態に係る情報処理の一例を示すフローチャートである。 図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
図1及び図2を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、情報処理装置100が所定の事柄を予測する予測モデル(以下「第1モデル」ともいう)を生成する処理の一例を示す図である。以下では、所定の事柄を予測する予測モデルである第1モデルを単にモデルと記載する場合がある。
図1の例では、情報処理装置100が所定の事柄としてユーザの歩行を予測する第1モデルを生成する場合を示す。具体的には、情報処理装置100が機種ID「PM1」により識別される機種(機種PM1)に対応する端末装置10から収集したセンサ情報を用いて、ユーザが歩行中であるか否かを予測する第1モデルM1(以下「モデルM1」ともいう)を生成する場合を示す。なお、ここでいうセンサ情報には、種々のセンサにより検知される情報が含まれるが詳細は後述する。また、以下では、正解情報が対応付けられたセンサ情報を「学習用データ(学習用情報)」や「学習データ(学習情報)」ともいう。また、予測の対象となる所定の事柄は、ユーザの歩行に限らず、センサ情報を用いて予測可能な事柄であればどのようなものであってもよい。例えば、情報処理装置100は、ユーザが車等の移動体で移動中であることやユーザがコンテンツを閲覧中であることやユーザが食事中であることやユーザが睡眠中であること等、種々のユーザコンテキストを予測対象としてもよい。
また、情報処理装置100は、生成した第1モデルを用いて、所定の事柄を予測する。図2の例では、情報処理装置100は、生成したモデルM1を用いて、ユーザが歩行中であるか否かを予測する。図2は、実施形態に係る情報処理の一例を示す図である。図2は、情報処理装置100が第1モデルの生成時に対象とした機種以外の機種の端末装置10について予測を行う場合に、第1モデルの要素を補正する(以下「第2モデル」ともいう)を用いて第1モデルを補正する場合を示す。具体的には、情報処理装置100が第1モデルであるモデルM1の生成時に対象とした機種PM1以外の機種PM2の端末装置10について予測を行う場合に、モデルM21−1やモデル21−2等の第2モデルを用いてモデルM1を補正する場合を示す。
〔情報処理システムの構成〕
まず、図3に示す情報処理システム1について説明する。図3に示すように、情報処理システム1は、複数台の端末装置10と、情報処理装置100とが含まれる。複数の端末装置10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る情報処理システムの構成例を示す図である。なお、図3に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。例えば、端末装置10である端末装置TM11は、図1に示すユーザU1が利用する端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。
また、端末ID「TM11」により識別される端末装置10は、ユーザU1により利用される端末装置10であり、上記のように端末装置TM11と記載する場合がある。また、例えば、端末ID「TM12」により識別される端末装置10は、ユーザU2により利用される端末装置10であり、端末装置TM12と記載する場合がある。例えば、端末ID「TM21」により識別される端末装置10は、ユーザU21により利用される端末装置10であり、端末装置TM21と記載する場合がある。このように、各端末装置10を区別して説明する場合、「端末装置」の末尾に端末ID(TM11等)を付加した記載とする。各端末装置10について、特に区別なく説明する場合には、単に「端末装置10」と記載する。
また、以下では、ユーザが利用する端末装置10とそのユーザとは互いに読み替えられてもよい。例えば、「ユーザU1」と記載した場合、ユーザU1が利用する端末装置10である「端末装置TM11」と読み替えられてもよい。「端末装置TM11」と記載した場合、端末装置TM11を利用するユーザである「ユーザU1」と読み替えられてもよい。
また、端末装置10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。端末装置10は、端末装置10に対する物理量の情報等をセンサ情報として収集する。例えば、端末装置10は、端末装置10における加速度や圧力等の物理量の情報等をセンサ情報として収集する。端末装置10は、端末装置10周辺の環境情報をセンサ情報として収集する。例えば、端末装置10は、位置情報、照度、温度、湿度、磁界等の端末装置10周辺の環境情報をセンサ情報として収集する。例えば、端末装置10は、音声、画像等の端末装置10周辺の環境情報をセンサ情報として収集する。端末装置10は、端末装置10を利用するユーザの生体情報をセンサ情報として収集する。例えば、端末装置10は、ニオイ、汗、指紋等の端末装置10を利用するユーザの生体情報をセンサ情報として収集する。端末装置10は、3軸加速度センサ等の加速度センサの機能を有し、端末装置10における加速度情報を検知し、取得する。端末装置10は、加速度センサにより、端末装置10における加速度の変化を示すセンサ情報を取得する。端末装置10は、ジャイロセンサの機能を有し、端末装置10における角速度情報を検知し、取得する。端末装置10は、ジャイロセンサにより、端末装置10における角速度の変化を示すセンサ情報を取得する。また、端末装置10は、マイク等の音センサの機能を有し、端末装置10における音声情報を検知し、取得する。端末装置10は、音センサにより、端末装置10の周囲における音(音量)の変化を示すセンサ情報を取得する。また、端末装置10は、モーションセンサ等の運動状態を検知する機能を有し、端末装置10における運動状態情報を検知し、取得する。端末装置10は、モーションセンサにより、端末装置10における運動状態の変化を示すセンサ情報を取得する。端末装置10は、モーションセンサにより、端末装置10における運動状態の変化を示すセンサ情報を取得する。端末装置10は、3軸加速度センサやジャイロセンサや3軸地磁気センサ等により、端末装置10における運動状態の変化を示すセンサ情報を取得する。端末装置10は、3軸加速度センサやジャイロセンサや3軸地磁気センサ等により、端末装置10における運動状態の変化を示すセンサ情報を取得する。このように、センサ情報には、加速度情報や角速度情報や音声情報や運動状態情報といった種々の情報が含まれる。なお、センサ情報は、上記に限らず、センサにより検知される情報であればどのような情報が含まれてもよい。例えば、センサ情報は、下記のような位置情報や環境情報や画像情報や生体情報等、種々の情報が含まれてもよい。
また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、Wi−Fi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、センサ情報には、温度、湿度、照度、圧力、ニオイ、汗、心拍、脈拍、脳波等の種々の情報が含まれてもよい。例えば、端末装置10は、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得のためのセンサ等の種々のセンサにより検知されたセンサ情報を用いてもよい。端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10は、種々のセンサを有し、各種センサ情報を検知する。端末装置10は、画像センサの機能を有し、画像情報を検知し、取得する。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。また、端末装置10は、血糖値センサや心拍センサ等の種々の機能を有し、ユーザの血糖値(血糖値情報)や心拍数(心拍情報)等の生体情報を検知し、取得可能であってもよい。なお、端末装置10は、自装置以外のセンサが検知したセンサ情報を収集し、情報処理装置100へ送信してもよい。
端末装置10は、取得(検知)したセンサ情報を情報処理装置100へ送信する。例えば、端末装置10は、取得(検知)したセンサ情報を定期的(例えば1時間おき等)に情報処理装置100へ送信する。例えば、端末装置10は、取得(検知)したセンサ情報を随時(リアルタイムに)、情報処理装置100へ送信する。また、端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、情報処理装置100に種々の情報を送信する。例えば、端末装置10は、情報処理装置100に検索クエリや位置情報等の種々の行動情報等を送信する。端末装置10は、上記のようなセンサ情報を検知するために種々のセンサを有してもよい。例えば、端末装置10は、端末装置10における圧力を検知するセンサ、重量を検知するセンサ、ひずみを検知するセンサ等を有してもよい。例えば、端末装置10は、端末装置10の速度を検知するセンサ、加速度を検知するセンサ、回転数を検知するセンサ等を有してもよい。例えば、端末装置10は、音声を検知するセンサ、超音波を検知するセンサ、振動を検知するセンサ等を有してもよい。例えば、端末装置10は、熱を検知するセンサ、温度を検知するセンサ、湿度を検知するセンサ等を有してもよい。例えば、端末装置10は、可視光を検知するセンサ、赤外線を検知するセンサ、紫外線を検知するセンサ等の光(電磁波)を検知するセンサを有してもよい。例えば、端末装置10は、磁界を検知するセンサ、電流を検知するセンサ、電圧を検知するセンサ等の電磁気を検知するセンサを有してもよい。例えば、端末装置10は、ガスを検知するセンサ、においを検知するセンサ、味覚を検知するセンサ、顔を検知するセンサ、指紋を検知するセンサ等を有してもよい。なお、端末装置10は、上記に限らず、種々の種別の情報を検知するセンサを有してもよい。
図3に示すように、端末装置TM11や端末装置TM12は、機種PM1に対応する端末装置10である。端末装置TM21は、機種PM2に対応する端末装置10である。端末装置TM31は、機種PM3に対応する端末装置10である。このように、情報処理システム1には、複数の機種の各々に対応する複数の端末装置10が含まれる。
情報処理装置100は、第1モデルに入力情報を入力することにより所定の事柄を予測する場合、第1モデルの要素を補正する第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を予測する情報処理装置である。情報処理装置100は、一の機種に対応する端末装置10(以下「第1端末」ともいう)に関するセンサ情報(以下「第1情報」ともいう)を用いて第1モデルを生成する生成装置である。図1の例では、情報処理装置100は、機種PM1に対応する第1端末から取得したセンサ情報(第1情報)と、第1端末を利用するユーザ(以下「第1ユーザ」ともいう)が歩行中であるかを示す正解情報とを用いて第1モデルを生成する。以下、第1モデルの生成時に対象となった機種を「生成対象機種」と記載する場合がある。
情報処理装置100は、生成対象機種とは異なる他の機種に対応する端末装置10(以下「第2端末」ともいう)から取得したセンサ情報(以下「第2情報」ともいう)と、第1モデルとを用いて、第2端末に関する所定の事柄を予測する。図2の例では、情報処理装置100は、機種PM1とは異なる機種PM2に対応する第2端末から取得したセンサ情報(第2情報)と、第1モデルであるM1とを用いて、第2端末を利用するユーザ(以下「第2ユーザ」ともいう)に関する所定の事柄を予測する。情報処理装置100は、機種PM2に対応する第2端末である端末装置TM21を利用する第2ユーザであるユーザU21が歩行中であるか否かを、モデルM1を用いて予測する。
この場合、情報処理装置100は、生成対象機種のセンサ(以下「第1センサ」ともいう)におけるセンサ値(以下「第1センサ値」ともいう)に、第2端末のセンサ(以下「第2センサ」ともいう)におけるセンサ値(以下「第2センサ値」ともいう)を変換する。情報処理装置100は、各センサ種別に対応する第2モデルを用いて、第2端末の第2センサにより検知された第2センサ値を、生成対象機種の第1センサにおける第1センサ値に変換する。以下、第2センサ値からの変換後に対応する第1センサ値を変換後センサ値ともいう。そして、情報処理装置100は、第2モデルを用いて変換した変換後センサ値と、第1モデルとを用いて、第2ユーザに関する所定の事柄を予測する。図2の例では、情報処理装置100は、モデルM21−1やモデル21−2等の第2モデルを用いて変換した変換後センサ値と、モデルM1とを用いて、ユーザU21が歩行中であるか否かを予測する。
また、情報処理装置100は、予測した情報を用いて種々のサービスを提供する。例えば、情報処理装置100は、ユーザが歩行中であるか否かを示す情報を用いて、種々のサービスを提供する。例えば、情報処理装置100は、ユーザが歩行中であるか否かを示す情報を用いて、ユーザに情報提供を行う。
図1の例では、情報処理装置100は、ユーザU1、U2等が利用する機種PM1の端末装置10が有する種々のセンサの機能により、機種PM1の端末装置10が検知したセンサ情報(第1センサ情報)を機種PM1の端末装置10から取得する。また、図2の例では、ユーザU21が利用する機種PM2の端末装置10が有する種々のセンサの機能により、機種PM2の端末装置10が検知したセンサ情報(第2センサ情報)を機種PM2の端末装置10から取得する。
〔生成処理〕
まず、情報処理装置100は、ユーザU1が利用する端末装置TM11からセンサ情報を取得する(ステップS1−1)。情報処理装置100は、機種PM1の端末装置10である端末装置TM11から、端末装置TM11のセンサが検知したセンサ情報を取得する。図1の例では、情報処理装置100は、日時DT11−1において、端末装置TM11の加速度センサにより検知された加速度に関する加速度情報AC1−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM11の加速度センサSN1−1(図6参照)により検知された加速度に関する加速度情報AC1−1を取得する。なお、図1では、加速度情報を加速度情報AC1−1といった抽象的な情報として示すが、加速度情報は、加速度や加速度の変化を示す具体的な数値であるものとする。
また、図1の例では、情報処理装置100は、日時DT11−1において、端末装置TM11のジャイロセンサにより検知された角速度に関する角速度情報AV1−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM11の角速度センサSN1−2(図6参照)により検知された角速度に関する角速度情報AV1−1を取得する。なお、図1では、角速度情報を角速度情報AV1−1といった抽象的な情報として示すが、角速度情報は、角速度や角速度の変化を示す具体的な数値であるものとする。
また、図1の例では、情報処理装置100は、日時DT11−1において、端末装置TM11の音センサにより検知された音に関する音声情報SD1−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM11の音速度センサ(図示省略)により検知された音に関する音声情報SD1−1を取得する。なお、図1では、音声情報を音声情報SD1−1といった抽象的な情報として示すが、音声情報は、音量や音量の変化を示す具体的な数値であるものとする。なお、図1の例では、説明を簡単にするために、センサ情報として、加速度情報、角速度情報、及び音声情報のみを図示するが、センサ情報には、運動状態情報等の種々の種別のセンサ情報が含まれてもよい。このように、図1の例では、情報処理装置100は、加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等が含まれるセンサ情報(センサ情報LG11−1)を取得する。例えば、情報処理装置100は、端末装置TM11から取得したセンサ情報LG11−1をセンサ情報記憶部123に記憶する。
また、情報処理装置100は、ユーザU1が利用する端末装置TM11からセンサ情報を取得する(ステップS1−2)。情報処理装置100は、機種PM1の端末装置10である端末装置TM11から、端末装置TM11のセンサが検知したセンサ情報を取得する。図1の例では、情報処理装置100は、日時DT11−2において、端末装置TM11の加速度センサにより検知された加速度に関する加速度情報AC1−2を取得する。
また、図1の例では、情報処理装置100は、日時DT11−2において、端末装置TM11のジャイロセンサにより検知された角速度に関する角速度情報AV1−2を取得する。また、図1の例では、情報処理装置100は、日時DT11−2において、端末装置TM11の音センサにより検知された音に関する音声情報SD1−2を取得する。このように、図1の例では、情報処理装置100は、加速度情報AC1−2や角速度情報AV1−2や音声情報SD1−2等が含まれるセンサ情報(センサ情報LG11−2)を取得する。例えば、情報処理装置100は、端末装置TM11から取得したセンサ情報LG11−2をセンサ情報記憶部123に記憶する。
また、情報処理装置100は、ユーザU1が利用する端末装置TM11からセンサ情報を取得する(ステップS1−3)。情報処理装置100は、機種PM1の端末装置10である端末装置TM11から、端末装置TM11のセンサが検知したセンサ情報を取得する。図1の例では、情報処理装置100は、日時DT11−3において、端末装置TM11の加速度センサにより検知された加速度に関する加速度情報AC1−3を取得する。
また、図1の例では、情報処理装置100は、日時DT11−3において、端末装置TM11のジャイロセンサにより検知された角速度に関する角速度情報AV1−3を取得する。また、図1の例では、情報処理装置100は、日時DT11−3において、端末装置TM11の音センサにより検知された音に関する音声情報SD1−3を取得する。このように、図1の例では、情報処理装置100は、加速度情報AC1−3や角速度情報AV1−3や音声情報SD1−3等が含まれるセンサ情報(センサ情報LG11−3)を取得する。例えば、情報処理装置100は、端末装置TM11から取得したセンサ情報LG11−3をセンサ情報記憶部123に記憶する。
また、情報処理装置100は、ユーザU2が利用する端末装置TM12からセンサ情報を取得する(ステップS1−4)。情報処理装置100は、機種PM1の端末装置10である端末装置TM12から、端末装置TM12のセンサが検知したセンサ情報を取得する。図1の例では、情報処理装置100は、日時DT12−1において、端末装置TM12の加速度センサにより検知された加速度に関する加速度情報AC2−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM12の加速度センサSN1−1(図6参照)により検知された加速度に関する加速度情報AC2−1を取得する。なお、図1では、加速度情報を加速度情報AC2−1といった抽象的な情報として示すが、加速度情報は、加速度の変化量を示す具体的な数値であるものとする。
また、図1の例では、情報処理装置100は、日時DT12−1において、端末装置TM12のジャイロセンサにより検知された角速度に関する角速度情報AV2−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM12の角速度センサSN1−2(図6参照)により検知された角速度に関する角速度情報AV2−1を取得する。なお、図1では、角速度情報を角速度情報AV2−1といった抽象的な情報として示すが、角速度情報は、角速度の変化量を示す具体的な数値であるものとする。
また、図1の例では、情報処理装置100は、日時DT12−1において、端末装置TM12の音センサにより検知された音に関する音声情報SD2−1を取得する。例えば、情報処理装置100は、機種PM1である端末装置TM12の音速度センサ(図示省略)により検知された音に関する音声情報SD2−1を取得する。なお、図1では、音声情報を音声情報SD2−1といった抽象的な情報として示すが、音声情報は、音量の変化量を示す具体的な数値であるものとする。なお、図1の例では、説明を簡単にするために、センサ情報として、加速度情報、角速度情報、及び音声情報のみを図示するが、センサ情報には、運動状態情報等の種々の種別のセンサ情報が含まれてもよい。このように、図1の例では、情報処理装置100は、加速度情報AC2−1や角速度情報AV2−1や音声情報SD2−1等が含まれるセンサ情報(センサ情報LG12−1)を取得する。例えば、情報処理装置100は、端末装置TM12から取得したセンサ情報LG12−1をセンサ情報記憶部123に記憶する。
また、情報処理装置100は、ユーザU1が利用する端末装置TM12からセンサ情報を取得する(ステップS1−5)。情報処理装置100は、機種PM1の端末装置10である端末装置TM12から、端末装置TM12のセンサが検知したセンサ情報を取得する。図1の例では、情報処理装置100は、日時DT12−2において、端末装置TM12の加速度センサにより検知された加速度に関する加速度情報AC2−2を取得する。
また、図1の例では、情報処理装置100は、日時DT12−2において、端末装置TM12のジャイロセンサにより検知された角速度に関する角速度情報AV2−2を取得する。また、図1の例では、情報処理装置100は、日時DT12−2において、端末装置TM12の音センサにより検知された音に関する音声情報SD2−2を取得する。このように、図1の例では、情報処理装置100は、加速度情報AC2−2や角速度情報AV2−2や音声情報SD2−2等が含まれるセンサ情報(センサ情報LG12−2)を取得する。例えば、情報処理装置100は、端末装置TM12から取得したセンサ情報LG12−2をセンサ情報記憶部123に記憶する。
以下、ステップS1−1〜S1−5を区別せずに説明する場合、ステップS1と総称する。また、ステップS1−1〜S1−5に限らず、センサ情報の取得は、複数回行われてもよい。なお、図1では、2人のユーザU1、U2を図示するが、情報処理装置100は、ユーザU1、U2に限らず、多数のユーザ(例えば、100万ユーザや1000万ユーザ等)が利用する端末装置10からセンサ情報を取得する。
これにより、情報処理装置100は、機種PM1の端末装置10からセンサ情報を収集する(ステップS2)。図1の例では、情報処理装置100は、センサ情報記憶部123に示すように、ユーザU1、U2等が利用する機種PM1の端末装置10からセンサ情報を収集する。また、図示を省略するが、情報処理装置100は、機種PM1の端末装置10におけるセンサ情報の検知時に、機種PM1の端末装置10を利用するユーザが歩行中であるか否かを示す情報(以下「正解情報」ともいう)を取得するものとする。例えば、情報処理装置100は、機種PM1の端末装置10から正解情報を取得してもよいし、外部の情報処理装置から正解情報を取得してもよい。情報処理装置100は、機種PM1の端末装置10や外部の情報処理装置から、正解情報RDT1−1〜RDT1−4等を取得してもよい。
例えば、情報処理装置100は、機種PM1の端末装置10を利用するユーザが位置するエリアを撮像する画像センサが撮像した画像情報(動画情報)を収集する外部の情報処理装置から正解情報を取得してもよい。例えば、情報処理装置100は、外部の情報処理装置から取得した機種PM1の端末装置10を利用するユーザが位置するエリアの画像情報(動画情報)に基づいて正解情報を取得してもよい。例えば、情報処理装置100は、外部の情報処理装置から取得した画像情報(動画情報)を、画像解析等の種々の従来技術を適宜用いて解析することにより、正解情報を取得してもよい。情報処理装置100は、外部の情報処理装置から取得した画像情報(動画情報)に基づいて、正解情報RDT1−1〜RDT1−4等を生成してもよい。
そして、情報処理装置100は、センサ情報や正解情報に基づいて第1モデル学習用情報を生成する(ステップS3)。図1の例では、情報処理装置100は、第1モデル学習用情報記憶部124に示すような第1モデル学習用情報(第1モデル学習データ)を生成する。情報処理装置100は、センサ情報や正解情報に基づいて、データDA1−1〜DA1−4等の第1モデル学習データ(以下、単に「学習データ」や「学習用情報」ともいう)を生成する。なお、図1では、データDA1−1〜DA1−4のみを図示するが学習データには多数のデータが含まれるものとする。
なお、上記のように、「データDA*(*は任意の数値)」と記載した場合、そのデータはデータID「DA*」により識別されるデータであることを示す。例えば、「データDA1−1」と記載した場合、そのデータはデータID「DA1−1」により識別されるデータである。
そして、情報処理装置100は、機種PM1の端末装置10におけるセンサ情報と、センサ情報の検知時におけるユーザの歩行有無を示す正解情報とを対応付けることにより、学習用情報を生成する。情報処理装置100は、センサ情報LG11−1〜LG11−3、LG12−1と、正解情報RDT1−1〜RDT1−4とを対応付けることにより、第1モデル学習用情報記憶部124に示すような第1モデル学習用情報を生成する。
そして、情報処理装置100は、学習データに基づいてモデルを生成する(ステップS5)。例えば、情報処理装置100は、第1モデル学習用情報記憶部124中のデータDA1−1〜DT1−4等を学習データ(教師データ)として、学習を行なうことにより、第1モデルを生成する。
例えば、情報処理装置100は、下記の式(1)に示すようなモデルM1を第1モデルとして生成する。
y = Σw … (1)
上記の式(1)の左辺の変数「y」がモデルM1が出力する出力値(スコア)に対応する。変数「y」は、歩行中であるか否かを予測するための値(スコア)を示す。例えば、変数「y」は、0〜1の値を取り、値が「1」に近い程ユーザが歩行中である可能性が高いことを示し、値が「0」に近い程ユーザが歩行中である可能性は低いことを示す。変数「y」は、値が「0」に近い程、走っている状態や,電車やバスや飛行機や船等の移動体に乗っている状態等の歩行中以外の状態である可能性が高いことを示してもよい。また、例えば、変数「y」は、値が「0」に近い程ユーザが歩行を停止中である可能性が高いことを示してもよい。なお、上記は一例であり、変数「y」は、0〜1の値に限らず、−1〜1の値等、種々の範囲の値であってもよい。
また、上記の式(1)の右辺の変数「x」は、モデルM1に用いられる特徴量を示す。上記の式(1)の右辺の変数「w」は、変数「x」に対応する重みを示す。また、変数「i」は、例えば任意の1以上の自然数であり、モデルM1に用いられる特徴量の数に対応する値となる。例えば、モデルM1に用いられる特徴量が、加速度、角速度、音及び運動状態の4つである場合、変数「i」は、「1」〜「4」の値(自然数)となる。ここで、説明のために上記の式(1)を展開すると下記の式(2)に示すような式となる。
y = w*x+w*x+w*x+w*x+・・・+w*x … (2)
例えば、上記の式(2)の右辺の変数「x」は、加速度に対応する特徴量を示す。例えば、変数「x」は、センサ値である加速度の変化量を示す。上記の式(2)の右辺の変数「w」は、加速度に対応する重みを示す。
例えば、上記の式(2)の右辺の変数「x」は、角速度に対応する特徴量を示す。例えば、変数「x」は、センサ値である角速度の変化量を示す。上記の式(2)の右辺の変数「w」は、角速度に対応する重みを示す。
例えば、上記の式(2)の右辺の変数「x」は、音に対応する特徴量を示す。例えば、変数「x」は、センサ値である音の変化量を示す。上記の式(2)の右辺の変数「w」は、音に対応する重みを示す。
例えば、上記の式(2)の右辺の変数「x」は、運動状態に対応する特徴量を示す。例えば、変数「x」は、センサ値である運動状態の変化量を示す。上記の式(2)の右辺の変数「w」は、運動状態に対応する重みを示す。このように、図1の例では、情報処理装置100は、各センサ種別のセンサが検知したセンサ値に関する値を特徴量とし、その特徴量に対応する重みを学習する。例えば、情報処理装置100は、各センサ種別のセンサが検知したセンサ値の変化量を特徴量とし、その特徴量に対応する重みを学習する。なお、情報処理装置100が学習するセンサ情報に含まれる特徴は、情報処理装置100の管理者等の人間が情報処理装置100に入力してもよいし、情報処理装置100に自動的に学習(抽出)させてもよい。また、図1の例では、説明を簡単にするために、上記の式(1)に示すようなモデルM1を情報処理装置100が生成する場合を示すが、情報処理装置100が生成する第1モデルは、線形モデルに限らず、非線形モデルであってもよい。
例えば、情報処理装置100は、第1モデル学習用情報記憶部124に示すような学習データを用いてモデルM1を生成する。例えば、情報処理装置100は、正解情報RDT1−1がユーザU1が歩行中であることを示すスコア「1」である場合、モデルM1にデータDA1−1に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。例えば、情報処理装置100は、データDA1−1の加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等がモデルM1に入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。
また、例えば、情報処理装置100は、正解情報RDT1−3がユーザU1が歩行中以外であることを示すスコア「0」である場合、モデルM1にデータDA1−3に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。例えば、情報処理装置100は、データDA1−3の加速度情報AC1−3や角速度情報AV1−3や音声情報SD1−3等がモデルM1に入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。
上記のような処理により、図1の例では、情報処理装置100は、第1モデル情報記憶部125に示すように、モデルID「M1」により識別される第1モデル(モデルM1)を生成する。上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別される第1モデルである。また、図1中の第1モデル情報記憶部125に示すように、モデルM1は、予測対象「歩行」、すなわちユーザが歩行中であるか否かの予測のために用いられるモデルであることを示す。また、モデルM1は、生成時対象機種(生成対象機種)が機種PM1であることを示す。モデルM1は、その具体的なモデルデータが「モデルデータMDT1」であることを示す。例えば、情報処理装置100は、モデルM1にセンサ情報を入力することにより、入力したセンサ情報に対応するユーザが歩行中であるか否かを示すスコアを、モデルM1に出力させ、モデルM1が出力するスコアに基づいてユーザの歩行有無を予測する。
上述したように、情報処理装置100は、生成対象機種である機種PM1の端末装置10におけるセンサ情報と、正解情報とが対応付けられた学習データを用いて学習することにより、機種PM1の端末装置10を利用するユーザの歩行を適切に予測可能にする第1モデルを生成することができる。したがって、情報処理装置100は、上述のように生成したモデルを用いることにより、例えば、生成対象機種の端末装置10を利用するユーザが歩行しているかを精度よく予測することを可能にすることができる。
なお、第1モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、第1モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、第1モデルの生成は、線形回帰や非線形回帰等の機械学習に関する技術を用いて行われてもよい。例えば、第1モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。例えば、第1モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、第1モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記第1モデルの生成に関する記載は例示であり、第1モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、情報処理装置100は、学習データに含まれるセンサ情報が入力された場合に、正解情報に対応するスコアを出力するようにモデルM1を学習可能であれば、どのような手法によりモデルM1の生成を行ってもよい。
〔予測処理〕
ここから、図2を用いて、図1で生成したモデルM1を用いた予測処理の一例について説明する。図2では、情報処理装置100は、モデルM1の生成対象機種である機種PM1とは異なる他の機種の端末装置10からセンサ情報を取得した場合、取得したセンサ情報を第2モデルにより補正し、補正後のセンサ情報を用いて予測を行う。
まず、情報処理装置100は、ユーザU21が利用する端末装置TM21からセンサ情報を取得する(ステップS11)。情報処理装置100は、モデルM1の生成対象機種である機種PM1とは異なる他の機種PM2の端末装置10である端末装置TM21から、端末装置TM21のセンサが検知したセンサ情報を取得する。図2の例では、情報処理装置100は、日時DT21−1において、端末装置TM21の加速度センサにより検知された加速度に関する加速度情報AC21−1を取得する。例えば、情報処理装置100は、機種PM2である端末装置TM21の加速度センサSN2−1(図6参照)により検知された加速度に関する加速度情報AC21−1を取得する。なお、図2では、加速度情報を加速度情報AC21−1といった抽象的な情報として示すが、加速度情報は、加速度や加速度の変化を示す具体的な数値であるものとする。
また、図2の例では、情報処理装置100は、日時DT21−1において、端末装置TM21のジャイロセンサにより検知された角速度に関する角速度情報AV21−1を取得する。例えば、情報処理装置100は、機種PM2である端末装置TM21の角速度センサSN2−2(図6参照)により検知された角速度に関する角速度情報AV21−1を取得する。なお、図2では、角速度情報を角速度情報AV21−1といった抽象的な情報として示すが、角速度情報は、角速度や角速度の変化を示す具体的な数値であるものとする。
また、図2の例では、情報処理装置100は、日時DT21−1において、端末装置TM21の音センサにより検知された音に関する音声情報SD21−1を取得する。例えば、情報処理装置100は、機種PM2である端末装置TM21の音速度センサ(図示省略)により検知された音に関する音声情報SD21−1を取得する。なお、図2では、音声情報を音声情報SD21−1といった抽象的な情報として示すが、音声情報は、音量や音量の変化を示す具体的な数値であるものとする。なお、図2の例では、説明を簡単にするために、センサ情報として、加速度情報、角速度情報、及び音声情報のみを図示するが、センサ情報には、運動状態情報等の種々の種別のセンサ情報が含まれてもよい。このように、図2の例では、情報処理装置100は、一覧情報LT11に示すように、加速度情報AC21−1や角速度情報AV21−1や音声情報SD21−1等が含まれるセンサ情報(センサ情報LG21−1)を取得する。例えば、情報処理装置100は、端末装置TM21から取得したセンサ情報LG21−1をセンサ情報記憶部123に記憶してもよい。
ここで、加速度情報AC21−1は、機種PM2である端末装置TM21の加速度センサSN2−1により検知されるセンサ値(第2センサ値)である。機種PM2の加速度センサSN2−1と機種PM1の加速度センサSN1−1とは、センサ自体や基盤や端末装置10における配置位置や搭載される端末装置10の重量等の種々のセンサ特徴を示す情報(以下「センサ特徴情報」ともいう)が異なる。そのため、機種PM2での加速度センサSN2−1により検知される第2センサ値は、同様の条件下において、機種PM1である端末装置10の加速度センサSN1−1により検知されるセンサ値(第1センサ値)とは異なる値になる。また、加速度情報AC21−1と同様に、角速度センサSN2−2等の第2センサにより検知される角速度情報AV21−1や音声情報SD21−1等の他のセンサ情報(第2センサ値)についても、同様の条件下において、機種PM1の角速度センサSN1−2等の第1センサにより検知される第1センサ値とは異なる。
すなわち、機種PM2の端末装置10で検知される第2センサ値は、モデルM1の生成対象機種である機種PM1の端末装置10で検知される第1センサ値とは異なる値となる。このように、第2端末である機種PM2の端末装置10に搭載された第2センサが検知する第2センサ値は、同様の条件下において、第1端末である機種PM1の端末装置10に搭載された第1センサが検知する第1センサ値とは異なる。したがって、機種PM2の端末装置10で検知される第2センサ値を、機種PM1を生成対象機種とするモデルM1の特徴量に割り当てる値として直接用いた場合、適切な予測を行うことが難しい。
そのため、情報処理装置100は、加速度情報AC21−1や角速度情報AV21−1や音声情報SD21−1等の第2センサ値を、同様の条件下において、機種PM1における第1センサで検知された場合の第1センサ値に変換する。具体的には、情報処理装置100は、各センサ種別に対応する第2モデルを用いて、第2端末の第2センサにより検知された第2センサ値を、生成対象機種の第1センサにおける第1センサ値に変換した変換後センサ値を生成する。例えば、情報処理装置100は、第2センサ値や第2センサの特徴を示すセンサ特徴情報を用いて、生成対象機種の第1センサにおける第1センサ値に変換した変換後センサ値を生成する。
情報処理装置100は、第2端末に対応する機種情報を取得する(ステップS12)。例えば、情報処理装置100は、端末機種情報記憶部122から第2端末に搭載された第2センサのセンサ特徴情報を含む機種情報を取得する。
図2に示す端末機種情報記憶部122中の「機種ID」は、端末装置10の機種を識別するための識別情報である。図2に示す端末機種情報記憶部122中の「重量」は、対応する機種の端末装置10の重量(重さ)を示す。なお、図6に示す例では、「重量」は、「WT1」といった抽象的な符号を図示するが、「150g」や「0.2kg」といった具体的な重さを示す情報であってもよい。
図2に示す端末機種情報記憶部122中の「センサ#1(加速度センサ)」は、対応する機種の端末装置10に搭載された加速度センサに関する情報を示す。「センサ#1(加速度センサ)」には、「センサ」、「配置位置」、「基盤」といった項目が含まれる。「センサ#1(加速度センサ)」の「センサ」は、対応する機種の端末装置10に搭載される加速度センサを特定する情報(製品名等)を示す。「センサ#1(加速度センサ)」の「配置位置」は、対応する機種の端末装置10に搭載される加速度センサの配置位置を示す。例えば、「配置位置」は、対応する機種の端末装置10における加速度センサの配置位置を示す。なお、図6に示す例では、「配置位置」は、「AP1−1」といった抽象的な符号を図示するが、具体的な端末装置10における配置位置を示す情報であってもよい。「センサ#1(加速度センサ)」の「基盤」は、対応する機種の端末装置10に搭載される加速度センサに用いられた基盤を示す。なお、図6に示す例では、「基盤」は、「BD1−1」といった抽象的な符号を図示するが、具体的な加速度センサの基盤を示す情報(型番等)であってもよい。
図2に示す端末機種情報記憶部122中の「センサ#2(ジャイロセンサ)」には、対応する機種の端末装置10に搭載されたジャイロセンサに関する情報を示す。「センサ#2(ジャイロセンサ)」には、「センサ」、「配置位置」、「基盤」といった項目が含まれる。「センサ#2(ジャイロセンサ)」の「センサ」は、対応する機種の端末装置10に搭載されるジャイロセンサを特定する情報(製品名等)を示す。「センサ#2(ジャイロセンサ)」の「配置位置」は、対応する機種の端末装置10に搭載されるジャイロセンサの配置位置を示す。「センサ#2(ジャイロセンサ)」の「基盤」は、対応する機種の端末装置10に搭載されるジャイロセンサに用いられた基盤を示す。
「センサ#3(音センサ)」には、対応する機種の端末装置10に搭載された音センサに関する情報を示す。なお、図1では図示を省略するが、「センサ#3(音センサ)」には、「センサ#1(加速度センサ)」や「センサ#2(ジャイロセンサ)」と同様に、「センサ」、「配置位置」、「基盤」といった項目が含まれる。
図2の例では、情報処理装置100は、端末機種情報記憶部122から第2端末である端末装置TM21の機種PM2に対応する機種情報を取得する。情報処理装置100は、端末機種情報記憶部122から機種PM2に対応するセンサ特徴情報を取得する。
情報処理装置100は、機種ID「PM12」により識別される機種(機種PM12)の端末装置10の重さは、重量WT2であることを示す情報を取得する。また、情報処理装置100は、機種PM12の端末装置10には、加速度センサSN2−1が搭載されていることを示す情報を取得する。また、情報処理装置100は、機種PM12の端末装置10における加速度センサSN2−1の配置位置は、配置位置AP2−1であることを示す情報を取得する。また、情報処理装置100は、加速度センサSN2−1の基盤は、基盤BD2−1であることを示す情報を取得する。
また、情報処理装置100は、機種PM12の端末装置10には、ジャイロセンサSN2−2が搭載されていることを示す情報を取得する。また、情報処理装置100は、機種PM12の端末装置10におけるジャイロセンサSN2−2の配置位置は、配置位置AP2−2であることを示す情報を取得する。また、情報処理装置100は、ジャイロセンサSN2−2の基盤は、基盤BD2−2であることを示す情報を取得する。
また、情報処理装置100は、第2モデルを取得する(ステップS13)。例えば、情報処理装置100は、第2モデル情報記憶部127から第2モデルを取得する。なお、第2モデルの生成についての詳細は後述する。
図2に示す第2モデル情報記憶部127中の「モデルID」は、モデルを識別するための識別情報を示す。「対象センサ情報」は、対応するモデルの対象センサ情報を示す。「変換先機種」は、センサ情報の変換先となる機種を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。また、「入力情報」は、対応付けられた対応するモデルの入力情報を示す。
例えば、図1に示す例において、第2モデルM21−1(以下「モデルM21−1」ともいう)は、対象センサ情報が「加速度」であり、変換先機種が機種PM1であることを示す。モデルM21−1は、入力された加速度情報を機種PM1に対応する加速度情報に変換するために用いられることを示す。例えば、モデルM21−1は、入力された第2センサ値を機種PM1における第1センサ値に変換するために用いられることを示す。また、モデルM21−1には、入力情報として、加速度情報や端末重量やセンサ配置位置等の種々の情報が含まれることを示す。すなわち、モデルM21−1は、加速度情報である第2センサ値やセンサ特徴情報である端末重量やセンサ配置位置等の情報が入力された場合に、第2センサ値に対応する第1センサ値を出力するモデルである。例えば、モデルM21−1は、機種PM1以外の他の機種で検知された第2センサ値や他の機種のセンサ特徴情報である端末重量やセンサ配置位置等の情報が入力された場合に、第2センサ値の検知と同様の条件下において、機種PM1の端末装置10で検知された場合の第1センサ値を出力するモデルである。
そのため、情報処理装置100は、機種PM2で検知された加速度情報AC21−1や機種PM2のセンサ特徴情報である重量WT2や配置位置AP2−1等の情報をモデルM21−1に入力することにより、加速度情報AC21−1を、同様の条件下において、機種PM1の端末装置10で検知された場合の変換後加速度情報CAC21−1を生成することができる。
また、図1に示す例において、第2モデルM21−2(以下「モデルM21−2」ともいう)は、対象センサ情報が「角速度」であり、変換先機種が機種PM1であることを示す。モデルM21−2は、入力された角速度情報を機種PM1に対応する角速度情報に変換するために用いられることを示す。例えば、モデルM21−2は、入力された第2センサ値を機種PM1における第1センサ値に変換するために用いられることを示す。また、モデルM21−2には、入力情報として、角速度情報や端末重量やセンサ配置位置等の種々の情報が含まれることを示す。すなわち、モデルM21−2は、角速度情報である第2センサ値やセンサ特徴情報である端末重量やセンサ配置位置等の情報が入力された場合に、第2センサ値に対応する第1センサ値を出力するモデルである。例えば、モデルM21−2は、機種PM1以外の他の機種で検知された第2センサ値や他の機種のセンサ特徴情報である端末重量やセンサ配置位置等の情報が入力された場合に、第2センサ値の検知と同様の条件下において、機種PM1の端末装置10で検知された場合の第1センサ値を出力するモデルである。
そのため、情報処理装置100は、機種PM2で検知された角速度情報AV21−1や機種PM2のセンサ特徴情報である重量WT2や配置位置AP2−1等の情報をモデルM21−2に入力することにより、角速度情報AV21−1を、同様の条件下において、機種PM1の端末装置10で検知された場合の変換後角速度情報CAV21−1を生成することができる。
図2の例では、情報処理装置100は、第2モデル情報記憶部127からモデルM21−1、M21−2等の第2モデルを取得する。そして、情報処理装置100は、上記のようなモデルM21−1、M21−2等の第2モデルを用いることにより、第1モデルM1を下記の式(3)のように補正することができる。
y = Σw(x) … (3)
上記の式(3)の左辺の変数「y」がモデルM1が出力する出力値(スコア)に対応する。例えば、変数「y」は、0〜1の値を取り、値が「1」に近い程ユーザが歩行中である可能性が高いことを示し、値が「0」に近い程ユーザが歩行中以外である可能性が高いことを示す。
また、上記の式(3)の右辺の変数「x」は、第2センサ値が割り当てられるモデルM1の特徴量を示す。上記の式(3)の右辺の関数「fi()」は、第2センサ値を生成対象機種に対応する値に補正する補正関数を示す。例えば、関数「fi()」は、第2センサ値を第1センサ値に変換する変換関数である。なお、上記の式(3)では、関数「fi()」の入力(変数)として、変数「x」のみを示すが、関数「fi()」の入力(変数)には、端末重量やセンサ(製品)やセンサ配置位置や基盤等のセンサ特徴情報の各々に対応する変数が含まれるものとする。
また、上記の式(3)の右辺の変数「w」は、変数「x」に対応する重みを示す。また、変数「i」は、例えば任意の1以上の自然数であり、モデルM1に用いられる特徴量の数に対応する値となる。例えば、モデルM1に用いられる特徴量が、加速度、角速度、音及び運動状態の4つである場合、変数「i」は、「1」〜「4」の値(自然数)となる。ここで、説明のために上記の式(3)を展開すると下記の式(4)に示すような式となる。
y = w*f(x)+w*f(x)+w*f(x)+w*f(x)+・・・+w*fi(xi) … (4)
例えば、上記の式(4)の右辺の変数「x」は、加速度に対応する第2センサ値が割り当てられる特徴量を示す。上記の式(4)の右辺の関数「f()」は、加速度に対応する第2センサ値を生成対象機種に対応する値に補正する補正関数を示す。例えば、変数「x」は、センサ値である加速度の変化量を示す第2センサ値が割り当てられる。上記の式(4)の右辺の変数「w」は、加速度に対応する重みを示す。
例えば、第2モデルであるモデルM21−1は、上記の式(4)中の関数「f()」に対応する。例えば、情報処理装置100は、下記の式(5)に示すように、加速度に対応する第2センサ値を第1センサ値に変換した変換後センサ値を生成(算出)する。
´ = w*f(x) … (5)
例えば、上記の式(5)の右辺の変数「x」、関数「f()」及び変数「w」は、上記の式(4)と同様である。また、上記の式(5)の左辺の変数「x´」は、加速度に対応する第2センサ値を第1センサ値に変換した変換後センサ値を示す。例えば、上記の式(5)の左辺の変数「x´」は、機種に基づく補正後の特徴量の値を示す。
また、例えば、上記の式(4)の右辺の変数「x」は、角速度に対応する第2センサ値が割り当てられる特徴量を示す。上記の式(4)の右辺の関数「f()」は、角速度に対応する第2センサ値を生成対象機種に対応する値に補正する補正関数を示す。例えば、変数「x」は、センサ値である角速度の変化量を示す第2センサ値が割り当てられる。上記の式(4)の右辺の変数「w」は、角速度に対応する重みを示す。例えば、第2モデルであるモデルM21−2は、上記の式(4)中の関数「f()」に対応する。
例えば、上記の式(4)の右辺の変数「x」は、音に対応する第2センサ値が割り当てられる特徴量を示す。上記の式(4)の右辺の関数「f()」は、音に対応する第2センサ値を生成対象機種に対応する値に補正する補正関数を示す。例えば、変数「x」は、センサ値である音の変化量を示す第2センサ値が割り当てられる。上記の式(4)の右辺の変数「w」は、音に対応する重みを示す。
例えば、上記の式(4)の右辺の変数「x」は、運動状態に対応する第2センサ値が割り当てられる特徴量を示す。上記の式(4)の右辺の関数「f()」は、運動状態に対応する第2センサ値を生成対象機種に対応する値に補正する補正関数を示す。例えば、変数「x」は、センサ値である運動状態の変化量を示す第2センサ値が割り当てられる。上記の式(4)の右辺の変数「w」は、運動状態に対応する重みを示す。
情報処理装置100は、上記のような各センサ種別に対応するモデルM21−1、M21−2等の第2モデルを用いて、機種PM2に対応する第2センサ値を、生成対象機種である機種PM1に対応する第1センサ値に変換する(ステップS14)。これにより、情報処理装置100は、図2に示すような変換後センサ情報INFXを生成する。具体的には、情報処理装置100は、第2センサ値である加速度情報AC21−1を、第1センサ値に変換した変換後加速度情報CAC21−1を含む変換後センサ情報INFXを生成する。また、情報処理装置100は、第2センサ値である角速度情報AV21−1を、第1センサ値に変換した変換後角速度情報CAV21−1を含む変換後センサ情報INFXを生成する。また、情報処理装置100は、第2センサ値である角速度情報AV21−1を、第1センサ値に変換した変換後角速度情報CAV21−1を含む変換後センサ情報INFXを生成する。情報処理装置100は、第2センサ値である音声情報SD21−1を、第1センサ値に変換した変換後音声情報CSD21−1を含む変換後センサ情報INFXを生成する。
このように、情報処理装置100は、モデルM21−1やモデル21−2等の第2モデルを用いて、第2センサ値を第1センサ値に変換することにより、モデルM1の特徴量に対応するセンサ値を補正する。そして、情報処理装置100は、モデルM1における重みと、特徴量に対応する補正したセンサ値とを用いて、ユーザU21が歩行中であるか否かを予測する。
図2の例では、情報処理装置100は、生成した変換後センサ情報INFXをモデルに入力する。例えば、情報処理装置100は、期間TMXにおけるAエリアに関する加速度情報や角速度情報や音声情報等をモデルM1に入力する。例えば、情報処理装置100は、処理群PS11に示すような処理により、日時DT21−1においてユーザU21が歩行中であるか否かを示すスコアを算出する。情報処理装置100は、変換後センサ情報INFXをモデルM1に入力する(ステップS15−1)。具体的には、情報処理装置100は、機種PM2に対応する第2センサ値と機種PM1に対応する第1センサ値へ変換した変換後センサ情報INFXをモデルM1に入力する。変換後センサ情報INFXが入力されたモデルM1は、スコアを出力する(ステップS15−2)。図2の例では、変換後センサ情報INFXが入力されたモデルM1は、スコアSC11−1に示すようなスコア「0.8」を出力する。
そして、情報処理装置100は、生成したスコアに関する情報に基づいて、所定の事柄を予測する(ステップS16)。図2の例では、情報処理装置100は、予測一覧PDLに示すように、機種PM2の端末装置TM21を利用するユーザU21について、歩行中であるか否かを予測する。例えば、情報処理装置100は、対象について、スコアと、所定の閾値との比較に基づいて、ユーザU21が歩行中であるか否かを予測する。図2の例では、情報処理装置100は、閾値「0.7」を用いて、ユーザU21が歩行中であるか否かを予測する。例えば、情報処理装置100は、スコアが閾値以上である場合、そのユーザが歩行中であると予測する。図2の例では、情報処理装置100は、スコアが「0.8」であり、閾値以上であるため、ユーザU21が歩行中であると予測する。なお、情報処理装置100は、生成対象機種の端末装置10を予測対象とする場合は、上記の式(1)に示すようなモデルM1により、補正を行うことなく予測処理を行ってもよい。
このように、情報処理装置100は、変換後センサ情報と第1モデルとを用いて所定の事柄を予測する。具体的には、情報処理装置100は、第2センサで検知した第2センサを、第2モデルを用いて第1センサに対応する第1センサ値に変換した変換後センサ情報を生成する。これにより、情報処理装置100は、第2センサで検知した第2センサから、第1モデルに対応する情報を生成することができる。したがって、情報処理装置100は、第1モデルの生成対象機種とは異なる機種の端末装置10が予測対象となった場合であっても、第1モデルを用いて適切に予測を行うことができる。
すなわち、情報処理装置100は、1つの機種を生成対象機種として予測モデルを生成し、他の機種については、生成対象機種でのセンサ値との変換モデルである第2モデルを用いることにより、1つの機種に対応する第1モデルを他の多くの機種にも適用可能とすることができる。上記のように、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができる。このように、情報処理装置100は、機種ごとに予測モデルを生成することなく、種々の機種に対して適切な予測を行うことができる。すなわち、情報処理装置100は、予測モデルの生成を1つのみにすることで、予測モデルの生成に要する学習処理のコストを抑制することができる。また、情報処理装置100は、予測モデルの生成を1つのみにすることで、予測モデルの保守や更新等についてもコストを抑制することができる。したがって、情報処理装置100は、効率的な予測を可能にすることができる。
〔1−1.第2モデル〕
ここで、情報処理装置100は、図2に示すような第2モデルを生成してもよいし、外部の情報処理装置から第2モデルを取得してもよい。例えば、情報処理装置100は、第2モデルを生成する外部の情報処理装置から第2モデルを取得する場合、外部の情報処理装置から取得した第2モデルを第2モデル情報記憶部127に記憶してもよい。例えば、情報処理装置100は、第2モデルを生成する場合、生成した第2モデルを第2モデル情報記憶部127に記憶してもよい。
例えば、情報処理装置100は、機種依存を補正するような第2モデルを生成してもよい。例えば、情報処理装置100は、線形モデルや非線形モデル等の種々の第2モデルを生成してもよい。例えば、情報処理装置100は、図10中の第2モデル学習用情報記憶部126に示すような第2モデル学習用情報(第2モデル学習用データ)を用いて第2モデルを生成してもよい。この点について、以下説明する。図10は、実施形態に係る第2モデル学習用情報記憶部の一例を示す図である。
図10中の第2モデル学習用情報記憶部126に示す「データID」は、データを識別するための識別情報を示す。図10中の第2モデル学習用情報記憶部126に示す「センサ種別」は、データIDにより識別されるデータが対象とするセンサの種別を示す。
図10中の第2モデル学習用情報記憶部126に示す「第1端末情報」は、データIDにより識別されるデータの第1端末に関する情報を示す。「第1端末情報」の「機種」は、第1端末に対応する機種を示す。「第1端末情報」の「端末」は、第1端末に対応する端末を示す。「第1端末情報」の「センサ情報」は、第1端末について取得されたセンサ情報を示す。
図10中の第2モデル学習用情報記憶部126に示す「第2端末情報」は、データIDにより識別されるデータの第2端末に関する情報を示す。「第2端末情報」の「機種」は、第2端末に対応する機種を示す。「第2端末情報」の「端末」は、第2端末に対応する端末を示す。「第2端末情報」の「センサ情報」は、第2端末について取得されたセンサ情報を示す。
図10に示す例において、データID「DA2−1」により識別されるデータ(データDA2−1)の対象とするセンサの種別は、センサ種別「加速度」であることを示す。データDA2−1は、第1端末の機種が機種PM1であることを示す。データDA2−1は、第1端末である端末装置10が端末装置TM11であることを示す。データDA2−1は、第1端末のセンサ情報が加速度情報AC1−11であることを示す。
また、データDA2−1は、第2端末の機種が機種PM2であることを示す。データDA2−1は、第2端末である端末装置10が端末装置TM22であることを示す。データDA2−1は、第2端末のセンサ情報が加速度情報AC22−11であることを示す。
データDA2−1は、機種PM1の端末装置10において検知された第1センサ値が加速度情報AC1−11であり、同様の条件下において、検知された機種PM2での第2センサ値が加速度情報AC22−11であることを示す。
また、データDA2−2は、機種PM1の端末装置10において検知された第1センサ値が加速度情報AC2−11であり、同様の条件下において、検知された機種PM2での第2センサ値が加速度情報AC23−11であることを示す。
データDA2−3は、機種PM1の端末装置10において検知された第1センサ値が加速度情報AC4−11であり、同様の条件下において、検知された機種PM2での第2センサ値が加速度情報AC31−11であることを示す。
情報処理装置100は、上記のようなデータDA2−1〜DA2−3のような加速度に関する学習データを用いて、他の機種の第2センサ値を、機種PM1に対応する第1センサ値に変換する第2モデルであるモデルM21−1を生成する。例えば、情報処理装置100は、加速度情報AC22−11である第2センサ値や機種PM2のセンサ特徴情報が入力された場合に、加速度情報AC1−11に対応する値を出力するようにモデルM21−1を生成する。例えば、情報処理装置100は、加速度情報AC23−11である第2センサ値や機種PM2のセンサ特徴情報が入力された場合に、加速度情報AC2−11に対応する値を出力するようにモデルM21−1を生成する。例えば、情報処理装置100は、加速度情報AC31−11である第2センサ値や機種PM2のセンサ特徴情報が入力された場合に、加速度情報AC4−11に対応する値を出力するようにモデルM21−1を生成する。
図10に示す例において、データID「DA2−4」により識別されるデータ(データDA2−4)の対象とするセンサの種別は、センサ種別「角速度」であることを示す。データDA2−4は、第1端末の機種が機種PM1であることを示す。データDA2−4は、第1端末である端末装置10が端末装置TM14であることを示す。データDA2−4は、第1端末のセンサ情報が角速度情報AV4−12であることを示す。
また、データDA2−4は、第2端末の機種が機種PM2であることを示す。データDA2−4は、第2端末である端末装置10が端末装置TM22であることを示す。データDA2−4は、第2端末のセンサ情報が角速度情報AV22−12であることを示す。
情報処理装置100は、上記のようなデータDA2−4のような角速度に関する学習データを用いて、他の機種の第2センサ値を、機種PM1に対応する第1センサ値に変換する第2モデルであるモデルM21−2を生成する。例えば、情報処理装置100は、角速度情報AV22−12である第2センサ値や機種PM2のセンサ特徴情報が入力された場合に、角速度情報AV4−12に対応する値を出力するようにモデルM21−2を生成する。また、情報処理装置100は、他のセンサ種別「音声」や「運動状態」に対応するモデルについても同様に生成する。
なお、第2モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、第2モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、第2モデルの生成は、線形回帰や非線形回帰等の機械学習に関する技術を用いて行われてもよい。例えば、第2モデルの生成は、SVM等の教師あり学習の機械学習に関する技術を用いて行われてもよい。例えば、第2モデルの生成は、深層学習の技術を用いて行われてもよい。例えば、第2モデルの生成は、DNNやRNNやCNN等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記第2モデルの生成に関する記載は例示であり、第2モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、情報処理装置100は、センサ値について所望の補正を行う第2モデルを学習可能であれば、どのような手法により第2モデルの生成を行ってもよい。
また、図10中の第2モデル学習用情報記憶部126に示す第2モデル学習用データは一例であり、情報処理装置100は、種々の方法により収集された第2モデル学習用データを用いて、第2モデルを生成してもよい。例えば、所定のユーザが異なる機種の複数の端末装置10を一体として所持して、各端末装置10からセンサ値を収集し、それらのセンサ値を同様の条件下において、検知されたセンサ値として対応付けることにより、第2モデル学習用情報が生成されてもよい。そして、情報処理装置100は、上記のように生成された第2モデル学習用情報を取得し、取得した第2モデル学習用情報を第2モデル学習用情報記憶部126に記憶してもよい。
〔1−2.予測の対象について〕
図1及び図2の例では、ユーザが利用する端末装置10の機種の差に基づく処理について説明した。具体的には、図1及び図2の例では、ユーザが利用する端末装置10の各機種に搭載されるセンサの差に基づく処理について説明したが、情報処理装置100は、端末装置10に限らず、種々の対象における所定の事柄を予測してもよい。
例えば、情報処理装置100は、図1及び図2に示す端末装置の機種のように、一のカテゴリに属する複数の対象について、図1及び図2の示す処理と同様に処理してもよい。例えば、情報処理装置100は、一のカテゴリに属する複数の対象のうち、一の対象についての第1情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一の対象以外の他の対象について予測を行う場合は、他の対象の第2情報を第1情報に変換する第2モデルを用いて、他の対象について予測を行ってもよい。
例えば、情報処理装置100は、ユーザを年齢や性別等の属性情報に基づいて、複数のユーザ群に分類し、図1及び図2の示す処理と同様に処理してもよい。例えば、情報処理装置100は、複数のユーザ群のうち、一のユーザ群に属する第1ユーザついての第1ユーザ情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一のユーザ群以外の他のユーザ群に属する第2ユーザについて予測を行う場合は、第2ユーザの第2ユーザ情報を第1ユーザ情報に変換する第2モデルを用いて、第2ユーザについて予測を行ってもよい。この場合、情報処理装置100は、ユーザの検索やコンテンツ閲覧等の行動等の情報を特徴情報として用いてもよい。例えば、情報処理装置100は、一のユーザ群に属する第1ユーザについて生成した行動予測モデルを、第2ユーザについて用いて、第2ユーザの行動を予測してもよい。
例えば、情報処理装置100は、一の野球リーグに属する複数の野球チームのうち、一の野球チームについての第1チーム情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一の野球チーム以外の他の野球チームについて予測を行う場合は、他の野球チームの第2チーム情報を第1チーム情報に変換する第2モデルを用いて、他の野球チームについて予測を行ってもよい。この場合、情報処理装置100は、投手の成績や打者の成績等の情報を特徴情報として用いてもよい。例えば、情報処理装置100は、一の野球チームについて生成した順位予測モデルを、他の野球チームについて用いて、他の野球チームの順位を予測してもよい。
例えば、情報処理装置100は、複数のアイドルグループのうち、一のアイドルグループについての第1グループ情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一のアイドルグループ以外の他のアイドルグループについて予測を行う場合は、他のアイドルグループの第2グループ情報を第1グループ情報に変換する第2モデルを用いて、他のアイドルグループについて予測を行ってもよい。この場合、情報処理装置100は、グループの人数や平均年齢等の情報を特徴情報として用いてもよい。例えば、情報処理装置100は、一のアイドルグループについて生成した年間売上予測モデルを、他のアイドルグループについて用いて、他のアイドルグループの年間売上を予測してもよい。
例えば、情報処理装置100は、一の国における複数の政党のうち、一の政党についての第1政党情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一の政党以外の他の政党について予測を行う場合は、他の政党の第2政党情報を第1政党情報に変換する第2モデルを用いて、他の政党について予測を行ってもよい。この場合、情報処理装置100は、所属議員の出身地や政治的思考の比率等の情報を特徴情報として用いてもよい。例えば、情報処理装置100は、一の政党について生成した得票率予測モデルを、他の政党について用いて、他の政党の得票率を予測してもよい。
例えば、情報処理装置100は、複数のテレビ番組のうち、一のテレビ番組についての第1チーム情報を基に第1モデルを生成してもよい。この場合、情報処理装置100は、一のテレビ番組以外の他のテレビ番組について予測を行う場合は、他のテレビ番組の第2チーム情報を第1チーム情報に変換する第2モデルを用いて、他のテレビ番組について予測を行ってもよい。この場合、情報処理装置100は、出演者や放送日や放送時間帯や番組予算等の情報を特徴情報として用いてもよい。例えば、情報処理装置100は、一のテレビ番組について生成した視聴率予測モデルを、他のテレビ番組について用いて、他のテレビ番組の視聴率を予測してもよい。
〔1−3.予測例について〕
また、情報処理装置100は、種々の情報を用いて、予測処理を行ってもよい。情報処理装置100は、種々の情報を組み合わせて、予測処理を行ってもよい。例えば、情報処理装置100は、センサ情報と、地図情報とを組み合わせて、予測処理を行ってもよい。
例えば、情報処理装置100は、地図情報や時系列的なデータ等の種々の種別のデータ(情報)を考慮して、予測処理を行ってもよい。例えば、情報処理装置100は、GPS情報(位置情報)等の時系列的なデータと地図情報とを組み合わせて、予測処理を行ってもよい。例えば、情報処理装置100は、GPS情報(位置情報)等の時系列的なデータと地図情報とを組み合わせて、○○線の線路上を時速90kmで移動していることを特定し、これによりユーザが電車に乗っていると予測することにより、ユーザが歩行中ではないと予測してもよい。例えば、情報処理装置100は、ユーザの位置等の時系列的なデータと、道路の位置や線路の位置等を示す地図情報とを組み合わせて、ユーザの移動体への乗車を判定してもよい。そして、情報処理装置100は、ユーザが移動体に乗車していると判定した場合、歩行中ではない、すなわちユーザが歩行中以外であると予測してもよい。なお、情報処理装置100は、地図情報や時系列的なデータに限らず、種々の情報を用いて、予測処理を行ってもよい。
〔1−4.センサ情報について〕
上述したように、情報処理装置100は、種々のセンサ情報を用いて予測処理を行ってもよい。
情報処理装置100は、所定の端末に対する物理量の情報を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10に対する物理量の情報等を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10に対する物理量の情報等を含むセンサ情報を用いて第1センサを生成し、生成した第1モデルを用いて予測処理を行ってもよい。例えば、情報処理装置100は、端末装置10における加速度や圧力等の物理量の情報等を含むセンサ情報を用いて予測処理を行ってもよい。例えば、情報処理装置100は、端末装置10における加速度の変化(量)や圧力の変化(量)等の物理量の変化情報を用いて予測処理を行ってもよい。
情報処理装置100は、所定の端末周辺の環境情報を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10周辺の環境情報等を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10周辺の環境情報等を含むセンサ情報を用いて第1センサを生成し、生成した第1モデルを用いて予測処理を行ってもよい。
例えば、情報処理装置100は、位置情報(位置)、照度、温度、湿度、磁界等の端末装置10周辺の環境情報等を含むセンサ情報を用いて予測処理を行ってもよい。例えば、情報処理装置100は、位置の変化(量)、照度の変化(量)、温度の変化(量)、湿度の変化(量)、磁界の変化(量)等の端末装置10周辺の環境の変化情報を用いて予測処理を行ってもよい。
例えば、情報処理装置100は、音声、画像等の端末装置10周辺の環境情報等を含むセンサ情報を用いて予測処理を行ってもよい。例えば、情報処理装置100は、音声の変化(量)、画像の変化(量)等の端末装置10周辺の環境の変化情報を用いて予測処理を行ってもよい。
情報処理装置100は、所定の端末を利用するユーザの生体情報を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10を利用するユーザの生体情報等を含むセンサ情報を用いて予測処理を行ってもよい。情報処理装置100は、端末装置10を利用するユーザの生体情報等を含むセンサ情報を用いて第1センサを生成し、生成した第1モデルを用いて予測処理を行ってもよい。例えば、端末装置10は、ニオイ、汗、指紋等の端末装置10を利用するユーザの生体情報等を含むセンサ情報を用いて予測処理を行ってもよい。例えば、端末装置10は、ニオイの変化(量)、汗の変化(量)等の端末装置10を利用するユーザの生体の変化情報を用いて予測処理を行ってもよい。
〔2.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば情報処理システム1に含まれる端末装置10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、ユーザ情報記憶部121と、端末機種情報記憶部122と、センサ情報記憶部123と、第1モデル学習用情報記憶部124と、第1モデル情報記憶部125と、第2モデル学習用情報記憶部126と、第2モデル情報記憶部127とを有する。
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報等の種々の情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「自宅」、「勤務地」、「利用端末」、「機種情報」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
また、「自宅」は、ユーザIDにより識別されるユーザの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。
また、「勤務地」は、ユーザIDにより識別されるユーザの勤務地の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。
また、「利用端末」は、ユーザIDにより識別されるユーザが利用する端末装置10を示す。なお、図5に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。また、例えば、ユーザU3が端末装置TM13と端末装置TM130を利用する場合、ユーザU3に対応する「利用端末」は、「TM31」と「TM130」とが記憶されてもよい。
また、「機種情報」は、ユーザIDにより識別されるユーザが利用する端末装置10の機種を示す。なお、図5に示す例では、「機種情報」に「PM1」といった機種を識別する機種IDが記憶される場合を示すが、「機種情報」には、「スマホ○○バージョン6」といった具体的な機種名を示す情報が記憶されてもよい。
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザU1は、自宅が「LC11」であり、勤務地が「LC12」であることを示す。また、例えば、ユーザU1が利用する端末装置10は、端末装置TM11であり、機種は機種ID「PM1」により識別される機種であることを示す。
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。
(端末機種情報記憶部122)
実施形態に係る端末機種情報記憶部122は、端末装置の各機種に関する各種情報を記憶する。例えば、端末機種情報記憶部122は、端末機種情報を記憶する。図6は、実施形態に係る端末機種情報記憶部の一例を示す図である。例えば、端末機種情報記憶部122は、各機種に関する情報や各機種に搭載される各種センサに関する情報を記憶する。例えば、端末機種情報記憶部122は、各機種に搭載される各種センサに関するセンサ特徴情報を記憶する。図6に示す端末機種情報記憶部122には、「機種ID」、「重量」、「センサ#1(加速度センサ)」、「センサ#2(ジャイロセンサ)」、「センサ#3(音センサ)」といった項目が含まれる。図6の例では、「センサ#1」〜「センサ#3」のみを図示するが、端末機種情報記憶部122には、「センサ#4」、「センサ#5」等、各機種が有するセンサの数に対応する項目が含まれてもよい。例えば、端末機種情報記憶部122には、「センサ#4(モーションセンサ)」等の項目が含まれてもよい。
「機種ID」は、端末装置10の機種を識別するための識別情報である。「重量」は、対応する機種の端末装置10の重量(重さ)を示す。なお、図6に示す例では、「重量」は、「WT1」といった抽象的な符号を図示するが、「150g」や「0.2kg」といった具体的な重さを示す情報であってもよい。
「センサ#1(加速度センサ)」は、対応する機種の端末装置10に搭載された加速度センサに関する情報を示す。「センサ#1(加速度センサ)」には、「センサ」、「配置位置」、「基盤」といった項目が含まれる。「センサ#1(加速度センサ)」の「センサ」は、対応する機種の端末装置10に搭載される加速度センサを特定する情報を示す。なお、図6に示す例では、「センサ」は、「SN1−1」といった抽象的な符号を図示するが、具体的なセンサ名等であってもよい。
「センサ#1(加速度センサ)」の「配置位置」は、対応する機種の端末装置10に搭載される加速度センサの配置位置を示す。例えば、「配置位置」は、対応する機種の端末装置10における加速度センサの配置位置を示す。なお、図6に示す例では、「配置位置」は、「AP1−1」といった抽象的な符号を図示するが、具体的な端末装置10における配置位置を示す情報であってもよい。「センサ#1(加速度センサ)」の「基盤」は、対応する機種の端末装置10に搭載される加速度センサに用いられた基盤を示す。なお、図6に示す例では、「基盤」は、「BD1−1」といった抽象的な符号を図示するが、具体的な加速度センサの基盤を示す情報(型番等)であってもよい。
「センサ#2(ジャイロセンサ)」には、対応する機種の端末装置10に搭載されたジャイロセンサに関する情報を示す。「センサ#2(ジャイロセンサ)」には、「センサ」、「配置位置」、「基盤」といった項目が含まれる。「センサ#2(ジャイロセンサ)」の「センサ」は、対応する機種の端末装置10に搭載されるジャイロセンサを特定する情報を示す。なお、図6に示す例では、「センサ」は、「SN1−2」といった抽象的な符号を図示するが、具体的なセンサ名等であってもよい。
「センサ#2(ジャイロセンサ)」の「配置位置」は、対応する機種の端末装置10に搭載されるジャイロセンサの配置位置を示す。例えば、「配置位置」は、対応する機種の端末装置10におけるジャイロセンサの配置位置を示す。なお、図6に示す例では、「配置位置」は、「AP1−2」といった抽象的な符号を図示するが、具体的な端末装置10における配置位置を示す情報であってもよい。「センサ#2(ジャイロセンサ)」の「基盤」は、対応する機種の端末装置10に搭載されるジャイロセンサに用いられた基盤を示す。なお、図6に示す例では、「基盤」は、「BD1−2」といった抽象的な符号を図示するが、具体的なジャイロセンサの基盤を示す情報(型番等)であってもよい。
「センサ#3(音センサ)」には、対応する機種の端末装置10に搭載された音センサに関する情報を示す。なお、図6では図示を省略するが、「センサ#3(音センサ)」には、「センサ#1(加速度センサ)」や「センサ#2(ジャイロセンサ)」と同様に、「センサ」、「配置位置」、「基盤」といった項目が含まれる。
図6に示す例において、機種ID「PM11」により識別される機種(機種PM11)の端末装置10の重さは、重量WT1であることを示す。また、機種PM11の端末装置10には、加速度センサSN1−1が搭載されていることを示す。機種PM11の端末装置10における加速度センサSN1−1の配置位置は、配置位置AP1−1であることを示す。加速度センサSN1−1の基盤は、基盤BD1−1であることを示す。
また、機種PM11の端末装置10には、ジャイロセンサSN1−2が搭載されていることを示す。機種PM11の端末装置10におけるジャイロセンサSN1−2の配置位置は、配置位置AP1−2であることを示す。ジャイロセンサSN1−2の基盤は、基盤BD1−2であることを示す。
なお、端末機種情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(センサ情報記憶部123)
実施形態に係るセンサ情報記憶部123は、センサに関する各種情報を記憶する。図7は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部123は、各ユーザの端末装置10を用いて行った検索等を含む種々の行動情報を記憶する。図7に示すセンサ情報記憶部123には、「端末ID」、「履歴ID」、「日時」、「センサ情報」といった項目が含まれる。「センサ情報」には、「加速度情報」、「角速度情報」、「音声情報」といった項目が含まれる。図6の例では、「センサ情報」として、「加速度情報」、「角速度情報」、「音声情報」のみを図示するが、「センサ情報」には、「運動状態情報」等、検知される各種センサ情報に対応する項目が含まれてもよい。
「端末ID」は、端末を識別するための識別情報を示す。また、各「端末ID」の下の括弧内の情報は、各端末に対応する機種を示す。「履歴ID」は、取得されたセンサ情報を識別するための識別情報を示す。また、「日時」は、各履歴IDに対応する日時を示す。例えば、「日時」は、各履歴IDに対応するセンサ情報が取得された日時を示す。図7の例では、「日時」には、「DT11−1」等のように抽象的に図示するが、「2018年7月9日22時48分39秒」等の具体的な日時が記憶されてもよい。
また、「センサ情報」は、取得されたセンサ情報を示す。「センサ情報」中の「加速度情報」は、取得された加速度情報を示す。例えば、「加速度情報」には、加速度の変化を示す情報が記憶される。なお、図7に示す例では、「加速度情報」は、「AC1−1」といった抽象的な符号を図示するが、具体的な数値等であってもよい。
また、「センサ情報」中の「角速度情報」は、取得された角速度情報を示す。例えば、「角速度情報」には、角速度の変化を示す情報が記憶される。なお、図7に示す例では、「角速度情報」は、「AV1−1」といった抽象的な符号を図示するが、具体的な数値等であってもよい。
また、「センサ情報」中の「音声情報」は、取得された音声情報を示す。例えば、「音声情報」には、音量の変化を示す情報が記憶される。なお、図7に示す例では、「音声情報」は、「SD1−1」といった抽象的な符号を図示するが、具体的な数値等であってもよい。
例えば、図7の例では、端末ID「TM11」により識別される端末装置10(図1中のユーザU1が利用する端末装置TM11に対応)は、履歴ID「LG11−1」〜「LG11−3」等により識別されるセンサ情報が記憶されていることを示す。端末装置TM11は、日時DT11−1において、加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等を含むセンサ情報が取得(検知)されたことを示す。端末装置TM11は、日時DT11−2において、加速度情報AC1−2や角速度情報AV1−2や音声情報SD1−2等を含むセンサ情報が取得(検知)されたことを示す。
また、端末ID「TM21」により識別される端末(図2中のユーザU21が利用する端末装置TM21に対応)は、履歴ID「LG21−1」等により識別されるセンサ情報が記憶されていることを示す。端末装置TM21は、日時DT21−1において、加速度情報AC21−1や角速度情報AV21−1や音声情報SD21−1等を含むセンサ情報が取得(検知)されたことを示す。
なお、センサ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、センサ情報記憶部123には、各履歴に対応する位置が記憶されてもよい。例えば、センサ情報記憶部123は、各履歴IDに対応する日時における端末装置10の位置を示す情報が記憶されてもよい。例えば、センサ情報記憶部123は、各履歴IDに対応する日時における端末装置10の緯度経度等の位置情報が記憶されてもよい。
(第1モデル学習用情報記憶部124)
実施形態に係る第1モデル学習用情報記憶部124は、第1モデルの学習に用いる各種情報(データ)を記憶する。図8は、実施形態に係る第1モデル学習用情報記憶部の一例を示す図である。例えば、第1モデル学習用情報記憶部124は、モデルの生成に用いる教師データを記憶する。図8に示す第1モデル学習用情報記憶部124には、「データID」、「対象機種」、「端末」、「ユーザ」、「履歴ID」、「正解情報」、「センサ情報」といった項目が含まれる。「センサ情報」には、「加速度情報」、「角速度情報」、「音声情報」といった項目が含まれる。
「データID」は、データを識別するための識別情報を示す。例えば、データID「DA1−1」により識別されるデータは、図1の例に示した、データDA1−1に対応する。「対象機種」は、データIDにより識別されるデータの対象機種を示す。「端末」は、データIDにより識別されるデータの対象端末を示す。「ユーザ」は、データIDにより識別されるデータの対象ユーザを示す。「履歴ID」は、データIDにより識別されるデータの対象となるセンサ情報の識別情報を示す。
「正解情報」は、データIDにより識別されるデータに対応する正解情報(正解情報RDT1−1)を示す。例えば、「正解情報」は、データIDにより識別されるデータに対応するユーザが歩行状態であるか否かを示す。図8では「正解情報」に「RDT1−1」といった概念的な情報が格納される例を示したが、実際には、対象ユーザが歩行中である場合は「1」を、対象ユーザが歩行中以外である場合は「0」を示す情報、または、その格納場所を示すファイルパス名などが格納される。例えば、正解情報RDT1−1や正解情報RDT1−2は、対象ユーザが歩行中であることを示す値「1」であってもよい。例えば、正解情報RDT1−3や正解情報RDT1−4は、対象ユーザが歩行中以外であることを示す値「0」であってもよい。
「センサ情報」中の「加速度情報」は、センサ情報に含まれる加速度情報を示す。図8では「加速度情報」に「AC1−1」といった概念的な情報が格納される例を示したが、実際には、加速度や加速度の変化を示す具体的な数値等、または、その格納場所を示すファイルパス名などが格納される。
「センサ情報」中の「角速度情報」は、センサ情報に含まれる角速度情報を示す。図8では「角速度情報」に「AV1−1」といった概念的な情報が格納される例を示したが、実際には、角速度や角速度の変化を示す具体的な数値等、または、その格納場所を示すファイルパス名などが格納される。
「センサ情報」中の「音声情報」は、センサ情報に含まれる音声情報を示す。図8では「音声情報」に「SD1−1」といった概念的な情報が格納される例を示したが、実際には、音や音量の変化を示す具体的な数値等、または、その格納場所を示すファイルパス名などが格納される。
例えば、図8に示す例において、データID「DA1−1」により識別されるデータ(データDA1−1)の対象機種は、機種PM1であることを示す。データDA1−1は、データDA1−1の対象端末は、端末装置TM11であることを示す。データDA1−1は、データDA1−1の対象ユーザは、ユーザU1であることを示す。また、データDA1−1は、正解情報RDT1−1を含むことを示す。データDA1−1は、センサ情報として、加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等を含むことを示す。
なお、第1モデル学習用情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第1モデル学習用情報記憶部124は、学習データが追加された日時に関する情報を記憶してもよい。また、例えば、第1モデル学習用情報記憶部124は、各学習データがどのような判定処理により追加されたかを示す情報を記憶してもよい。例えば、第1モデル学習用情報記憶部124は、各学習データが管理者の選択により判定されたか等を示す情報を記憶してもよい。
(第1モデル情報記憶部125)
実施形態に係る第1モデル情報記憶部125は、予測モデルである第1モデルに関する情報を記憶する。例えば、第1モデル情報記憶部125は、生成処理により生成された第1モデルのモデル情報(モデルデータ)を記憶する。図9は、実施形態に係る第1モデル情報記憶部の一例を示す図である。図9に示す第1モデル情報記憶部125は、「モデルID」、「予測対象」、「生成時対象機種」、「モデルデータ」といった項目が含まれる。なお、図9では、モデルM1、M2のみを図示するが、M3、M4、M5等、各対象(予測対象)に応じて多数のモデル情報が記憶されてもよい。
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「予測対象」は、対応するモデルの予測対象を示す。「生成時対象機種」は、対応するモデルの生成時に対象とされた機種(生成対象機種)を示す。例えば、「生成時対象機種」は、対応するモデルの生成時に学習用データとして用いられたセンサ情報等が検知された端末の機種を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。
例えば、図9に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、予測対象が「歩行」であり、入力されたセンサ情報に対応するユーザが歩行しているか否かの予測に用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。
例えば、モデルM1(モデルデータMDT1)は、所定の入力情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の事柄の予測に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。
ここで、モデルM1、M2等が「y=w*x+w*x+・・・+w*x」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数wi(重みwi)に対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。
また、モデルM1、M2等がDNN等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。
なお、第1モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
(第2モデル学習用情報記憶部126)
実施形態に係る第2モデル学習用情報記憶部126は、第2モデルの学習に用いる各種情報(データ)を記憶する。図10は、実施形態に係る第2モデル学習用情報記憶部の一例を示す図である。図10に示す第2モデル学習用情報記憶部126には、「データID」、「センサ種別」、「第1端末情報」、「第2端末情報」。「第1端末情報」や「第2端末情報」には、「機種」、「端末」、「センサ情報」といった項目が含まれる。
「データID」は、データを識別するための識別情報を示す。「センサ種別」は、データIDにより識別されるデータが対象とするセンサの種別を示す。
「第1端末情報」は、データIDにより識別されるデータの第1端末に関する情報を示す。「第1端末情報」の「機種」は、第1端末に対応する機種を示す。「第1端末情報」の「端末」は、第1端末に対応する端末を示す。「第1端末情報」の「センサ情報」は、第1端末について取得されたセンサ情報を示す。図10では「センサ情報」に「AC1−11」や「AD4−12」といった概念的な情報が格納される例を示したが、実際には、対応するセンサの検知した値(センサ値)やセンサ値の変化量等、または、その格納場所を示すファイルパス名などが格納される。
「第2端末情報」は、データIDにより識別されるデータの第2端末に関する情報を示す。「第2端末情報」の「機種」は、第2端末に対応する機種を示す。「第2端末情報」の「端末」は、第2端末に対応する端末を示す。「第2端末情報」の「センサ情報」は、第2端末について取得されたセンサ情報を示す。図10では「センサ情報」に「AC22−11」や「AD22−12」といった概念的な情報が格納される例を示したが、実際には、対応するセンサの検知した値(センサ値)やセンサ値の変化量等、または、その格納場所を示すファイルパス名などが格納される。
図10に示す例において、データID「DA2−1」により識別されるデータ(データDA2−1)の対象とするセンサの種別は、センサ種別「加速度」であることを示す。データDA2−1は、第1端末の機種が機種PM1であることを示す。データDA2−1は、第1端末である端末装置10が端末装置TM11であることを示す。データDA2−1は、第1端末のセンサ情報が加速度情報AC1−11であることを示す。
また、データDA2−1は、第2端末の機種が機種PM2であることを示す。データDA2−1は、第2端末である端末装置10が端末装置TM22であることを示す。データDA2−1は、第2端末のセンサ情報が加速度情報AC22−11であることを示す。
なお、第2モデル学習用情報記憶部126は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、第2モデル学習用情報記憶部126は、学習データが追加された日時に関する情報を記憶してもよい。また、例えば、第2モデル学習用情報記憶部126は、各学習データがどのような判定処理により追加されたかを示す情報を記憶してもよい。例えば、第2モデル学習用情報記憶部126は、各学習データが管理者の選択により判定されたか等を示す情報を記憶してもよい。
(第2モデル情報記憶部127)
実施形態に係る第2モデル情報記憶部127は、補正用のモデルである第2モデルに関する情報を記憶する。例えば、第2モデル情報記憶部127は、生成処理により生成された第2モデルのモデル情報(モデルデータ)を記憶する。図9は、実施形態に係る第2モデル情報記憶部の一例を示す図である。図9に示す第2モデル情報記憶部127は、「モデルID」、「対象センサ情報」、「変換先機種」、「モデルデータ」といった項目が含まれる。なお、図9では、モデルM21−1、M21−2のみを図示するが、M21−3、M21−4、M21−5等、各対象(対象センサ)に応じて多数のモデル情報が記憶されてもよい。
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M21−1」により識別されるモデルは、図2の例に示した第2モデルであるモデルM21−1に対応する。「対象センサ情報」は、対応するモデルの対象センサ情報を示す。「変換先機種」は、センサ情報の変換先となる機種を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。また、「入力情報」は、対応付けられた対応するモデルの入力情報を示す。
例えば、図11に示す例において、モデルID「M21−1」により識別されるモデル(モデルM21−1)は、対象センサ情報が「加速度」であり、変換先機種が機種PM1であることを示す。モデルM21−1は、入力された加速度情報を機種PM1に対応する加速度情報(変換後加速度情報)に変換するために用いられることを示す。例えば、モデルM21−1は、入力された加速度の変化を示す値を機種PM1における加速度の変化を示す値に変換するために用いられることを示す。また、モデルM21−1のモデルデータは、モデルデータMDT21−1であることを示す。また、モデルM21−1には、入力情報として、加速度情報や端末重量やセンサ配置位置等の種々の情報が含まれることを示す。
例えば、第2モデルであるモデルM21−1、M21−2等は、センサ値を補正する補正関数に対応する。例えば、第2モデルであるモデルM21−1は、上記の式(4)中の関数「f()」に対応する。例えば、第2モデルであるモデルM21−2は、上記の式(4)中の関数「f()」に対応する。例えば、モデルM21−1、M21−2等の入力情報としては、センサ配置位置や基盤等の数値以外のセンサ特徴情報は、所定の数値に変換された情報が用いられてもよい。
なお、第2モデル情報記憶部127は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部130は、第1モデル情報記憶部125に記憶されているモデルM1等に従った情報処理により、第1情報以外の情報であって、所定の入力情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の事柄の予測に用いられるスコアの値を出力層から出力する。
図4に示すように、制御部130は、取得部131と、生成部132と、予測部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
制御部130は、記憶部120に記憶されているモデルM1(モデルデータMDT1)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素とを含み、入力層に入力された入力情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、入力された入力情報に対応するスコアを出力層から出力する。なお、モデルM1等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM1等のモデルは、プログラムであってもよい。
(取得部131)
取得部131は、各種情報を取得する。取得部131は、記憶部120から各種情報を取得する。取得部131は、ユーザ情報記憶部121や端末機種情報記憶部122やセンサ情報記憶部123や第1モデル学習用情報記憶部124や第1モデル情報記憶部125や第2モデル学習用情報記憶部126や第2モデル情報記憶部127から各種情報を取得する。取得部131は、外部の情報処理装置から各種情報を取得する。取得部131は、端末装置10から各種情報を取得する。
取得部131は、ユーザが利用する端末装置10から各種のセンサ情報を取得する。取得部131は、所定のセンサにより検知されるセンサ情報を取得する。取得部131は、端末装置10が有する種々のセンサにより検知される種々のセンサ情報を取得する。取得部131は、加速度センサにより検知される加速度情報を取得する。取得部131は、ジャイロセンサにより検知される角速度情報を取得する。取得部131は、音センサにより検知される音声情報を取得する。取得部131は、所定のセンサにより検知される運動状態情報を取得する。取得部131は、センサ情報の変化を示す情報を取得する。
取得部131は、端末装置10が有する加速度センサにより検知される加速度情報を取得する。取得部131は、端末装置10が有するジャイロセンサにより検知される角速度情報を取得する。取得部131は、端末装置10が有する音センサにより検知される音声情報を取得する。取得部131は、端末装置10が有するセンサにより検知される運動状態情報を取得する。取得部131は、センサ情報の変化を示す情報を取得する。
取得部131は、所定の事柄の予測に用いる第1モデルと、第1モデルの要素を補正する第2モデルとを取得する。取得部131は、第1モデルの要素に対応する値を補正する第2モデルを取得する。取得部131は、第1モデルにおける重みと特徴量とを含む要素のうち、特徴量に対応する値を補正する第2モデルを取得する。
取得部131は、所定のセンサにより検知されるセンサ情報に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得する。取得部131は、加速度センサにより検知される加速度情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、ジャイロセンサにより検知される角速度情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、音センサにより検知される音声情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、所定のセンサにより検知される運動状態情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、センサ情報の変化に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得する。
取得部131は、第1対象に関する第1情報を用いて生成された第1モデルと、第2対象に関する情報であって、第1情報に対応する情報である第2情報とを取得する。取得部131は、第2情報における要素に対応する第2値を、第1情報における要素に対応する第1値に変換する第2モデルを取得する。取得部131は、第1対象である第1端末に関する第1情報を用いて生成された第1モデルを取得する。取得部131は、第1端末が有する第1センサにより検知されたセンサ情報である第1情報を用いて生成された第1モデルと、第2端末が有する第2センサにより検知されたセンサ情報である第2情報とを取得する。
取得部131は、第2情報における要素に対応する第2センサ値と、第2センサの特徴を示すセンサ特徴情報とが入力された場合、第1情報における要素に対応する第1センサ値に第2センサ値を変換する第2モデルを取得する。取得部131は、第2センサ値と、第2センサを示す製品情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。取得部131は、第2センサ値と、第2センサの第2端末における配置を示す位置情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。取得部131は、第2センサ値と、第2センサに用いられた基盤を示す基盤情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。取得部131は、第2センサ値と、第2センサの第2端末の重さを示す重さ情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。
取得部131は、第1端末を利用する第1ユーザにおける所定の事柄の予測に用いる第1モデルを取得する。取得部131は、所定の端末に対する物理量の情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、所定の端末周辺の環境情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、所定の端末を利用するユーザの生体情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。取得部131は、所定の端末に対する物理量の情報を含むセンサ情報を取得する。取得部131は、所定の端末周辺の環境情報を含むセンサ情報を取得する。取得部131は、所定の端末を利用するユーザの生体情報を含むセンサ情報を取得する。取得部131は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報を取得する。
図1の例では、取得部131は、日時DT11−1において、端末装置TM11の加速度センサにより検知された加速度に関する加速度情報AC1−1を取得する。例えば、取得部131は、機種PM1である端末装置TM11の加速度センサSN1−1(図6参照)により検知された加速度に関する加速度情報AC1−1を取得する。取得部131は、日時DT11−1において、端末装置TM11のジャイロセンサにより検知された角速度に関する角速度情報AV1−1を取得する。例えば、取得部131は、機種PM1である端末装置TM11の角速度センサSN1−2(図6参照)により検知された角速度に関する角速度情報AV1−1を取得する。取得部131は、日時DT11−1において、端末装置TM11の音センサにより検知された音に関する音声情報SD1−1を取得する。例えば、取得部131は、機種PM1である端末装置TM11の音速度センサ(図示省略)により検知された音に関する音声情報SD1−1を取得する。
図1の例では、取得部131は、加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等が含まれるセンサ情報(センサ情報LG11−1)を取得する。取得部131は、加速度情報AC1−2や角速度情報AV1−2や音声情報SD1−2等が含まれるセンサ情報(センサ情報LG11−2)を取得する。取得部131は、加速度情報AC1−3や角速度情報AV1−3や音声情報SD1−3等が含まれるセンサ情報(センサ情報LG11−3)を取得する。取得部131は、加速度情報AC2−1や角速度情報AV2−1や音声情報SD2−1等が含まれるセンサ情報(センサ情報LG12−1)を取得する。取得部131は、加速度情報AC2−2や角速度情報AV2−2や音声情報SD2−2等が含まれるセンサ情報(センサ情報LG12−2)を取得する。
図2の例では、取得部131は、日時DT21−1において、端末装置TM21の加速度センサにより検知された加速度に関する加速度情報AC21−1を取得する。例えば、取得部131は、機種PM2である端末装置TM21の加速度センサSN2−1(図6参照)により検知された加速度に関する加速度情報AC21−1を取得する。取得部131は、日時DT21−1において、端末装置TM21のジャイロセンサにより検知された角速度に関する角速度情報AV21−1を取得する。例えば、取得部131は、機種PM2である端末装置TM21の角速度センサSN2−2(図6参照)により検知された角速度に関する角速度情報AV21−1を取得する。取得部131は、日時DT21−1において、端末装置TM21の音センサにより検知された音に関する音声情報SD21−1を取得する。例えば、取得部131は、機種PM2である端末装置TM21の音速度センサ(図示省略)により検知された音に関する音声情報SD21−1を取得する。取得部131は、一覧情報LT11に示すように、加速度情報AC21−1や角速度情報AV21−1や音声情報SD21−1等が含まれるセンサ情報(センサ情報LG21−1)を取得する。
図2の例では、取得部131は、端末機種情報記憶部122から第2端末である端末装置TM21の機種PM2に対応する機種情報を取得する。取得部131は、端末機種情報記憶部122から機種PM2に対応するセンサ特徴情報を取得する。図2の例では、取得部131は、第2モデル情報記憶部127からモデルM21−1、M21−2等の第2モデルを取得する。
(生成部132)
生成部132は、種々の情報を生成する。生成部132は、記憶部120に記憶された情報に基づいて、種々の情報を生成する。生成部132は、ユーザ情報記憶部121や端末機種情報記憶部122やセンサ情報記憶部123や第1モデル学習用情報記憶部124や第1モデル情報記憶部125や第2モデル学習用情報記憶部126や第2モデル情報記憶部127に記憶された情報に基づいて、種々の情報を生成する。生成部132は、取得部131により取得された情報に基づいて、種々の情報を生成する。生成部132は、外部の情報処理装置から取得された情報に基づいて、種々の情報を生成する。生成部132は、端末装置10から取得された情報に基づいて、種々の情報を生成する。生成部132は、生成した情報に基づいて、種々の情報を生成する。生成部132は、予測部133により予測された情報に基づいて、種々の情報を生成する。生成部132は、第1モデルや第2モデル等の種々のモデルを生成する。なお、情報処理装置100が外部の情報処理装置から第1モデルや第2モデルを取得する場合、生成部132は、第1モデルや第2モデルを生成しなくてもよい。
図1の例では、生成部132は、センサ情報や正解情報に基づいて第1モデル学習用情報を生成する。生成部132は、第1モデル学習用情報記憶部124に示すような第1モデル学習用情報(第1モデル学習データ)を生成する。生成部132は、センサ情報や正解情報に基づいて、データDA1−1〜DA1−4等の第1モデル学習データを生成する。
生成部132は、機種PM1の端末装置10におけるセンサ情報と、センサ情報の検知時におけるユーザの歩行有無を示す正解情報とを対応付けることにより、学習用情報を生成する。生成部132は、センサ情報LG11−1〜LG11−3、LG12−1と、正解情報RDT1−1〜RDT1−4とを対応付けることにより、第1モデル学習用情報記憶部124に示すような第1モデル学習用情報を生成する。
生成部132は、学習データに基づいてモデルを生成する。例えば、生成部132は、第1モデル学習用情報記憶部124中のデータDA1−1〜DT1−4等を学習データ(教師データ)として、学習を行なうことにより、第1モデルを生成する。例えば、生成部132は、上記の式(1)に示すようなモデルM1を第1モデルとして生成する。
例えば、生成部132は、第1モデル学習用情報記憶部124に示すような学習データを用いてモデルM1を生成する。例えば、生成部132は、正解情報RDT1−1がユーザU1が歩行中であることを示すスコア「1」である場合、モデルM1にデータDA1−1に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。例えば、生成部132は、データDA1−1の加速度情報AC1−1や角速度情報AV1−1や音声情報SD1−1等がモデルM1に入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。
また、例えば、生成部132は、正解情報RDT1−3がユーザU1が歩行中以外であることを示すスコア「0」である場合、モデルM1にデータDA1−3に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。例えば、生成部132は、データDA1−3の加速度情報AC1−3や角速度情報AV1−3や音声情報SD1−3等がモデルM1に入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。
上記のような処理により、図1の例では、生成部132は、第1モデル情報記憶部125に示すように、モデルID「M1」により識別される第1モデル(モデルM1)を生成する。
図2の例では、生成部132は、加速度情報AC21−1や角速度情報AV21−1や音声情報SD21−1等の第2センサ値を、同様の条件下において、機種PM1における第1センサで検知された場合の第1センサ値に変換する。具体的には、生成部132は、各センサ種別に対応する第2モデルを用いて、第2端末の第2センサにより検知された第2センサ値を、生成対象機種の第1センサにおける第1センサ値に変換した変換後センサ値を生成する。例えば、生成部132は、第2センサ値や第2センサの特徴を示す情報を用いて、生成対象機種の第1センサにおける第1センサ値に変換した変換後センサ値を生成する。
生成部132は、機種PM2で検知された加速度情報AC21−1や機種PM2のセンサ特徴情報である重量WT2や配置位置AP2−1等の情報をモデルM21−1に入力することにより、加速度情報AC21−1を、同様の条件下において、機種PM1の端末装置10で検知された場合の変換後加速度情報CAC21−1を生成する。生成部132は、機種PM2で検知された角速度情報AV21−1や機種PM2のセンサ特徴情報である重量WT2や配置位置AP2−1等の情報をモデルM21−2に入力することにより、角速度情報AV21−1を、同様の条件下において、機種PM1の端末装置10で検知された場合の変換後角速度情報CAV21−1を生成する。
生成部132は、上記のようなモデルM21−1、M21−2等の第2モデルを用いることにより、第1モデルM1を上記の式(3)のように補正する。生成部132は、上記のような各センサ種別に対応するモデルM21−1、M21−2等の第2モデルを用いて、機種PM2に対応する第2センサ値を、生成対象機種である機種PM1に対応する第1センサ値に変換する。生成部132は、図2に示すような変換後センサ情報INFXを生成する。生成部132は、第2センサ値である加速度情報AC21−1を、第1センサ値に変換した変換後加速度情報CAC21−1を含む変換後センサ情報INFXを生成する。また、生成部132は、第2センサ値である角速度情報AV21−1を、第1センサ値に変換した変換後角速度情報CAV21−1を含む変換後センサ情報INFXを生成する。また、生成部132は、第2センサ値である角速度情報AV21−1を、第1センサ値に変換した変換後角速度情報CAV21−1を含む変換後センサ情報INFXを生成する。生成部132は、第2センサ値である音声情報SD21−1を、第1センサ値に変換した変換後音声情報CSD21−1を含む変換後センサ情報INFXを生成する。
(予測部133)
予測部133は、種々の情報を予測する。予測部133は、記憶部120に記憶された情報に基づいて、種々の情報を予測する。予測部133は、ユーザ情報記憶部121や端末機種情報記憶部122やセンサ情報記憶部123や第1モデル学習用情報記憶部124や第1モデル情報記憶部125や第2モデル学習用情報記憶部126や第2モデル情報記憶部127に記憶された情報に基づいて、種々の情報を予測する。予測部133は、取得部131により取得された情報に基づいて、種々の情報を予測する。予測部133は、外部の情報処理装置から取得された情報に基づいて、種々の情報を予測する。予測部133は、端末装置10から取得された情報に基づいて、種々の情報を予測する。予測部133は、生成部132により生成された情報に基づいて、種々の情報を予測する。
予測部133は、第1モデルに入力情報を入力することにより所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を予測する。予測部133は、第2モデルを用いて要素に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測する。予測部133は、第2モデルを用いて特徴量に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測する。
予測部133は、第1対象とは異なる第2対象を対象として所定の事柄を予測する場合、第1モデルに第2情報を入力情報として入力し、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2対象における所定の事柄を予測する。予測部133は、第2値が入力された第2モデルが出力する第1値と、第1モデルにおける要素に対応する重みとを用いて、第2対象における所定の事柄を予測する。
予測部133は、第1端末とは異なる第2対象である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測する。予測部133は、第1端末とは異なる機種である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測する。予測部133は、第2センサ値が入力された第2モデルが出力する第1センサ値と、第1モデルにおける要素に対応する重みとを用いて、第2端末における所定の事柄を予測する。
予測部133は、第2端末を利用する第2ユーザを対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2ユーザにおける所定の事柄を予測する。予測部133は、所定の端末に対する物理量の情報を含むセンサ情報に基づく入力情報と第1モデルとを用いて、所定の事柄を予測する。予測部133は、所定の端末周辺の環境情報を含むセンサ情報に基づく入力情報と第1モデルとを用いて、所定の事柄を予測する。予測部133は、所定の端末を利用するユーザの生体情報を含むセンサ情報に基づく入力情報と第1モデルとを用いて、所定の事柄を予測する。予測部133は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報に基づく入力情報と第1モデルとを用いて、所定の事柄を予測する。予測部133は、所定の端末に対する物理量の情報を含むセンサ情報を用いて、所定の事柄を予測する。予測部133は、所定の端末周辺の環境情報を含むセンサ情報を用いて、所定の事柄を予測する。予測部133は、所定の端末を利用するユーザの生体情報を含むセンサ情報を用いて、所定の事柄を予測する。予測部133は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報を用いて、所定の事柄を予測する。
図2の例では、予測部133は、スコアに関する情報に基づいて、所定の事柄を予測する。予測部133は、予測一覧PDLに示すように、機種PM2の端末装置TM21を利用するユーザU21について、歩行中であるか否かを予測する。例えば、予測部133は、対象について、スコアと、所定の閾値との比較に基づいて、ユーザU21が歩行中であるか否かを予測する。予測部133は、閾値「0.7」を用いて、ユーザU21が歩行中であるか否かを予測する。予測部133は、スコアが閾値以上である場合、そのユーザが歩行中であると予測する。予測部133は、スコアが「0.8」であり、閾値以上であるため、ユーザU21が歩行中であると予測する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、端末装置10等の外部の情報処理装置に各種情報を提供する。提供部134は、端末装置10に各種情報を送信する。提供部134は、端末装置10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、生成部132により生成された各種情報に基づいて、種々の情報を提供する。提供部134は、予測部133により予測された各種情報に基づいて、種々のサービスを提供する。提供部134は、予測部133により予測された各種情報に基づいて、種々の情報を提供する。提供部134は、端末装置10へ予測結果に基づく情報を提供する。提供部134は、端末装置10へ予測結果に基づくコンテンツを提供する。
例えば、提供部134は、歩行中以外と予測されたユーザが利用する端末装置10に、記事コンテンツを提供してもよい。例えば、提供部134は、図2の例で歩行中と予測されたユーザU21が利用する端末装置TM21に、音声コンテンツを提供してもよい。
〔3.情報処理のフロー〕
〔3−1.生成処理のフロー〕
ここで、図12を用いて、実施形態に係る情報処理装置100による情報処理の手順について説明する。図12は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図12は、実施形態に係るモデルの生成処理の一例を示すフローチャートである。
図12に示すように、予測装置100は、第1モデル用学習データを取得する(ステップS101)。例えば、予測装置100は、第1モデル学習用情報記憶部124から学習データを取得する。
その後、予測装置100は、学習データに基づきモデルを生成する(ステップS102)。図1の例では、予測装置100は、第1モデル学習用情報記憶部124から取得した学習データを用いて第1モデルであるモデルM1を生成する。
〔3−2.予測処理のフロー〕
次に、図13を用いて、実施形態に係る情報処理装置100による情報処理の手順について説明する。図13は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図13は、実施形態に係る予測処理の一例を示すフローチャートである。
図13に示すように、情報処理装置100は、所定の事柄の予測に用いる第1モデルを取得する(ステップS201)。例えば、情報処理装置100は、ユーザの歩行の予測に用いる第1モデルであるモデルM1を取得する。
また、情報処理装置100は、第1モデルの要素を補正する第2モデルを取得する(ステップS202)。例えば、情報処理装置100は、第2モデルであるモデルM21−1、M21−1等を取得する。
また、情報処理装置100は、第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を予測する(ステップS203)。例えば、情報処理装置100は、モデルM1の生成対象機種と異なる機種の端末装置10が予測対象である場合、モデルM21−1、M21−1等を用いて、モデルM1の要素である特徴量を補正することにより、モデルM1を用いてユーザの歩行を予測する。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、予測部133とを有する。取得部131は、所定の事柄の予測に用いる第1モデルと、第1モデルの要素を補正する第2モデルとを取得する。予測部133は、第1モデルに入力情報を入力することにより所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、所定の事柄の予測に用いる第1モデルに入力情報を入力することにより所定の事柄を予測する場合、第1モデルの要素を補正する第2モデルを用いて要素を補正することにより、第1モデルを用いて所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1モデルの要素に対応する値を補正する第2モデルを取得する。予測部133は、第2モデルを用いて要素に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第2モデルを用いて要素に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素に対応する値を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1モデルにおける重みと特徴量とを含む要素のうち、特徴量に対応する値を補正する第2モデルを取得する。予測部133は、第2モデルを用いて特徴量に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第2モデルを用いて特徴量に対応する値を補正することにより、第1モデルを用いて所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの特徴量に対応する値を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定のセンサにより検知されるセンサ情報に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、所定のセンサにより検知されるセンサ情報に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の端末に対する物理量の情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、所定の端末に対する物理量の情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の端末周辺の環境情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、所定の端末周辺の環境情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の端末を利用するユーザの生体情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、所定の端末を利用するユーザの生体情報を含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報うち、少なくとも1つを含むセンサ情報に基づく入力情報が入力された場合に、出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、センサ情報の変化に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得する。
このように、実施形態に係る情報処理装置100は、センサ情報の変化に基づく入力情報が入力された場合に、所定の事柄に対応する出力情報を出力する第1モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1対象に関する第1情報を用いて生成された第1モデルと、第2対象に関する情報であって、第1情報に対応する情報である第2情報とを取得する。予測部133は、第1対象とは異なる第2対象を対象として所定の事柄を予測する場合、第1モデルに第2情報を入力情報として入力し、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2対象における所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第1対象とは異なる第2対象を対象として所定の事柄を予測する場合、第1モデルに第2情報を入力情報として入力し、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2対象における所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2情報における要素に対応する第2値を、第1情報における要素に対応する第1値に変換する第2モデルを取得する。予測部133は、第2値が入力された第2モデルが出力する第1値と、第1モデルにおける要素に対応する重みとを用いて、第2対象における所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第2値が入力された第2モデルが出力する第1値と、第1モデルにおける要素に対応する重みとを用いて、第2対象における所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1対象である第1端末に関する第1情報を用いて生成された第1モデルを取得する。予測部133は、第1端末とは異なる第2対象である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第1端末とは異なる第2対象である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、予測部133は、第1端末とは異なる機種である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第1端末とは異なる機種である第2端末を対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2端末における所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1端末が有する第1センサにより検知されたセンサ情報である第1情報を用いて生成された第1モデルと、第2端末が有する第2センサにより検知されたセンサ情報である第2情報とを取得する。
このように、実施形態に係る情報処理装置100は、第1端末が有する第1センサにより検知されたセンサ情報である第1情報を用いて生成された第1モデルと、第2端末が有する第2センサにより検知されたセンサ情報である第2情報とを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2情報における要素に対応する第2センサ値と、第2センサの特徴を示すセンサ特徴情報とが入力された場合、第1情報における要素に対応する第1センサ値に第2センサ値を変換する第2モデルを取得する。予測部133は、第2センサ値が入力された第2モデルが出力する第1センサ値と、第1モデルにおける要素に対応する重みとを用いて、第2端末における所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第2センサ値が入力された第2モデルが出力する第1センサ値と、第1モデルにおける要素に対応する重みとを用いて、第2端末における所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々の予測対象に対して利用可能となるため、1つの第1モデルを種々の予測対象に対して使い回すことができ、効率的な予測を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2センサ値と、第2センサを示す製品情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。
このように、実施形態に係る情報処理装置100は、第2センサ値と、第2センサを示す製品情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2センサ値と、第2センサの第2端末における配置を示す位置情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。
このように、実施形態に係る情報処理装置100は、第2センサ値と、第2センサの第2端末における配置を示す位置情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2センサ値と、第2センサに用いられた基盤を示す基盤情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。
このように、実施形態に係る情報処理装置100は、第2センサ値と、第2センサに用いられた基盤を示す基盤情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2センサ値と、第2センサの第2端末の重さを示す重さ情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得する。
このように、実施形態に係る情報処理装置100は、第2センサ値と、第2センサの第2端末の重さを示す重さ情報を含むセンサ特徴情報とが入力された場合、第1センサ値に第2センサ値を変換する第2モデルを取得することにより、第1モデルを用いて所定の事柄を適切に予測することができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1端末を利用する第1ユーザにおける所定の事柄の予測に用いる第1モデルを取得する。予測部133は、第2端末を利用する第2ユーザを対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2ユーザにおける所定の事柄を予測する。
このように、実施形態に係る情報処理装置100は、第2端末を利用する第2ユーザを対象として所定の事柄を予測する場合、第2モデルを用いて要素を補正することにより、第1モデルを用いて第2ユーザにおける所定の事柄を予測することにより、所定の事柄を適切に予測することができる。すなわち、情報処理装置100は、第1モデルの要素を第2モデルにより補正することで、第1モデルを種々のユーザに対して利用可能となるため、1つの第1モデルを種々のユーザに対して使い回すことができ、効率的な予測を可能にすることができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図14に示すような構成のコンピュータ1000によって実現される。図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ提供する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に生成することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 端末機種情報記憶部
123 センサ情報記憶部
124 第1モデル学習用情報記憶部
125 第1モデル情報記憶部
126 第2モデル学習用情報記憶部
127 第2モデル情報記憶部
130 制御部
131 取得部
132 生成部
133 予測部
134 提供部
10 端末装置
N ネットワーク

Claims (22)

  1. 所定の事柄の予測に用いる第1モデルと、前記第1モデルの要素を補正する第2モデルとを取得する取得部と、
    前記第1モデルに入力情報を入力することにより前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する予測部と、
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、
    前記第1モデルの前記要素に対応する値を補正する前記第2モデルを取得し、
    前記予測部は、
    前記第2モデルを用いて前記要素に対応する値を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記第1モデルにおける重みと特徴量とを含む前記要素のうち、前記特徴量に対応する値を補正する前記第2モデルを取得し、
    前記予測部は、
    前記第2モデルを用いて前記特徴量に対応する値を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する
    ことを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記取得部は、
    所定のセンサにより検知されるセンサ情報に基づく前記入力情報が入力された場合に、前記所定の事柄に対応する出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記取得部は、
    所定の端末に対する物理量の情報を含む前記センサ情報に基づく前記入力情報が入力された場合に、前記出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記取得部は、
    所定の端末周辺の環境情報を含む前記センサ情報に基づく前記入力情報が入力された場合に、前記出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項4または請求項5に記載の情報処理装置。
  7. 前記取得部は、
    所定の端末を利用するユーザの生体情報を含む前記センサ情報に基づく前記入力情報が入力された場合に、前記出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項4〜6のいずれか1項に記載の情報処理装置。
  8. 前記取得部は、
    加速度センサにより検知される加速度情報、ジャイロセンサにより検知される角速度情報、音センサにより検知される音声情報、所定のセンサにより検知される運動状態情報のうち、少なくとも1つを含む前記センサ情報に基づく前記入力情報が入力された場合に、前記出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項4〜7のいずれか1項に記載の情報処理装置。
  9. 前記取得部は、
    前記センサ情報の変化に基づく前記入力情報が入力された場合に、前記所定の事柄に対応する出力情報を出力する前記第1モデルを取得する
    ことを特徴とする請求項4〜8のいずれか1項に記載の情報処理装置。
  10. 前記取得部は、
    第1対象に関する第1情報を用いて生成された前記第1モデルと、第2対象に関する情報であって、前記第1情報に対応する情報である第2情報とを取得し、
    前記予測部は、
    前記第1対象とは異なる前記第2対象を対象として前記所定の事柄を予測する場合、前記第1モデルに前記第2情報を前記入力情報として入力し、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記第2対象における前記所定の事柄を予測する
    ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記取得部は、
    前記第2情報における前記要素に対応する第2値を、前記第1情報における前記要素に対応する第1値に変換する前記第2モデルを取得し、
    前記予測部は、
    前記第2値が入力された前記第2モデルが出力する前記第1値と、前記第1モデルにおける前記要素に対応する重みとを用いて、前記第2対象における前記所定の事柄を予測する
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 前記取得部は、
    前記第1対象である第1端末に関する前記第1情報を用いて生成された前記第1モデルを取得し、
    前記予測部は、
    前記第1端末とは異なる前記第2対象である第2端末を対象として前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記第2端末における前記所定の事柄を予測する
    ことを特徴とする請求項10または請求項11に記載の情報処理装置。
  13. 前記予測部は、
    前記第1端末とは異なる機種である前記第2端末を対象として前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記第2端末における前記所定の事柄を予測する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記取得部は、
    前記第1端末が有する第1センサにより検知されたセンサ情報である前記第1情報を用いて生成された前記第1モデルと、前記第2端末が有する第2センサにより検知されたセンサ情報である前記第2情報とを取得する
    ことを特徴とする請求項12または請求項13に記載の情報処理装置。
  15. 前記取得部は、
    前記第2情報における前記要素に対応する第2センサ値と、前記第2センサの特徴を示すセンサ特徴情報とが入力された場合、前記第1情報における前記要素に対応する第1センサ値に前記第2センサ値を変換する前記第2モデルを取得し、
    前記予測部は、
    前記第2センサ値が入力された前記第2モデルが出力する前記第1センサ値と、前記第1モデルにおける前記要素に対応する重みとを用いて、前記第2端末における前記所定の事柄を予測する
    ことを特徴とする請求項14に記載の情報処理装置。
  16. 前記取得部は、
    前記第2センサ値と、前記第2センサを示す製品情報を含む前記センサ特徴情報とが入力された場合、前記第1センサ値に前記第2センサ値を変換する前記第2モデルを取得する
    ことを特徴とする請求項15に記載の情報処理装置。
  17. 前記取得部は、
    前記第2センサ値と、前記第2センサの前記第2端末における配置を示す位置情報を含む前記センサ特徴情報とが入力された場合、前記第1センサ値に前記第2センサ値を変換する前記第2モデルを取得する
    ことを特徴とする請求項15または請求項16に記載の情報処理装置。
  18. 前記取得部は、
    前記第2センサ値と、前記第2センサに用いられた基盤を示す基盤情報を含む前記センサ特徴情報とが入力された場合、前記第1センサ値に前記第2センサ値を変換する前記第2モデルを取得する
    ことを特徴とする請求項15〜17のいずれか1項に記載の情報処理装置。
  19. 前記取得部は、
    前記第2センサ値と、前記第2センサの前記第2端末の重さを示す重さ情報を含む前記センサ特徴情報とが入力された場合、前記第1センサ値に前記第2センサ値を変換する前記第2モデルを取得する
    ことを特徴とする請求項15〜18のいずれか1項に記載の情報処理装置。
  20. 前記取得部は、
    第1端末を利用する第1ユーザにおける前記所定の事柄の予測に用いる前記第1モデルを取得し、
    前記予測部は、
    前記第2端末を利用する第2ユーザを対象として前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記第2ユーザにおける前記所定の事柄を予測する
    ことを特徴とする請求項13〜19のいずれか1項に記載の情報処理装置。
  21. コンピュータが実行する情報処理方法であって、
    所定の事柄の予測に用いる第1モデルと、前記第1モデルの要素を補正する第2モデルとを取得する取得工程と、
    前記第1モデルに入力情報を入力することにより前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する予測工程と、
    を含むことを特徴とする情報処理方法。
  22. 所定の事柄の予測に用いる第1モデルと、前記第1モデルの要素を補正する第2モデルとを取得する取得手順と、
    前記第1モデルに入力情報を入力することにより前記所定の事柄を予測する場合、前記第2モデルを用いて前記要素を補正することにより、前記第1モデルを用いて前記所定の事柄を予測する予測手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2018134364A 2018-07-17 2018-07-17 情報処理装置、情報処理方法、及び情報処理プログラム Active JP6964562B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018134364A JP6964562B2 (ja) 2018-07-17 2018-07-17 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134364A JP6964562B2 (ja) 2018-07-17 2018-07-17 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020013270A true JP2020013270A (ja) 2020-01-23
JP6964562B2 JP6964562B2 (ja) 2021-11-10

Family

ID=69170851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134364A Active JP6964562B2 (ja) 2018-07-17 2018-07-17 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6964562B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161896A1 (ja) * 2020-02-14 2021-08-19 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6110109A (en) * 1999-03-26 2000-08-29 Biosignia, Inc. System and method for predicting disease onset
WO2012043734A1 (ja) * 2010-09-30 2012-04-05 楽天株式会社 アンケートの回答を収集するサーバ装置
JP2016212793A (ja) * 2015-05-13 2016-12-15 ヤフー株式会社 予測装置、端末、予測方法及び予測プログラム
JP2017138930A (ja) * 2016-02-05 2017-08-10 Kddi株式会社 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6110109A (en) * 1999-03-26 2000-08-29 Biosignia, Inc. System and method for predicting disease onset
WO2012043734A1 (ja) * 2010-09-30 2012-04-05 楽天株式会社 アンケートの回答を収集するサーバ装置
JP2016212793A (ja) * 2015-05-13 2016-12-15 ヤフー株式会社 予測装置、端末、予測方法及び予測プログラム
JP2017138930A (ja) * 2016-02-05 2017-08-10 Kddi株式会社 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161896A1 (ja) * 2020-02-14 2021-08-19 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP6964562B2 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
US10003924B2 (en) Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location
US20210325343A1 (en) Information processing apparatus, information processing method, learned model generation method, and program
JP6753833B2 (ja) 付与装置、付与方法、付与プログラム、及びプログラム
JP2017519282A (ja) 分散モデル学習
JP2018147023A (ja) 提供装置、提供方法、及び提供プログラム
JP2015508209A (ja) コンテキストを決定するシステムおよび方法
JP6158859B2 (ja) 予測装置、端末、予測方法及び予測プログラム
JP6374573B1 (ja) 生成装置、生成方法、及び生成プログラム
Pryss et al. Machine learning findings on geospatial data of users from the trackyourstress mhealth crowdsensing platform
Quintana et al. Longitudinal personal thermal comfort preference data in the wild
JP6964562B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20180025656A1 (en) Sequence of contexts wearable
JP2021119526A (ja) 生成装置、生成方法、及び生成プログラム
He et al. A rhythm analysis-based model to predict sedentary behaviors
JP2019020963A (ja) 抽出装置、抽出方法、抽出プログラム、学習データ、及びモデル
JP6955392B2 (ja) 決定装置、決定方法、及び決定プログラム
JP2018136887A (ja) 生成装置、生成方法、及び生成プログラム
JP2020177532A (ja) 生成装置、生成方法及び生成プログラム
JP6587660B2 (ja) 推定装置、推定方法、及び推定プログラム
JP2019036087A (ja) 生成装置、生成方法、生成プログラム、学習データ、及びモデル
JP6797870B2 (ja) 生成装置、生成方法、及び生成プログラム
Herbuela et al. Machine learning-based classification of the movements of children with profound or severe intellectual or multiple disabilities using environment data features
JP7194798B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
He et al. Context-aware probabilistic models for predicting future sedentary behaviors of smartphone users
JP7259110B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6964562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350