JP2016212793A - 予測装置、端末、予測方法及び予測プログラム - Google Patents

予測装置、端末、予測方法及び予測プログラム Download PDF

Info

Publication number
JP2016212793A
JP2016212793A JP2015098255A JP2015098255A JP2016212793A JP 2016212793 A JP2016212793 A JP 2016212793A JP 2015098255 A JP2015098255 A JP 2015098255A JP 2015098255 A JP2015098255 A JP 2015098255A JP 2016212793 A JP2016212793 A JP 2016212793A
Authority
JP
Japan
Prior art keywords
prediction
user
terminal
context
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015098255A
Other languages
English (en)
Other versions
JP6158859B2 (ja
Inventor
照彦 寺岡
Teruhiko Teraoka
照彦 寺岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2015098255A priority Critical patent/JP6158859B2/ja
Priority to US15/053,347 priority patent/US20160335556A1/en
Publication of JP2016212793A publication Critical patent/JP2016212793A/ja
Application granted granted Critical
Publication of JP6158859B2 publication Critical patent/JP6158859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Abstract

【課題】データ取得のための負担を軽減しつつ、取得されたデータから適切にユーザのコンテキストを把握すること。
【解決手段】本願に係る予測装置は、取得部と、予測部とを備える。取得部は、ユーザによって利用される複数の端末における利用状況を取得する。予測部は、取得部によって取得された各端末の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。例えば、取得部は、各端末の利用状況を示す離散的なデータを取得し、予測部は、各端末から取得された離散的なデータの組合せに基づいて、ユーザのコンテキストを予測する。
【選択図】図1

Description

本発明は、予測装置、端末、予測方法及び予測プログラムに関する。
様々なセンサを搭載した通信端末(以下、「端末」と表記する)の普及が進んでいる。端末に搭載されるセンサは、物理的な現象をデジタル信号に変換することで、端末を所持するユーザのコンテキスト(context)を推測するためのデータを取得する。また、端末は、ユーザのコンテキストを推測するためのデータとして、端末そのものの利用状況(操作ログ等)を蓄積する。これらの情報は、ネットワークを介して所定のサーバに送信され、ユーザのコンテキストを解析するために利用される。なお、コンテキストとは、ユーザによって端末が使われている状況や、端末を所持するユーザが置かれている状態のことをいう。
コンテキストに関する技術としては、端末に搭載された加速度センサや周辺光検出器などから検出されるデータに基づいて、ユーザのコンテキストを識別する技術が知られている(例えば、特許文献1)。また、端末により取得されたデータを分類器に学習させることにより、ユーザのコンテキストを識別する精度を向上させる技術が知られている(例えば、特許文献2)。また、ユーザのコンテキストを定義し、定義されたコンテキストが観測された場合に、端末のアプリケーションを観測されたコンテキストに対応させる技術が知られている(例えば、特許文献3)。
特表2014−513330号公報 特表2012−527810号公報 特表2013−512641号公報
しかしながら、上記の従来技術では、ユーザのコンテキストを把握するための負担が大きいことが問題となる。上述したように、端末がコンテキストの把握を行うための判断材料としては、端末の操作ログや、端末が有するセンサから取得されるデータがある。例えば、センサから取得されるデータは、間接的に観測されるユーザの行動に基づくものである。このため、センサから取得されるデータに基づきコンテキストを判断するためには、多種、大量、高密度なデータが要求される。
すなわち、コンテキストの判断に有用なデータを得るためには、ユーザがセンサ(端末)を長時間装着することや、センサから得られたデータに対して高度なデータ解析を行うことが必要になる。例えば、歩行中であるというユーザのコンテキストを把握するためには、常に端末の加速度センサが動作され、データが取得され、データが解析され続ける必要がある。これは、本来の端末の使用状況に比べて、端末の処理負荷が増大することを示している。また、常に端末を身に着けておくことは、ユーザにとって負担となる。
本願は、上記に鑑みてなされたものであって、データ取得のための負担を軽減しつつ、取得されたデータから適切にユーザのコンテキストを把握することができる予測装置、端末、予測方法及び予測プログラムを提供することを目的とする。
本願に係る予測装置は、ユーザによって利用される複数の端末における利用状況を取得する取得部と、前記取得部によって取得された各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する予測部と、を備えたことを特徴とする。
実施形態の一態様によれば、データ取得のための負担を軽減しつつ、取得されたデータから適切にユーザのコンテキストを把握することができるという効果を奏する。
図1は、実施形態に係る予測処理の一例を示す図である。 図2は、実施形態に係る予測処理システムの構成例を示す図である。 図3は、実施形態に係る予測装置の構成例を示す図である。 図4は、実施形態に係る利用状況記憶部の一例を示す図である。 図5は、実施形態に係るモデル記憶部の一例を示す図である。 図6は、実施形態に係るコンテンツ記憶部の一例を示す図である。 図7は、実施形態に係る解析部による解析処理の一例を説明する図(1)である。 図8は、実施形態に係る解析部による解析処理の一例を説明する図(2)である。 図9は、実施形態に係る予測部による予測処理の一例を説明する図(1)である。 図10は、実施形態に係る予測部による予測処理の一例を説明する図(2)である。 図11は、実施形態に係る生成処理手順を示すフローチャートである。 図12は、実施形態に係る予測処理手順を示すフローチャートである。 図13は、予測装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る予測装置、端末、予測方法及び予測プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る予測装置、端末、予測方法及び予測プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.予測処理の一例〕
まず、図1を用いて、実施形態に係る予測処理の一例について説明する。図1は、実施形態に係る予測処理の一例を示す図である。図1では、本願に係る予測処理を実行する予測装置100によって、端末を所持するユーザのコンテキストを予測する処理が行われる例を示す。
予測装置100は、端末から送信される情報を取得し、コンテキストを予測するサーバ装置である。予測装置100が取得する情報は、端末内のセンサ等によって取得されるデータである。端末内のセンサ等によって取得されるデータは、例えば、離散的なデータであり、簡潔な数値(例えば、0と1によって表現される2値データ)で示される。予測装置100は、1のユーザに関連付けられる複数の端末からデータを取得する。ユーザに関連付けられる端末とは、例えば、ユーザが所有する端末や、ユーザが利用する端末等をいい、モバイル端末であっても、所定の場所に設置された端末であってもよい。そして、予測装置100は、複数の端末から取得されるデータの組合せに基づいて、ユーザのコンテキストを予測する。以下では、予測装置100によって行われるコンテキストの予測処理の一例を流れに沿って説明する。
予測装置100は、ユーザのコンテキストを予測するにあたり、ユーザ毎に対応する予測モデルを生成する。予測モデルは、ユーザが利用する端末から送信されるデータに基づき、ユーザのコンテキストを予測するために用いられる。なお、予測モデルは、端末から送信されるデータと、ユーザから提供される正解データとの相関性に基づいて生成される。ここで、正解データとは、ユーザ自身が判定するユーザのコンテキストである。例えば、ユーザは、所定の時点において、自身が徒歩の状態であると判定した場合には、正解データとして「徒歩」というコンテキストを予測装置100に提供する。すなわち、予測装置100は、予測対象となるユーザの予測モデルが生成されるまでは、ユーザから正解データの提供を受け付ける。そして、予測装置100は、正解データと端末から取得されるデータとの相関性を学習することにより、ユーザ毎の予測モデルを生成する。また、予測装置100は、予測対象となるユーザの予測モデルが生成された後は、かかるユーザから送信される複数の端末のデータを予測モデルに入力することによって、入力したデータに対応するユーザのコンテキストを予測する。以下では、図1を用いて、予測装置100によって行われるコンテキストの予測処理の一例を流れに沿って説明する。
図1に示す例では、予測装置100は、ユーザに関連付けられた複数の端末からデータを取得する。以下では、ユーザに関連付けられる端末を総称して、「ユーザ端末10」と表記する。ユーザ端末10には、例えば、スマートフォン20や、眼鏡型端末30や、時計型端末40が含まれる。なお、各端末を区別する必要のないときは、スマートフォン20などの端末を総称して、ユーザ端末10と表記する場合がある。各ユーザ端末10は、予測装置100に送信するデータを所定時間毎に取得し、あるいは、特定のイベント(画面ONなど)が発生したタイミングで記録し、所定期間保持する。そして、所定のタイミングで、ユーザ端末10は、保持したデータを予測装置100に送信する。
図1の例において、ユーザのコンテキストが「徒歩」である場合に、各ユーザ端末10が取得するデータについて説明する。ユーザが歩いている間、スマートフォン20の画面をユーザが見る機会は少ないため、スマートフォン20は、「画面OFF」というデータを比較的多数取得する。また、ユーザの動きに合わせてスマートフォン20自体が動いている(動きの有無は、例えば、スマートフォン20に内蔵されている加速度センサによって、所定の閾値以上の加速度が観測されたこと等により判別される)ため、スマートフォン20は、「動作ON」というデータを取得する。なお、「画面」という項目の離散的なデータとしては、「画面OFF」には「0」が対応し、「画面ON」には「1」が対応するものとする。同様に、「動作」という項目の離散的なデータとしては、「動作OFF(静止)」には「0」が対応し、「動作ON(動作)」には「1」が対応するものとする。
また、ユーザが歩いている間、眼鏡型端末30の画面をユーザが見る機会は多くなる。このため、眼鏡型端末30は、「画面ON」というデータを比較的多数取得する。また、ユーザの動きに合わせて眼鏡型端末30自体も動くため、眼鏡型端末30は、「動作ON」というデータを取得する。
また、ユーザが歩いている間、時計型端末40の画面をユーザが見る機会は少なくなる。このため、時計型端末40は、「画面OFF」というデータを比較的多数取得する。また、ユーザの動きに合わせて時計型端末40自体も動くため、時計型端末40は、「動作ON」というデータを取得する。
そして、各ユーザ端末10は、取得したデータを予測装置100に送信する。例えば、各ユーザ端末10は、10秒ごとに取得されたデータをまとめて、1分毎に予測装置100に送信する。これにより、予測装置100は、(スマートフォン20の画面,スマートフォン20の動作,眼鏡型端末30の画面,眼鏡型端末30の動作,時計型端末40の画面,時計型端末40の動作)という複数のユーザ端末10の組合せから得られるデータを複数個取得する。そして、予測装置100は、取得されたデータをユーザに対応した予測モデルに入力する。この場合、予測装置100は、(0,1,1,1,0,1)というデータを予測モデルに比較的多く入力することになる。そして、予測装置100は、予測モデルから出力された結果に基づいて、予測対象とするユーザのコンテキストが「徒歩」であることを予測する(ステップS01)。
同様に、ユーザのコンテキストが「電車」である場合に、各ユーザ端末10が取得するデータについて説明する。ユーザが電車内にいる間、スマートフォン20の画面をユーザが見る機会は多く、また、ユーザがスマートフォン20を見る動きに伴い、スマートフォン20自体の動作が比較的多く観測される。このため、スマートフォン20は、「画面ON」、「動作ON」というデータを取得する。
一方、ユーザのコンテキストが「電車」である場合には、眼鏡型端末30の画面をユーザが見る機会は少なく、また、電車内ではユーザが静止していることから、眼鏡型端末30自体の動作は観測されにくい。このため、眼鏡型端末30は、「画面OFF」、「動作OFF」というデータを取得する。これは、電車内などプライバシーが気になる場所では、眼鏡型端末30を外したり、利用を控えたりするなどにより、眼鏡型端末30よりもスマートフォン20が視聴されやすくなる傾向を示している。また、時計型端末40の画面をユーザが見る機会は少ないものの、ユーザのスマートフォン20の視聴等に伴う動作のために、時計型端末40自体の動作は比較的多く観測される。このため、時計型端末40は、「画面OFF」、「動作ON」というデータを取得する。
そして、各ユーザ端末10は、取得したデータを予測装置100に送信する。具体的には、ユーザが電車内にいる状態において、予測装置100は、(1,1,0,0,0,1)というデータを比較的多く取得することになる。予測装置100は、取得したデータを予測モデルに入力する。そして、予測装置100は、予測モデルから出力された結果に基づいて、予測対象とするユーザのコンテキストが「電車」であることを予測する(ステップS02)。
同様に、ユーザのコンテキストが「デスクワーク(会社)」である場合に、各ユーザ端末10が取得するデータについて説明する。すなわち、処理対象となるユーザは、会社内においてデスクワーク等の比較的動作の少ない仕事に従事しているものとする。ユーザがデスクワークを行っている間、スマートフォン20は机の上に置かれたままであることが多いため、スマートフォン20の画面をユーザが見る機会は少なく、また、スマートフォン20自体の動作は観測されにくい。このため、スマートフォン20は、「画面OFF」、「動作OFF」というデータを取得する。
同様に、眼鏡型端末30の画面をユーザが見る機会は少なく、また、眼鏡型端末30自体の動作は観測されにくい。このため、眼鏡型端末30は、「画面OFF」、「動作OFF」というデータを取得する。また、時計型端末40の画面をユーザが見る機会は少ないものの、ユーザの仕事に伴う動作のために、時計型端末40自体の動作は比較的多く観測される。このため、時計型端末40は、「画面OFF」、「動作ON」というデータを取得する。
そして、各ユーザ端末10は、取得したデータを予測装置100に送信する。具体的には、ユーザが会社でデスクワークを行っている状態において、予測装置100は、(0,0,0,0,0,1)というデータを比較的多く取得することになる。予測装置100は、取得したデータを予測モデルに入力する。そして、予測装置100は、予測モデルから出力された結果に基づいて、予測対象とするユーザのコンテキストが「デスクワーク(会社)」であることを予測する(ステップS03)。
上記のように、実施形態に係る予測装置100は、ユーザに利用される複数のユーザ端末10における利用状況を取得する。そして、予測装置100は、取得された各ユーザ端末10の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、高精度なセンサによって観測される精密なデータではなく、ユーザ端末10の画面状態や動作状態といった、比較的容易に得られ、また、解析に負荷のかかりにくい離散的なデータ(例えば、2値化されたデータなど)を複数のユーザ端末10から取得する。例えば、予測装置100は、用途や使用の態様が異なる複数の端末として、スマートフォン20や、眼鏡型端末30や、時計型端末40を採用する。そして、予測装置100は、かかる複数の端末から取得されるデータの組合せに基づいて、ユーザのコンテキストを予測する。上述のように、これらの端末はユーザの状況によって取得される情報が異なるため、複数端末から取得された利用状況を組み合わせることで、ユーザのコンテキストを高い精度で予測することが可能となる。
すなわち、実施形態に係る予測装置100によれば、ユーザの身体にセンサを複数取り付けたり、高精度なデータ解析を実行したりせずとも、ユーザのコンテキストを予測することができる。言い換えれば、予測装置100は、端末の処理負荷、及びユーザの負担を増大させることなく、コンテキストを予測する。これにより、予測装置100は、データ取得のための負担を軽減しつつ、取得されたデータから適切にユーザのコンテキストを把握することができる。
さらに、予測装置100は、予測されたコンテキストに基づいて、ユーザに関連付けられた複数端末のいずれかを選択して、所定のコンテンツを配信するといった処理を実行してもよい。例えば、予測装置100は、ユーザが徒歩の状態である場合に、スマートフォン20に広告コンテンツを配信しても視聴されない可能性が高いと判定し、スマートフォン20に代えて眼鏡型端末30に広告コンテンツを配信することができる。
なお、上記の予測処理において、予測装置100は、ユーザ端末10の画面や動作に関するデータのみならず、他のデータを取得してもよい。例えば、予測装置100は、ユーザ端末10の画面や動作に関するデータが取得された際の時間情報を取得する。予測装置100は、時間情報を加えた予測処理を行うことにより、より正確にユーザのコンテキストを予測することができる。
〔2.予測処理システムの構成〕
次に、図2を用いて、実施形態に係る予測装置100が含まれる予測処理システム1の構成について説明する。図2は、実施形態に係る予測処理システム1の構成例を示す図である。図2に例示するように、実施形態に係る予測処理システム1には、ユーザ端末10と、予測装置100とが含まれる。また、ユーザ端末10には、スマートフォン20や、眼鏡型端末30や、時計型端末40等が含まれる。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。
ユーザ端末10は、例えば、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット型端末や、スマートフォンを含む携帯電話機、PDA(Personal Digital Assistant)等の情報処理端末である。また、上述のように、ユーザ端末10には、眼鏡型端末30や、時計型端末40などのウェアラブルデバイス(wearable device)も含まれる。さらに、ユーザ端末10には、情報処理機能を有する種々のスマート機器が含まれてもよい。例えば、ユーザ端末10には、TV(Television)などのスマート家電や、自動車などのスマートビークル(Smart vehicle)や、ドローン(drone)、家庭用ロボットなどが含まれてもよい。
例えば、ユーザ端末10は、ユーザによる操作や機能(インストールされたアプリ等により実現される)に応じて、画面のON/OFFを切り替える。また、ユーザ端末10には、種々のセンサが内蔵される。例えば、ユーザ端末10には、加速度、温度、重力、回転(角速度)、照度、地磁気、圧力、近接、湿度、回転ベクトルといった、種々の物理量を測定するセンサが含まれる。ユーザ端末10は、ユーザの利用状況に応じて、種々のセンサにより測定される情報を取得する。そして、ユーザ端末10は、取得した情報を予測装置100に送信する。
予測装置100は、上述のように、ユーザ端末10から取得された情報に基づいて、ユーザのコンテキストを予測するサーバ装置である。また、予測装置100は、予測されたコンテキストに基づいて、種々の処理を行うこともできる。例えば、予測装置100は、コンテキストに基づいて、配信するコンテンツの態様を判定したり、配信するコンテンツに適したユーザ端末10を選択したりする。
〔3.予測装置の構成〕
次に、図3を用いて、実施形態に係る予測装置100の構成について説明する。図3は、実施形態に係る予測装置100の構成例を示す図である。図3に示すように、予測装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、予測装置100は、予測装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。かかる通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、ユーザ端末10との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、利用状況記憶部121と、モデル記憶部122と、コンテンツ記憶部123とを有する。
(利用状況記憶部121について)
利用状況記憶部121は、コンテキストの利用状況に関する情報を記憶する。ここで、図4に、実施形態に係る利用状況記憶部121の一例を示す。図4は、実施形態に係る利用状況記憶部121の一例を示す図である。図4に示した例では、利用状況記憶部121は、「ユーザID」、「取得日時」、「スマートフォン」、「眼鏡型端末」、「時計型端末」、「正解データ」といった項目を有する。また、「スマートフォン」、「眼鏡型端末」、「時計型端末」などの各ユーザ端末10の利用状況に関する情報には、例えば、「画面」や、「動作」といった項目が含まれる。
「ユーザID」は、ユーザ又はユーザと関連付けられるユーザ端末10を識別する識別情報である。なお、ユーザIDは、ユーザ端末10を操作するユーザの参照符号と一致するものとする。すなわち、ユーザID「U11」によって識別されるユーザ端末10は、ユーザ「U11」により操作される端末装置であるものとする。
「取得日時」は、各ユーザ端末10によってデータが取得された日時を示す。なお、図4では、各ユーザ端末10は、データを3分ごとに取得している例を示しているが、取得するタイミングはこの例に限られない。すなわち、各ユーザ端末10は、任意のタイミングでデータを取得してもよい。例えば、各ユーザ端末10は、10秒ごとにユーザ端末10の利用状況に関するデータを取得してもよい。
「スマートフォン」、「眼鏡型端末」及び「時計型端末」は、各々の端末における利用状況に関する情報を示す。例えば、「画面」の項目では、「画面ON」の状態が観測された場合には「1」が記録され、「画面OFF」の状態が観測された場合には「0」が記録される。また、「動作」の項目では、「動作ON(動作)」の状態が観測された場合には「1」が記録され、「動作OFF(静止)」の状態が観測された場合には「0」が記録される。
「正解データ」は、予測モデルの学習のために用いられる正解データを示す。正解データは、例えば、ユーザが自身のコンテキストを判定し、判定したコンテキストを予測装置100に提供することで記録される。なお、予測装置100は、ユーザに対応する予測モデルが生成された後には、正解データの提供を受けることを要しない。
すなわち、図4では、ユーザID「U11」で識別されるユーザに関連付けられた複数のユーザ端末10から取得された利用状況の一例を示している。例えば、「2015年4月30日8時00分」に取得された利用状況に関するデータは、「スマートフォン」は「画面OFF」かつ「動作ON」であり、「眼鏡型端末」は「画面ON」かつ「動作ON」であり、「時計型端末」は「画面OFF」かつ「動作ON」である。また、この取得された利用状況に関する情報の正解データは、「徒歩」であることを示している。
(モデル記憶部122について)
モデル記憶部122は、ユーザ毎に生成される予測モデルに関する情報を記憶する。ここで、図5に、実施形態に係るモデル記憶部122の一例を示す。図5は、実施形態に係るモデル記憶部122の一例を示す図である。図5に示した例では、モデル記憶部122は、「ユーザID」、「モデルID」といった項目を有する。
「ユーザID」は、図4と同様に、ユーザ端末10又はユーザを識別する識別情報である。「モデルID」は、生成された予測モデルを識別する識別情報である。
すなわち、図5では、ユーザID「U11」によって識別されるユーザU11に対応する予測モデルとして、モデルID「M11」によって識別されるモデルが生成されている一例を示している。
なお、図5では、ユーザIDとモデルIDが1対1に対応して記憶される例を示した。すなわち、一人のユーザに対して、一つの予測モデルが生成される例を示した。しかし、予測装置100は、1人のユーザに対して、複数の予測モデルを生成してもよい。例えば、予測装置100は、一人のユーザがモバイル端末を3種類持ち歩いている場合に生成された予測モデルと、同一のユーザがモバイル端末を4種類持ち歩いている場合に生成された予測モデルとを、別々の予測モデルとして生成してもよい。また、予測装置100は、同一のユーザであっても、取得されるデータを送信したユーザ端末10の種類の組合せが異なる場合には、異なる予測モデルとして生成してもよい。また、予測装置100は、同一のユーザであっても、平日と休日とで異なる予測モデルを生成してもよい。さらに、モデル記憶部122には、モデル生成における過程の情報(例えば、後述する学習部134による学習処理の結果等)が記憶されてもよい。
(コンテンツ記憶部123について)
コンテンツ記憶部123は、任意のコンテンツ提供サーバから入稿されるコンテンツに関する情報を記憶する。ここで、図6に、実施形態に係るコンテンツ記憶部123の一例を示す。図6は、実施形態に係るコンテンツ記憶部123の一例を示す図である。図6に示すように、コンテンツ記憶部123は、「コンテンツグループID」、「コンテンツID」、「配信対象端末」といった項目を有する。
「コンテンツグループID」は、共通した内容を有する複数のコンテンツを含むグループを識別する識別情報を示す。例えば、コンテンツが広告コンテンツである場合には、同一のコンテンツグループに属するコンテンツは、共通した宣伝対象を有する。
「コンテンツID」は、コンテンツを識別する識別情報を示す。「配信対象端末」は、配信される対象として適切な端末の種類を示す。例えば、配信対象端末が「スマートフォン」であるコンテンツは、スマートフォン20の表示に適するように作成されたコンテンツであることを示している。
すなわち、図6では、コンテンツグループID「G11」には、コンテンツID「C111」、「C112」、「C113」によって識別されるコンテンツが含まれることを示している。また、コンテンツID「C111」で識別されるコンテンツの配信対象端末は「スマートフォン」であり、コンテンツID「C112」で識別されるコンテンツの配信対象端末は「眼鏡型端末」であり、コンテンツID「C113」で識別されるコンテンツの配信対象端末は「時計型端末」であることを示している。
なお、図6に示した例では、各コンテンツが一つの端末に対応する例を示したが、複数の端末に対応するコンテンツがあってもよい。例えば、単純なテキストデータで作成されたコンテンツは、配信対象端末として「スマートフォン」、「眼鏡型端末」及び「時計型端末」のいずれの種類であってもよい場合がある。
また、実際にユーザ端末10に配信されるコンテンツのデータは、予測装置100の外部に備えられた所定のストレージサーバに記憶されてもよい。この場合、予測装置100は、コンテンツ記憶部123に記憶されたコンテンツグループIDやコンテンツIDに基づいて、ストレージサーバに記憶されたコンテンツを特定する。そして、予測装置100は、特定されたコンテンツをユーザ端末10に配信するようストレージサーバを制御する。
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、予測装置100内部の記憶装置に記憶されている各種プログラム(予測プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、解析部132と、生成部133と、学習部134と、算出部135と、予測部136と、配信部137とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131について)
取得部131は、ユーザによって利用される複数のユーザ端末10における利用状況を取得する。具体的には、取得部131は、ユーザが所有したり、利用したりするユーザ端末10(スマートフォン20や、眼鏡型端末30や、時計型端末40等)の利用状況を取得する。
また、取得部131は、情報の取得に際し、複数のユーザ端末10のうち少なくとも一つはユーザが携帯可能な移動端末(モバイル端末)における利用状況を取得するようにしてもよい。取得部131は、モバイル端末の利用状況を取得することでユーザの動作や位置情報を取得することができるため、所定の場所に設置される端末よりも、ユーザのコンテキストを予測するために有用な情報を取得し易くなる。
また、取得部131は、複数のユーザ端末10の各々が有する機能の利用状況を取得してもよい。ユーザ端末10の各々が有する機能は、例えば、ユーザ端末10にインストールされるアプリ等により実現される。ユーザ端末10の各々が有する機能は、単独の機能であってもよいし、複数の機能であってもよい。なお、上述してきたような、ユーザ端末10の画面のON/OFFや、動作/静止の情報なども、ユーザ端末10にインストールされたアプリの機能により取得されてもよい。この場合、ユーザ端末10は、予めインストールされた所定のセンシング(sensing)機能を有するアプリによって、画面のON/OFFや、動作/静止などの利用状況を取得する。そして、取得部131は、ユーザ端末10によって取得された利用状況を受信することにより、かかる利用状況を取得する。
取得部131は、複数のユーザ端末10から異なるタイミングで利用状況を取得してもよい。この場合、取得部131は、例えばユーザ端末10によってデータが取得された取得日時をキーとして、複数のユーザ端末10から取得したデータを統合することにより、複数のユーザ端末10に関連付けられたユーザに対応する利用状況を取得することができる。
また、取得部131は、ユーザに配信される所定のコンテンツを取得する。例えば、取得部131は、コンテンツ入稿者が操作する端末を介して、予測装置100に入稿されたコンテンツを取得する。コンテンツ入稿者の一例は、広告コンテンツを入稿する広告主である。取得部131は、取得したコンテンツをコンテンツ記憶部123に記憶する。
(解析部132について)
解析部132は、取得部131によって取得された種々のデータを解析する。例えば、解析部132は、取得部131によって取得されたユーザ端末10の利用状況に関する情報を解析する。
ここで、図7を用いて、解析部132による解析処理の一例について説明する。図7は、実施形態に係る解析部132による解析処理の一例を説明する図(1)である。図7には、利用状況の一例として、ユーザ端末10に内蔵されたセンサにより、ユーザ端末10が動作したか否かが観測されたデータを示している。
図7に示す例では、ユーザ端末10において、動作が観測された場合には、「1」を示すデータが刻まれ、動作が観測されない場合には、「1」を示すデータが刻まれないことを示している。ここで、解析部132は、所定の観測時間「Δt」を設定する。「Δt」は、例えば、ユーザ端末10からデータが送信されるタイミングと同程度に設定される。例えば、解析部132は、「Δt」を「10秒」と設定する。
解析部132は、ユーザ端末10から10秒毎に送信されるデータについて、「Δt」内に観測される「1」を示すデータを計数する。そして、解析部132は、「Δt」内に「1」を示すデータが所定数よりも多く観測された場合に、かかる時間における利用状況として、ユーザ端末10の「動作」項目に対応するデータが「1」であると解析する。一方、解析部132は、「Δt」内に「1」を示すデータが所定数よりも多く観測されない場合には、かかる時間における利用状況として、ユーザ端末10の「動作」項目に対応するデータが「0」であると解析する。
上記の解析処理にあたり、解析部132は、「Δt」の半分の幅である「Δt」を用いてもよい。例えば、解析部132は、2つの「Δt」内のいずれにも「1」を示すデータが所定数よりも多く観測された場合に、「Δt」における「動作」項目に対応するデータを「1」と解析してもよい。このように、解析部132は、ユーザ端末10から送信される利用状況について種々の解析処理を行うことにより、各ユーザ端末10の情報の誤差や、センサの感知の性能の違いなどが吸収されたデータを取得することができる。また、解析部132は、「Δt」で示される時間幅の設定を調整することで、コンテキストの予測処理の精度を向上させてもよい。かかる調整は、後述する学習部134や、予測部136による各処理と連動して行われてもよい。例えば、解析部132は、予測部136が予測したコンテキストの正解率に応じて、「Δt」の幅を適宜調整し、予測するコンテキストの精度に対する所定の学習処理を行うことで、「Δt」の幅を最適化させるといった手法を採用することができる。
また、解析部132は、ユーザ端末10における所定の利用態様の持続時間に基づいた解析を行ってもよい。この点について、図8を用いて説明する。図8は、実施形態に係る解析部132による解析処理の一例を説明する図(2)である。図8には、利用状況の一例として、ユーザ端末10の画面がONであるか否かが観測されたデータを示している。
図8に示す例では、ユーザ端末10において、画面がONである間は「1」を示すデータが刻まれ、画面がOFFである場合には「1」を示すデータが刻まれないことを示している。図7の例と同様に、解析部132は、所定の観測時間「Δt」を設定する。
そして、解析部132は、「Δt」内に観測される「1」を示すデータの持続時間を計測する。解析部132は、「Δt」内に「1」を示すデータが所定時間よりも長く計測された場合に、かかる時間における利用状況として、ユーザ端末10の「画面」項目に対応するデータが「1」であると解析する。一方、解析部132は、「Δt」内に「1」を示すデータが所定時間よりも長く観測されない場合には、かかる時間における利用状況として、ユーザ端末10の「動作」項目に対応するデータが「0」であると解析する。
図7と同様に、解析部132は、「Δt」の半分の幅である「Δt」を用いてもよい。例えば、解析部132は、2つの「Δt」内のいずれにも「1」を示すデータが所定時間よりも長く計測された場合に、「Δt」における「画面」項目に対応するデータを「1」と解析してもよい。あるいは、解析部132は、「Δt」を超える時間「1」を示すデータが計測された場合に、「Δt」における「画面」項目に対応するデータを「1」と解析してもよい。
なお、ユーザ端末10が上述した解析処理を行う機能を有している場合、解析部132は、上述した解析処理を行うことを要しない。例えば、ユーザ端末10が所定のセンシングアプリを用いることにより、上述したような利用状況の解析データを取得可能であり、かつ、取得したデータを予測装置100に送信可能な場合には、解析部132は、上述した解析処理を行わず、送信されたデータを解析処理の結果として利用してもよい。
上述のように、取得部131は、各ユーザ端末10の利用状況を示すデータとして、離散的なデータを各ユーザ端末10から取得する。例えば、取得部131は、各ユーザ端末10の利用状況を示す2値化データを各ユーザ端末10から取得する。これにより、解析部132は、処理負荷の少ないデータを用いて処理を行うことができる。
解析部132は、各ユーザ端末10から送信された利用状況を解析した結果を利用状況記憶部121に格納する。また、解析部132は、解析した結果を生成部133に送る。
(生成部133について)
生成部133は、解析部132によって解析された情報に基づいて、ユーザのコンテキストを予測する予測モデルを生成する。ここで、生成部133は、学習部134による学習処理の結果や、算出部135による算出処理の結果に基づいて、コンテキストの予測に最適化された予測モデルを生成する。
具体的には、生成部133は、複数のユーザ端末10の利用状況の組合せに関する情報を入力とし、ユーザのコンテキストを出力とするような、予測モデルを生成する。また、生成部133は、算出部135によって算出されたユーザ端末10毎の重み値を設定することにより、ユーザのコンテキストの予測に影響を与える度合いの高いユーザ端末10の重みを重くするといった調整を行うことで、最適化された予測モデルを生成する。
生成部133は、ユーザ毎に予測モデルを生成する。言い換えれば、後述する学習部134及び算出部135は、学習処理や算出処理をユーザ毎に実行する。生成部133は、生成した予測モデルや、予測モデルの生成に用いられる学習処理の結果や、算出処理の結果を処理対象であるユーザと対応付けて、モデル記憶部122に適宜記憶する。
(学習部134について)
学習部134は、取得部131によって取得された複数のユーザ端末10の利用状況と、ユーザのコンテキストの正解データとの相関性を学習する。例えば、学習部134は、各ユーザ端末10から送信された利用状況の組合せに関する情報に基づいて、かかる利用状況の組合せの正解データを当てることができるか否かを機械学習する。
具体的には、学習部134は、(スマートフォン20の画面,スマートフォン20の動作,眼鏡型端末30の画面,眼鏡型端末30の動作,時計型端末40の画面,時計型端末40の動作)という複数のユーザ端末10の組合せから得られるデータと、かかるデータに対する正解データとの統計処理による、いわゆる教師あり学習を行う。かかる学習を繰り返すことにより、学習部134は、各ユーザ端末10から送信される利用状況の組合せに基づき、ユーザのコンテキストを高い精度で予測する予測モデルを生成させることが可能となる。
また、学習部134は、ユーザ端末10から送信される利用状況と時間情報とを組み合わせた学習を行ってもよい。スマートフォン20における「画面」の項目に関する2値データと、時間情報との組合せを例に挙げて説明する。学習部134は、(スマートフォン20の画面,t)といった利用状況のデータを取得する。かかる情報は、例えば、取得部131や解析部132から学習部134に送られる。なお、「t」は、任意の時間情報を示す。
同様に、学習部134は、(スマートフォン20の画面,t−k)や、(スマートフォン20の画面,t+k)といったデータを取得する。ここで、「k」は、所定の時間情報を示す。そして、学習部134は、学習処理において、(スマートフォン20の画面,t)というデータと、(スマートフォン20の画面,t−k)や(スマートフォン20の画面,t+k)といったデータとの相関性を学習する。すなわち、学習部134は、所定時間だけ前後の時間における、ユーザ端末10の利用状況の相関性を学習する。言い換えれば、学習部134は、時間(t−k)や、時間(t+k)に対応するデータに基づいて、時間tにおけるコンテキストを予測するための学習を行う。このように、学習部134は、時間情報に基づいてユーザのコンテキストを予測する予測モデルを生成させることができる。例えば、学習部134は、tより前、つまり予測したい時刻(例えば、5分後)より前のデータに基づいて、時間tにおけるコンテキストを予測するための学習を行う。このとき、学習部134は、時間t−k、t−k+1、t−k+2、t−k+3・・・(<t)におけるユーザ端末10の利用状況を学習する。これにより、学習部134は、ユーザの将来のコンテキストを予測するモデルを生成させることができる。
なお、学習部134は、上記で説明した時間情報のみならず、他の情報を用いて学習を行ってもよい。例えば、学習部134は、時間情報ではなく、曜日情報を用いて学習を行ってもよい。この場合、学習部134は、ユーザ端末10から取得されるデータと曜日との相関性を学習することができる。学習処理の結果として、生成部133は、曜日情報を入力に含めることで、よりユーザのコンテキストを正確に予測できるような予測モデルを生成することができる。その他、学習部134は、ユーザ端末10から取得されるデータと、ユーザの位置情報との相関性などを学習してもよい。また、学習部134は、上記で説明した各種情報を組み合わせて学習してもよい。
(算出部135について)
算出部135は、各ユーザ端末10から取得された利用状況に基づいて、コンテキストの予測に与える影響を示す重み値をユーザ端末10ごとに算出する。具体的には、算出部135は、複数のユーザ端末10から取得された利用状況と正解データとの相関性を学習した学習処理の結果に基づいて、コンテキストの予測に与える影響を示す重み値をユーザ端末10毎に算出する。
例えば、学習部134による学習処理では、正解データが左辺に置かれ、重み値を示す係数とユーザ端末10を識別する情報とが乗算されたパラメータが右辺に置かれるような、所定の算出式が利用される。かかる算出式では、右辺に置かれるパラメータの数は、学習処理に用いられるユーザ端末10の数に対応する。そして、算出部135は、学習部134による学習処理の過程において、ユーザ端末10ごとの重み値を算出する。かかる重み値は、算出に用いられる算出式が増えるにつれ、適切な値に収束していくことが想定される。
算出部135は、ユーザのコンテキストの予測に影響を与えると考えられるユーザ端末10ほど、重み値を高く算出することになる。例えば、処理対象ユーザの日常活動において、時計型端末40が常にユーザに身に付けられており、常に「動作」のデータを観測しているものとする。この場合、時計型端末40は、ユーザのコンテキストの予測に寄与する度合いが低いことが想定される。かかるユーザに対して学習処理が行われた場合、算出部135は、かかるユーザに関連付けられた時計型端末40に対して、重み値を低く算出する。一方、かかるユーザの学習に際して、特定のユーザ端末10が動作していたり画面がONになっていたりするデータに基づいて、ユーザのコンテキストの正解データを高い精度が当てることができると学習された場合には、算出部135は、特定のユーザ端末10の重み値を高く算出する。
なお、算出部135は、ユーザ端末10ごとの重み値のみならず、ユーザ端末の各機能に関する重み値を算出してもよい。例えば、算出部135は、ある特定の機能に基づいて取得されるデータがコンテキストの予測に与える影響の度合いが高い場合には、かかる機能に対する重み値を高く算出する。
生成部133は、上記で説明してきたような学習処理、及び算出処理に基づいて、ユーザ毎に対応する予測モデルを生成する。これにより、生成部133は、コンテキストを予測するために用いられるユーザ端末10やデータに重み付けがなされた、最適化された予測モデルを生成することができる。
(予測部136について)
予測部136は、取得部131によって取得された各ユーザ端末10の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。具体的には、予測部136は、ユーザ毎に生成された予測モデルに、複数のユーザ端末10の利用状況の組合せを入力する。そして、予測部136は、予測モデルから出力される結果に基づいて、ユーザのコンテキストを予測する。
例えば、予測部136は、複数のユーザ端末10の利用状況の組合せを予測モデルに入力することにより、入力された利用状況の組合せに対応するコンテキストの指標値(スコア)を出力させる。かかるスコアは、入力された利用状況の組合せから予測されるコンテキストの可能性の高低を示す。例えば、出力されたコンテキストのスコアが高いほど、正解データに近いコンテキストを示しているといえる。言い換えれば、出力されたコンテキストのスコアが高いほど、ユーザが「そのコンテキストである可能性」が高いと考えられる。
予測部136は、複数のユーザ端末10の利用状況の組合せとして、上述したようなユーザ端末10の動作/静止や画面のON/OFF等の情報のみならず、種々の情報を用いてもよい。例えば、予測部136は、データが取得された時点での時間情報であったり、予測しようとするデータが取得された時点の前後の時間情報であったり、曜日などの日時情報であったり、位置情報など、種々の情報を予測モデルに入力してもよい。予測部136は、生成部133により生成された予測モデルが学習した情報を用いることにより、より正確にスコアを出力させることができる。例えば、時間情報とともに学習を多く行った予測モデルに対しては、予測部136は、複数のユーザ端末10の利用状況の組合せに時間情報を含ませることで、より精度の高い予測処理を行うことができる。
ここで、図9及び図10を用いて、予測部136による予測処理の一例について説明する。図9は、実施形態に係る予測部136による予測処理の一例を説明する図(1)である。図9では、複数のユーザ端末10の利用状況として、スマートフォン20、眼鏡型端末30、時計型端末40の各々の「画面ON/OFF」及び「動作/静止」データを、時間情報とともに表示した例を示している。また、図9では、ユーザ端末10において「画面ON」や「動作」が観測された場合には、グラフの上向きに「1」が加算されることを示している。図9に示す例では、予測対象であるユーザの時間情報「7:00〜10:30」の間に取得されたデータを示している。
予測部136は、図9で示したようなデータがある場合に、各々の時間情報も含めてユーザのコンテキストを予測する。ここで、図10を用いて、予測部136が実行した予測処理の一例を示す。図10は、実施形態に係る予測部136による予測処理の一例を説明する図(2)である。図10では、図9において示したデータに対して、予測部136がコンテキストの予測処理を行った結果を示している。
時間情報を含めて学習された予測モデルを用いた予測処理を行った場合、図10に示すように、予測部136は、時間情報に基づくコンテキストの予測結果を出力させることができる。例えば、「7:42〜8:00」において取得される、「画面ON」や「動作」が比較的少ない状態は、ユーザが「朝の身支度」というコンテキストにあるということが予測される。その後、「徒歩」というコンテキストが観測された後、「8:15〜8:50」において取得される頻繁なスマートフォン20の利用状況は、ユーザが「電車の中」というコンテキストにあるということが予測される。
図10に示される利用状況の中には、画面情報や動作情報のみを用いた予測処理では、コンテキストの予測精度が十分でない場合もありうる。しかしながら、時間情報を含めて、「朝の身支度」、「徒歩」、「電車の中」などの一連のユーザの日常活動を正解データとして学習した予測モデルによれば、予測対象となる時点の前後の時間におけるコンテキストを予測処理のパラメータとして利用することができる。これにより、予測部136は、より高い精度でユーザのコンテキストを予測することが可能となる。
また、予測部136は、ユーザ端末10から取得された利用状況に基づいて、コンテキストの予測に与える影響を示す重み値がユーザ端末10ごとに算出されている場合には、算出されたユーザ端末10ごとの重み値に基づいて、ユーザのコンテキストを予測することとなる。
また、予測部136は、取得部131が複数のユーザ端末10の各々が有する機能の利用状況を取得した場合には、かかる機能の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。そして、算出部135は機能ごとの重み値を算出し、かかる重み値を利用して予測モデルが生成されている場合には、予測部136は、算出された機能ごとの重み値に基づいて、ユーザのコンテキストを予測する。
(配信部137について)
配信部137は、取得部131によって取得されたコンテンツを配信する。具体的には、配信部137は、予測部136によって予測されたユーザのコンテキストに基づいて、ユーザに関連付けられている複数のユーザ端末10のいずれかを選択して、所定のコンテンツを配信する。
例えば、配信部137は、コンテンツの配信要求を受信した場合に、配信対象となるユーザのコンテキストの予測結果を参照する。そして、配信部137は、コンテキストに基づき、適切なコンテンツの配信先となるユーザ端末10を選択する。そして、配信部137は、同一のコンテンツグループに属するコンテンツのうち、選択されたユーザ端末10に対応するコンテンツを配信する。
コンテキストに基づく適切なコンテンツの配信先となるユーザ端末10の選択は、予め予測装置100の管理者等により設定されていてもよい。例えば、予測装置100の管理者は、コンテキストが「徒歩」であるユーザに対しては、スマートフォン20よりも眼鏡型端末30に対応するコンテンツを配信する、などを予め設定することができる。
また、コンテキストに基づく適切なコンテンツの配信先となるユーザ端末10の選択は、所定の学習処理によって設定されてもよい。例えば、配信部137は、コンテキストに関わらず、所定の回数はランダムにユーザ端末10を選択してコンテンツを配信する。このとき、配信部137は、コンテンツに対するユーザの反応等を取得する。そして、配信部137は、ユーザからの反応数の大小に基づいて、コンテキストに対応するコンテンツの配信先を決定する。例えば、配信部137は、あるコンテキストにおいて特定のユーザ端末10へ配信した場合にコンテンツへの反応が多く観測された場合には、次にかかるコンテキストにおけるコンテンツ配信をかかる特定のユーザ端末10に対して行う。このように、配信部137は、所定の学習処理を経て、コンテキストに応じた適切な配信先であるユーザ端末10を設定することができる。
〔4.処理手順〕
次に、図11及び図12を用いて、実施形態に係る予測装置100による処理の手順について説明する。まず、図11を用いて、ユーザ端末10の利用状況に基づき、ユーザ毎の予測モデルを生成する処理の手順について説明する。図11は、実施形態に係る生成処理手順を示すフローチャートである。
図11に示すように、取得部131は、ユーザに関連付けられた複数のユーザ端末10の利用状況を取得する(ステップS101)。また、取得部131は、ユーザ端末10の利用状況に対応する正解データを取得する(ステップS102)。
続いて、解析部132は、取得部131によって取得された利用状況を解析する(ステップS103)。そして、生成部133は、解析部132によって解析された利用状況に基づいて、ユーザ毎の予測モデルを生成する(ステップS104)。かかる生成処理では、適宜、学習部134による学習処理や、算出部135による算出処理が行われる。生成部133は、生成した予測モデルをモデル記憶部122に格納し、生成処理を終了する。
次に、図12を用いて、ユーザのコンテキストを予測する処理の手順について説明する。図12は、実施形態に係る予測処理手順を示すフローチャートである。
図12に示すように、取得部131は、ユーザに関連付けられた複数のユーザ端末10の利用状況を取得したか否かを判定する(ステップS201)。利用状況を取得していない場合(ステップS201;No)、取得部131は、取得するまで待機する。
一方、取得部131が利用状況を取得した場合(ステップS201;Yes)、予測部136は、利用状況を送信したユーザ端末10に対応するユーザの予測モデルが存在するか否かを判定する(ステップS202)。対応する予測モデルが存在しない場合(ステップS202;No)、予測部136は予測処理を行わず、予測装置100による処理は、図11で示したモデル生成処理へと移行する(ステップS203)。
一方、対応する予測モデルが存在する場合(ステップS202;Yes)、予測部136は、対応する予測モデルを用いて、ユーザのコンテキストを予測する(ステップS204)。そして、配信部137は、予測されたコンテキストに適したコンテンツをユーザ端末10に配信する(ステップS205)。
〔5.変形例〕
上述した予測装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、予測装置100の他の実施形態について説明する。
〔5−1.予測モデル生成〕
上記実施形態では、ユーザ毎に利用状況を取得し、ユーザに対応する予測モデルを生成する例を示した。しかし、予測装置100は、特定のユーザの予測モデルの生成に際して、他のユーザで生成された予測モデルを利用して予測モデルを生成してもよい。
予測装置100は、スマートフォン20、眼鏡型端末30、時計型端末40の3種類の端末を有しているユーザについて、相当数の予測モデルを生成したものとする。例えば、予測装置100は、スマートフォン20、眼鏡型端末30、時計型端末40の3種類の端末を有しているユーザの1000人分の予測モデルを生成する。その後、予測装置100は、スマートフォン20、眼鏡型端末30、時計型端末40の3種類の端末を有しているユーザであって、予測モデルが生成されていないユーザのコンテキストの予測処理を行う場合、既に生成された1000人分の予測モデルに基づいて、新たに処理対象となるユーザの予測モデルを生成する。
これにより、予測装置100は、新たに処理対象となるユーザから正解データを取得せずとも、一定の信頼度を有する予測モデルによって、新たに処理対象となるユーザのコンテキストを予測することができる。すなわち、予測装置100は、利用状況が取得されたユーザに対して予測モデルを生成するのみならず、既に生成された予測モデルを他のユーザに適用するといった、柔軟な予測処理を行うことができる。
〔5−2.重み付け〕
上記実施形態では、予測装置100が、ユーザ端末10、又はユーザ端末10が有する各機能の重み値を算出する例を示した。ここで、予測装置100は、ユーザ端末10の組合せの重み値や、ユーザ端末10が有する機能の組合せの重み値を算出してもよい。
例えば、予測装置100は、スマートフォン20と眼鏡型端末30から取得される利用状況の組合せに関する重み値を算出する。これにより、予測装置100は、スマートフォン20と眼鏡型端末30との利用状況の組合せが、コンテキストの予測にどのような影響を与えるか、といった度合いを算出することができる。また、予測装置100は、ユーザ端末10同士のみならず、ユーザ端末10が有する機能と他の機能との組合せや、ユーザ端末10が有する機能と他のユーザ端末10が有する機能との組合せなど、種々の組合せから成るパラメータに関して重み値を算出できる。これにより、単独の端末ではなく、複数の端末が組み合わさることによって予測処理に与える影響を反映した予測モデルを生成することができるため、予測装置100は、より高精度にユーザのコンテキストを予測することができる。
〔5−3.利用状況〕
上記実施形態では、予測装置100は、ユーザ端末10の利用状況として、画面のON/OFFや、動作/静止の状態などの情報を取得する例を示した。しかし、予測装置100は、他の情報を取得してもよい。
例えば、予測装置100は、ユーザ端末10の電源の状態を取得してもよい。具体的には、予測装置100は、ユーザ端末10の電源がいつONになり、いつOFFになったか、といった利用状況を取得する。また、予測装置100は、ユーザ端末10が備える各種センサに対応する情報を適宜取得してもよい。例えば、予測装置100は、ユーザ端末10が置かれている場所の温度や湿度、位置情報など、種々の情報を取得することができる。
〔5−4.利用状況の取得〕
上記実施形態では、予測装置100は、複数のユーザ端末10の利用状況を取得する例を示した。しかし、予測装置100は、所定の場合には、特定のユーザ端末10の利用状況のみを取得したり、特定のユーザ端末10の利用状況のみを予測処理に用いたりといった、使用するデータの選別を行ってもよい。
すなわち、予測装置100による学習が進行するにつれ、処理対象とするユーザのコンテキストの予測のために重要なユーザ端末10が決まってくる場合がある。言い換えれば、かかるユーザに対応する予測モデルにおいて、特定のユーザ端末10の重み値が相対的に高くなる場合がある。
この場合、予測装置100は、かかるユーザに関連付けられたユーザ端末10のうち、重み値が相対的に高い状態にあるいくつかのユーザ端末10から利用状況を取得し、重み値が相対的に低い状態にあるいくつかのユーザ端末10からは利用状況を取得しない、といった調整をすることができる。これにより、予測装置100は、予測精度を落とさずに、処理するデータ量を減らすことができるため、効率の良い予測処理を行うことができる。
〔5−5.コンテンツの配信〕
上記実施形態では、予測装置100は、予測されたコンテキストに対応するコンテンツを配信する例を示した。ここで、予測装置100は、予測されたコンテキストに対応するコンテンツを配信するのみならず、予測されたコンテキストの先の時間に想定されるコンテキストに対応するコンテンツを配信してもよい。
すなわち、予測装置100による学習が進行するにつれ、予測装置100は、予測されたユーザのコンテキストの先の時間に想定されるコンテキストを予測できる場合がある。例えば、予測装置100は、時間情報と曜日情報とを含む予測モデルが学習された場合には、処理対象となるユーザについて、ユーザ端末10が取得した利用状況のタイミングにおけるコンテキストのみならず、その先の時間におけるコンテキストが所定の精度で予測できるようになる。
この場合、予測装置100は、予測されたコンテキストの先の時間に想定されるコンテキストに対応するコンテンツを配信する。例えば、予測装置100は、「電車内」にいるユーザが数分後に「徒歩」のコンテキストになることが予測できた場合には、スマートフォン20ではなく、眼鏡型端末30に対応するコンテンツを配信する、といった調整を行うことができる。このように、予測装置100は、ユーザの未来のコンテキストに対する予測処理を行うことで、より適切なタイミングでコンテンツ配信等ができるので、訴求効果の高いコンテンツ配信を実現することができる。
〔5−6.正解データ〕
上記実施形態では、予測装置100は、ユーザ自身が判定するユーザのコンテキストを正解データとして取得する例を示した。ここで、予測装置100は、ユーザが判定するコンテキストを正解データとして取得するのみならず、所定の装置により判定されたコンテキストを正解データとして取得してもよい。
例えば、予測装置100は、コンテンツを判定する他の専用デバイスや、専用アプリから取得できるコンテキストを正解データとして取得してもよい。一例として、予測装置100は、スマートフォン20に備えられたAPI(Application Programming Interface)であって、徒歩、静止、ランニング、利用している交通機関などのユーザの行動状態を判定できるAPIの機能により判定されたコンテキストについて、学習段階における正解データとして取得することができる。
〔5−7.予測装置〕
上記実施形態では、予測装置100は、ユーザ端末10から送信された情報を基にユーザのコンテキストを予測する例を示した。ここで、実施形態において予測装置100により行われたユーザのコンテキスト処理は、ユーザ端末10によって行われてもよい。
この場合、予測処理を実行するユーザ端末10は、上記実施形態において予測装置100が備えていた制御部130などの各処理部を備える。そして、ユーザ端末10は、自ら取得した利用状況や、他のユーザ端末10が取得した利用状況を集計し、ユーザのコンテキスト予測処理を実行する。このように、ユーザのコンテキスト処理は、必ずしも予測装置100のようなサーバ装置を要するものではなく、ユーザ端末10の1台を親機とする構成によって実現されてもよい。例えば、スマートフォン20を親機とする場合、眼鏡型端末30や、時計型端末40、その他活動量計や、所定のオーディオ機器などを利用してコンテキストの予測処理が行われてもよい。なお、予測処理を実行するスマートフォン20は、自らが必ずしもユーザの利用状況を取得することを要さず、眼鏡型端末30や、時計型端末40等から取得される利用状況を用いて予測処理を実行する予測装置として機能してもよい。また、上述してきた処理は、複数台のユーザ端末10によって実現されてもよい。例えば、2台のユーザ端末10のうち、1台が取得部を有し、他の1台が予測部を有するものとし、1台のユーザ端末10によってユーザの利用状況の取得処理が行われ、他の1台のユーザ端末10によってコンテキストの予測処理が行われることにより、上述した処理が実現されてもよい。
〔6.ハードウェア構成〕
上述してきた実施形態に係る予測装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。以下、予測装置100を例に挙げて説明する。図13は、予測装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る予測装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した解析部132と、学習部134とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた記憶装置に記憶されてもよい。
また、例えば、上記実施形態では、予測装置100が、コンテキストを予測する予測処理と、コンテンツを配信する配信処理とを行う例を示した。しかし、上述した予測装置100は、予測処理を行う予測装置200と、配信処理を行う配信装置300とに分離されてもよい。この場合、予測装置200は、取得部131と、解析部132と、学習部134と、予測部136とを有する。また、配信装置300は、配信部137を有する。この場合、実施形態に係る予測装置100による処理は、予測装置200と、配信装置300といった各装置を有する予測処理システム1によって実現される。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔8.効果〕
上述してきたように、実施形態に係る予測装置100は、取得部131と、予測部136とを有する。取得部131は、ユーザによって利用される複数のユーザ端末10における利用状況を取得する。予測部136は、取得部131によって取得された各ユーザ端末10の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、複数のユーザ端末10の利用状況を組合せることにより、ユーザのコンテキストを予測する。これにより、予測装置100は、直接的なコンテキストアウェアネス(Context Awareness)の機能(特殊なセンサ、コンテキスト知覚のための複雑なプログラム等)によらず、通常のユーザ端末10の使用態様に基づいて、高い精度でユーザのコンテキストを捉えることができる。結果として、予測装置100によれば、コンテキスト把握のためのユーザ端末10及びユーザの負担を軽減させることができる。
また、取得部131は、複数のユーザ端末10のうち少なくとも一つはユーザが携帯可能な移動端末における利用状況を取得する。予測部136は、携帯可能な移動端末を含む各ユーザ端末10の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、いわゆるモバイル端末の利用状況を取得することで、ユーザの動作や位置情報を取得することが可能となる。これにより、予測装置100は、通常の態様において所定の場所に設置されるユーザ端末10よりも、ユーザのコンテキストを高い精度で予測することができる。
また、取得部131は、複数のユーザ端末10の各々が有する機能の利用状況を取得する。予測部136は、取得部131によって取得された各機能の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、ユーザ端末10の利用状況の一態様として、ユーザ端末10が有する機能(例えば、ユーザ端末10にインストールされたアプリ等により実現される)の利用状況を取得することができる。例えば、予測装置100は、ユーザ端末10にインストールされたユーザの行動を記憶するセンシングアプリから送信される情報に基づいて、ユーザのコンテキストを予測することができる。これにより、予測装置100は、より多数の情報を組み合わせることができるため、高い精度でユーザのコンテキストを予測することができる。
また、実施形態に係る予測装置100は、各ユーザ端末10から取得された利用状況に基づいて、コンテキストの予測に与える影響を示す重み値をユーザ端末10ごとに算出する算出部135をさらに備える。予測部136は、算出部135によって算出されたユーザ端末10ごとの重み値に基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、予測処理を行う上で重要となるユーザ端末10を判定しつつ、ユーザのコンテキストを予測することができる。例えば、予測装置100は、重み付けにより最適化された予測モデルを用いてユーザのコンテキストを予測するため、より予測精度を向上させることができる。
また、取得部131は、複数のユーザ端末10の各々が有する機能の利用状況を取得する。算出部135は、機能ごとにコンテキストの予測に与える影響を示す重み値を算出する。予測部136は、算出部135によって算出された機能ごとの重み値に基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、ユーザ端末10が有する機能に関しても重み付けを算出することができる。これにより、予測装置100は、予測精度の向上を図るとともに、例えば重み値の低い機能に関しては利用状況の取得をしない等の、予測処理の効率化を図ることができる。
また、取得部131は、各ユーザ端末10の利用状況を示す離散的なデータを取得する。予測部136は、各ユーザ端末10から取得された離散的なデータの組合せに基づいて、ユーザのコンテキストを予測する。
具体的には、取得部131は、各ユーザ端末10の利用状況を示す2値化データを取得する。予測部136は、各ユーザ端末10から取得された2値化データの組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係る予測装置100は、ユーザ端末10の画面状態や動作状態といった、比較的容易に得られ、また、解析に負荷のかかりにくい離散的なデータを取得する。これにより、データを取得するユーザ端末10及び予測処理を行う予測装置100の処理負担を軽減させることができる。
また、実施形態に係る予測装置100は、予測部136によって予測されたユーザのコンテキストに基づいて、複数のユーザ端末10のいずれかを選択してコンテンツを配信する配信部137をさらに備える。
このように、実施形態に係る予測装置100は、コンテキストに応じて、ユーザ端末10を選択してコンテンツを配信することができる。これにより、予測装置100は、より訴求効果が高くなると想定されるコンテンツ配信を行うことができる。また、ユーザにとっても、複数のユーザ端末10の中からコンテキストに適したユーザ端末10にコンテンツが配信されることで、コンテンツが含む情報を取得しやすくなる。
また、実施形態に係るユーザ端末10であって、ユーザによって利用される複数のユーザ端末10のうちのいずれかのユーザ端末10は、取得部(予測装置100に係る取得部131に対応する)と、予測部(予測装置100に係る予測部136に対応する)とを有する。予測処理を実行するユーザ端末10に係る取得部は、ユーザによって利用される複数のユーザ端末10における利用状況を取得する。予測処理を実行するユーザ端末10に係る予測部は、取得部によって取得された各ユーザ端末10の利用状況の組合せに基づいて、ユーザのコンテキストを予測する。
このように、実施形態に係るユーザ端末10は、サーバ装置などへの情報の送信を要することなく、自ら、あるいは、他のユーザ端末10から取得した情報を用いて、ユーザのコンテキストの予測処理を実行することができる。これにより、ユーザ端末10は、サーバ装置とのネットワーク上のやりとりを経ずとも、高い精度でユーザのコンテキストを予測することができる。なお、かかる処理は、複数台のユーザ端末10によって行われてもよい。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 予測処理システム
10 ユーザ端末
20 スマートフォン
30 眼鏡型端末
40 時計型端末
100 予測装置
110 通信部
120 記憶部
121 利用状況記憶部
122 モデル記憶部
123 コンテンツ記憶部
130 制御部
131 取得部
132 解析部
133 生成部
134 学習部
135 算出部
136 予測部
137 配信部

Claims (11)

  1. ユーザによって利用される複数の端末における利用状況を取得する取得部と、
    前記取得部によって取得された各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する予測部と、
    を備えたことを特徴とする予測装置。
  2. 前記取得部は、
    前記複数の端末のうち少なくとも一つはユーザが携帯可能な移動端末における利用状況を取得し、
    前記予測部は、
    前記携帯可能な移動端末を含む各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項1に記載の予測装置。
  3. 前記取得部は、
    前記複数の端末の各々が有する機能の利用状況を取得し、
    前記予測部は、
    前記取得部によって取得された各機能の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項1又は2に記載の予測装置。
  4. 前記各端末から取得された利用状況に基づいて、コンテキストの予測に与える影響を示す重み値を端末ごとに算出する算出部
    をさらに備え、
    前記予測部は、
    前記算出部によって算出された端末ごとの重み値に基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項1〜3のいずれか一つに記載の予測装置。
  5. 前記取得部は、
    前記複数の端末の各々が有する機能の利用状況を取得し、
    前記算出部は、
    前記機能ごとにコンテキストの予測に与える影響を示す重み値を算出し、
    前記予測部は、
    前記算出部によって算出された機能ごとの重み値に基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項4に記載の予測装置。
  6. 前記取得部は、
    前記各端末の利用状況を示す離散的なデータを取得し、
    前記予測部は、
    前記各端末から取得された離散的なデータの組合せに基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項1〜5のいずれか一つに記載の予測装置。
  7. 前記取得部は、
    前記各端末の利用状況を示す2値化データを取得し、
    前記予測部は、
    前記各端末から取得された2値化データの組合せに基づいて、前記ユーザのコンテキストを予測する、
    ことを特徴とする請求項1〜6のいずれか一つに記載の予測装置。
  8. 前記予測部によって予測されたユーザのコンテキストに基づいて、前記複数の端末のいずれかを選択してコンテンツを配信する配信部
    をさらに備えたことを特徴とする請求項1〜7のいずれか一つに記載の予測装置。
  9. ユーザによって利用される複数の端末のうちのいずれかの端末であって、
    前記複数の端末における利用状況を取得する取得部と、
    前記取得部によって取得された各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する予測部と、
    を備えたことを特徴とする端末。
  10. コンピュータが実行する予測方法であって、
    ユーザによって利用される複数の端末における利用状況を取得する取得工程と、
    前記取得工程によって取得された各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する予測工程と、
    を含んだことを特徴とする予測方法。
  11. ユーザによって利用される複数の端末における利用状況を取得する取得手順と、
    前記取得手順によって取得された各端末の利用状況の組合せに基づいて、前記ユーザのコンテキストを予測する予測手順と、
    をコンピュータに実行させることを特徴とする予測プログラム。
JP2015098255A 2015-05-13 2015-05-13 予測装置、端末、予測方法及び予測プログラム Active JP6158859B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015098255A JP6158859B2 (ja) 2015-05-13 2015-05-13 予測装置、端末、予測方法及び予測プログラム
US15/053,347 US20160335556A1 (en) 2015-05-13 2016-02-25 Prediction device, terminal, prediction method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015098255A JP6158859B2 (ja) 2015-05-13 2015-05-13 予測装置、端末、予測方法及び予測プログラム

Publications (2)

Publication Number Publication Date
JP2016212793A true JP2016212793A (ja) 2016-12-15
JP6158859B2 JP6158859B2 (ja) 2017-07-05

Family

ID=57277658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015098255A Active JP6158859B2 (ja) 2015-05-13 2015-05-13 予測装置、端末、予測方法及び予測プログラム

Country Status (2)

Country Link
US (1) US20160335556A1 (ja)
JP (1) JP6158859B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (ja) * 2016-09-08 2019-06-24 ソニー株式会社 情報処理装置
JP2019160013A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020013270A (ja) * 2018-07-17 2020-01-23 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2020140456A (ja) * 2019-02-28 2020-09-03 Kddi株式会社 広告成果評価方法、装置およびプログラム
JP2020536299A (ja) * 2017-09-21 2020-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 改善されたパフォーマンスのためのユーザ・プロファイルの動的かつ自動的な変更を実施するための方法、コンピュータ・システム及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11338733B2 (en) * 2017-04-05 2022-05-24 Cambridge Mobile Telematics Inc. Device-based systems and methods for detecting screen state and device movement

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (ja) * 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
JP2009176130A (ja) * 2008-01-25 2009-08-06 Olympus Corp 情報提示システム、プログラム及び情報記憶媒体
JP2010146221A (ja) * 2008-12-18 2010-07-01 Hitachi Ltd 行動記録入力支援システム、行動入力支援方法、及びサーバ
JP2010211679A (ja) * 2009-03-12 2010-09-24 Hitachi Ltd 行動予測方法及び行動予測システム
JP2011206274A (ja) * 2010-03-30 2011-10-20 Nec Corp 行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラム
WO2014126131A1 (ja) * 2013-02-13 2014-08-21 株式会社構造計画研究所 生活行動推定システム、生活行動推定装置、生活行動推定プログラム、及び記録媒体
JP2014225165A (ja) * 2013-05-16 2014-12-04 富士通株式会社 監視システム、外出判定方法および外出判定プログラム
JP2014236495A (ja) * 2013-06-05 2014-12-15 住友電気工業株式会社 情報提供システム及び情報提供方法
JP2015022482A (ja) * 2013-07-18 2015-02-02 日本電信電話株式会社 生活状態推定システム及び生活状態推定方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (ja) * 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
JP2009176130A (ja) * 2008-01-25 2009-08-06 Olympus Corp 情報提示システム、プログラム及び情報記憶媒体
JP2010146221A (ja) * 2008-12-18 2010-07-01 Hitachi Ltd 行動記録入力支援システム、行動入力支援方法、及びサーバ
JP2010211679A (ja) * 2009-03-12 2010-09-24 Hitachi Ltd 行動予測方法及び行動予測システム
JP2011206274A (ja) * 2010-03-30 2011-10-20 Nec Corp 行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラム
WO2014126131A1 (ja) * 2013-02-13 2014-08-21 株式会社構造計画研究所 生活行動推定システム、生活行動推定装置、生活行動推定プログラム、及び記録媒体
JP2014225165A (ja) * 2013-05-16 2014-12-04 富士通株式会社 監視システム、外出判定方法および外出判定プログラム
JP2014236495A (ja) * 2013-06-05 2014-12-15 住友電気工業株式会社 情報提供システム及び情報提供方法
JP2015022482A (ja) * 2013-07-18 2015-02-02 日本電信電話株式会社 生活状態推定システム及び生活状態推定方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (ja) * 2016-09-08 2019-06-24 ソニー株式会社 情報処理装置
JP7074343B2 (ja) 2016-09-08 2022-05-24 ソニーグループ株式会社 情報処理装置
JP2020536299A (ja) * 2017-09-21 2020-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 改善されたパフォーマンスのためのユーザ・プロファイルの動的かつ自動的な変更を実施するための方法、コンピュータ・システム及びプログラム
JP7429087B2 (ja) 2017-09-21 2024-02-07 インターナショナル・ビジネス・マシーンズ・コーポレーション 改善されたパフォーマンスのためのユーザ・プロファイルの動的かつ自動的な変更を実施するための方法、コンピュータ・システム及びプログラム
US11954564B2 (en) 2017-09-21 2024-04-09 International Business Machines Corporation Implementing dynamically and automatically altering user profile for enhanced performance
JP2019160013A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020013270A (ja) * 2018-07-17 2020-01-23 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2020140456A (ja) * 2019-02-28 2020-09-03 Kddi株式会社 広告成果評価方法、装置およびプログラム
JP7084887B2 (ja) 2019-02-28 2022-06-15 Kddi株式会社 広告成果評価方法、装置およびプログラム

Also Published As

Publication number Publication date
US20160335556A1 (en) 2016-11-17
JP6158859B2 (ja) 2017-07-05

Similar Documents

Publication Publication Date Title
JP6158859B2 (ja) 予測装置、端末、予測方法及び予測プログラム
US9438941B2 (en) Using second screen devices to augment media engagement metrics
CN106548364B (zh) 信息发送方法及装置
JP6254726B1 (ja) 生成装置、生成方法、及び生成プログラム
JP6383170B2 (ja) 一般化された状況判断知能プラットフォーム
US11228653B2 (en) Terminal, cloud apparatus, driving method of terminal, method for processing cooperative data, computer readable recording medium
KR20190110519A (ko) 딥 러닝 모델들의 분산 훈련을 위한 시스템들 및 방법들
EP3346428A1 (en) Sensor design support apparatus, sensor design support method and computer program
JP6134411B1 (ja) 情報処理装置、情報処理システム、情報処理方法、および、情報処理プログラム
EP3231199B1 (en) Notifications on mobile devices
WO2013187295A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6465837B2 (ja) 収集装置、収集方法、及び収集プログラム
JPWO2010010653A1 (ja) ユーザモデル処理装置
EP3133502B1 (en) Terminal device and method for cooperatively processing data
JP2013036887A (ja) 観測値信頼度評価装置、観測値信頼度評価方法及び観測値信頼度評価プログラム
US20210337010A1 (en) Computerized system and method for automatically providing networked devices non-native functionality
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
KR20160014609A (ko) 애플리케이션 순위 계산 장치 및 사용 정보 수집 장치
US20140129955A1 (en) Information processing system, information processing method, information processing device, information processing terminal, program and storage medium
JP7405518B2 (ja) 生成装置、生成方法及び生成プログラム
JP2019036116A (ja) 決定装置、決定方法、及び決定プログラム
JP2019036114A (ja) 生成装置、生成方法、生成プログラム、学習データ、及びモデル
JP7071940B2 (ja) 提供装置、提供方法および提供プログラム
JP5771238B2 (ja) 同行判断装置、同行判断方法、およびプログラム
JP7142059B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170608

R150 Certificate of patent or registration of utility model

Ref document number: 6158859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250