JP5904021B2 - 情報処理装置、電子機器、情報処理方法、及びプログラム - Google Patents

情報処理装置、電子機器、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP5904021B2
JP5904021B2 JP2012129799A JP2012129799A JP5904021B2 JP 5904021 B2 JP5904021 B2 JP 5904021B2 JP 2012129799 A JP2012129799 A JP 2012129799A JP 2012129799 A JP2012129799 A JP 2012129799A JP 5904021 B2 JP5904021 B2 JP 5904021B2
Authority
JP
Japan
Prior art keywords
information
behavior pattern
pattern
text information
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012129799A
Other languages
English (en)
Other versions
JP2013254372A5 (ja
JP2013254372A (ja
Inventor
康治 浅野
康治 浅野
高村 成一
成一 高村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012129799A priority Critical patent/JP5904021B2/ja
Priority to US13/869,422 priority patent/US20130332410A1/en
Priority to CN201310211717.6A priority patent/CN103488666B/zh
Publication of JP2013254372A publication Critical patent/JP2013254372A/ja
Publication of JP2013254372A5 publication Critical patent/JP2013254372A5/ja
Application granted granted Critical
Publication of JP5904021B2 publication Critical patent/JP5904021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本技術は、情報処理装置、電子機器、情報処理方法、及びプログラムに関する。
携帯電話等の携帯端末にモーションセンサを搭載し、ユーザの行動履歴を自動的に検出して記録できるようにする技術に注目が集まっている。例えば、下記の特許文献1には、加速度センサやジャイロセンサ等のモーションセンサを利用し、歩く動作、走る動作、左右にターンする動作、静止状態を検知する技術が開示されている。同文献には、モーションセンサの出力データから、歩行ピッチ、歩行パワー、重力軸まわりの回転角を算出し、その算出結果を用いて歩く動作、走る動作、左右にターンする動作、及び静止状態を検知する方法が記載されている。
さらに、同文献には、これらの動作や状態の種類、動作や状態が継続していた時間、動作回数等、動作や状態のパターンを入力とする統計的な処理によりユーザの行動パターンを検知する方法が記載されている。上記の方法を用いると、「のんびりした歩行」や「せわしない動作」といった行動パターンを時系列のデータとして得ることができる。しかし、この方法で得られる行動パターンは、比較的短時間に行われるユーザの動作や状態を主に表現したものである。そのため、「今日はデパートで買い物をした」「昨日はホテルのレストランで食事をした」等、具体的な行動内容を行動パターンの履歴から推察することは難しい。
下記の特許文献1に記載の方法を用いて得られる行動パターンは、比較的短時間に行われる行動の積み重ねである。そして、当該行動パターンを形成する個々の行動自体は、ユーザが目的を持って行っているものではない。一方、具体的な行動内容は、ユーザが目的を持って行っているものが多く、比較的長時間にわたって行われるエンタテイメント性の高いものである。そのため、短時間で行われる行動の積み重ねから上記のような具体的な行動内容を窺い知ることは難しい。しかし、最近、モーションセンサを用いて得られる比較的短時間の行動パターンから、比較的長時間にわたり行われるエンタテイメント性の高い行動パターンを検出する技術が開発された(下記の特許文献2を参照)。
特開2008−003655号公報 特開2011−081431号公報
上記の特許文献2に記載の技術を適用すると、ユーザが行った行動パターンを検出することが可能になる。しかしながら、位置センサやモーションセンサから得られた情報を利用して検出処理を行なっているため、行動パターンの推定精度が不十分な場合もある。具体的には、ユーザ毎にモーションセンサから得られる情報に違いが生じる。例えば、モーションセンサを搭載した機器をポケットに入れて携帯するか、バッグの中に入れて携帯するかなど、携帯する状態に応じて検出結果が異なり、推定結果に違いが生じることがある。そのため、位置センサやモーションセンサ以外の情報を利用して行動パターンの推定精度を高める技術の開発が求められている。
そこで、本技術は、上記のような事情を受けて考案されたものであり、行動パターンの推定精度をより向上させることが可能な、新規かつ改良された情報処理装置、電子機器、情報処理方法、及びプログラムを提供することを意図している。
本技術のある観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新部と、前記ユーザが機器に入力したテキスト情報を取得するテキスト情報取得部と、前記テキスト情報から行動パターンに関する情報を得るテキスト情報解析部と、を備え、前記DB更新部は、前記テキスト情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、情報処理装置が提供される。
また、本技術の別の観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信部と、前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得部と、を備える、電子機器が提供される。
また、本技術の別の観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するステップを含み、前記ユーザが機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースが更新される、情報処理方法が提供される。
また、本技術の別の観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスするステップと、前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得するステップと、を含む、情報処理方法が提供される。
また、本技術の別の観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新機能と、前記ユーザが機器に入力したテキスト情報を取得するテキスト情報取得機能と、前記テキスト情報から行動パターンに関する情報を得るテキスト情報解析機能と、をコンピュータに実現させるためのプログラムであり、前記DB更新機能は、前記テキスト情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、プログラムが提供される。
また、本技術の別の観点によれば、センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信機能と、前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得機能と、をコンピュータに実現させるためのプログラムが提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、行動パターンの推定精度をより向上させることが可能になる。
行動・状況解析システムの構成例について説明するための説明図である。 動き・状態認識部の機能について説明するための説明図である。 動き・状態認識部の機能について説明するための説明図である。 GIS情報取得部の機能について説明するための説明図である。 GIS情報取得部の機能について説明するための説明図である。 GIS情報取得部の機能について説明するための説明図である。 GIS情報取得部の機能について説明するための説明図である。 行動・状況認識部の機能について説明するための説明図である。 行動・状況認識部の機能について説明するための説明図である。 動作・状態パターンの判定方法について説明するための説明図である。 ジオヒストグラムを利用したスコア分布の算出方法について説明するための説明図である。 機械学習を利用したスコア分布の算出方法について説明するための説明図である。 検出される行動・状況パターンの一例を示した説明図である。 本発明の一実施形態に係る行動・状況認識システムの構成例について説明するための説明図である。 同実施形態に係る行動・状況認識システムの詳細な構成について説明するための説明図である。 同実施形態に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態の一変形例に係る行動・状況認識システムの詳細な構成について説明するための説明図である。 同実施形態の一変形例に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態の一変形例に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態の一変形例に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態の一変形例に係る行動・状況認識システムの動作について説明するための説明図である。 同実施形態に係る行動パターン認識結果を利用したアプリケーションの画面構成例について説明するための説明図である。 同実施形態に係るシステム及び各機器の機能を実現することが可能なハードウェア構成例について説明するための説明図である。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。まず、図1〜図13を参照しながら、本実施形態の技術に関連する行動パターン認識技術について説明する。次いで、図14及び図15を参照しながら、本発明の一実施形態に係る行動・状況認識システムの構成について説明する。次いで、図16及び図17を参照しながら、同実施形態に係る行動・状況認識システムの動作について説明する。
次いで、図18を参照しながら、同実施形態の一変形例に係る行動・状況認識システムの構成について説明する。次いで、図19〜図22を参照しながら、同実施形態の一変形例に係る行動・状況認識システムの動作について説明する。次いで、図23を参照しながら、同実施形態に係る行動パターン認識結果を利用したアプリケーションの画面構成例について説明する。次いで、図24を参照しながら、同実施形態に係るシステム及び各機器の機能を実現することが可能なハードウェア構成例について説明する。
最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:はじめに
1−1:行動パターン認識技術
1−2:実施形態の概要
1−2−1:テキスト情報を利用したパターンDBの更新
1−2−2:環境音を利用したパターンDBの更新
2:実施形態の詳細
2−1:システム構成の一例
2−2:テキスト情報及び音響情報を利用したパターンDBの更新
2−2−1:機能構成
2−2−2:処理の流れ
2−3:(変形例)音声認識技術の適用
2−3−1:機能構成
2−3−2:処理の流れ
2−4:画面表示の例(アプリケーションの一例)
3:ハードウェア構成例
4:まとめ
<1:はじめに>
はじめに、本実施形態の技術に関連する行動パターン認識技術について説明する。
[1−1:行動パターン認識技術]
ここで説明する行動パターン認識技術は、モーションセンサなどを利用して検知されたユーザの動きや状態に関する情報と位置センサなどを利用して検知された位置情報とを用いてユーザの行動や状況を検出する技術に関する。
なお、モーションセンサとしては、例えば、3軸加速度センサ(加速度センサ、重力検知センサ、落下検出センサなどを含む。)や3軸ジャイロセンサ(角速度センサ、手振れ補正センサ、地磁気センサなどを含む。)などが用いられる。また、位置センサとしては、例えば、GPS(Global Positioning System)、RFID(Radio Frequency Identification)、Wi−Fiアクセスポイント、無線基地局などの情報が利用可能である。これらの情報を利用すると、例えば、現在地の緯度・経度を検出することが可能になる。
(行動・状況解析システム11のシステム構成)
まず、図1を参照しながら、上記のような行動パターン認識技術を実現することが可能な行動・状況解析システム11のシステム構成について説明する。図1は、行動・状況解析システム11の全体的なシステム構成について説明するための説明図である。
なお、本稿においては、「動き、状態」と「行動、状況」という表現を次のような意味で使い分ける。「動き、状態」は、数秒から数分程度の比較的短時間にユーザが行う行動を意味し、例えば、「歩き」「走り」「跳躍」「静止」等の行為を指す。また、この行為を纏めて「動き・状態パターン」又は「LC(Low−Context)行動」と表現する。一方、「行動、状況」は、「動き、状態」よりも長い時間かけてユーザが行う生活行動であり、例えば、「食事」「買い物」「仕事」等の行為を指す。また、この行為を纏めて「行動・状況パターン」又は「HC(High−Context)行動」と表現する。
図1に示すように、行動・状況解析システム11は、主に、モーションセンサ111と、動き・状態認識部112と、時刻情報取得部113と、位置センサ114と、GIS情報取得部115と、行動・状況認識部116とにより構成される。
なお、行動・状況解析システム11には、行動・状況認識部116により検出される行動・状況パターンを利用するアプリケーションAPやサービスSVが用意されていてもよい。また、アプリケーションAPによる行動・状況パターンの利用結果や、ユーザのプロファイル情報が行動・状況認識部116に入力されるように構成されていてもよい。
まず、ユーザが行動すると、モーションセンサ111により加速度の変化や重力軸周りの回転等(以下、センサデータ)が検知される。モーションセンサ111により検知されたセンサデータは、図2に示すように、動き・状態認識部112に入力される。
センサデータが入力されると、動き・状態認識部112は、図2に示すように、入力されたセンサデータを用いて動き・状態パターンを検出する。動き・状態認識部112により検出可能な動き・状態パターンとしては、例えば、図3に示すように、「歩き」「走り」「静止」「跳躍」「電車(搭乗/非搭乗)」「エレベータ(搭乗/非搭乗/上昇/下降)」などがある。動き・状態認識部112により検出された動き・状態パターンは、行動・状況認識部116に入力される。
位置センサ114は、ユーザの居場所(以下、現在地)を示す位置情報を連続的又は間欠的に取得する。例えば、現在地の位置情報は、緯度・経度により表現される。位置センサ114により取得された現在地の位置情報は、GIS情報取得部115に入力される。
現在地の位置情報が入力されると、GIS情報取得部115は、GIS(Geographic Information System)情報を取得する。そして、GIS情報取得部115は、図4に示すように、取得したGIS情報を用いて現在地の属性を検出する。GIS情報は、例えば、地図情報や、人工衛星や現地踏査などで得られた様々な付加情報を含み、科学的調査、土地、施設、道路などの管理や都市計画などにも利用される情報である。GIS情報を利用すると、現在地の属性を判別することが可能になる。GIS情報取得部115は、例えば、ジオカテゴリコード(例えば、図5を参照)と呼ばれる識別情報を利用して現在地の属性を表現する。
ジオカテゴリコードは、図5に示すように、場所に関連する情報の種別を分類するための分類コードである。このジオカテゴリコードは、例えば、建造物の種別、地形の形状、地理的特性、地域性等に応じて設定されている。そのため、現在地のジオカテゴリコードを特定することにより、ユーザが居る環境をある程度認識することが可能になる。
GIS情報取得部115は、取得したGIS情報を参照し、現在地及び現在地周辺にある建造物などを特定して、その建造物などに対応するジオカテゴリコードを抽出する。GIS情報取得部115により選択されたジオカテゴリコードは、行動・状況認識部116に入力される。なお、現在地周辺に建造物などが多数存在する場合、GIS情報取得部115は、各建造物などのジオカテゴリコードを抽出し、抽出したジオカテゴリコードに関する情報として、図6及び図7に示すジオカテゴリヒストグラムのような情報を行動・状況認識部116に入力してもよい。
図8に示すように、行動・状況認識部116には、動き・状態認識部112から動き・状態パターンが入力され、GIS情報取得部115からジオカテゴリコードなどが入力される。また、行動・状況認識部116には、時刻情報取得部113から時刻情報が入力される。この時刻情報は、モーションセンサ111によりセンサデータが取得された時刻を示す情報を含む。また、この時刻情報は、位置センサ114により位置情報が取得された時刻を示す情報を含んでいてもよい。また、時刻情報としては、例えば、時刻を示す情報の他、曜日の情報、祝日の情報、年月日の情報などが含まれていてもよい。
上記の情報が入力されると、行動・状況認識部116は、入力された動き・状態パターン、ジオカテゴリコード(或いは、ジオカテゴリヒストグラムなど)、及び時刻情報に基づいて行動・状況パターンを検出する。このとき、行動・状況認識部116は、ルールに基づく判定処理(以下、ルールベース判定)や学習モデルに基づく判定処理(以下、学習モデル判定)を利用して行動・状況パターンを検出する。ここで、ルールベース判定及び学習モデル判定について簡単に説明する。
(ルールベース判定について)
まず、ルールベース判定について説明する。ルールベース判定とは、ジオカテゴリコードと行動・状況パターンとの組み合わせ毎にスコアを割り当てておき、そのスコアに基づいて入力データに対応する適切な行動・状況パターンを判定する方法である。
スコアの割り当てルールは、図9に示すようなスコアマップSMにより表現される。スコアマップSMは、年月日、時間帯、曜日などの時刻情報毎に用意される。例えば、3月の第1週の月曜日に対応するスコアマップSMなどが用意される。さらに、スコアマップSMは、歩行、走行、電車などの動き・状態パターン毎に用意される。例えば、歩行中のスコアマップSMなどが用意される。そのため、スコアマップSMは、時刻情報と動き・状態パターンとの組み合わせ毎に用意される。
行動・状況認識部116は、図10に示すように、予め用意された複数のスコアマップSMの中から、入力された時刻情報及び動き・状態パターンに適合するスコアマップSMを選択する。また、行動・状況認識部116は、図11に示すように、選択したスコアマップSMの中から、ジオカテゴリコードに対応するスコアを抽出する。これらの処理により、行動・状況認識部116は、センサデータの取得時点における現在地の状況を考慮して、スコアマップSMに存在する各行動・状況パターンのスコアを抽出することが可能になる。
次いで、行動・状況認識部116は、抽出したスコアの中から最大のスコアを特定し、最大のスコアに対応する行動・状況パターンを抽出する。このようにして行動・状況パターンを検出する方法がルールベース判定である。なお、スコアマップSMのスコアは、そのスコアに対応する行動・状況パターンをユーザがとると推測される確率を示している。つまり、スコアマップSMは、ジオカテゴリコードで表現される現在地の状況でユーザがとると推測される行動・状況パターンのスコア分布を表している。
例えば、日曜日の3時頃、デパートにいるユーザは「買い物中」である確率が高いと推測される。但し、同じデパートにいても19時頃、デパートにいるユーザは「食事中」である確率も高いと推測される。このように、ある場所で、ある時間にユーザが行っている行動・状況パターンのスコア分布を示したものがスコアマップSM(正確にはスコアマップSM群)なのである。
スコアマップSMは、例えば、ユーザ本人又は他人により予め入力されたものであってもよいし、或いは、機械学習などを利用して得られるものであってもよい。また、スコアマップSMは、個人プロファイル情報PRや、ユーザから得られる行動・状況フィードバックFB(出力された行動・状況パターンの正否など)により最適化されてもよい。プロファイル情報PRとしては、例えば、年齢、性別、職業、自宅の情報、職場の情報などが利用される。以上がルールベース判定の具体的な処理内容である。
(学習モデル判定について)
次に、学習モデル判定について説明する。学習モデル判定とは、機械学習アルゴリズムを用いて行動・状況パターンを判定するための判定モデルを生成し、生成した判定モデルを用いて入力データに対応する行動・状況パターンを判定する方法である。
機械学習アルゴリズムとしては、例えば、k−means法、Nearest Neighbor法、SVM、HMM、Boosting等が利用可能である。但し、SVMは、Support vector machineの略である。また、HMMは、Hidden Markov Modelの略である。これらの手法に加え、特開2009−48266号公報などに記載の遺伝的探索に基づくアルゴリズム構築方法を利用して判定モデルを生成する方法もある。
機械学習アルゴリズムに入力される特徴量ベクトルとしては、例えば、図12に示すように、時間情報、動き・状態パターン、ジオカテゴリコード(又はジオカテゴリヒストグラムなど)、センサデータ、現在地の位置情報などが利用される。但し、遺伝的探索に基づくアルゴリズム構築方法を用いる場合、学習過程における特徴量ベクトルの選定段階で遺伝的探索アルゴリズムが利用される。行動・状況認識部116は、まず、正解の行動・状況パターンが分かっている特徴量ベクトルを学習データとして機械学習アルゴリズムに入力し、各行動・状況パターンの確度、又は最適な行動・状況パターンを判定する判定モデルを生成する。
次いで、行動・状況認識部116は、生成した判定モデルに入力データを入力し、入力データに適合すると推測される行動・状況パターンを判定する。但し、生成した判定モデルを用いて行われた判定結果に対する正誤のフィードバックが得られる場合、そのフィードバックを利用して判定モデルが再構築される。この場合、行動・状況認識部116は、再構築した判定モデルを用いて入力データに適合すると推測される行動・状況パターンを判定する。以上が学習モデル判定の具体的な処理内容である。
以上説明した方法により、行動・状況認識部116は、図13に示すような行動・状況パターンを検出する。そして、行動・状況認識部116により検出された行動・状況パターンは、行動・状況パターンに応じた推奨サービスSVの提供に利用されたり、行動・状況パターンに応じた処理を行うアプリケーションAPにより利用される。
以上、行動・状況解析システム11のシステム構成について説明した。後述する実施形態に係る技術は、上述した行動・状況解析システム11の機能に関係する。なお、行動・状況解析システム11の詳細な機能については、例えば、特開2011−081431号公報などの記載が参考になる。
[1−2:実施形態の概要]
まず、本実施形態に係る技術の概要について説明する。本実施形態に係る技術は、上述した行動パターン認識技術に利用するパターンデータベース(以下、パターンDB)の更新方法に関する。上述した行動パターン認識技術は、センサデータを利用している。そのため、ユーザが情報端末を携帯する方法や利用環境に行動パターン認識の結果が左右されてしまう可能性がある。そこで、本実施形態に係る技術は、携帯方法や利用環境などに起因するノイズへの耐性が向上するようにパターンDBを更新する方法を提案する。
(1−2−1:テキスト情報を利用したパターンDBの更新)
その1つの方法として、テキスト情報を利用したパターンDBの更新方法を提案する。
テキスト情報としては、例えば、メール、カレンダー、ToDoリスト、メモ、ブログ、ツイッター(登録商標)、フェイスブック(登録商標)、或いは、その他のソーシャルメディアに入力したテキストなどが利用可能である。また、乗り換え案内やルート検索などのアプリケーションに対する情報の入力や、アクセスポイントの検索情報などをテキスト情報と組み合わせて利用することも可能である。以下では、こうした組み合わせについて詳細な言及は行わないが、こうした応用も当然に考慮している点に注意されたい。
上記のようなテキスト情報は、ユーザがとっている行動をリアルタイムに反映した情報を含む場合や、行動している日時と行動とを対応付けた情報を含む場合が多い。そのため、テキスト情報を解析し、その解析結果をパターンDBの内容に反映させることで、より行動パターン認識の精度を向上させることが可能になる。
例えば、センサデータ及び位置情報から、ユーザの行動パターンが「電車に搭乗」と判定された場合でも、ユーザがテキスト情報に「初めてボートに乗った!!」などと書き込んでいれば、「ボートに搭乗」という行動パターンが正解であると考えられる。この場合、パターンDBの該当レコードが「ボートに搭乗」となるように修正することで、行動パターン「電車に搭乗」と、行動パターン「ボートに搭乗」とを区別することが可能になる。つまり、行動パターン認識の精度を向上させることが可能になる。
(1−2−2:環境音を利用したパターンDBの更新)
また、他の方法として、環境音を利用したパターンDBの更新方法を提案する。
ここで言う環境音とは、ユーザが利用する情報端末によって収集可能な任意の音声情報である。例えば、ユーザが電車に搭乗中であれば、モータの駆動音、社内アナウンス、線路の継ぎ目で発生する規則的な振動音、ドアの開閉音などが環境音として検出されるであろう。また、自家用車に同乗者を載せて運転している場合であれば、自動車の走行音と共に、同乗者との会話やカーオーディオの音などが環境音として検出されるであろう。さらに、家に居る場合でも、雨天の場合には、規則的に屋根を叩く雨音や雷鳴などが環境音として検出されるであろう。
また、同じ行動をとっている場合でも、情報端末をユーザがポケットに入れて携帯している場合と、ハンドバッグに入れて携帯している場合とでは、環境音も異なるだろう。例えば、厚い革製のバッグに情報端末を入れて携帯している場合、検出される環境音の音量は小さく、また、高周波成分が抑圧された音質となるであろう。一方、手で携帯している場合、周囲の喧騒や他人との話し声などが捕捉されやすくなるであろう。こうした環境音を利用すると、行動パターン認識の精度をより高めることが可能になる。例えば、モーションセンサでは、ボートの揺れと電車の揺れとを区別できない場合でも、水音が聞こえれば、その揺れがボートの揺れであることが容易に判別できるようになる。
以上説明したように、テキスト情報や環境音を行動パターン認識に利用することで、行動パターン認識の精度をより高めることが可能になる。特に、上述した動き・状態認識部112が利用する動き・状態パターンの情報や、行動・状況認識部116が利用する行動パターンの情報が格納されたパターンDBの更新により、行動パターン認識の更なる高精度化を実現することが可能になる。以下では、こうした技術的思想に基づく実施形態について、より詳細に説明する。
<2:実施形態の詳細>
本実施形態に係る技術の詳細について説明する。
[2−1:システム構成の一例]
まず、図14を参照しながら、本実施形態に係るシステム(行動・状態認識システム10)のシステム構成例について紹介する。図14は、本実施形態に係るシステム(行動・状態認識システム10)のシステム構成について説明するための説明図である。なお、ここで紹介するシステム構成は一例であり、現在及び将来において利用可能な様々なシステム構成に対して本実施形態に係る技術を適用することが可能である。
図14に示すように、行動・状態認識システム10は、主に、複数の情報端末CLと、サーバ装置SVとにより構成される。情報端末CLは、ユーザが利用する機器の一例である。例えば、情報端末CLとしては、携帯電話、スマートフォン、デジタルスチルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、タブレット端末、カーナビゲーションシステム、携帯ゲーム機、健康器具(万歩計(登録商標)などを含む)、医療機器などが想定される。一方、サーバ装置SVとしては、例えば、ホームサーバやクラウドコンピューティングシステムなどが想定される。
もちろん、本実施形態に係る技術が適用可能なシステム構成は図14の例に限定されないが、説明の都合上、有線及び/又は無線のネットワークで接続された複数の情報端末CL及びサーバ装置SVを念頭に置きつつ説明を進めることにする。従って、情報端末CLとサーバ装置SVとの間で情報をやり取りすることが可能な構成を想定する。但し、行動・状況認識システム10が有する各種機能のうち、どの機能を情報端末CLが担い、どの機能をサーバ装置SVが担うように構成するかは自由である。例えば、情報端末CLの演算能力や通信速度などを考慮して設計されることが望ましい。
[2−2:テキスト情報及び音響情報を利用したパターンDBの更新]
以下、行動・状態認識システム10の構成及び動作について、より詳細に説明する。
(2−2−1:機能構成)
まず、図15を参照しながら、行動・状況認識システム10の機能構成について説明する。図15は、行動・状況認識システム10の機能構成について説明するための説明図である。ここでは、情報端末CLとサーバ装置SVとの間の機能分担は明示せず、行動・状況認識システム10全体が有する機能について説明することにする。
図15に示すように、行動・状況認識システム10は、主に、音響情報取得部101と、音響情報解析部102と、テキスト情報取得部103と、テキスト情報解析部104と、動き・状態パターン更新部105と、動き・状態パターンデータベース106と、行動パターン更新部107と、行動パターンデータベース108とを有する。
さらに、行動・状況認識システム10は、行動・状況解析システム11の機能を含む。つまり、行動・状況認識システム10は、モーションセンサ111と、動き・状態認識部112と、時刻情報取得部113と、位置センサ114と、GIS情報取得部115と、行動・状況認識部116とをさらに有する。但し、図15において、動き・状態認識部112が動き・状態パターンデータベース106を利用する点を明示した。さらに、行動・状況認識部116が行動パターンデータベース108を利用する点を明示した。
音響情報取得部101は、ユーザ周囲の環境音を取得するデバイスである。例えば、音響情報取得部101は、マイクにより構成される。音響情報取得部101により取得された環境音の音響信号は、音響情報解析部102に入力される。なお、環境音の音響信号は、音響情報解析部102に入力される前段で、アナログの音声波形信号からデジタルの音声波形信号に変換されてもよい。環境音の音響信号が入力されると、音響情報解析部102は、入力された音響信号を解析し、ユーザの行動パターンを推定する。
例えば、音響情報解析部102は、環境音の音響信号から、ユーザが買い物中であるか、食事中であるか、電車に搭乗中であるかなどを推定する。この推定は、例えば、HMMなどの機械学習手法を用いて構築された学習モデルを利用して実行される。具体的には「買い物中」の行動パターンを推定する学習モデルを構築する場合、実際に買い物中に収集された音響信号を利用する。この場合、売り声や買い物客の会話、エスカレータの音、棚やハンガーから商品を手にする際に生じる音などが環境音として収集されるであろう。その他の行動パターンについても同様である。
また、音響情報解析部102は、環境音の音響信号から行動パターン(動き・状態パターン、行動・状況パターン)を推定すると同時に、その確信度(評価スコア)を算出する。そして、環境音の音響信号から推定された行動パターン及び確信度は、動き・状態パターン更新部105及び行動パターン更新部107に入力される。なお、上記の確信度は、音響情報取得部101により実際に取得された環境音の音響信号と、推定された行動パターンに対応する音響信号との類似度を表す。
一方、テキスト情報取得部103は、ユーザが入力したテキスト情報を取得する。例えば、テキスト情報取得部103は、ユーザがテキストを入力するための入力デバイスであってもよいし、ソーシャルネットワークサービスやアプリケーションからテキスト情報を取得する情報収集デバイスであってもよい。なお、センサが搭載された機器と、テキストを入力する機器(キーボードなど)とは別体に構成されていても良い。ここでは、説明の都合上、テキスト情報取得部103がソフトウェアキーボードのような入力手段であると想定して説明を進める。テキスト情報取得部103により取得されたテキスト情報は、テキスト情報解析部104に入力される。このとき、テキスト情報解析部104には、テキスト情報と共に、テキスト情報が入力された際の時刻情報が入力される。
テキスト情報が入力されると、テキスト情報解析部104は、入力されたテキスト情報を解析し、ユーザの行動パターン(動き・状態パターン、行動・状況パターン)を推定する。例えば、テキスト情報解析部104は、入力されたテキスト情報から、ユーザが買い物中であるか、食事中であるか、電車に搭乗中であるかなどを推定する。この推定は、例えば、SVMなどの機械学習手法を用いて構築された学習モデルを利用して実行される。具体的に「買い物中」の行動パターンを推定する学習モデルを構築する場合、「買い物中」に入力されたテキスト情報を収集し、収集したテキスト情報を学習データとして利用する。この場合、「安売り」「値段が高い」「レジが混んでる」などのテキスト情報が収集されるであろう。
また、テキスト情報解析部104は、テキスト情報から行動パターンを推定すると同時に、その確信度(評価スコア)を算出する。そして、テキスト情報から推定された行動パターン及び確信度は、動き・状態パターン更新部105及び行動パターン更新部107に入力される。なお、上記の確信度は、テキスト情報取得部103により実際に取得されたテキスト情報と、推定された行動パターンに対応するテキスト情報との類似度を表す。
上記のように、動き・状態パターン更新部105には、音響信号の解析により得られた行動パターン及び確信度を示す情報(以下、音響由来情報)と、テキスト情報の解析により得られた行動パターン及び確信度を示す情報(以下、テキスト由来情報)とが入力される。同様に、行動パターン更新部107には、音響由来情報とテキスト由来情報とが入力される。但し、音響信号が得られない場合や、テキスト情報が得られない場合も考えられる。このような場合には、動き情報パターン更新部105及び行動パターン更新部107に入力される情報が、音響由来情報又はテキスト由来情報に限られることもある。
例えば、音響情報取得部101の機能がオフになっている場合や音響情報取得部101に相当するデバイスが存在しない場合、音響由来情報は得られない。また、テキスト情報取得部103の機能がオフになっている場合やテキスト情報取得部103により取得可能なテキスト情報が存在しない場合、テキスト由来情報は得られない。このような場合、動き・状態パターン更新部105及び行動パターン更新部107は、入力された情報を利用して動き・状態パターンデータベース106及び行動パターンデータベース108の更新処理を実行する。
(ケース1)
まず、音響由来情報だけが得られた場合について述べる。
動き・状態パターン更新部105は、音響信号の確信度と所定の閾値(以下、第1の音響閾値)とを比較する。音響信号の確信度が第1の音響閾値よりも大きい場合、動き・状態パターン更新部105は、音響信号の解析結果から得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。一方、音響信号の確信度が第1の音響閾値より小さい場合、動き・状態パターン更新部105は、動き状態パターンデータベース106を更新しない。このように、動き・状態パターン更新部105は、音響信号の確信度に応じて動き・状態パターンデータベース106の更新要否を判断する。
同様に、行動パターン更新部107は、音響信号の確信度と所定の閾値(以下、第2の音響閾値)とを比較する。音響信号の確信度が第2の音響閾値よりも大きい場合、行動パターン更新部107は、音響信号の解析結果から得られた行動・状況パターンにて行動パターンデータベース108を更新する。一方、音響信号の確信度が第2の音響閾値より小さい場合、行動パターン更新部107は、行動パターンデータベース108を更新しない。このように、行動パターン更新部107は、音響信号の確信度に応じて行動パターンデータベース108の更新要否を判断する。
なお、第1の音響閾値と第2の音響閾値とは異なる値であってもよい。例えば、動き・状態パターンについてはセンサ情報の解析結果を重視し、行動・状況パターンについては音響信号の解析結果を重視したい場合には、第1の音響閾値を小さく、第2の音響閾値を大きく設定することが好ましい。一方、高性能な音響情報取得部101を利用している場合には、第1及び第2の音響閾値を同じ値に設定し、所定以上の確信度が得られた場合に、音響信号の解析により得られた行動パターンを利用して動き・状態パターンデータベース106及び行動パターンデータベース108を更新することが好ましい。
(ケース2)
次に、テキスト由来情報だけが得られた場合について述べる。
動き・状態パターン更新部105は、テキスト情報の確信度と所定の閾値(以下、第1のテキスト閾値)とを比較する。テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、動き・状態パターン更新部105は、テキスト情報の解析結果から得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。一方、テキスト情報の確信度が第1のテキスト閾値より小さい場合、動き・状態パターン更新部105は、動き状態パターンデータベース106を更新しない。このように、動き・状態パターン更新部105は、テキスト情報の確信度に応じて動き・状態パターンデータベース106の更新要否を判断する。
同様に、行動パターン更新部107は、テキスト情報の確信度と所定の閾値(以下、第2のテキスト閾値)とを比較する。テキスト情報の確信度が第2のテキスト閾値よりも大きい場合、行動パターン更新部107は、テキスト情報の解析結果から得られた行動・状況パターンにて行動パターンデータベース108を更新する。一方、テキスト情報の確信度が第2のテキスト閾値より小さい場合、行動パターン更新部107は、行動パターンデータベース108を更新しない。このように、行動パターン更新部107は、テキスト情報の確信度に応じて行動パターンデータベース108の更新要否を判断する。
なお、第1のテキスト閾値と第2のテキスト閾値とは異なる値であってもよい。例えば、動き・状態パターンについてはセンサ情報の解析結果を重視し、行動・状況パターンについてはテキスト情報の解析結果を重視したい場合には、第1のテキスト閾値を小さく、第2のテキスト閾値を大きく設定することが好ましい。一方、高性能なテキスト情報取得部103を利用している場合には、第1及び第2のテキスト閾値を同じ値に設定し、所定以上の確信度が得られた場合に、テキスト情報の解析により得られた行動パターンを利用して動き・状態パターンデータベース106及び行動パターンデータベース108を更新することが好ましい。
(ケース3)
次に、音響由来情報及びテキスト由来情報が両方得られた場合について述べる。
動き・状態パターン更新部105は、音響信号の確信度と第1の音響閾値とを比較する。音響信号の確信度が第1の音響閾値よりも大きい場合、動き・状態パターン更新部105は、音響信号の解析結果から得られた動き・状態パターンにて動き・状態パターンデータベース106の更新を準備する。一方、音響信号の確信度が第1の音響閾値より小さい場合、動き・状態パターン更新部105は、動き・状態パターンデータベース106の更新に音響信号の解析によって得られた動き・状態パターンを利用しない。このように、動き・状態パターン更新部105は、音響信号の確信度に応じて動き・状態パターンデータベース106の更新要否を判断するが、実際の更新処理については直ちに実行せず、後述するようにテキスト情報の確信度を考慮して決定する。
音響由来情報に関する判断処理と同様に、動き・状態パターン更新部105は、テキスト情報の確信度と第1のテキスト閾値とを比較する。テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、動き・状態パターン更新部105は、テキスト情報の解析結果から得られた動き・状態パターンにて動き・状態パターンデータベース106の更新を準備する。一方、テキスト情報の確信度が第1のテキスト閾値より小さい場合、動き・状態パターン更新部105は、動き・状態パターンデータベース106の更新にテキスト情報の解析によって得られた動き・状態パターンを利用しない。ここで、動き・状態パターン更新部105は、音響信号の確信度に関する判断結果と、テキスト情報の確信度に関する判断結果とを考慮して動き・状態パターンデータベース106の更新処理を実行する。
例えば、音響信号の確信度が第1の音響閾値よりも大きく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、動き・状態パターン更新部105は、音響信号の解析結果とテキスト情報の解析結果とを比較する。仮に、音響信号の解析により得られた動き・状態パターンと、テキスト情報の解析により得られた動き・状態パターンとが同じ場合、動き・状態パターン更新部105は、その動き・状態パターンにて動き・状態パターンデータベース106を更新する。
一方、音響信号の解析により得られた動き・状態パターンと、テキスト情報の解析により得られた動き・状態パターンとが異なる場合、動き・状態パターン更新部105は、音響信号の確信度とテキスト情報の確信度とを比較する。例えば、音響信号の確信度がテキスト情報の確信度よりも大きい場合、動き・状態パターン更新部105は、音響信号の解析により得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。一方、音響信号の確信度がテキスト情報の確信度よりも小さい場合、動き・状態パターン更新部105は、テキスト情報の解析により得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。
例えば、音響信号の確信度が第1の音響閾値よりも大きく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも小さい場合、動き・状態パターン更新部105は、音響信号の解析により得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。一方、音響信号の確信度が第1の音響閾値よりも小さく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、動き・状態パターン更新部105は、テキスト情報の解析により得られた動き・状態パターンにて動き・状態パターンデータベース106を更新する。また、音響信号の確信度が第1の音響閾値よりも小さく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも小さい場合、動き・状態パターン更新部105は、動き・状態パターンデータベース106を更新しない。
同様に、行動パターン更新部107は、音響信号の確信度と第1の音響閾値とを比較する。音響信号の確信度が第1の音響閾値よりも大きい場合、行動パターン更新部107は、音響信号の解析結果から得られた行動・状況パターンにて行動パターンデータベース108の更新を準備する。一方、音響信号の確信度が第1の音響閾値より小さい場合、行動パターン更新部107は、行動パターンデータベース108の更新に音響信号の解析によって得られた行動・状況パターンを利用しない。このように、行動パターン更新部107は、音響信号の確信度に応じて行動パターンデータベース108の更新要否を判断するが、実際の更新処理については直ちに実行せず、後述するようにテキスト情報の確信度を考慮して決定する。
行動パターン更新部10は、音響信号の確信度に関する判断結果と、テキスト情報の確信度に関する判断結果とを考慮して行動パターンデータベース108の更新処理を実行する。行動パターン更新部107は、音響信号の確信度とテキスト信号の確信度の認識が異なる場合は、行動パターンデータベース108を更新しない。
例えば、音響信号の確信度が第1の音響閾値よりも大きく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、行動パターン更新部107は、音響信号の解析結果とテキスト情報の解析結果とを比較する。仮に、音響信号の解析により得られた行動・状況パターンと、テキスト情報の解析により得られた行動・状況パターンとが同じ場合、行動パターン更新部107は、その行動・状況パターンにて行動パターンデータベース108を更新する。
一方、音響信号の解析により得られた行動・状況パターンと、テキスト情報の解析により得られた行動・状況パターンとが異なる場合、行動パターン更新部107は、音響信号の確信度とテキスト情報の確信度とを比較する。そして、行動パターン更新部107は、音響信号の確信度とテキスト信号の確信度の認識が異なる場合は、行動パターンデータベース108を更新しない。
例えば、音響信号の確信度が第1の音響閾値よりも大きく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも小さい場合、行動パターン更新部107は、音響信号の解析により得られた行動・状況パターンにて行動パターンデータベース108を更新する。一方、音響信号の確信度が第1の音響閾値よりも小さく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも大きい場合、行動パターン更新部107は、テキスト情報の解析により得られた行動・状況パターンにて行動パターンデータベース108を更新する。また、音響信号の確信度が第1の音響閾値よりも小さく、かつ、テキスト情報の確信度が第1のテキスト閾値よりも小さい場合、行動パターン更新部10は、行動・状況パターンデータベース108を更新しない。
なお、第1及び第2の音響閾値、第1及び第2のテキスト閾値の設定方法については、上記ケース1及び2と同様である。
以上、行動・状況認識システム10の機能構成について説明した。但し、行動・状況解析システム11に相当する機能構成については詳細な説明を省略した。
(2−2−2:処理の流れ)
次に、図16及び図17を参照しながら、行動・状況認識システム10の動作について説明する。図16及び図17は、行動・状況認識システム10の動作について説明するための説明図である。ここでも、情報端末CLとサーバ装置SVとの間の機能分担は明示せず、行動・状況認識システム10全体の動作について説明することにする。また、ここでは処理の流れを明示すべく動作の一例を示すが、上述した機能構成の説明からも推察される通り、行動・状況認識システム10の動作はこの例に限定されない。
図16に示すように、行動・状況認識システム10は、電源がONであるか否かを判定する(S101)。電源がONになると、行動・状況認識システム10は、処理をステップS102に進める。一方、電源がONでない場合、行動・状況認識システム10は、処理をステップS101に戻す。処理をステップS102に進めた場合、行動・状況認識システム10は、時刻情報取得部113の機能により、現在の時刻情報を取得する(S102)。次いで、行動・状況認識システム10は、位置センサ114の機能により、現在地の位置情報を取得する(S103)。次いで、行動・状況認識システム10は、GIS情報取得部115の機能により、現在位置のGIS情報を取得する(S104)。
次いで、行動・状況認識システム10は、モーションセンサ111の機能により、モーションセンサのセンサ情報を取得する(S105)。次いで、行動・状況認識システム10は、動き・状態認識部112の機能により、動き・状態パターンデータベース106に格納された情報を利用して動き・状態パターンを認識する(S106)。次いで、行動・状況認識システム10は、行動・状況認識部116の機能により、行動パターンデータベース108に格納された情報を利用して行動パターンを推定する(S107)。行動パターンの推定後、行動・状況認識システム10は、処理をステップAへと進める。
処理をステップA(図17を参照)へと進めると、行動・状況認識システム10は、音響情報取得部101の機能により、環境音の音響信号を取得する(S108)。次いで、行動・状況認識システム10は、テキスト情報取得部103の機能により、テキスト情報を取得する(S109)。次いで、行動・状況認識システム10は、音響情報解析部102の機能により、環境音の音響信号から環境推定結果(上記の行動パターン及び確信度(音響由来情報))を得て、環境推定結果の信頼度(上記の確信度)が所定の閾値(上記の音響閾値)より大きいか否かを判定する(S110)。信頼度が所定の閾値よりも大きい場合、行動・状況認識システム10は、処理をステップS112へと進める。一方、信頼度が所定の閾値よりも小さい場合、行動・状況認識システム10は、処理をステップS111へと進める。
処理をステップS111へと進めた場合、行動・状況認識システム10は、テキスト情報解析部104の機能により、テキスト解析結果(上記の行動パターン及び確信度(テキスト由来情報))を得て、テキスト解析結果の信頼度(上記の確信度)が所定の閾値(上記のテキスト閾値)より大きいか否かを判定する(S111)。信頼度が所定の閾値よりも大きい場合、行動・状況認識システム10は、処理をステップS112へと進める。一方、信頼度が所定の閾値よりも小さい場合、行動・状況認識システム10は、処理をステップS113へと進める。
処理をステップS112へと進めた場合、行動・状況認識システム10は、動き・状態パターン更新部105及び行動パターン更新部107の機能により、動き・状態パターンデータベース106及び行動パターンデータベース108を更新し(S112)、処理をステップS113へと進める。処理をステップS113へと進めた行動・状況認識システム10は、電源がOFFにされたか否かを判定する(S113)。電源がOFFにされた場合、行動・状況認識システム10は、行動・状況認識に係る一連の処理を終了する。一方、電源がOFFにされていない場合、行動・状況認識システム10は、処理をステップB(図16を参照)へと進め、再びステップS102以降の処理を実行する。
以上、行動・状況認識システム10の動作について説明した。なお、環境音の音響信号に関する処理とテキスト情報に関する処理とは順序を入れ替えてもよい。
(具体例と補足説明)
上記の技術を適用すると、例えば、テキスト情報として「電車で移動中」といった入力があれば、現在のユーザの行動を「電車(搭乗)」と判断し、動き・状態パターンデータベース106が更新される。具体的には、動き・状態パターンデータベース106に登録されている動き・状態パターン「電車(搭乗)」に対して、現在、モーションセンサ111から得られているセンサ情報を追加データとして考慮し、行動パターンの学習が実施される。また、「デパートで子供とお茶中」といったテキスト情報が日曜の午後3時頃に入力された場合などにも、行動パターンデータベース108が更新される。
予め登録されている動き・状態パターンは、多くのユーザの一般的な使用状況に基づいて学習されているパターンが登録されているのに対し、利用ユーザのセンサ情報を用いて適応処理を行うことで、ユーザの使用環境(例えば、ポケットに入れているか、バッグに入れているかなど)に適した動き・状態パターンに更新され、以後の動き・状態パターンや行動・状況パターンの認識精度を高めることができる。
なお、音響情報取得部101は、動き・状態パターンデータベース106を更新する際だけに利用するような形態にしてもよいし、直接動き・状態認識部112に環境音の音響信号に関する情報を入力し、環境音の時系列データをモーションセンサのセンサ情報と併せて直接行動パターンを推定するのに利用するといった形態にしてもよい。また、動き・状態認識と行動・状況認識とを2段階に分けて実施する形態を示したが、1段階で実施したり、動き・状態認識だけを実施したりする形態も考えられる。こうした変形についても、当然に本実施形態の技術的範囲に属する。
[2−3:(変形例)音声認識技術の適用]
次に、本実施形態の一変形例について説明する。本変形例は、音声認識技術を利用する応用技術に関する。音声認識技術を利用すると、例えば、ユーザの会話や話し相手の会話からリアルタイムにテキスト情報を得ることが可能になる。そのため、積極的にテキスト情報を入力しないユーザや、テキスト情報を入力しない状況においても、テキスト情報を利用したパターンDBの更新が可能になり、行動パターンの認識精度を向上させることができるようになる。以下、本変形例に係る行動・状況認識システム10の機能構成及び動作について説明する。
(2−3−1:機能構成)
まず、図18を参照しながら、本変形例に係る行動・状況認識システム10の機能構成について説明する。図18は、本変形例に係る行動・状況認識システム10の機能構成について説明するための説明図である。ここでは、情報端末CLとサーバ装置SVとの間の機能分担は明示せず、行動・状況認識システム10全体が有する機能について説明することにする。
図18に示すように、行動・状況認識システム10は、主に、音響情報取得部101と、音響情報解析部102と、テキスト情報取得部103と、テキスト情報解析部104と、動き・情報パターン更新部105と、動き・状態パターンデータベース106と、行動パターン更新部107と、行動パターンデータベース108と、音声認識部131とを有する。さらに、行動・状況認識システム10は、行動・状況解析システム11の機能を含む。つまり、本変形例に係る行動・状況認識システム10と、図15に示した行動・状況認識システム10との違いは、音声認識部131の有無にある。
音響情報取得部101は、ユーザ周囲の環境音を取得するデバイスである。例えば、音響情報取得部101は、マイクにより構成される。音響情報取得部101により取得された環境音の音響信号は、音響情報解析部102及び音声認識部131に入力される。なお、環境音の音響信号は、音響情報解析部102に入力される前段で、アナログの音声波形信号からデジタルの音声波形信号に変換されてもよい。
環境音の音響信号が入力されると、音響情報解析部102は、入力された音響信号を解析し、ユーザの行動パターンを推定する。例えば、音響情報解析部102は、環境音の音響信号から、ユーザが買い物中であるか、食事中であるか、電車に搭乗中であるかなどを推定する。この推定は、例えば、HMMなどの機械学習手法を用いて構築された学習モデルを利用して実行される。
また、音響情報解析部102は、環境音の音響信号から行動パターン(動き・状態パターン、行動・状況パターン)を推定すると同時に、その確信度(評価スコア)を算出する。そして、環境音の音響信号から推定された行動パターン及び確信度は、動き・状態パターン更新部105及び行動パターン更新部107に入力される。なお、上記の確信度は、音響情報取得部101により実際に取得された環境音の音響信号と、推定された行動パターンに対応する音響信号との類似度を表す。
一方、テキスト情報取得部103は、ユーザが入力したテキスト情報を取得する。例えば、テキスト情報取得部103は、ユーザがテキストを入力するための入力デバイスであってもよいし、ソーシャルネットワークサービスやアプリケーションからテキスト情報を取得する情報収集デバイスであってもよい。また、テキスト情報取得部103は、GIS情報などから現在地周辺の地名や建造物名などの情報をテキスト情報として取得するように構成されていてもよい。
さらに、本変形例の場合、テキスト情報取得部103には、音声認識部131により環境音の音響信号から生成されたテキスト情報も入力される。例えば、音声認識部131は、所定の音声認識技術を利用して音響信号からテキスト情報を生成し、テキスト情報取得部103に入力する。このように、音声認識部131を備えることで、ユーザは、テキスト情報を入力する手間を省くことが可能になる。また、行動の中で発せられる自然な会話をテキスト情報として取得することが可能になり、より行動パターンに適合したテキスト情報を得ることができるようになる。また、駅や車内のアナウンスなどがテキスト化されることで、場所や行動に関する有用な情報が得られると期待される。
また、上記説明では環境音の音響信号を対象に音声認識を行う構成例を紹介したが、情報端末CLの通話機能を利用して会話した内容の一部又は全部を音声認識によりテキスト化することも可能である。この場合、通話内容を示すテキスト情報がテキスト情報取得部103に入力される。例えば、待ち合わせ時の通話内容には、現在地の情報や時間の情報、行動の目的、或いは、友人の名前などの情報などが含まれることが多く、行動パターンを推定する際に有用な情報が得られる。つまり、通話内容を音声認識部131の機能によりテキスト情報に変換し、パターンDBの更新に利用することで、行動パターン認識の高い精度向上効果が期待できる。
上記のようにしてテキスト情報取得部103により取得されたテキスト情報は、テキスト情報解析部104に入力される。このとき、テキスト情報解析部104には、テキスト情報と共に、テキスト情報が入力された際の時刻情報が入力される。テキスト情報が入力されると、テキスト情報解析部104は、入力されたテキスト情報を解析し、ユーザの行動パターン(動き・状態パターン、行動・状況パターン)を推定する。この推定は、例えば、SVMなどの機械学習手法を用いて構築された学習モデルを利用して実行される。
また、テキスト情報解析部104は、テキスト情報から行動パターンを推定すると同時に、その確信度(評価スコア)を算出する。この時、音響入力からテキストに変換する音声認識処理での確信度も考慮して確信度を算出する。そして、テキスト情報から推定された行動パターン及び確信度は、動き・状態パターン更新部105及び行動パターン更新部107に入力される。なお、上記の確信度は、テキスト情報取得部103により実際に取得されたテキスト情報と、推定された行動パターンに対応するテキスト情報との類似度を表す。
上記のように、動き・状態パターン更新部105には、音響信号の解析により得られた行動パターン及び確信度を示す情報(音響由来情報)と、テキスト情報の解析により得られた行動パターン及び確信度を示す情報(テキスト由来情報)とが入力される。同様に、行動パターン更新部107には、音響由来情報とテキスト由来情報とが入力される。但し、音響信号が得られない場合や、テキスト情報が得られない場合も考えられる。このような場合には、動き情報パターン更新部105及び行動パターン更新部107に入力される情報が、音響由来情報又はテキスト由来情報に限られることもある。
例えば、音響情報取得部101の機能がオフになっている場合や音響情報取得部101に相当するデバイスが存在しない場合、音響由来情報は得られない。また、テキスト情報取得部103の機能がオフになっている場合やテキスト情報取得部103により取得可能なテキスト情報が存在しない場合、テキスト由来情報は得られない。このような場合、動き・状態パターン更新部105及び行動パターン更新部107は、入力された情報を利用して動き・状態パターンデータベース106及び行動パターンデータベース108の更新処理を実行する。
以上、本変形例に係る行動・状況認識システム10の機能構成について説明した。但し、行動・状況解析システム11に相当する機能構成については詳細な説明を省略した。また、パターンDBの更新方法については、図15に示した行動・状況認識システム10と同様であるために説明を省略した。
(2−3−2:処理の流れ)
次に、図19及び図20を参照しながら、本変形例に係る行動・状況認識システム10の動作について説明する。図19及び図20は、本変形例に係る行動・状況認識システム10の動作について説明するための説明図である。ここでも、情報端末CLとサーバ装置SVとの間の機能分担は明示せず、行動・状況認識システム10全体の動作について説明することにする。また、ここでは処理の流れを明示すべく動作の一例を示すが、上述した機能構成の説明からも推察される通り、行動・状況認識システム10の動作はこの例に限定されない。
図19に示すように、行動・状況認識システム10は、電源がONであるか否かを判定する(S131)。電源がONになると、行動・状況認識システム10は、処理をステップS132に進める。一方、電源がONでない場合、行動・状況認識システム10は、処理をステップS131に戻す。処理をステップS132に進めた場合、行動・状況認識システム10は、時刻情報取得部113の機能により、現在の時刻情報を取得する(S132)。次いで、行動・状況認識システム10は、位置センサ114の機能により、現在地の位置情報を取得する(S133)。次いで、行動・状況認識システム10は、GIS情報取得部115の機能により、現在位置のGIS情報を取得する(S134)。
次いで、行動・状況認識システム10は、モーションセンサ111の機能により、モーションセンサのセンサ情報を取得する(S135)。次いで、行動・状況認識システム10は、動き・状態認識部112の機能により、動き・状態パターンデータベース106に格納された情報を利用して動き・状態パターンを認識する(S136)。次いで、行動・状況認識システム10は、行動・状況認識部116の機能により、行動パターンデータベース108に格納された情報を利用して行動パターンを推定する(S137)。行動パターンの推定後、行動・状況認識システム10は、処理をステップAへと進める。
処理をステップA(図20を参照)へと進めると、行動・状況認識システム10は、音響情報取得部101の機能により、環境音の音響信号を取得する(S138)。次いで、行動・状況認識システム10は、テキスト情報取得部103の機能により、テキスト情報を取得する(S139)。この変形例では、テキスト情報には、音声認識処理によって取得された情報が含まれている。次いで、行動・状況認識システム10は、音響情報解析部102の機能により、環境音の音響信号から環境推定結果(上記の行動パターン及び確信度(音響由来情報))を得て、環境推定結果の信頼度(上記の確信度)が所定の閾値(上記の音響閾値)より大きいか否かを判定する(S140)。信頼度が所定の閾値よりも大きい場合、行動・状況認識システム10は、処理をステップS142へと進める。一方、信頼度が所定の閾値よりも小さい場合、行動・状況認識システム10は、処理をステップS141へと進める。
処理をステップS141へと進めた場合、行動・状況認識システム10は、テキスト情報解析部104の機能により、テキスト解析結果(上記の行動パターン及び確信度(テキスト由来情報))を得て、テキスト解析結果の信頼度(上記の確信度)が所定の閾値(上記のテキスト閾値)より大きいか否かを判定する(S141)。信頼度が所定の閾値よりも大きい場合、行動・状況認識システム10は、処理をステップS142へと進める。一方、信頼度が所定の閾値よりも小さい場合、行動・状況認識システム10は、処理をステップS143へと進める。
処理をステップS142へと進めた場合、行動・状況認識システム10は、動き・状態パターン更新部105及び行動パターン更新部107の機能により、動き・状態パターンデータベース106及び行動パターンデータベース108を更新し(S142)、処理をステップS143へと進める。処理をステップS143へと進めた行動・状況認識システム10は、電源がOFFにされたか否かを判定する(S143)。電源がOFFにされた場合、行動・状況認識システム10は、行動・状況認識に係る一連の処理を終了する。一方、電源がOFFにされていない場合、行動・状況認識システム10は、処理をステップB(図19を参照)へと進め、再びステップS132以降の処理を実行する。
以上、行動・状況認識システム10の基本的な動作について説明した。なお、環境音の音響信号に関する処理とテキスト情報に関する処理とは順序を入れ替えてもよい。
(更新対象のデータ区間を同定する方法について)
ここで、更新対象のデータ区間を同定する方法について考えてみたい。実際、パターンDBを更新する場合、センサデータの時系列のうち、どの区間を更新するのが適切であるかを決定することは容易ではない。例えば、ユーザは、ポケットから情報端末CLを取り出し、テキスト情報を入力した後、再びポケットに情報端末CLを仕舞うかもしれない。この場合、テキスト情報を入力したタイミングにおけるユーザの行動は、テキスト情報の入力であり、入力されたテキスト情報の解析により得られる行動パターンとは相違する場合が多いであろう。
そこで、ユーザがテキスト情報を入力する際の行動に着目し、テキスト情報を解析して得られる行動パターンが、どの時点(更新対象のデータ区間)に対応するかを同定する方法を提案したい。例えば、上記のようなユーザの行動を想定すると、センサデータの時系列は、図22に示すような波形を示すと考えられる。期間T1は、ポケットに情報端末CLが入っている期間であり、テキスト情報を解析して得られる過去の行動パターンに対応する。一方、期間T4は、テキスト情報の入力を終えて、ポケットに情報端末CLを入れた後の期間であり、テキスト情報を解析して得られる将来の行動パターンに対応する。
また、期間T2は、ポケットから情報端末CLを取り出している最中の期間である。そのため、センサデータに大きな波形の乱れが見られる。一方、期間T3は、ポケットに情報端末CLを仕舞っている最中の期間である。そのため、センサデータに大きな波形の乱れが見られる。通常、テキスト情報を入力している際、情報端末CLは安定した状態に保たれる。そのため、情報端末CLの出し入れをしている期間(期間T2、期間T3)を検出することで、テキスト情報を入力している期間を比較的高い精度で検出することが可能である。また、期間T1と期間T4との間で波形の類似性を考慮することで、テキスト情報の入力期間をより正確に検出できるようになると考えられる。
こうした考察に基づき、更新対象のデータ区間を同定する方法として、図21に示すような処理方法を考案した。なお、説明の都合上、情報端末CLをポケットから出したり、ポケットに入れたりする行動を例に挙げたが、ポケット以外にも、バッグやアタッシュケース、或いは、トランクやポーチなどに入れて携帯している場合も同様である。
図21に示すように、行動・状況認識システム10は、テキスト入力時刻を取得する(S151)。次いで、行動・状況認識システム10は、テキスト入力時刻前後の所定範囲におけるセンサデータを取得する(S152)。次いで、行動・状況認識システム10は、テキスト入力時刻前でセンサデータが大きく変動した箇所を同定する(S153)。例えば、行動・状況認識システム10は、センサデータの値が所定の閾値を超えた場合に、該当する領域を大きく変動した箇所として同定する。また、閾値判定の他にも、スペクトログラム解析を利用する方法なども考えられる。
次いで、行動・状況認識システム10は、同定箇所より前のセンサデータから所望の時間長のデータを抽出する(S154)。次いで、行動・状況認識システム10は、テキスト入力時刻後でセンサデータが大きく変動した箇所を同定する(S155)。次いで、行動・状況認識システム10は、同定箇所より後のセンサデータから所望の時間長のデータを抽出する(S156)。次いで、行動・状況認識システム10は、抽出した2つのデータ間における類似性を計算する(S157)。例えば、行動・状況認識システム10は、スペクトログラム上で類似性を判断したり、相互相関係数を計算したりして類似性を判断する。
次いで、行動・状況認識システム10は、類似性が高いか否かを判定する(S158)。類似性が高い場合、行動・状況認識システム10は、処理をステップS159に進める。一方、類似性が低い場合、行動・状況認識システム10は、更新対象のデータ区間を同定するための一連の処理を終了する。処理をステップS159に進めた場合、行動・状況認識システム10は、抽出したデータを利用して動き・状態パターンを適応し(S159)、更新対象のデータ区間を同定するための一連の処理を終了する。
ステップS158にて類似性をチェックする理由は、テキスト入力の前後でユーザの行動が変化している可能性があるためである。このようなチェックを行うことで、テキストの記載内容が、テキスト入力前後のどちらの行動に関するものかを誤って判定した場合でも、不適切なセンサデータで動き・状態パターンを適応することを防ぐことができる。
その他にも、誤ったセンサデータ区間で適応処理を実施しないための予防策として、例えば、適応前の動き・状態パターンデータベース106に登録されている動き・状態パターンと極端にかけ離れたセンサデータで更新することを避ける方法が考えられる。この方法を実現するには、例えば、上述した信頼度計算と同様な処理を実施し、信頼度が所定の閾値を超えない場合は適応処理を実行しないようにすればよい。このように、誤適応を防止するための様々な施策を適用する変形も可能である。
以上、行動・状況認識システム10の動作について詳細に説明した。
[2−4:画面表示の例(アプリケーションの一例)]
上記の行動・状況認識システム10を利用すると、例えば、図23に示すようなアプリケーションを実現することができる。図23は、ある情報端末CLのUI(User Interface)画面の一例を示したものである。この画面には、複数の人物M1〜M6を示すオブジェクトが表示されている。この例において、人物M1及びM5は走っている。人物M2は歩いている。人物M3は寝そべっている。人物M4及びM6はしゃがんでいる。このような各人物の行動は、各人物に対応するユーザが情報端末CLを保持している際に得られた情報を利用して行動・状況認識システム10が解析した結果を反映したものである。
行動・状況認識システム10を図23に示すようなアプリケーションに応用すると、ユーザは、自身の行動を特定するための特別な操作をせずとも、他のユーザに自身の行動を知らせることができるようになる。例えば、誰かを酒を飲みに誘いたいと思った際、暇そうな行動パターンを示している人物に声を掛けることによって、より高い確度で誘いに乗ってくれるだろう。また、話し掛ける相手を探す際、忙しそうな行動パターンをとっている人物を避けるなどの配慮を予めすることができるようになるであろう。他にも様々な応用例が考えられるが、一つの例として図23に示すようなアプリケーションへの応用を紹介した。
以上、本実施形態に係る技術の詳細について説明した。
<3:ハードウェア構成例>
上記の行動・状況認識システム10、情報端末CL、サーバ装置SVが有する各構成要素の機能は、例えば、図24に示すようなハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図24に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図24に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<4:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は次のように表現することができる。
(1)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新部と、
前記ユーザが機器に入力したテキスト情報を取得するテキスト情報取得部と、
前記テキスト情報から行動パターンに関する情報を得るテキスト情報解析部と、
を備え、
前記DB更新部は、前記テキスト情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、
情報処理装置。
(2)
前記テキスト情報解析部は、前記行動パターンに関する情報の第1の信頼度を算出し、
前記DB更新部は、前記第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースを更新する、
上記(1)に記載の情報処理装置。
(3)
前記機器により検出された音に関する情報を取得する音情報取得部と、
前記音に関する情報から行動パターンに関する情報を得る音情報解析部と、
をさらに備え、
前記DB更新部は、前記音に関する情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、
上記(1)又は(2)に記載の情報処理装置。
(4)
前記音情報解析部は、前記行動パターンに関する情報の第2の信頼度を算出し、
前記DB更新部は、前記第2の信頼度が所定の第2の閾値を超えた場合に、前記音に関する情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースを更新する、
上記(3)に記載の情報処理装置。
(5)
前記音に関する情報をテキスト情報に変換する音声認識部をさらに備え、
前記テキスト情報解析部は、前記音声認識部により変換されたテキスト情報及び前記テキスト情報取得部により取得されたテキスト情報から前記行動パターンに関する情報を得る、
上記(3)又は(4)に記載の情報処理装置。
(6)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信部と、
前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得部と、
を備える、
電子機器。
(7)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するステップを含み、
前記ユーザが機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースが更新される、
情報処理方法。
(8)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスするステップと、
前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得するステップと、
を含む、
情報処理方法。
(9)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新機能と、
前記ユーザが機器に入力したテキスト情報を取得するテキスト情報取得機能と、
前記テキスト情報から行動パターンに関する情報を得るテキスト情報解析機能と、
をコンピュータに実現させるためのプログラムであり、
前記DB更新機能は、前記テキスト情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、
プログラム。
(10)
センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信機能と、
前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得機能と、
をコンピュータに実現させるためのプログラム。
(備考)
上記の行動パターン更新部107は、DB更新部の一例である。上記の音響情報取得部101は、音情報取得部の一例である。上記の音響情報解析部102は、音情報解析部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
10 行動・状況認識システム
101 音響情報取得部
102 音響情報解析部
103 テキスト情報取得部
104 テキスト情報解析部
105 動き・状態パターン更新部
106 動き・状態パターンデータベース
107 行動パターン更新部
108 行動パターンデータベース
131 音声認識部
11 行動・状況解析システム
111 モーションセンサ
112 動き・状態認識部
113 時刻情報取得部
114 位置センサ
115 GIS情報取得部
116 行動・状況認識部
CL 情報端末
SV サーバ装置

Claims (9)

  1. センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新部と、
    前記ユーザが入力したテキスト情報に基づいて、前記ユーザの行動パターンに関する情報を得るテキスト情報解析部と、
    を備え、
    前記テキスト情報解析部は、前記行動パターンに関する情報の第1の信頼度を算出し、
    前記DB更新部は、前記テキスト情報から前記行動パターンに関する情報が得られ、前記第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースを更新する、
    情報処理装置。
  2. 前記ユーザにより前記テキスト情報が入力された機器により検出された音に関する情報に基づいて、行動パターンに関する情報を得る音情報解析部と、
    をさらに備え、
    前記DB更新部は、前記音に関する情報から前記行動パターンに関する情報が得られた場合に、得られた情報を利用して前記行動パターンデータベースを更新する、
    請求項1に記載の情報処理装置。
  3. 前記音情報解析部は、前記行動パターンに関する情報の第2の信頼度を算出し、
    前記DB更新部は、前記第2の信頼度が所定の第2の閾値を超えた場合に、前記音に関する情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースを更新する、
    請求項に記載の情報処理装置。
  4. 前記音に関する情報をテキスト情報に変換する音声認識部をさらに備え、
    前記テキスト情報解析部は、前記音声認識部により変換されたテキスト情報及び前記ユーザが入力したテキスト情報から前記行動パターンに関する情報を得る、
    請求項又はに記載の情報処理装置。
  5. センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信部と、
    前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得部と、
    を備え、
    前記行動パターンデータベースは、前記行動パターンに関する情報の第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して更新される、
    電子機器。
  6. センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを、情報処理装置によって、更新するステップと、
    前記ユーザが入力したテキスト情報に基づいて、前記ユーザの行動パターンに関する情報を得るステップと、
    前記行動パターンに関する情報の第1の信頼度を算出するステップと、
    を含み、
    記テキスト情報から前記行動パターンに関する情報が得られ、前記第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースが更新される、
    情報処理方法。
  7. センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスするステップと、
    前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから、電子機器によって、取得するステップと、
    を含
    前記行動パターンデータベースは、前記行動パターンに関する情報の第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して更新される、
    情報処理方法。
  8. コンピュータを、
    センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースを更新するDB更新と、
    前記ユーザが入力したテキスト情報に基づいて、前記ユーザの行動パターンに関する情報を得るテキスト情報解析と、
    として機能させるためのプログラムであり、
    前記テキスト情報解析部は、前記行動パターンに関する情報の第1の信頼度を算出し、
    前記DB更新は、前記テキスト情報から前記行動パターンに関する情報が得られ、前記第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して前記行動パターンデータベースを更新する、
    プログラム。
  9. コンピュータを、
    センサの検出結果に基づいてユーザの行動パターンを検出するために用いる行動パターンデータベースであって、前記ユーザが電子機器に入力したテキスト情報から行動パターンに関する情報が得られた場合に、得られた情報を利用して更新される前記行動パターンデータベースにアクセスする通信と、
    前記センサの検出結果及び前記テキスト情報に対応する行動パターンに関する情報を前記行動パターンデータベースから取得する行動パターン情報取得と、
    として機能させるためのプログラムであり、
    前記行動パターンデータベースは、前記行動パターンに関する情報の第1の信頼度が所定の第1の閾値を超えた場合に、前記テキスト情報から得られた前記行動パターンに関する情報を利用して更新される、
    プログラム。
JP2012129799A 2012-06-07 2012-06-07 情報処理装置、電子機器、情報処理方法、及びプログラム Active JP5904021B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012129799A JP5904021B2 (ja) 2012-06-07 2012-06-07 情報処理装置、電子機器、情報処理方法、及びプログラム
US13/869,422 US20130332410A1 (en) 2012-06-07 2013-04-24 Information processing apparatus, electronic device, information processing method and program
CN201310211717.6A CN103488666B (zh) 2012-06-07 2013-05-31 信息处理设备和方法、电子装置以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012129799A JP5904021B2 (ja) 2012-06-07 2012-06-07 情報処理装置、電子機器、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2013254372A JP2013254372A (ja) 2013-12-19
JP2013254372A5 JP2013254372A5 (ja) 2015-03-12
JP5904021B2 true JP5904021B2 (ja) 2016-04-13

Family

ID=49716101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012129799A Active JP5904021B2 (ja) 2012-06-07 2012-06-07 情報処理装置、電子機器、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20130332410A1 (ja)
JP (1) JP5904021B2 (ja)
CN (1) CN103488666B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250085B2 (en) 2013-07-17 2016-02-02 Vivint, Inc. Geo-location services
CN104778168A (zh) * 2014-01-09 2015-07-15 联想(北京)有限公司 一种数据处理方法和装置
JP6022499B2 (ja) * 2014-03-20 2016-11-09 ヤフー株式会社 行動予測装置、行動予測方法、及び行動予測プログラム
US20150347895A1 (en) * 2014-06-02 2015-12-03 Qualcomm Incorporated Deriving relationships from overlapping location data
US10944764B2 (en) * 2015-02-13 2021-03-09 Fisher-Rosemount Systems, Inc. Security event detection through virtual machine introspection
US9965754B2 (en) * 2015-06-08 2018-05-08 Google Llc Point of sale terminal geolocation
JP6478327B2 (ja) * 2015-07-02 2019-03-06 Kddi株式会社 センサを搭載しない携帯端末におけるユーザ状態を推定するサーバ及びプログラム
WO2017038260A1 (ja) 2015-08-28 2017-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017079433A (ja) * 2015-10-21 2017-04-27 株式会社東海理化電機製作所 遠隔操作システム
KR101773147B1 (ko) 2016-02-15 2017-08-30 한국과학기술원 데이터 스트림 자동 분할 장치 및 방법
US20180012229A1 (en) * 2016-07-06 2018-01-11 Palo Alto Research Center Incorporated Computer-Implemented System And Method For Providing Contextually Relevant Servicing
KR102598270B1 (ko) * 2016-08-01 2023-11-06 삼성전자주식회사 차량 탑승 인식 방법 및 이를 구현한 전자 장치
JP6352357B2 (ja) * 2016-10-05 2018-07-04 ヤフー株式会社 モデル生成装置、モデル生成方法、及びモデル生成プログラム
CN107391605A (zh) * 2017-06-30 2017-11-24 北京奇虎科技有限公司 基于地理位置的信息推送方法、装置及移动终端
WO2019135403A1 (ja) * 2018-01-05 2019-07-11 国立大学法人九州工業大学 ラベル付与装置、ラベル付与方法、及びプログラム
CN108241749B (zh) * 2018-01-12 2021-03-26 新华智云科技有限公司 由传感器数据生成资讯信息的方法及设备
WO2019186676A1 (ja) * 2018-03-27 2019-10-03 株式会社日立製作所 行動推定および変化検出装置
KR101944100B1 (ko) * 2018-10-16 2019-01-30 장봉석 행위패턴인식을 이용한 관리시스템
WO2021187012A1 (ja) * 2020-03-16 2021-09-23 日本電気株式会社 情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3252721B2 (ja) * 1996-10-07 2002-02-04 カシオ計算機株式会社 行動解析装置
US7225229B1 (en) * 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
US7080322B2 (en) * 1998-12-18 2006-07-18 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US20060100880A1 (en) * 2002-09-20 2006-05-11 Shinichi Yamamoto Interactive device
US20040181409A1 (en) * 2003-03-11 2004-09-16 Yifan Gong Speech recognition using model parameters dependent on acoustic environment
US7725842B2 (en) * 2003-04-24 2010-05-25 Bronkema Valentina G Self-attainable analytic tool and method for adaptive behavior modification
JP2005292893A (ja) * 2004-03-31 2005-10-20 Nec Access Technica Ltd 携帯情報端末装置
US8204580B2 (en) * 2004-05-25 2012-06-19 Kurzweil Technologies, Inc. Use of patterns in processing on mobile monitoring device and computer system
JP4759304B2 (ja) * 2005-04-07 2011-08-31 オリンパス株式会社 情報表示システム
US7675414B2 (en) * 2006-08-10 2010-03-09 Qualcomm Incorporated Methods and apparatus for an environmental and behavioral adaptive wireless communication device
US7689524B2 (en) * 2006-09-28 2010-03-30 Microsoft Corporation Dynamic environment evaluation and service adjustment based on multiple user profiles including data classification and information sharing with authorized other users
US8606497B2 (en) * 2006-11-03 2013-12-10 Salient Imaging, Inc. Method, system and computer program for detecting and monitoring human activity utilizing location data
US20080147411A1 (en) * 2006-12-19 2008-06-19 International Business Machines Corporation Adaptation of a speech processing system from external input that is not directly related to sounds in an operational acoustic environment
US8949070B1 (en) * 2007-02-08 2015-02-03 Dp Technologies, Inc. Human activity monitoring device with activity identification
WO2008149341A2 (en) * 2007-06-08 2008-12-11 Svip 4 Llc Device for monitoring and modifying eating behavior
US8055656B2 (en) * 2007-10-10 2011-11-08 International Business Machines Corporation Generating a user-specific search index of content within a virtual environment
US8065508B2 (en) * 2007-11-09 2011-11-22 Google Inc. Activating applications based on accelerometer data
JP2009302949A (ja) * 2008-06-13 2009-12-24 Funai Electric Co Ltd 携帯通信端末および状況推定システム
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
US20100067708A1 (en) * 2008-09-16 2010-03-18 Sony Ericsson Mobile Communications Ab System and method for automatically updating presence information based on sound detection
JP5215099B2 (ja) * 2008-09-17 2013-06-19 オリンパス株式会社 情報処理システム、デジタルフォトフレーム、プログラム及び情報記憶媒体
WO2010032579A1 (ja) * 2008-09-19 2010-03-25 株式会社日立製作所 行動履歴の生成方法及び行動履歴の生成システム
US8527140B2 (en) * 2009-02-10 2013-09-03 Roy Schwartz Vehicle state detection
US20120046995A1 (en) * 2009-04-29 2012-02-23 Waldeck Technology, Llc Anonymous crowd comparison
JP2010277190A (ja) * 2009-05-26 2010-12-09 Nippon Telegr & Teleph Corp <Ntt> 滞在地コンテキスト抽出装置、滞在地コンテキスト抽出方法およびプログラム
KR101562792B1 (ko) * 2009-06-10 2015-10-23 삼성전자주식회사 목표 예측 인터페이스 제공 장치 및 그 방법
US8248262B2 (en) * 2009-08-11 2012-08-21 Dell Products L.P. Event recognition and response system
US8768308B2 (en) * 2009-09-29 2014-07-01 Deutsche Telekom Ag Apparatus and method for creating and managing personal schedules via context-sensing and actuation
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
GB2487027A (en) * 2009-10-23 2012-07-04 Cadio Inc Analyzing consumer behavior using electronically-captured consumer location data
JP2011232445A (ja) * 2010-04-26 2011-11-17 Sony Corp 情報処理装置、出題傾向設定方法及びプログラム
US8612463B2 (en) * 2010-06-03 2013-12-17 Palo Alto Research Center Incorporated Identifying activities using a hybrid user-activity model
KR101827885B1 (ko) * 2010-08-06 2018-02-12 삼성전자주식회사 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법
US20120084248A1 (en) * 2010-09-30 2012-04-05 Microsoft Corporation Providing suggestions based on user intent
US8606293B2 (en) * 2010-10-05 2013-12-10 Qualcomm Incorporated Mobile device location estimation using environmental information
US8706540B2 (en) * 2010-12-08 2014-04-22 Motorola Solutions, Inc. Task management in a workforce environment using an acoustic map constructed from aggregated audio
US8756173B2 (en) * 2011-01-19 2014-06-17 Qualcomm Incorporated Machine learning of known or unknown motion states with sensor fusion
US9443511B2 (en) * 2011-03-04 2016-09-13 Qualcomm Incorporated System and method for recognizing environmental sound
US8718672B2 (en) * 2011-04-18 2014-05-06 Microsoft Corporation Identifying status based on heterogeneous sensors
JP6004792B2 (ja) * 2011-07-06 2016-10-12 本田技研工業株式会社 音響処理装置、音響処理方法、及び音響処理プログラム
CN102413225A (zh) * 2011-08-23 2012-04-11 华为终端有限公司 无线手持设备
CN103703825B (zh) * 2011-08-29 2017-05-03 英派尔科技开发有限公司 以应用为基础在终端上输出估计的QoE的方法
US8892461B2 (en) * 2011-10-21 2014-11-18 Alohar Mobile Inc. Mobile device user behavior analysis and authentication
US20130252638A1 (en) * 2011-10-21 2013-09-26 Alohar Mobile Inc. Real-Time Determination of User Stays of a Mobile Device
US8706918B2 (en) * 2011-11-15 2014-04-22 International Business Machines Corporation External environment sensitive predictive application and memory initiation
US20130138386A1 (en) * 2011-11-30 2013-05-30 Arbitron Inc. Movement/position monitoring and linking to media consumption
US8849730B2 (en) * 2011-12-15 2014-09-30 Microsoft Corporation Prediction of user response actions to received data
US8868713B2 (en) * 2012-03-08 2014-10-21 Verizon Patent And Licensing Inc. Method and apparatus providing a user interface for a request-oriented service architecture
US8849312B2 (en) * 2012-04-10 2014-09-30 Yellowpages.Com Llc User description based on contexts of location and time
JP5935516B2 (ja) * 2012-06-01 2016-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20140278395A1 (en) * 2013-03-12 2014-09-18 Motorola Mobility Llc Method and Apparatus for Determining a Motion Environment Profile to Adapt Voice Recognition Processing

Also Published As

Publication number Publication date
US20130332410A1 (en) 2013-12-12
CN103488666B (zh) 2018-05-25
JP2013254372A (ja) 2013-12-19
CN103488666A (zh) 2014-01-01

Similar Documents

Publication Publication Date Title
JP5904021B2 (ja) 情報処理装置、電子機器、情報処理方法、及びプログラム
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10586445B2 (en) Information processing apparatus for controlling to execute a job used for manufacturing a product
US10003924B2 (en) Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location
CN107172590B (zh) 基于移动终端的活动状态信息处理方法、装置及移动终端
US9037527B2 (en) Determining a dynamic user profile indicative of a user behavior context with a mobile device
JP5895716B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9740773B2 (en) Context labels for data clusters
US20110190008A1 (en) Systems, methods, and apparatuses for providing context-based navigation services
JP6311478B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN104823433B (zh) 在语义上融合上下文推断
JP6183489B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP6584376B2 (ja) 情報処理装置、情報処理方法、および、情報処理プログラム
JP6687648B2 (ja) 推定装置、推定方法及び推定プログラム
JP2023015753A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2018132551A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160229

R151 Written notification of patent or utility model registration

Ref document number: 5904021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250