JP2008003655A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2008003655A JP2008003655A JP2006169647A JP2006169647A JP2008003655A JP 2008003655 A JP2008003655 A JP 2008003655A JP 2006169647 A JP2006169647 A JP 2006169647A JP 2006169647 A JP2006169647 A JP 2006169647A JP 2008003655 A JP2008003655 A JP 2008003655A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- experience
- user
- unit
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and in particular, for example, it is possible to automatically generate, for example, an entertainment sentence corresponding to a user's action without depending on the user's input. The present invention relates to an information processing device, an information processing method, and a program.
今日、自分の行動を記録したり、自分の行動を特定多数、あるいは不特定多数の人に公開したりするためのツールとして、インターネットを利用したBlog(Weblog)やSNS(Social Network Service)などが一般化している。 Today, Internet-based Blog (Weblog), SNS (Social Network Service), etc. are tools for recording your actions and disclosing your actions to specific or unspecified people. Generalized.
図1はBlogの例を示す図であり、図1に示されるように、ユーザは、1日の自分の行動を日記風に文章として残しておいたり、撮影した画像を残しておいたりすることができる。 FIG. 1 is a diagram showing an example of a blog. As shown in FIG. 1, the user may leave his / her own action as a sentence in a diary or leave a photographed image. Can do.
特許文献1には、加速度センサの出力から得られた、歩く、走るなどのユーザの活動状況や、GPS(Global Positioning System)から取得されたユーザの位置など、複数のセンサ出力結果を組み合わせてユーザの行動履歴として記録する技術が開示されている。
In
特許文献2には、時間的な条件である静的条件と、ユーザの行動履歴である動的条件にしたがってストーリーを決定し、対応するテキストを順次選択して、ユーザの行動履歴を表現する漫画を自動生成する技術が開示されている。
しかしながら、上述したようなBlogなどを毎日更新していくことは非常に面倒な作業であり、継続して更新することをあきらめてしまうユーザも少なくない。 However, it is very troublesome to update the above-mentioned Blog etc. every day, and there are not a few users who give up updating continuously.
従って、そのような負担を減らすために、特許文献1、特許文献2に開示されているような技術が各種提案されているものの、電波を受信して検出を行うGPSなどのセンサが設けられている点で装置が大掛かりであったり、使用するにあたりユーザに負担を強いるものもあったりして実用的ではないことが多い。
Therefore, in order to reduce such a burden, various technologies such as those disclosed in
また、行動履歴の表現方法も、図2に示されるような形で、時刻、行動、場所がリスト化されたものであったりするなど、BlogやSNSで使うことを目的とした場合に、それに適していないものが多い。 Also, the action history is expressed in the form shown in Fig. 2, such as a list of times, actions, and places. Many are not suitable.
例えば、特許文献1に記載されている技術によれば、センサ出力に基づいてユーザの行動履歴のログをとることはできるものの、認識結果がそのまま記録・出力されるため、出力される情報はエンターテインメント性に欠けるものとなる。
For example, according to the technique described in
また、特許文献2に記載されている技術においては、セリフなどの文章は主にユーザが入力した感想に基づいて決定されるため、感想の入力が煩雑である。
Moreover, in the technique described in
本発明はこのような状況に鑑みてなされたものであり、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができるようにするものである。 The present invention has been made in view of such circumstances, and for example, it is possible to automatically generate, for example, an entertainment sentence corresponding to a user's action without depending on the user's input. is there.
本発明の一側面の情報処理装置は、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶する記憶手段と、前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段とを備える。 An information processing apparatus according to an aspect of the present invention includes a storage unit that recognizes a behavior parameter that is information related to a user's behavior and text information that is recognized based on an output of a sensor, and stores the text information in association with each other. Selection means for selecting text information corresponding to the behavior parameter extracted by the extraction means from the text information stored by the storage means when the behavior parameters that have been set match a predetermined condition; Prepare.
前記センサの出力の複数のパラメータを組み合わせて前記行動パラメータを生成する生成手段をさらに設けることができる。 Generation means for generating the behavior parameter by combining a plurality of parameters of the sensor output may be further provided.
前記行動パラメータを正規化する正規化手段をさらに設けることができる。 Normalization means for normalizing the behavior parameter may be further provided.
複数の前記行動パラメータを組み合わせてユーザの行動の度合いを表現する体験パラメータを生成する生成手段をさらに設けることができる。 Generation means for generating an experience parameter expressing the degree of user's action by combining a plurality of the action parameters can be further provided.
前記選択手段には、テキスト情報の中から、未選択のものを優先して選択させることができる。 The selection means can preferentially select unselected text information from the text information.
前記記憶手段には、日付に関する情報と前記テキストデータとを対応付けてさらに記憶させることができる。 The storage means can further store information relating to the date and the text data in association with each other.
本発明の一側面の情報処理方法またはプログラムは、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択するステップを含む。 An information processing method or program according to an aspect of the present invention stores an action parameter that is recognized based on an output of a sensor and that is information about a user action and text information in association with each other, and that is extracted If the predetermined condition is satisfied, the step includes selecting text information corresponding to the extracted behavior parameter from the stored text information.
本発明の一側面においては、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とが対応付けて記憶され、抽出された行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された行動パラメータに対応するテキスト情報が選択される。 In one aspect of the present invention, a behavior parameter that is information related to a user's behavior recognized based on the output of the sensor and text information are stored in association with each other, and the extracted behavior parameter matches a predetermined condition. In this case, text information corresponding to the extracted behavior parameter is selected from the stored text information.
本発明の一側面によれば、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができる。 According to one aspect of the present invention, for example, an entertainment sentence corresponding to a user's action can be automatically generated without depending on the user's input.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. On the contrary, even if an embodiment is described herein as corresponding to the invention, this does not mean that the embodiment does not correspond to other than the configuration requirements. .
本発明の一側面の情報処理装置(例えば、図3の携帯電話機1)は、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶する記憶手段(例えば、図5の体験表現辞書記憶部23)と、前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段(例えば、図21に体験表現選択部72)とを備える。
The information processing apparatus according to one aspect of the present invention (for example, the
前記センサの出力の複数のパラメータを組み合わせて前記行動パラメータを生成する生成手段(例えば、図5の行動パラメータ抽出・行動認識部21)をさらに設けることができる。
Generation means (for example, the behavior parameter extraction /
前記行動パラメータを正規化する正規化手段(例えば、図18の行動パラメータ正規化部61)をさらに設けることができる。
Normalization means for normalizing the behavior parameters (for example, behavior
複数の前記行動パラメータを組み合わせてユーザの行動の度合いを表現する体験パラメータを生成する生成手段(例えば、図18の体験パラメータ生成部63)をさらに設けることができる。
Generation means (for example, the experience
本発明の一側面の情報処理方法またはプログラムは、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択するステップ(例えば、図27のステップS24)を含む。 An information processing method or program according to an aspect of the present invention stores an action parameter that is recognized based on an output of a sensor and that is information about a user action and text information in association with each other, and that is extracted Includes a step of selecting text information corresponding to the extracted behavior parameter from the stored text information (for example, step S24 in FIG. 27).
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図3は、本発明を適用した情報処理システムの構成例を示す図である。 FIG. 3 is a diagram showing a configuration example of an information processing system to which the present invention is applied.
図3に示されるように、この情報処理システムは、携帯電話機1、サーバ2、およびパーソナルコンピュータ3がインターネットを介して接続されることによって構成される。
As shown in FIG. 3, the information processing system is configured by connecting a
携帯電話機1は、内蔵するセンサからの出力に基づいてユーザの行動を認識し、認識結果に応じて、ユーザの行動を表す文章を自動的に生成する。携帯電話機1には加速度センサ、ジャイロセンサなどのセンサが内蔵されており、例えば、1日にどのくらいの距離を歩いたか、歩くことについてもまっすぐ歩いていたか、ふらふらしながら歩いていたかなどが、それらのセンサの出力から認識される。
The
携帯電話機1には、ユーザの行動を表す文章が行動と対応付けて記憶されており、例えば、普段より多くの距離を歩いたことが認識されたときには「いっぱい歩いたね。」の文章が選択され、ふらふらしながら歩いていたことが認識されたときには「今日はお買い物。」の文章が選択される。普段より多くの距離を歩いたかどうかは、履歴として毎日記録される歩行距離の平均などを基準に判断される。ふらふらしながら歩いていたかどうかは、左を向いたり、右を向いたりする回数が所定の時間にどれだけ検出されたかなどに基づいて判断される。
The
携帯電話機1は、以上のようにして生成した文章をインターネットを介してサーバ2に送信し、BlogやSNSの文章としてサーバ2に登録する。行動の認識は例えば1日の間に加速度センサ、ジャイロセンサの出力の履歴を用いて行われ、認識された行動に基づいて作成された1日の行動を表す文章が、1日に1回などの所定の周期で作成される。
The
パーソナルコンピュータ3のユーザは、パーソナルコンピュータ3を操作してサーバ2にアクセスし、携帯電話機1のユーザのBlogやSNSの文章として公開されている、携帯電話機1により生成された文章を閲覧することができる。
The user of the
このように、携帯電話機1においては、行動の認識が加速センサ、ジャイロセンサの出力に基づいて行われるため、電波を受信して検出を行うGPSなどの出力に基づいて行動を認識したりする場合に較べて、システムを小型化することができる。
As described above, in the
また、ユーザは、図2に示されるように単に「歩く」、「走る」、・・・などの行動の羅列ではなく、BlogやSNSで用いるものとして適した、エンターテインメント性のある文章を容易に作成することができる。 In addition, as shown in FIG. 2, the user can easily enter entertainment sentences suitable for use in Blog and SNS, not just a list of actions such as “walking”, “running”,... Can be created.
図4は、携帯電話機1のハードウエア構成例を示すブロック図である。
FIG. 4 is a block diagram illustrating a hardware configuration example of the
図4に示されるように、携帯電話機1は、加速度センサ11、ジャイロセンサ12、およびプロセッサ13から構成される。
As shown in FIG. 4, the
加速度センサ11は、互いに直交する3軸方向の加速度を測定可能なセンサであり、所定の周期で測定を行い、測定結果である加速度データをプロセッサ13に出力する。
The
ジャイロセンサ12は、互いに直交する3軸周りの角速度を測定可能なセンサであり、所定の周期で測定を行い、測定結果であるジャイロデータをプロセッサ13に出力する。
The
プロセッサ13は、加速度センサ11から供給された加速度データとジャイロセンサ12から供給されたジャイロデータに基づいて、携帯電話機1を携帯しているユーザの行動を認識し、認識結果に応じて文章を作成する。
The
また、プロセッサ13は、作成した文章をサーバ2にインターネットを介して送信し、携帯電話機1のユーザがあらかじめ作成しているBlogやSNSに登録させる。プロセッサ13は、作成した文章を携帯電話機1に設けられるディスプレイに表示し、ユーザに確認させることなども行う。
In addition, the
図5は、携帯電話機1の機能構成例を示すブロック図である。図5に示す機能部のうちの少なくとも一部は、図4のプロセッサ13により所定のプログラムが実行されることによって実現される。
FIG. 5 is a block diagram illustrating a functional configuration example of the
図5に示されるように、携帯電話機1においては行動パラメータ抽出・行動認識部21、体験表現生成部22、体験表現辞書記憶部23が実現される。
As shown in FIG. 5, in the
行動パラメータ抽出・行動認識部21は、加速度センサ11、ジャイロセンサ12により測定され、供給されたセンサデータに基づいて、例えば歩行ピッチ、歩行パワー、重力軸まわりの回転角を求め、求めたそれらの情報から、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求める。
The behavior parameter extraction /
また、行動パラメータ抽出・行動認識部21は、センサデータに基づいて求められた歩行ピッチ、歩行パワー、重力軸まわりの回転角に基づいて、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかをユーザの行動として認識し、それぞれの行動の時間、割合、回数、継続時間などを求める。
In addition, the behavior parameter extraction /
後述するように、行動パラメータ抽出・行動認識部21には、静止している状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM(Hidden Markov Model)、歩いている状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、走っている状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、右ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、左ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMMがあらかじめ用意されており、それらのHMMが参照されることによって、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかの行動が認識される。
As will be described later, the behavior parameter extraction /
行動パラメータ抽出・行動認識部21は、図6に示されるように、加速度データやジャイロデータなどのセンサデータに基づいて求められた各種の情報と、認識した行動の履歴を表す情報が記述された行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22に出力する。行動パラメータファイルは、例えばXML(eXtensible Markup Language)形式のファイルとされる。
As shown in FIG. 6, the behavior parameter extraction /
図7は、行動パラメータファイルに記述される情報の例を示す図である。 FIG. 7 is a diagram illustrating an example of information described in the behavior parameter file.
図7に示されるように、行動パラメータファイルには、ログの開始時刻、ログの終了時刻、ログの総時間が記述される。ログの開始時刻は、ユーザが携帯電話機1の使用を開始した時刻を表し、ログの終了時刻は、ユーザが携帯電話機1の使用を終了した時刻を表す。ログの総時間は、ユーザが1日の間に携帯電話機1を使用していた時間を表す。
As shown in FIG. 7, the behavior parameter file describes the start time of the log, the end time of the log, and the total time of the log. The log start time represents the time when the user started using the
また、行動パラメータファイルには、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数、認識された、それぞれの行動の総時間、割合、回数、継続時間、最大時間、平均時間が記述される。 Also, the behavior parameter file contains the number of steps, average walking pitch, average number of turns, average number of walks / stops, total time, percentage, number of times, duration, maximum time, average of each recognized action Time is described.
行動の最大時間は、「静止」については、静止していたとして継続して認識された時間のうちの最も長い時間、「歩き」については、歩いていたとして継続して認識された時間のうちの最も長い時間、「走り」については、走っていたとして継続して認識された時間のうちの最も長い時間、「右ターン」については、右ターンを行っていたとして継続して認識された時間のうちの最も長い時間、「左ターン」については、左ターンを行っていたとして継続して認識された時間のうちの最も長い時間とされる。 The maximum time of action is the longest time that is continuously recognized as being stationary for “stationary”, and the time that is continuously recognized as walking for “walking”. For the longest time, “running”, the longest time continuously recognized as being run, and for “right turn”, the time continuously recognized as having been making a right turn The longest time among them, the “left turn”, is the longest time continuously recognized as having made a left turn.
行動の平均時間は、「静止」については、静止していたとして継続して認識された時間の平均時間(秒)、「歩き」については、歩いていたとして継続して認識された時間の平均時間(秒)、「走り」については、走っていたとして継続して認識された時間の平均時間(秒)、「右ターン」については、右ターンを行っていたとして継続して認識された時間の平均時間、「左ターン」については、左ターンを行ったとして継続して認識された時間の平均時間とされる。 The average action time is the average time (seconds) that is continuously recognized as being stationary for “still”, and the average time that is continuously recognized as walking for “walking”. For time (seconds) and “running”, the average time (seconds) continuously recognized as being run, and for “right turn”, the time continuously recognized as having been making a right turn The average time of “left turn” is the average time continuously recognized as a left turn.
また、行動パラメータファイルには、認識された行動の時系列が記述される。記述される1つの行動の情報は、例えば、1つの行動の開始時刻、終了時刻、総時間、行動の内容からなる。 The action parameter file describes a time series of recognized actions. The information of one action described includes, for example, the start time, end time, total time, and action content of one action.
このようなパラメータが記述された行動パラメータファイルが行動パラメータ抽出・行動認識部21により生成され、体験表現生成部22に出力される。例えば、図7に示されるような1つの行動パラメータファイルが毎日、その日のうちに加速度センサ11、ジャイロセンサ12により検出されたセンサデータに基づいて生成される。
A behavior parameter file in which such parameters are described is generated by the behavior parameter extraction /
図5の説明に戻り、体験表現生成部22は、体験表現辞書記憶部23に記憶されている辞書を参照し、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述されている情報に基づいて、ユーザの1日の行動を表す文章を作成する。体験表現生成部22は、作成した文章をインターネットを介してサーバ2に送信したり、携帯電話機1に設けられる表示装置24に表示させたりする。
Returning to the description of FIG. 5, the experience
体験表現辞書記憶部23は、文章と行動の対応関係を表す辞書を記憶する。体験表現辞書記憶部23に記憶される辞書は、携帯電話機1のメーカなどによりあらかじめ用意されるようにしてもよいし、1日の行動を表す文章がユーザにより入力された場合、その1日の間に行動パラメータ抽出・行動認識部21により認識された行動の認識結果と、ユーザにより入力された文章から学習により生成され、用意されるようにしてもよい。
The experience expression
ここで、行動パラメータ抽出・行動認識部21により行われる、行動パラメータの抽出と行動の認識について説明する。
Here, behavior parameter extraction and behavior recognition performed by the behavior parameter extraction /
図8は、行動パラメータ抽出・行動認識部21の詳細な構成例を示すブロック図である。
FIG. 8 is a block diagram illustrating a detailed configuration example of the behavior parameter extraction /
図8に示されるように、行動パラメータ抽出・行動認識部21は、キャリブレーション実行部31、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35、行動認識部36、およびファイル生成部37から構成される。
As shown in FIG. 8, the behavior parameter extraction /
キャリブレーション実行部31は、加速度センサ11、ジャイロセンサ12から供給されたセンサデータのキャリブレーションを行い、キャリブレーション後のセンサデータを歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35にそれぞれ出力する。例えば、温度の違いなどによって加速度センサ11、ジャイロセンサ12の感度も異なり、出力される値も異なるから、それを補正する処理がキャリブレーション実行部31により行われる。
The
歩行ピッチ検出部32は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて、図9に示されるような歩行ピッチを検出する。周期的信号の周期を検知・測定するための方法としては信号の自己相関性(autocorrelation)におけるピークを見つける方法があり、加速度センサ11により測定されたデータを用いた歩行ピッチの検出においても例えばこの方法が用いられる。図9の横軸は時刻(加速度センサ11のサンプル数)を表し、縦軸は周波数(Hz)を表す。人が歩くときに加速度センサにより測定される周波数は一般的に2Hz(1秒間に2歩)であるから、2Hz付近の周波数の測定結果の時系列などから、認識結果としての「歩き」が、HMMが参照されて得られる。歩行ピッチ検出部32は、検出した歩行ピッチを行動認識部36に出力する。
The walking
歩行パワー検出部33は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて図10に示されるような歩行パワーを検出する。図10の横軸は時刻を表し、縦軸は強さを表す。歩行パワー検出部33は、検出した歩行パワーを行動認識部36に出力する。
The walking
重力方向検出部34は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて重力軸の方向を検出する。加速度センサ11が重力軸に対して水平方向の加速度を検出する状態にある場合にはその出力は0となり、一方、重力軸に対して水平方向以外の方向の加速度を検出する状態にある場合には所定の値が測定されるから、上述したように、3軸方向の加速度を測定することができるようになされているときには、それぞれの方向の加速度の測定結果から重力軸を求めることが可能となる。図11は加速度の重力方向の変化を表す。図11の横軸は時刻を表し、縦軸は加速度を表す。重力方向検出部34は、検出した重力軸の方向を表す情報をヘディング検出部35に出力する。
The gravity
ヘディング検出部35は、キャリブレーション実行部31から供給されたセンサデータのうちのジャイロデータと、重力方向検出部34から供給された重力軸の方向を表す情報に基づいて、図12に示されるような、重力軸まわりの回転角(Heading)を検出する。ジャイロデータを重力軸方向に投影すると、重力軸まわりの回転角が求められる。図12の横軸は時刻を表し、縦軸は回転角を表す。ヘディング検出部35は、検出した重力軸まわりの回転角を行動認識部36に出力する。
The heading
行動認識部36は、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35から供給された情報に基づいて、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求め、求めたそれらの情報を行動パラメータとして抽出する。
Based on the information supplied from the walking
歩行ピッチ検出部32により求められた歩行ピッチがPwalk(i)で表されるものとすると、歩数Nwalk(歩)は下式(1)により求められる。求められた歩数は、ユーザが例えば1日にどれだけ歩いたのかを判断する目安として用いられる。式(1)において、iはサンプルの順番であり、Nは総サンプル数である。
If the walking pitch obtained by the walking
また、歩行ピッチが0以上だったサンプル数がCwalkで表されるものとすると、平均の歩行ピッチAwalk(Hz)は下式(2)により求められる。求められた平均の歩行ピッチは、歩きの速さ(忙しく歩いていたか、のんびり歩いていたか)を判断する目安として用いられる。 Further, assuming that the number of samples whose walking pitch is 0 or more is represented by C walk , the average walking pitch A walk (Hz) is obtained by the following equation (2). The obtained average walking pitch is used as a standard for judging the speed of walking (whether walking was busy or leisurely walking).
平均のターン回数は、ヘディング検出部35から供給された重力軸まわりの回転角からターンの回数をカウントし、それを単位時間あたりの回数とすることにより求められる。例えば、図12において、0.1以上の回転角の値が検出された位置がユーザが左ターンを行った位置としてカウントされ、−0.1以下の回転角の値が検出された位置がユーザが右ターンを行った位置としてカウントされる。
The average number of turns can be obtained by counting the number of turns from the rotation angle around the gravity axis supplied from the heading
1分あたりのターン回数(左ターンの回数と右ターンの回数をあわせた回数)がCturnで表され、1分あたりのサンプル数がNminで表されるものとすると、平均ターン回数Aturn(回/分)は下式(3)により求められる。求められた平均のターン回数は、まっすぐな行動をしていたか、ふらふらした行動をしていたかを判断する目安として用いられる。 Assuming that the number of turns per minute (the number of left turns and right turns combined) is represented by C turn and the number of samples per minute is represented by N min , the average number of turns A turn (Times / min) is obtained by the following equation (3). The obtained average number of turns is used as a guideline for judging whether the player has been acting straight or swaying.
平均の歩行・停止回数は、歩行ピッチ検出部32により求められた歩行ピッチからユーザが歩行している位置を検出し、検出した位置の数をカウントすることにより求められる。例えば、人の歩行ピッチは平均2.0Hz程度であるため、1.0Hz以上の周波数が検出された位置が、ユーザが歩行している位置として検出される。1分あたりの歩行・停止回数がCstop_goで表され、1分あたりのサンプル数がNminで表されるものとすると、平均歩行・停止回数Astop_go(回/分)は下式(4)により求められる。求められた平均歩行・停止回数は、じっとしながら行動をとっていたか、せわしなく行動をとっていたかを判断する目安として用いられる。
The average number of times of walking / stopping is obtained by detecting the position where the user is walking from the walking pitch obtained by the walking
以上のようにして行動パラメータとして抽出された歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数はファイル生成部37に出力される。
The number of steps extracted as behavior parameters as described above, the average walking pitch, the average number of turns, and the average number of walks / stops are output to the
図13は、行動認識部36に設けられる一部の機能部の例を示す図である。
FIG. 13 is a diagram illustrating an example of some functional units provided in the
図13に示されるように、行動認識部36には、上述したような歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求める機能部の他に、ユーザの行動をHMMによって認識する機能部も設けられる。
As shown in FIG. 13, the
認識部51は、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35から供給された情報を所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM データベース52に用意されているHMMを参照して認識する。
The recognizing
また、認識部51は、例えば1日のユーザの行動を認識したとき、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のそれぞれの行動の総時間、それぞれの行動の割合、それぞれの行動の回数、それぞれの行動の継続時間(秒)、それぞれの行動の最大の継続時間(秒)、それぞれの行動の平均の継続時間(秒)を求める。それぞれの行動の総時間、それぞれの行動の割合、およびそれぞれの行動の回数は、その日のユーザの行動の傾向を判断する目安として用いられる。
For example, when the recognizing
また、行動の開始時刻、終了時刻、その単位時間でとっていた行動からなる、任意の単位時間あたりの行動情報などが認識部51により生成されるようにしてもよい。この単位時間あたりの行動情報は、例えば、時系列での行動の遷移を判断する目安として用いることが可能となる。
Further, the
HMM データベース52には、静止している状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、歩いている状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、走っている状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、右ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、左ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMMがあらかじめ用意されており、それらのHMMが参照されることによって、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかの行動が認識部51により認識される。
The HMM
図14は、認識部51による行動認識を模式的に示す図である。
FIG. 14 is a diagram schematically illustrating action recognition by the
生データ(raw data)としての加速度データとジャイロデータに対してはキャリブレーションが施され、キャリブレーションが施されることによって得られたデータから、上述したような、歩行ピッチ、歩行パワー、重力軸方向、重力軸まわりの回転角が特徴量(low level context)として取得される。また、HMMが参照され、取得された特徴量に基づいてユーザの行動(high level context)が統計学的に認識される。 The acceleration data and the gyro data as raw data are calibrated, and from the data obtained by the calibration, the walking pitch, walking power, and gravity axis as described above The direction and the rotation angle around the gravity axis are acquired as a low level context. Also, the HMM is referred to, and the user's behavior (high level context) is statistically recognized based on the acquired feature amount.
なお、図14に示されるようなものだけでなく、各種のアルゴリズムにより行動認識が行われるようにしてもよい。例えば、ヘディング検出部35により求められた重力軸まわりの回転角の情報に基づいて、0.1以上の回転角の値が検出された位置をユーザが左ターンを行った位置として認識し、−0.1以下の回転角の値が検出された位置をユーザが右ターンを行った位置として認識するといったように、単に、センサデータの閾値処理によって行動が認識されるようにすることができる。
In addition, action recognition may be performed not only as shown in FIG. 14 but also by various algorithms. For example, based on the rotation angle information about the gravity axis obtained by the heading
図15は、センサデータ、特徴量、認識結果の例を時系列的に示す図であり、図15の例においては、「歩き」、「走り」、「歩き」、「走り」、「静止」、「歩き」、「静止」の順に行動の認識結果が取得されている。 FIG. 15 is a diagram showing examples of sensor data, feature amounts, and recognition results in time series. In the example of FIG. 15, “walk”, “run”, “walk”, “run”, “still” The action recognition results are acquired in the order of “walking” and “still”.
以上のようにして認識された行動認識の結果も、その行動をユーザが行っていた時刻、時間などの情報とともに行動認識部36からファイル生成部37に出力される。また、それぞれの行動の割合、それぞれの行動の回数、それぞれの行動の継続時間、それぞれの行動の最大の継続時間、それぞれの行動の平均の継続時間を表す情報もファイル生成部37に出力される。
The result of the action recognition recognized as described above is also output from the
図8の説明に戻り、ファイル生成部37は、行動認識部36から供給された情報が記述された行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22(図5)に出力する。
Returning to the description of FIG. 8, the
図16と図17は、ファイル生成部37により生成される行動パラメータファイルの具体的な記述の例を示す図である。図16と図17の左側に示される数字は説明の便宜上付してあるものであり、行動パラメータファイルに記述される情報を構成するものではない。
16 and 17 are diagrams illustrating examples of specific descriptions of behavior parameter files generated by the
図16の2行目に記述されている「<start>〜</start>」は図7でいうログ開始時刻に相当し、3行目に記述されている「<stop>〜</stop>」は図7でいうログ終了時刻に相当する。4行目に記述されている「<duration>〜</duration>」は図7でいう総時間に相当する。 “<Start> ˜ </ start>” described in the second line in FIG. 16 corresponds to the log start time in FIG. 7, and “<stop> ˜ </ stop>” described in the third line. "Corresponds to the log end time in FIG. “<Duration> ˜ </ duration>” described in the fourth line corresponds to the total time shown in FIG.
図16の7行目に記述されている「<pedometer>〜</pedometer>」は図7でいう歩数に相当し、8行目に記述されている「<pitch>〜</pitch>」は図7でいう平均歩行ピッチに相当する。9行目に記述されている「<turn_freq>〜</turn_freq>」は図7でいう平均ターン回数に相当し、10行目に記述されている「<walk_stop_freq>〜</walk_stop_freq>」は図7でいう平均歩行・停止回数に相当する。 “<Pedometer> ˜ </ pedometer>” described in the seventh line in FIG. 16 corresponds to the number of steps in FIG. 7, and “<pitch> ˜ </ pitch>” described in the eighth line This corresponds to the average walking pitch in FIG. “<Turn_freq> ˜ </ turn_freq>” described in the ninth line corresponds to the average number of turns shown in FIG. 7, and “<walk_stop_freq> ˜ </ walk_stop_freq>” described in the tenth line This corresponds to the average number of walks / stops referred to in FIG.
図16の12行目から16行目までの記述は図7でいうそれぞれの行動の総時間に相当する。12行目に記述されている「<still>〜</still>」は「静止」として認識された総時間を表し、13行目に記述されている「<walk>〜</walk>」は「歩き」として認識された総時間を表す。14行目に記述されている「<run>〜</run>」は「走り」として認識された総時間を表し、15行目に記述されている「<right>〜</right>」は「右ターン」として認識された総時間を表す。16行目に記述されている「<left>〜</left>」は「左ターン」として認識された総時間を表す。 The description from the 12th line to the 16th line in FIG. 16 corresponds to the total time of each action in FIG. “<Still> to </ still>” described in the 12th line represents the total time recognized as “still”, and “<walk> to </ walk>” described in the 13th line Represents the total time recognized as “walking”. "<Run> ~ </ run>" described in the 14th line represents the total time recognized as "running", and "<right> ~ </ right>" described in the 15th line is Represents the total time recognized as a “right turn”. “<Left> ˜ </ left>” described in the 16th line represents the total time recognized as “left turn”.
図16の19行目から23行目までの記述は図7でいうそれぞれの行動の割合に相当する。19行目に記述されている「<still>〜</still>」は行動が認識された全時間に対する「静止」として認識された時間の割合を表し、20行目に記述されている「<walk>〜</walk>」は行動が認識された全時間に対する「歩き」として認識された時間の割合を表す。21行目に記述されている「<run>〜</run>」は行動が認識された全時間に対する「走り」として認識された時間の割合を表し、22行目に記述されている「<right>〜</right>」は行動が認識された全時間に対する「右ターン」として認識された時間の割合を表す。23行目に記述されている「<left>〜</left>」は行動が認識された全時間に対する「左ターン」として認識された時間の割合を表す。 The description from the 19th line to the 23rd line in FIG. 16 corresponds to the ratio of each action in FIG. “<Still> to </ still>” described in the 19th line represents the ratio of the time recognized as “still” to the total time in which the action is recognized, and “<still” described in the 20th line. “walk> ˜ </ walk>” represents the ratio of the time recognized as “walk” to the total time when the action was recognized. “<Run> ˜ </ run>” described in the 21st line represents the ratio of the time recognized as “running” to the total time in which the action is recognized, and “<run” described in the 22nd line. “right> ˜ </ right>” represents the ratio of the time recognized as the “right turn” to the total time when the action is recognized. “<Left> ˜ </ left>” described in the 23rd line represents the ratio of the time recognized as the “left turn” to the total time when the action is recognized.
図16の26行目から30行目までの記述は図7でいうそれぞれの行動の回数に相当する。26行目に記述されている「<still>〜</still>」は「静止」として認識された回数を表し、27行目に記述されている「<walk>〜</walk>」は「歩き」として認識された回数を表す。28行目に記述されている「<run>〜</run>」は「走り」として認識された回数を表し、29行目に記述されている「<right>〜</right>」は「右ターン」として認識された回数を表す。30行目に記述されている「<left>〜</left>」は「左ターン」として認識された回数を表す。 The description from the 26th line to the 30th line in FIG. 16 corresponds to the number of times of each action in FIG. “<Still> ˜ </ still>” described in the 26th line represents the number of times recognized as “still”, and “<walk> ˜ </ walk>” described in the 27th line “ Indicates the number of times recognized as "walking". “<Run> ˜ </ run>” described in the 28th line represents the number of times recognized as “running”, and “<right> ˜ </ right>” described in the 29th line is “ Indicates the number of times recognized as “right turn”. “<Left> ˜ </ left>” described in the 30th line represents the number of times recognized as “left turn”.
図16の34行目から38行目までの記述は図7でいうそれぞれの行動の最大時間に相当する。34行目に記述されている「<still>〜</still>」は「静止」として認識された最大時間を表し、35行目に記述されている「<walk>〜</walk>」は「歩き」として認識された最大時間を表す。36行目に記述されている「<run>〜</run>」は「走り」として認識された最大時間を表し、37行目に記述されている「<right>〜</right>」は「右ターン」として認識された最大時間を表す。38行目に記述されている「<left>〜</left>」は「左ターン」として認識された最大時間を表す。 The description from the 34th line to the 38th line in FIG. 16 corresponds to the maximum time of each action shown in FIG. “<Still> ˜ </ still>” described in the 34th line represents the maximum time recognized as “still”, and “<walk> ˜ </ walk>” described in the 35th line Represents the maximum time recognized as “walking”. "<Run> ~ </ run>" described in the 36th line represents the maximum time recognized as "running", and "<right> ~ </ right>" described in the 37th line is Represents the maximum time recognized as a “right turn”. “<Left> ˜ </ left>” described in the 38th line represents the maximum time recognized as “left turn”.
図16の41行目から45行目までの記述は図7でいうそれぞれの行動の平均時間に相当する。41行目に記述されている「<still>〜</still>」は「静止」として認識された平均時間を表し、42行目に記述されている「<walk>〜</walk>」は「歩き」として認識された平均時間を表す。43行目に記述されている「<run>〜</run>」は「走り」として認識された平均時間を表し、44行目に記述されている「<right>〜</right>」は「右ターン」として認識された平均時間を表す。45行目に記述されている「<left>〜</left>」は「左ターン」として認識された平均時間を表す。 The description from the 41st line to the 45th line in FIG. 16 corresponds to the average time of each action in FIG. “<Still> ˜ </ still>” described in the 41st line represents an average time recognized as “still”, and “<walk> ˜ </ walk>” described in the 42nd line It represents the average time recognized as “walking”. "<Run> ~ </ run>" described in the 43rd line represents the average time recognized as "running", and "<right> ~ </ right>" described in the 44th line is Represents the average time recognized as “right turn”. “<Left> ˜ </ left>” described in the 45th line represents an average time recognized as “left turn”.
図17は、認識された行動の時系列の部分の記述を示す図である。 FIG. 17 is a diagram showing a description of a time-series portion of recognized actions.
図17の3行目の「<slot>」から10行目の「</slot>」までが1番目に認識された行動に関する情報であり、11行目の「<slot>」から18行目の「</slot>」までが2番目に認識された行動に関する情報である。 In FIG. 17, “<slot>” on the third line to “</ slot>” on the tenth line is information regarding the first recognized action, and “<slot>” on the eleventh line is the 18th line. Up to “</ slot>” is information on the second recognized action.
例えば、1番目に認識された行動に関する情報のうち、5行目に記述されている「<start>〜</start>」は図7でいう時系列情報の開始時刻に相当し、6行目に記述されている「<stop>〜</stop>」は図7でいう時系列情報の終了時刻に相当する。7行目に記述されている「<duration>〜</duration>」は図7でいう時系列情報の総時間に相当する。9行目に記述されている「<activity>turn_left</activity>」は、1番目に認識された行動が「左ターン」であることを表す。 For example, “<start> to </ start>” described in the fifth line of the information related to the action recognized first corresponds to the start time of the time series information shown in FIG. “<Stop> to </ stop>” described in the above corresponds to the end time of the time series information shown in FIG. “<Duration> ˜ </ duration>” described in the seventh line corresponds to the total time of the time series information shown in FIG. “<Activity> turn_left </ activity>” described in the ninth line indicates that the action recognized first is “left turn”.
認識された他の行動についても、認識された順に、同じ情報が記述される。このような記述からなる行動パラメータファイルが体験表現生成部22に出力される。
For other recognized actions, the same information is described in the recognized order. An action parameter file having such a description is output to the experience
次に、体験表現生成部22により行われる、文章の生成について説明する。
Next, sentence generation performed by the experience
図18は、図5の体験表現生成部22の詳細な構成例を示すブロック図である。
FIG. 18 is a block diagram illustrating a detailed configuration example of the experience
図18に示されるように、体験表現生成部22は、行動パラメータ正規化部61、個人情報データベース62、体験パラメータ生成部63、体験分類部64、およびスコアテーブル記憶部65から構成される。
As shown in FIG. 18, the experience
行動パラメータ正規化部61は、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述される行動パラメータの正規化を行い、正規化を行って得られた行動パラメータを体験パラメータ生成部63と体験分類部64に出力する。正規化には、例えば、個人情報データベース62に記憶されている個人情報が参照される。
The behavior
図19は、個人情報データベース62に記憶される個人情報の例を示す図である。
FIG. 19 is a diagram illustrating an example of personal information stored in the
個人情報データベース62には、行動パラメータ抽出・行動認識部21により過去に生成された行動パラメータファイルに記述されている行動パラメータに基づいて得られた行動パラメータの平均が個人情報として記憶されている。行動パラメータの平均は、携帯電話機1が例えば複数のユーザにより使用される場合、図19に示されるように、ユーザ毎に、異なるファイルによって管理される。
In the
図19に重ねて示されるファイルのうちの1番上のファイルは、ユーザ名「hoge」、ユーザID「0001」で識別されるユーザの個人情報であり、図16を参照して説明した各種の情報の過去の平均値が記述される。携帯電話機1の使用を開始するとき、ユーザは、あらかじめ登録しておいた自分のユーザ名やユーザIDを携帯電話機1に入力することになる。なお、平均値だけでなく、各行動パラメータの分散値や積算値が個人情報として管理されるようにしてもよい。
The top file among the files shown in FIG. 19 is the personal information of the user identified by the user name “hoge” and the user ID “0001”, and the various files described with reference to FIG. A past average value of information is described. When starting to use the
例えば、行動パラメータ正規化部61は、行動パラメータ抽出・行動認識部21から行動パラメータファイルが供給されてきたとき、供給されてきた行動パラメータファイルに記述される行動パラメータにより表される行動を行ったユーザの個人情報を個人情報データベース62から読み出し、読み出した個人情報を用いて、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述される行動パラメータの正規化を行う。
For example, when the behavior parameter file is supplied from the behavior parameter extraction /
具体的には、ユーザの歩数が多いか少ないかを判断する場合について考えると、1日の歩数は、通勤経路の違いや体力の違いなどからユーザ毎にかなり差が出てくるため、単純に、歩数を閾値と比較することによって判断するだけでは適切な判断を行うことができない。従って、個人情報から、ユーザの歩数の分布(正規分布と仮定)を調べ、それを用いて、行動パラメータファイルに記述されるユーザの今日1日の歩数を正規化することによって、普段歩いてる歩数とどれくらい違うのかがわかることになる。 Specifically, when considering whether the number of steps of the user is large or small, since the number of steps per day varies considerably from user to user due to differences in commuting routes, physical strength, etc. It is not possible to make an appropriate determination simply by comparing the number of steps with a threshold value. Therefore, the number of steps normally taken by checking the distribution of the number of steps of the user (assuming a normal distribution) from the personal information and normalizing the number of steps of the user today described in the behavior parameter file by using the distribution. You can see how different it is.
正規化された歩数を、平均0、分散1の正規分布とすると、例えば、
正規化された歩数が0〜1の間であれば「だいたいいつもと同じ歩数」
正規化された歩数が1〜2の間であれば「まぁまぁ歩いた」
正規化された歩数が2〜3の間であれば「かなり多く歩いた」
正規化された歩数が3以上であれば「年に1回あるか無いかというくらい、相当な歩数歩いた!!」
と判断することが可能となる。
If the normalized number of steps is a normal distribution with an average of 0 and a variance of 1, for example,
If the normalized number of steps is between 0 and 1, "about the same number of steps as usual"
If the normalized number of steps is between 1 and 2, "I walked well"
If the normalized number of steps is between 2 and 3, "I walked a lot"
If the normalized number of steps is 3 or more, “I walked a considerable number of steps as if there were once a year!”
It becomes possible to judge.
このような正規化を行って歩数についての判断を行い、文章を選択すると、個人の差を吸収した形で、「今日は多く歩いた」などの文章を選択することが可能になる。同様にして正規化を行うことによって得られた複数の行動パラメータを組み合わせることで、さらに適切な判断を行うことも可能となる。 When such normalization is performed to determine the number of steps and a sentence is selected, it is possible to select a sentence such as “I walked a lot today” in a form that absorbed individual differences. Similarly, by combining a plurality of behavior parameters obtained by performing normalization, it is possible to make a more appropriate determination.
例えば、曜日による平均、分散を用いた正規化によって得られた行動パラメータ、天気による平均、分散を用いた正規化によって得られた行動パラメータ、ユーザの月齢による平均、分散を用いた正規化によって得られた行動パラメータが、各種の判断に用いられるようにすることができる。また、1日全体の行動をクラス分けして、クラスごとの平均、分散を用いた正規化によって得られた行動パラメータ、短時間の行動をクラス分けして、クラスごとの平均、分散を用いた正規化によって得られた行動パラメータが用いられるようにすることができる。 For example, average by day of week, behavior parameter obtained by normalization using variance, average by weather, behavior parameter obtained by normalization by variance, average by user age, obtained by normalization by variance The given behavior parameter can be used for various determinations. In addition, classifying the behavior of the whole day, classifying the behavior parameters obtained by normalization using average and variance for each class, and short-term behavior, and using the average and variance for each class Action parameters obtained by normalization can be used.
図18の説明に戻り、体験パラメータ生成部63は、行動パラメータ正規化部61により正規化された行動パラメータに基づいて体験パラメータを生成し、生成した体験パラメータと、正規化された行動パラメータに基づいて表示装置24に画面の表示を行わせる。
Returning to the description of FIG. 18, the experience
また、体験パラメータ生成部63は、生成した体験パラメータと、正規化された行動パラメータをサーバ2に送信する。ユーザの行動に基づいて生成された文章だけでなく、体験パラメータ、行動パラメータに関する情報も、サーバ2上で公開されたり、表示装置24に表示されたりする。さらに、ユーザの行動に基づいて生成された文章、体験パラメータ、行動パラメータに関する情報は、サーバ2上に公開されるだけでなく、例えばサーバ2上に蓄積させ、個人の行動プロファイルとして利用することも可能である。
In addition, the experience
例えば、体験パラメータ生成部63においては、行動パラメータ正規化部61により正規化された複数の行動パラメータが組み合わせられることによって、「すたすた度」、「ぶらぶら度」、「はつらつ度」、「のんびり度」などの新しいパラメータが生成される。複数の行動パラメータに基づいて新たにパラメータが生成され、それに基づいて情報の表示が行われるようにすることによって、正規化された歩数、左ターンの回数などの行動パラメータに基づいて、そのまま、「歩数度」、「左ターン回数度」などが表示される場合に較べて、エンターテインメント性を向上させることができる。
For example, in the experience
図20に示されるように、「すたすた度」は、例えば、平均歩行ピッチ(Hz)と平均ターン回数(回/分)を足した値に、歩数(歩)を掛け合わせることによって求められ、「ぶらぶら度」は、例えば、歩数(歩)、平均歩行ピッチ(Hz)、平均ターン回数(回/分)、ユーザの行動が「歩き」として認識された割合、「歩き」として認識された回数(回)、「歩き」として継続して認識された時間を足し合わせることによって求められる。 As shown in FIG. 20, the “degree of progress” is obtained, for example, by multiplying a value obtained by adding the average walking pitch (Hz) and the average number of turns (times / minute) with the number of steps (steps). The “hanging degree” includes, for example, the number of steps (steps), the average walking pitch (Hz), the average number of turns (times / minute), the rate at which the user's behavior is recognized as “walking”, and the number of times as “walking” ( Times), and adding the time continuously recognized as “walking”.
また、「はつらつ度」は、消費カロリー、歩数(歩)、平均歩行ピッチ(Hz)を足し合わせることによって求められ、「のんびり度」は、ユーザの行動が「静止」として認識された割合から、歩数(歩)と平均歩行ピッチ(Hz)の和を引くことによって求められる。「はつらつ度」における消費カロリーは、例えば、ユーザによりあらかじめ入力してもらった体重や年齢、行動パラメータファイルに記述される「歩き」と「走り」それぞれの総時間などから求められる。 In addition, “Hatsuatsu degree” is calculated by adding calories burned, steps taken (steps), and average walking pitch (Hz), and “relaxation degree” is calculated based on the ratio that the user's action is recognized as “still”. It is obtained by subtracting the sum of the number of steps (steps) and the average walking pitch (Hz). The calorie consumption in “Hatsutsutsu” is obtained from, for example, the weight and age input in advance by the user, the total time of “walking” and “running” described in the behavior parameter file, and the like.
なお、他のパラメータが、体験パラメータとして体験パラメータ生成部63により求められるようにしてもよい。
Other parameters may be obtained by the experience
体験分類部64は、体験表現辞書記憶部23に記憶されている体験表現辞書と、スコアテーブル記憶部65に記憶されているスコアテーブルを参照し、行動パラメータ正規化部61により正規化された行動パラメータと体験分類部64により生成された体験パラメータに応じた文章を選択し、選択した文章を表示装置24に表示させたり、選択した文章をサーバ2に送信したりする。上述したように、体験表現辞書記憶部23に記憶されている体験表現辞書には、文章と行動が対応付けられている。
The
図21は、体験分類部64の詳細な構成例を示すブロック図である。
FIG. 21 is a block diagram illustrating a detailed configuration example of the
図21に示されるように、体験分類部64は、体験分類選択部71、体験表現選択部72、更新部73、および表示データ生成部74から構成される。
As shown in FIG. 21, the
体験分類選択部71は、スコアテーブル記憶部65に記憶されているスコアテーブルを参照することによって、行動パラメータ正規化部61から供給された行動パラメータと、体験パラメータ生成部63から供給された行動パラメータに基づいてユーザの行動を分類し、分類結果を体験表現選択部72に出力する。分類結果は、大分類と小分類の組合せからなり、この組合せに応じて、文章が体験表現選択部72により選択される。
The experience
体験分類選択部71によるユーザの行動の分類の処理は、主に、大分類選択処理、小分類条件チェック処理、小分類選択処理の3つの処理からなる。
The process of classifying a user's action by the experience
大分類選択処理は、スコアテーブルに登録されている大分類を、登録されている順に1つずつ注目する処理である。それぞれの大分類には確率があらかじめ設定されており、100%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが100%の確率で行われ、50%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが50%の確率で行われる。 The major classification selection process is a process of paying attention to the major classifications registered in the score table one by one in the registered order. Each major category has a probability set in advance. For a major category for which a probability of 100% is set, the condition of the minor category set for it is checked with a probability of 100%, 50% For the large classification for which the probability is set, the condition of the small classification set for it is checked with a probability of 50%.
設定されている確率に応じて小分類の条件のチェックが行われる毎に、注目の対象となる大分類が切り換えられる。また、設定されている確率に応じて小分類の条件のチェックが行われない場合、注目の対象となる大分類は次の大分類に切り換えられる。 Each time the minor classification condition is checked according to the set probability, the major classification to be noticed is switched. In addition, when the check of the condition of the minor classification is not performed according to the set probability, the major classification to be noticed is switched to the next major classification.
小分類条件チェック処理は、1つの大分類に対して設定されている小分類の条件をチェックする処理である。1つの大分類に対して複数の小分類の条件が設定されている場合、条件のチェックは1つずつ順に行われる。それぞれの小分類の条件にも確率があらかじめ設定されており、100%の確率が設定されている小分類の条件については、そのチェックが100%の確率で行われ、50%の確率が設定されている小分類の条件については、そのチェックが50%の確率で行われる。 The minor classification condition check process is a process of checking the minor classification condition set for one major classification. When a plurality of minor classification conditions are set for one major classification, the conditions are checked one by one in order. Probabilities are also set in advance for each sub-classification condition. For sub-classification conditions for which a probability of 100% is set, the check is performed with a probability of 100% and a probability of 50% is set. The check is performed with a probability of 50% for the condition of the small classification.
小分類の条件のチェック時には、適宜、体験表現選択部72により選択される文章中の変数がセットされる。例えば、小分類の条件のチェックとして、日記(Blogなど)を付けはじめてからの経過日数のチェックが行われた場合、体験表現選択部72により選択される文章中に日数をあてはめる変数がある場合、チェックに用いられたものと同じ経過日数が体験分類選択部71から体験表現選択部72に通知され、文章中の変数に、チェックに用いられたものと同じ経過日数がセットされる。
When checking the sub-category conditions, variables in the text selected by the experience
小分類選択処理は、小分類条件チェック処理により、条件に一致すると判断した小分類を選択する処理である。小分類にも確率があらかじめ設定されており、100%の確率が設定されている小分類については、条件が一致すると判断された場合、その小分類は100%の確率で選択され、50%の確率が設定されている小分類については、条件が一致すると判断された場合、その小分類は50%の確率で選択される。 The small classification selection process is a process of selecting a small classification determined to match the condition by the small classification condition check process. Probabilities are also set in advance for the sub-classes. For sub-classes for which a probability of 100% is set, if it is determined that the conditions match, the sub-classes are selected with a probability of 100%, and 50% For a small category for which a probability is set, if it is determined that the conditions match, the small category is selected with a probability of 50%.
条件は一致するが、確率によって選択されなかった小分類はスキップされ、同じ大分類に属する次の小分類の条件のチェックなどが行われる。また、大分類選択処理によって選択された1つの大分類に属する全ての小分類が選択されなかった場合、次の大分類を選択するか否かを判断することが大分類選択処理によって行われる。 The minor classifications that match the conditions but are not selected according to the probability are skipped, and the condition of the next minor classification belonging to the same major classification is checked. Further, when all the small categories belonging to one major category selected by the major category selection process are not selected, it is determined by the major category selection process whether or not the next major category is selected.
小分類選択処理によって選択された小分類は、それが属する大分類とともに、体験表現選択部72に通知される。
The small classification selected by the small classification selection process is notified to the experience
図22は、スコアテーブル記憶部65に記憶されているスコアテーブルの例を示す図である。
FIG. 22 is a diagram illustrating an example of a score table stored in the score
図22に示されるように、1つの大分類には複数の小分類が属しており、それぞれの大分類とそれぞれの小分類には確率が設定されている。図22の右端に示される小分類選択確率が、小分類を選択するか否かを判断する基準となる確率である。それぞれの小分類には小分類選択条件も設定されている。 As shown in FIG. 22, a plurality of small classifications belong to one large classification, and a probability is set for each large classification and each small classification. The small category selection probability shown at the right end of FIG. 22 is a probability serving as a reference for determining whether or not to select a small category. A small category selection condition is also set for each small category.
それぞれの小分類に設定されている小分類最大確率は、小分類選択確率の最大確率であり、その隣に示される減算、増分の確率に応じて、更新部73により更新される。
The maximum minor classification probability set for each minor classification is the maximum probability of the minor classification selection probability, and is updated by the updating
図22の例においては、大分類として「記念日ネタ」、「曜日」、「行動パラメータ」、「体験パラメータ」が示されており、それぞれの確率は、100%,100%,50%,50%とされている。 In the example of FIG. 22, “anniversary news item”, “day of the week”, “behavior parameter”, and “experience parameter” are shown as major classifications, and the respective probabilities are 100%, 100%, 50%, 50 %.
100%の確率が設定されている「記念日ネタ」と「曜日」の大分類は大分類選択処理において100%の確率で選択され、それに属する小分類の条件をチェックする処理が行われる。また、50%の確率が設定されている「行動パラメータ」と「体験パラメータ」の大分類は大分類選択処理において50%の確率で選択され、確率に応じて選択されたときだけ、それに属する小分類の条件をチェックする処理が行われる。 The major classification of “anniversary news item” and “day of the week” for which the probability of 100% is set is selected with a probability of 100% in the major classification selection process, and the process of checking the conditions of the minor classification belonging to it is performed. In addition, the major categories of “behavior parameter” and “experience parameter” for which a probability of 50% is set are selected with a probability of 50% in the major category selection process, and only when selected according to the probability, Processing for checking the classification condition is performed.
図22の例においては、大分類「記念日ネタ」には「日記開始日」と「100日毎」の小分類が属しており、それぞれ100%の小分類選択確率が設定されている。すなわち、条件が一致する場合、「日記開始日」と「100日毎」は、100%の確率で選択される小分類とされている。「日記開始日」の選択条件は「日記の開始日」であり、「100日毎」の選択条件は「100日経過毎」である。 In the example of FIG. 22, the small classification “diary start date” and “every 100 days” belong to the large classification “anniversary news item”, and a small classification selection probability of 100% is set for each. In other words, when the conditions match, “diary start date” and “every 100 days” are sub-categories selected with a probability of 100%. The selection condition for “diary start date” is “diary start date”, and the selection condition for “every 100 days” is “every 100 days have elapsed”.
従って、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「日記開始日」である場合、大分類「記念日ネタ」に属する「日記開始日」の小分類は、その条件が一致すると判断され、100%の確率で、小分類選択処理によって選択される。このとき、大分類「記念日ネタ」と小分類「日記開始日」の組合せが、体験表現選択部72に出力される。
Therefore, when the behavior parameter is supplied from the behavior
同様に、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、日記の開始日から「100日毎」の日にあたる場合、大分類「記念日ネタ」に属する「100日毎」の小分類は、その条件が一致すると判断され、100%の確率で、小分類選択処理によって選択される。このとき、大分類「記念日ネタ」と小分類「100日毎」の組合せが、体験表現選択部72に出力される。体験表現選択部72においては、日付も管理されている。
Similarly, when the behavior parameter is supplied from the behavior
また、図22の例においては、大分類「曜日」には「平日」と「休日」の小分類が属しており、それぞれ50%の小分類選択確率が設定されている。「平日」の選択条件は「平日」であり、「休日」の選択条件は「休日」である。 In the example of FIG. 22, the major category “day of the week” belongs to the minor categories “weekday” and “holiday”, and the minor category selection probability of 50% is set for each. The selection condition for “weekdays” is “weekdays”, and the selection condition for “holidays” is “holiday”.
従って、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「平日」である場合、大分類「記念日ネタ」に属する「平日」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「平日」の小分類が選択されたとき、大分類「記念日ネタ」と小分類「平日」の組合せが、体験表現選択部72に出力される。
Accordingly, when the behavior parameter is supplied from the behavior
同様に、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「休日」である場合、大分類「記念日ネタ」に属する「休日」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「休日」の小分類が選択されたとき、大分類「記念日ネタ」と小分類「休日」の組合せが、体験表現選択部72に出力される。
Similarly, when the behavior parameter is supplied from the behavior
さらに、図22の例においては、大分類「行動パラメータ」には「歩数」と「運動カロリー」の小分類が属しており、「歩数」の小分類には35%の小分類選択確率が設定され、「運動カロリー」の小分類には50%の小分類選択確率が設定されている。「歩数」の選択条件は「歩数が閾値を超えた場合」であり、「運動カロリー」の選択条件は「運動カロリーが閾値を超えた場合」である。 Further, in the example of FIG. 22, a small classification of “steps” and “exercise calories” belongs to the large classification “behavior parameter”, and a small classification selection probability of 35% is set to the small classification of “steps”. The subcategory selection probability of 50% is set in the subcategory of “exercise calories”. The selection condition for “number of steps” is “when the number of steps exceeds a threshold”, and the selection condition for “exercise calories” is “when exercise calories exceed a threshold”.
従って、50%の確率を考慮した上で「行動パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、行動パラメータ正規化部61から供給された行動パラメータにより表される「歩数」が閾値を超えている場合、大分類「行動パラメータ」に属する「歩数」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「歩数」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「歩数」の組合せが、体験表現選択部72に出力される。
Therefore, when the large classification of “behavior parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to it is performed, and the behavior parameter supplied from the behavior
同様に、50%の確率を考慮した上で「行動パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、行動パラメータ正規化部61から供給された行動パラメータにより表される「運動カロリー」が閾値を超えている場合、大分類「行動パラメータ」に属する「運動カロリー」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「運動カロリー」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「運動カロリー」の組合せが、体験表現選択部72に出力される。
Similarly, when the large classification of “behavior parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to it is performed, and the action supplied from the action
図22の例においては、大分類「体験パラメータ」には「すたすた度1」、「すたすた度2」、「ぶらぶら度1」の小分類が属しており、「すたすた度1」の小分類と「すたすた度2」の小分類には35%の小分類選択確率が設定され、「ぶらぶら度1」の小分類には50%の小分類選択確率が設定されている。「すたすた度1」の選択条件は「すたすた度が閾値*を超えた場合」であり、「すたすた度2」の選択条件は「すたすた度が*以上、以*内の場合」である。「ぶらぶら度1」の選択条件は「ぶらぶら度が閾値*を超えた場合」である。
In the example of FIG. 22, the large classification “experience parameter” belongs to the small classifications “Studying
従って、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「すたすた度」が閾値を超えている場合、大分類「行動パラメータ」に属する「すたすた度1」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「すたすた度1」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「すたすた度1」の組合せが、体験表現選択部72に出力される。
Therefore, when the large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to the large classification is performed, and the experience parameter supplied from the experience
また、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「すたすた度」が*以上*以内の場合、大分類「行動パラメータ」に属する「すたすた度2」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「すたすた度2」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「すたすた度2」の組合せが、体験表現選択部72に出力される。
In addition, when a large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking a condition of a small classification belonging to the large classification is performed, and the experience parameter supplied from the experience
同様に、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「ぶらぶら度」が閾値を超えた場合、大分類「行動パラメータ」に属する「ぶらぶら度1」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「ぶらぶら度1」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「ぶらぶら度1」の組合せが、体験表現選択部72に出力される。
Similarly, when the large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to the large classification is performed, and the experiential parameter supplied from the experiential
このように、スコアテーブル記憶部65に記憶されるスコアテーブルに基づいて、文章を選択する元になる大分類と小分類の組合せが体験分類選択部71により選択される。
As described above, based on the score table stored in the score
図21の説明に戻り、体験表現選択部72は、体験表現辞書記憶部23に記憶されている体験表現辞書を参照することによって、体験分類選択部71による分類の結果に基づいて文章を選択し、選択した文章を更新部73と表示データ生成部74に出力する。
Returning to the description of FIG. 21, the experience
図23は、体験表現辞書記憶部23に記憶されている体験表現辞書の例を示す図である。
FIG. 23 is a diagram illustrating an example of the experience expression dictionary stored in the experience expression
図23に示されるように、体験表示辞書は、体験分類と文章(テキストデータ)を対応付けるテーブルである。なお、ここでは、体験分類と文章を対応付けるものとして説明するが、これに限らず、アイコンやアニメーションなどの画像情報(画像データ)、および音声情報(音声データ)を対応付けることもできる。 As shown in FIG. 23, the experience display dictionary is a table that associates experience classifications with sentences (text data). Here, the description is made on the assumption that the experience classification and the text are associated with each other. However, the present invention is not limited to this, and image information (image data) such as icons and animations and audio information (audio data) can also be associated.
図23の例においては、大分類「時間ネタ」、小分類「日記開始日」が、「今日から日記をつけるよ。」の文章と、「日記を書こうぜ。」の文章に対応付けられている。また、大分類「時間ネタ」、小分類「日記開始日」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。 In the example of FIG. 23, the major classification “time story” and the minor classification “diary start date” are associated with the sentence “I will add a diary from today” and the sentence “I will write a diary”. Yes. “Random” is set as the selection policy for the sentences associated with the major classification “time news” and the minor classification “diary start date”.
すなわち、体験分類選択部71により大分類が「時間ネタ」として選択され、小分類が「日記開始日」として選択された場合、「今日から日記をつけるよ。」の文章と、「日記を書こうぜ。」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。
That is, when the major classification is selected as “time news” and the minor classification is selected as “diary start date” by the experience
図23の例においては、「今日から日記をつけるよ。」の文章には、選択済みの回数として「1」が設定されており、過去に、「今日から日記をつけるよ。」の文章が1回だけ選択されたものとされている。文章の選択には、このような選択済みの回数も適宜考慮され、過去に選択されていない文章が優先的に選択される。大分類と小分類の1つの組合せに多くの文章が対応付けられ、さらに、選択済みの回数が考慮されることにより、選択される文章が同じようなものになってしまうのを防ぐことができる。 In the example of FIG. 23, “1” is set as the number of selected times in the sentence “I will add a diary from today.”, And the sentence “I will add a diary from today.” It is assumed that it has been selected only once. In selecting a sentence, such a selected number of times is also considered as appropriate, and a sentence that has not been selected in the past is preferentially selected. Many sentences are associated with one combination of the large classification and the small classification, and further, the number of selected times is taken into consideration, thereby preventing the selected sentences from being similar. .
図23の例においては、大分類「時間ネタ」、小分類「100日毎」が、「今日で日記を付けはじめて**日経しました。」の文章と、「もう**日経ったんだ。」の文章に対応付けられている。また、大分類「時間ネタ」、小分類「100日毎」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。 In the example of FIG. 23, the major classification “time story” and the minor classification “every 100 days” include the sentence “It has started ** days since we started adding a diary today” and “It has already passed ** days.” Is associated with the sentence. Also, “random” is set as the selection policy for the sentences associated with the major classification “time news” and minor classification “every 100 days”.
体験分類選択部71により大分類が「時間ネタ」として選択され、小分類が「100日毎」として選択された場合、「今日で日記を付けはじめて**日経しました。」の文章と、「もう**日経ったんだ。」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。「もう**日経ったんだ。」の文章には、選択済みの回数として「1」が設定されている。
When the major category is selected as “time news” and the minor category is selected as “every 100 days” by the experience
同様に、図23の例においては、大分類「体験パラメータ」、小分類「すたすた度1」が、「今日はお仕事だったの?」の文章と、「今日はいつもの所にいってきたの?」の文章と、「今日はなんだか忙しかったね?」の文章に対応付けられている。また、大分類「体験パラメータ」、小分類「すたすた度1」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。
Similarly, in the example of FIG. 23, the major classification “experience parameter” and the minor classification “Studying
体験分類選択部71により大分類が「体験パラメータ」として選択され、小分類が「すたすた度1」として選択された場合、「今日はお仕事だったの?」の文章と、「今日はいつもの所にいってきたの?」の文章と、「今日はなんだか忙しかったね?」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。「今日はお仕事だったの?」の文章には、選択済みの回数として「1」が設定されている。
When the major category is selected as the “experience parameter” by the experience
体験表現辞書には、それぞれの大分類と小分類の組合せに対して、このように複数の文章が対応付けられており、体験分類選択部71による分類結果に応じた文章が体験表現選択部72により選択される。
In the experience expression dictionary, a plurality of sentences are associated with each combination of the major classification and the minor classification in this way, and sentences according to the classification result by the experience
体験表現選択部72は、以上のようにして選択した文章を体験分類選択部71、更新部73、および表示データ生成部74に出力する。
The experience
更新部73は、体験表現選択部72により選択された文章に応じて、スコアテーブル記憶部65に記憶されているスコアテーブルと体験表現辞書記憶部23に記憶されている体験表現辞書を更新する。
The
例えば、更新部73は、図22を参照して説明したような、小分類を選択する基準となる小分類選択確率を、小分類に設定されている小分類最大確率を超えない範囲で、減算、増分として設定されている確率に応じて更新する。また、更新部73は、図23を参照して説明したような選択済みの回数を、体験表現選択部72により選択された文章に応じて更新し、同じ文章が繰り返し選択されないようにする。
For example, the
表示データ生成部74は、体験表現選択部72により選択された文章を表示するための表示データを生成し、生成した表示データをサーバ2に送信したり、表示装置24に出力したりする。サーバ2に文章を送信するとき、携帯電話機1のユーザの識別情報なども文章とともに送信され、携帯電話機1のユーザが開設しているBlogやSNSに登録される。表示データ生成部74による文章や識別情報の送信と、上述した体験パラメータ生成部63による体験パラメータの送信は例えば同時に行われ、体験パラメータも、文章にあわせてBlogやSNSに登録される。
The display data generation unit 74 generates display data for displaying the text selected by the experience
表示データ生成部74から表示装置24に対して表示データが出力されるときも同様に、その出力は、体験パラメータ生成部63による体験パラメータの出力と同時に行われる。表示装置24においては、表示データ生成部74から供給された文章と、体験パラメータ生成部63から供給された体験パラメータに基づいて画面表示が行われる。
Similarly, when the display data is output from the display data generation unit 74 to the
図24は、表示装置24に表示される画面の例を示す図である。
FIG. 24 is a diagram illustrating an example of a screen displayed on the
図24の例においては、画面の上方に「hogeの日記 2005年11月12日(土)」と表示されており、図24に示される画面が、ユーザ「hoge」による「2005年11月12日」の行動に基づいて表示された画面とされている。 In the example of FIG. 24, “hoge diary November 12, 2005 (Sat)” is displayed at the top of the screen, and the screen shown in FIG. 24 is displayed by the user “hoge” “November 12, 2005”. The screen is displayed based on the “day” action.
日付などの下に画像Pとして表示されるキャラクタのポーズは、例えば、体験パラメータ生成部63により生成された体験パラメータを組み合わされることによって選択されたポーズであり、ユーザ「hoge」の状態を表す。
The pose of the character displayed as the image P under the date or the like is, for example, a pose selected by combining the experience parameters generated by the experience
画像Pの右側に示される「はつらつ度」、「のんびり度」、「すたすた度」、「ぶらぶら度」の星の数は、体験パラメータ生成部63により生成された「はつらつ度」、「のんびり度」、「すたすた度」、「ぶらぶら度」のそれぞれの体験パラメータの値に基づいて選択され、表示されるものである。
The number of stars of “Hatsutsu degree”, “Leased degree”, “Studying degree”, and “Hanging degree” shown on the right side of the image P is “Hatsu degree”, “Leased degree” generated by the experience
「ぶらぶら度」の下に表示される「歩数:2110歩」、「消費カロリー:35.0カロリー」、「歩行ピッチ:2.05歩/秒」は、体験パラメータ生成部63から体験パラメータとともに供給された、正規化された行動パラメータに基づいて表示されるものである。
“Steps: 2110 steps”, “Calories consumed: 35.0 calories”, and “Walking pitch: 2.05 steps / second” displayed under “Stillness” are supplied from the experience
「歩行ピッチ」などの下に表示される「今日はお買い物?それともお掃除?いっぱいしたね。今日はあまり歩かなかったね...」の文章は、体験表現選択部72により選択された文章の羅列である。
The text “Today's shopping or cleaning? I did not walk too much ...” displayed under “Walking Pitch” etc. is a list of sentences selected by the experience
このように、携帯電話機1のユーザは、1日の行動を表す文章を自ら入力することなく、「今日はあまり歩かなかったね」などの、自分の行動に関する文章を記録することができる。また、表示される文章は、歩数、歩いた場所などのリストが単に表示される場合に較べてエンターテインメント性のある文章であるため、より面白みのある文章を記録することができる。
In this manner, the user of the
なお、図24に示されるような画面と同じ画面が携帯電話機1のユーザのBlogやSNSとしてサーバ2においても管理される。パーソナルコンピュータ3のユーザは、サーバ2にアクセスすることによって、図24に示されるような画面から、携帯電話機1のユーザの1日の行動などを閲覧することができる。
Note that the same screen as that shown in FIG. 24 is also managed in the
ここで、以上のような構成を有する携帯電話機1の一連の処理についてフローチャートを参照して説明する。
Here, a series of processes of the
はじめに、図25のフローチャートを参照して、行動パラメータを生成する携帯電話機1の処理について説明する。
First, with reference to the flowchart of FIG. 25, the process of the
ステップS1において、携帯電話機1の行動パラメータ抽出・行動認識部21は、加速度センサ11、ジャイロセンサ12から供給されたセンサデータに基づいて、例えば歩行ピッチ、歩行パワー、重力軸まわりの回転角を求め、求めたそれらの情報から、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を、行動パラメータとして抽出する。行動パラメータを抽出する処理は、例えば、ユーザ名やユーザIDが入力され、携帯電話機1による行動の認識を開始することがユーザにより指示されたときに開始される。
In step S1, the behavior parameter extraction /
また、行動パラメータ抽出・行動認識部21は、センサデータに基づいて求められた歩行ピッチ、歩行パワー、重力軸まわりの回転角に基づいて、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかをHMMなどを用いることによってユーザの行動として認識し、それぞれの行動の時間、割合、回数、継続時間などの情報も、行動パラメータとして抽出する。
In addition, the behavior parameter extraction /
行動パラメータを抽出する処理は、例えば、ユーザが1日の携帯電話機1の使用を終えるまで、あるいは、あらかじめ決められた時刻(例えば、平均的な帰宅時刻や就寝時刻など)まで繰り返し行われる。
The process of extracting the behavior parameter is repeatedly performed until, for example, the user finishes using the
ステップS2において、行動パラメータ抽出・行動認識部21は、抽出した行動パラメータが記述された例えばXML形式の行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22に出力する。行動パラメータ抽出・行動認識部21により生成された行動パラメータファイルは、ユーザの1日の行動を表すものとなる。
In step S <b> 2, the behavior parameter extraction /
次に、図26のフローチャートを参照して、行動パラメータファイルに記述される行動パラメータに基づいて、ユーザの体験表現としての文章を生成する携帯電話機1の処理について説明する。
Next, with reference to the flowchart of FIG. 26, the process of the
この処理は、例えば、図25の処理が行われ、行動パラメータ抽出・行動認識部21から体験表現生成部22に行動パラメータファイルが供給されたときに行われる。
This process is performed, for example, when the process of FIG. 25 is performed and the behavior parameter file is supplied from the behavior parameter extraction /
ステップS11において、体験表現生成部22は、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルを読み込む。行動パラメータファイルが読み込まれたとき、体験表現生成部22の行動パラメータ正規化部61においては、行動パラメータファイルに記述される各種の行動パラメータの正規化が行われ、正規化して得られた行動パラメータが体験パラメータ生成部63と体験分類部64に出力される。
In step S <b> 11, the experience
ステップS12において、体験表現生成部22の体験パラメータ生成部63は、行動パラメータ正規化部61から供給された行動パラメータのいくつかを組み合わせるなどして体験パラメータを生成し、生成した体験パラメータを体験分類部64に出力する。また、体験パラメータ生成部63は、生成した体験パラメータを、行動パラメータ正規化部61から供給された行動パラメータとともに表示装置24に出力する。
In step S <b> 12, the experience
ステップS13において、体験表現生成部22の体験分類部64は、行動パラメータ正規化部61から供給された行動パラメータ、体験パラメータ生成部63から供給された体験パラメータ等に基づいて体験分類・体験表現生成処理を行う。ここでは、図21乃至図23を参照して説明したようにして、大分類と小分類の組合せが選択され、選択された組合せに応じて文章が選択される。体験分類・体験表現生成処理の詳細については図27のフローチャートを参照して後述する。
In step S13, the
ステップS14において、例えば、表示装置24は、体験表現生成部22の体験パラメータ生成部63から供給された行動パラメータと体験パラメータ、体験分類部64により選択された文章に基づいて、ユーザの体験表現としての図24に示されるような画面を表示し、処理を終了させる。
In step S14, for example, the
次に、図27のフローチャートを参照して、図26のステップS13において行われる体験分類・体験表現生成処理について説明する。 Next, the experience classification / experience expression generation process performed in step S13 of FIG. 26 will be described with reference to the flowchart of FIG.
ステップS21において、体験分類選択部71は、例えば図22に示したスコアテーブルに登録されている大分類を、登録されている順に1つ選択して確率をチェックする。100%の確率が設定されている大分類は、それに設定されている小分類の条件のチェックが100%の確率で行われるため、ステップS22に進む。50%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが50%の確率で行われる。つまり、ステップS21において、確率により選択しない場合には、次の大分類が選択される。
In step S21, the experience
ステップS22において、体験分類選択部71は、ステップS21の処理で選択された大分類に対して設定されている小分類の条件を順番にチェックする。チェックの結果、条件が一致しない場合には、次の小分類の条件がチェックされる。また、条件に一致する小分類がない場合には、ステップS21に戻り、次の大分類が選択される。
In step S <b> 22, the experience
ステップS22において、条件に一致する小分類がある場合には、ステップS23に進み、体験分類選択部71は、条件に一致すると判断した小分類を現在の選択確率で選択するか否かを判断する。条件に一致するが現在の選択確率で選択されなかった場合には、ステップS22に戻り、次の小分類の条件がチェックされる。またどの小分類も選択されなかった場合には、ステップS21に戻り、次の大分類が選択される。
In step S22, when there is a small classification that matches the condition, the process proceeds to step S23, and the experience
ステップS23において、体験分類選択部71は、条件に一致し現在の選択確率で選択すると判断した場合には、大分類と小分類の組合せを体験表現選択部72に出力し、ステップS24に進む。
In step S23, when it is determined that the experience
ステップS24において、体験表現選択部72は、体験表現辞書記憶部23に記憶されている体験表現辞書を参照することによって、ステップS23の処理で体験分類選択部71から通知された大分類と小分類の組合せに基づいて体験表現(テキストデータ)をランダムにまたはシーケンシャルに選択する。体験表現が選択されなかった場合には、ステップS22に戻り、次の小分類の条件がチェックされる。
In step S24, the experience
ステップS24の処理で体験表現が選択された後、ステップS25において、更新部73は、体験表現選択部72により選択された文章に応じて、スコアテーブル記憶部65に記憶されているスコアテーブルと体験表現辞書記憶部23に記憶されている体験表現辞書を更新する。
After the experience expression is selected in the process of step S24, in step S25, the
ステップS25において、表示データ生成部74は、体験表現選択部72により選択された文章を表示するための表示データを生成する。その後、処理は、図26のステップS14にリターンされる。これにより、体験パラメータ生成部63により生成された行動パラメータと体験パラメータ、表示データ生成部74により生成された表示データに基づいて、ユーザの体験表現としての図24に示されるような画面が表示される。
In step S <b> 25, the display data generation unit 74 generates display data for displaying the text selected by the experience
以上においては、ユーザの行動をセンサの出力に基づいて認識し、行動パラメータファイルを生成することから、ユーザの体験を表す文章を選択して画面表示を行うための表示データを生成するまでの全ての処理が携帯電話機1において行われるものとしたが、一部の処理までが携帯電話機1により行われ、携帯電話機1により行われた処理に続く処理は、サーバ2などの他の機器において行われるようにすることも可能である。
In the above, everything from recognizing the user's behavior based on the output of the sensor and generating a behavior parameter file to generating display data for selecting a sentence representing the user's experience and performing screen display However, a part of the processing is performed by the
図28は、携帯電話機1の他の構成例を示すブロック図である。
FIG. 28 is a block diagram illustrating another configuration example of the
図28に示される携帯電話機1においては、例えば、行動パラメータファイルの生成までが行われ、携帯電話機1により生成された行動パラメータファイルに基づいてユーザの体験の分類を行い、文章を選択する処理などについてはサーバ2により行われるようになされている。すなわち、携帯電話機1においては図5の行動パラメータ抽出・行動認識部21が実現され、体験表現生成部22はサーバ2により実現されることになる。
In the
図28のプロセッサ13は、加速度センサ11、ジャイロセンサ12からの出力に基づいて、上述した図4の構成を有する携帯電話機1と同様に行動パラメータファイルを生成し、生成した行動パラメータファイルを内蔵するストレージ91に記憶させる。ストレージ91に記憶された行動パラメータファイルは所定のタイミングでサーバ2により読み込まれ、サーバ2により、ユーザの体験の分類や、文章の選択などが行われる。図24に示されるような画面はサーバ2により管理され、他のユーザに公開される。
The
図29は、携帯電話機1のさらに他の構成例を示すブロック図である。
FIG. 29 is a block diagram showing still another configuration example of the
図28に示される携帯電話機1においては、例えば、加速度センサ11、ジャイロセンサ12の出力を取得する処理までが行われ、携帯電話機1により取得されたセンサデータに基づいて行動パラメータファイルを生成する処理や、ユーザの体験の分類を行い、文章を選択する処理などについてはサーバ2により行われるようになされている。すなわち、図5の行動パラメータ抽出・行動認識部21と体験表現生成部22がサーバ2により実現されることになる。
In the
図29のストレージ91は、加速度センサ11、ジャイロセンサ12からの出力であるセンサデータを例えば時系列順に記憶する。ストレージ91に記憶されたセンサデータは所定のタイミングでサーバ2により読み込まれ、サーバ2により、行動パラメータファイルの生成、ユーザの体験の分類、文章の選択などが行われる。図24に示されるような画面はサーバ2により管理され、他のユーザに公開される。
The
このように、ユーザが携帯する機器に一部の機能だけを搭載し、他の機器において、ユーザが携帯する機器により集められた情報に基づく行動パラメータファイルの生成などが行われるようにしてもよい。 In this way, only a part of the functions may be mounted on the device carried by the user, and the behavior parameter file may be generated based on the information collected by the device carried by the user in the other device. .
以上においては、センサデータに基づいて認識されるユーザの行動パラメータや日付に関する情報(記念日や曜日など)をテキスト情報と対応付けて記憶させるようにしたが、さらに、温度や湿度、あるいは天気情報などもテキスト情報と対応付けて記憶させておくようにしてもよい。 In the above, user behavior parameters recognized based on sensor data and information on dates (anniversaries, days of the week, etc.) are stored in association with text information. However, temperature, humidity, or weather information is also stored. May be stored in association with the text information.
また行動の認識にはHMMが用いられるものとしたが、例えば時系列データを対象とするパターン認識の他のアルゴリズムを用いて判別が行われるようにしてもよい。そのようなアルゴリズムとしては、例えば、ビタビアルゴリズムやニューラルネットワークなどがある。 In addition, although the HMM is used for the action recognition, the determination may be performed using another algorithm for pattern recognition for time series data, for example. Examples of such an algorithm include a Viterbi algorithm and a neural network.
さらに加速度センサ11およびジャイロセンサ12が用いられるものとしたが、必ずしも両方が必要とされるものではなく、一方だけが用いられるようにしてもよい。加速度センサ11のみが用いられる場合、歩行ピッチおよび歩数が検出され、検出されたセンサデータに基づいて「歩き」、「走り」、および「静止」が認識される。ジャイロセンサ12のみが用いられる場合、歩行ピッチおよび歩数が検出され、検出されたセンサデータに基づいて「歩き」、「走り」、および「静止」が認識される。
Further, although the
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図30は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。 FIG. 30 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program.
CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a
CPU201にはまた、バス204を介して入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
An input /
入出力インターフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
入出力インターフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図30に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 30, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 211 that is a package medium made of a semiconductor memory, a
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
1 携帯電話機, 2 サーバ, 21 行動パラメータ抽出・行動認識部, 22 体験表現生成部, 23 体験表現辞書記憶部, 24 表示装置
DESCRIPTION OF
Claims (8)
前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段と
を備える情報処理装置。 Storage means for recognizing an action parameter, which is information related to a user's action, recognized based on the output of the sensor, and text information;
When the behavior parameter extracted by the extraction unit matches a predetermined condition, the text information corresponding to the behavior parameter extracted by the extraction unit is selected from the text information stored by the storage unit And an information processing apparatus.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a generation unit configured to generate the behavior parameter by combining a plurality of parameters of the sensor output.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a normalizing unit that normalizes the behavior parameter.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a generation unit configured to generate an experience parameter that represents a degree of user behavior by combining a plurality of the behavior parameters.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the selection unit preferentially selects unselected text information from text information.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the storage unit further stores information related to a date and the text data in association with each other.
抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択する
ステップを含む情報処理方法。 A behavior parameter, which is information related to the user's behavior, recognized based on the output of the sensor, and text information are stored in association with each other,
An information processing method including a step of selecting text information corresponding to the extracted behavior parameter from the stored text information when the extracted behavior parameter meets a predetermined condition.
抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択する
ステップを含む処理をコンピュータに実行させるプログラム。 A behavior parameter, which is information related to the user's behavior, recognized based on the output of the sensor, and text information are stored in association with each other,
A program for causing a computer to execute a process including a step of selecting text information corresponding to an extracted behavior parameter from stored text information when the extracted behavior parameter matches a predetermined condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169647A JP5041202B2 (en) | 2006-06-20 | 2006-06-20 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169647A JP5041202B2 (en) | 2006-06-20 | 2006-06-20 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008003655A true JP2008003655A (en) | 2008-01-10 |
JP5041202B2 JP5041202B2 (en) | 2012-10-03 |
Family
ID=39008005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006169647A Expired - Fee Related JP5041202B2 (en) | 2006-06-20 | 2006-06-20 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5041202B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012505478A (en) * | 2008-10-08 | 2012-03-01 | ディーピー テクノロジーズ インコーポレイテッド | Method and system for waking up a device based on movement |
WO2012132643A1 (en) * | 2011-03-31 | 2012-10-04 | ソニー株式会社 | Information processing device, information processing method, programme, and recording medium |
US8438127B2 (en) | 2009-10-02 | 2013-05-07 | Sony Corporation | Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program |
WO2013065519A1 (en) | 2011-10-31 | 2013-05-10 | ソニー株式会社 | Power generation control system, power generation control program, and electronic device |
US8508536B2 (en) | 2008-12-05 | 2013-08-13 | Sony Corporation | Information processing apparatus and information processing method |
JP2015036836A (en) * | 2013-08-12 | 2015-02-23 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US8981941B2 (en) | 2012-06-01 | 2015-03-17 | Sony Corporation | Information processing apparatus, information processing method and program |
US9135368B2 (en) | 2012-06-13 | 2015-09-15 | Sony Corporation | Information processing apparatus, information processing method and program |
US9369535B2 (en) | 2012-06-01 | 2016-06-14 | Sony Corporation | Information processing apparatus, information processing method and program |
JP2016157487A (en) * | 2016-05-26 | 2016-09-01 | ソニー株式会社 | Computer program, information processing apparatus, and information processing method |
US10311303B2 (en) | 2014-05-22 | 2019-06-04 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10460291B2 (en) | 2011-10-13 | 2019-10-29 | Sony Corporation | Information processing apparatus, information processing method, and computer program for scheduling activities modelled from activities of third parties |
US10740057B2 (en) | 2011-06-13 | 2020-08-11 | Sony Corporation | Information processing device, information processing method, and computer program |
JP6883370B1 (en) * | 2020-09-25 | 2021-06-09 | 株式会社ライフクエスト | Diary generator, diary generator, diary generator, and program |
US11366954B2 (en) | 2017-02-16 | 2022-06-21 | Hitachi, Ltd. | Text preparation apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002141841A (en) * | 2000-10-31 | 2002-05-17 | Toshiba Corp | Head-mounted information processor |
JP2002215611A (en) * | 2001-01-16 | 2002-08-02 | Matsushita Electric Ind Co Ltd | Diary making support device |
JP2003296782A (en) * | 2002-03-29 | 2003-10-17 | Casio Comput Co Ltd | Device and program for recording action |
-
2006
- 2006-06-20 JP JP2006169647A patent/JP5041202B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002141841A (en) * | 2000-10-31 | 2002-05-17 | Toshiba Corp | Head-mounted information processor |
JP2002215611A (en) * | 2001-01-16 | 2002-08-02 | Matsushita Electric Ind Co Ltd | Diary making support device |
JP2003296782A (en) * | 2002-03-29 | 2003-10-17 | Casio Comput Co Ltd | Device and program for recording action |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012505478A (en) * | 2008-10-08 | 2012-03-01 | ディーピー テクノロジーズ インコーポレイテッド | Method and system for waking up a device based on movement |
US8508536B2 (en) | 2008-12-05 | 2013-08-13 | Sony Corporation | Information processing apparatus and information processing method |
US9189136B2 (en) | 2008-12-05 | 2015-11-17 | Sony Corporation | Information processing apparatus and information processing method |
US8438127B2 (en) | 2009-10-02 | 2013-05-07 | Sony Corporation | Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program |
WO2012132643A1 (en) * | 2011-03-31 | 2012-10-04 | ソニー株式会社 | Information processing device, information processing method, programme, and recording medium |
JP2012212364A (en) * | 2011-03-31 | 2012-11-01 | Sony Corp | Information processor, information processing method, program, and recording medium |
US10740057B2 (en) | 2011-06-13 | 2020-08-11 | Sony Corporation | Information processing device, information processing method, and computer program |
US10460291B2 (en) | 2011-10-13 | 2019-10-29 | Sony Corporation | Information processing apparatus, information processing method, and computer program for scheduling activities modelled from activities of third parties |
WO2013065519A1 (en) | 2011-10-31 | 2013-05-10 | ソニー株式会社 | Power generation control system, power generation control program, and electronic device |
US8981941B2 (en) | 2012-06-01 | 2015-03-17 | Sony Corporation | Information processing apparatus, information processing method and program |
US9369535B2 (en) | 2012-06-01 | 2016-06-14 | Sony Corporation | Information processing apparatus, information processing method and program |
US11017660B2 (en) | 2012-06-01 | 2021-05-25 | Sony Corporation | Information processing apparatus, information processing method and program |
US10586445B2 (en) | 2012-06-01 | 2020-03-10 | Sony Corporation | Information processing apparatus for controlling to execute a job used for manufacturing a product |
US9619998B2 (en) | 2012-06-01 | 2017-04-11 | Sony Corporation | Information processing apparatus, information processing method and program |
US9978259B2 (en) | 2012-06-01 | 2018-05-22 | Sony Corporation | Information processing apparatus, information processing method and program |
US10217351B2 (en) | 2012-06-01 | 2019-02-26 | Sony Corporation | Information processing apparatus, information processing method and program |
US9135368B2 (en) | 2012-06-13 | 2015-09-15 | Sony Corporation | Information processing apparatus, information processing method and program |
US9507840B2 (en) | 2012-06-13 | 2016-11-29 | Sony Corporation | Information processing apparatus, information processing method and program |
US10042943B2 (en) | 2012-06-13 | 2018-08-07 | Sony Corporation | Information processing apparatus, information processing method and program |
US10824687B2 (en) | 2012-06-13 | 2020-11-03 | Sony Corporation | Information processing apparatus, information processing method and program |
US10972562B2 (en) | 2013-08-12 | 2021-04-06 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10601935B2 (en) | 2013-08-12 | 2020-03-24 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2015036836A (en) * | 2013-08-12 | 2015-02-23 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
EP3591577A1 (en) | 2014-05-22 | 2020-01-08 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10853650B2 (en) | 2014-05-22 | 2020-12-01 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10311303B2 (en) | 2014-05-22 | 2019-06-04 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11244163B2 (en) | 2014-05-22 | 2022-02-08 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11763580B2 (en) | 2014-05-22 | 2023-09-19 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
JP2016157487A (en) * | 2016-05-26 | 2016-09-01 | ソニー株式会社 | Computer program, information processing apparatus, and information processing method |
US11366954B2 (en) | 2017-02-16 | 2022-06-21 | Hitachi, Ltd. | Text preparation apparatus |
JP6883370B1 (en) * | 2020-09-25 | 2021-06-09 | 株式会社ライフクエスト | Diary generator, diary generator, diary generator, and program |
WO2022064664A1 (en) * | 2020-09-25 | 2022-03-31 | 株式会社ライフクエスト | Diary generation device, diary generation system, diary generation method, and program |
JP2022054381A (en) * | 2020-09-25 | 2022-04-06 | 株式会社ライフクエスト | Diary generation device, diary generation system, diary generation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5041202B2 (en) | 2012-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5041202B2 (en) | Information processing apparatus, information processing method, and program | |
JP5935516B2 (en) | Information processing apparatus, information processing method, and program | |
CN103488666B (en) | Information processing equipment and method, electronic device and computer readable storage medium | |
Lu et al. | Soundsense: scalable sound sensing for people-centric applications on mobile phones | |
US9443202B2 (en) | Adaptation of context models | |
JP5768517B2 (en) | Information processing apparatus, information processing method, and program | |
JP5895716B2 (en) | Information processing apparatus, information processing method, and program | |
CN107209807B (en) | Wearable equipment of pain management | |
EP2819383A1 (en) | User activity tracking system and device | |
US10791072B2 (en) | Generating conversations for behavior encouragement | |
WO2015178078A1 (en) | Information processing device, information processing method, and program | |
US8626797B2 (en) | Information processing apparatus, text selection method, and program | |
CN107548474A (en) | The method, system and the medium that are used for environmental background noise modification based on mood and/or behavioural information | |
US20130346016A1 (en) | Information terminal, information providing server, and control program | |
CN107567619A (en) | Recommendation is provided based on the mood from multiple data sources and/or behavioural information | |
WO2018053133A1 (en) | Venue detection | |
JP2010286344A (en) | Method and system for estimating moving condition of portable terminal device | |
JPWO2013157332A1 (en) | Action identification device, action identification system, and action identification program | |
JP5549802B2 (en) | Mode identification device, mode identification method, and program | |
JP2010049374A (en) | Exhibition guidance system | |
JP6183489B2 (en) | Information processing system, information processing method, and program | |
CN110741439A (en) | Providing suggested behavior modifications for relevance | |
JP2010016444A (en) | Situation recognizing apparatus, situation recognizing method, and radio terminal apparatus | |
CN108877773B (en) | Voice recognition method and electronic equipment | |
JP2021124567A (en) | Estimation system and estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120614 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120627 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5041202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150720 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |