JP2008003655A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2008003655A
JP2008003655A JP2006169647A JP2006169647A JP2008003655A JP 2008003655 A JP2008003655 A JP 2008003655A JP 2006169647 A JP2006169647 A JP 2006169647A JP 2006169647 A JP2006169647 A JP 2006169647A JP 2008003655 A JP2008003655 A JP 2008003655A
Authority
JP
Japan
Prior art keywords
behavior
experience
user
unit
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006169647A
Other languages
Japanese (ja)
Other versions
JP5041202B2 (en
Inventor
Masatomo Kurata
雅友 倉田
Makoto Murata
誠 村田
Masayuki Ichihara
雅幸 一原
Junko Fukuda
純子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006169647A priority Critical patent/JP5041202B2/en
Publication of JP2008003655A publication Critical patent/JP2008003655A/en
Application granted granted Critical
Publication of JP5041202B2 publication Critical patent/JP5041202B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate, for example, an entertaining sentence automatically, in accordance with a user's behavior, without depending on the user's input. <P>SOLUTION: In the information processor, measurement by an acceleration sensor 11 and an inertial sensor 12 is repeated and, on the basis of a daily measurement result, for example, the number of steps, an average walking pace, the average number of turns, the average number of walks or stops of a user of a day, are obtained. A dictionary stored in an experience expression dictionary storage part 23 is referred to and sentences indicating the user's day's behaviors are generated according to the obtained number of steps, average walking pace, average number of turns, average number of average walks or stops, and the like, of the user. The experience expression dictionary storage part 23 stores a dictionary showing correlation between the sentences and the behaviors, the sentences having entertainment. Thus, the user can apply them to portable mobile equipment or the like. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program, and in particular, for example, it is possible to automatically generate, for example, an entertainment sentence corresponding to a user's action without depending on the user's input. The present invention relates to an information processing device, an information processing method, and a program.

今日、自分の行動を記録したり、自分の行動を特定多数、あるいは不特定多数の人に公開したりするためのツールとして、インターネットを利用したBlog(Weblog)やSNS(Social Network Service)などが一般化している。   Today, Internet-based Blog (Weblog), SNS (Social Network Service), etc. are tools for recording your actions and disclosing your actions to specific or unspecified people. Generalized.

図1はBlogの例を示す図であり、図1に示されるように、ユーザは、1日の自分の行動を日記風に文章として残しておいたり、撮影した画像を残しておいたりすることができる。   FIG. 1 is a diagram showing an example of a blog. As shown in FIG. 1, the user may leave his / her own action as a sentence in a diary or leave a photographed image. Can do.

特許文献1には、加速度センサの出力から得られた、歩く、走るなどのユーザの活動状況や、GPS(Global Positioning System)から取得されたユーザの位置など、複数のセンサ出力結果を組み合わせてユーザの行動履歴として記録する技術が開示されている。   In Patent Document 1, the user's activity status such as walking and running obtained from the output of the acceleration sensor, the position of the user acquired from GPS (Global Positioning System), etc., and a combination of a plurality of sensor output results are combined with the user. A technique for recording as an action history is disclosed.

特許文献2には、時間的な条件である静的条件と、ユーザの行動履歴である動的条件にしたがってストーリーを決定し、対応するテキストを順次選択して、ユーザの行動履歴を表現する漫画を自動生成する技術が開示されている。
特開2003−296782 特開2002−342764
Japanese Patent Laid-Open No. 2004-228688 determines a story according to a static condition that is a temporal condition and a dynamic condition that is a user's action history, sequentially selects the corresponding text, and expresses the user's action history. A technique for automatically generating the above is disclosed.
JP 2003-296882 JP-A-2002-342764

しかしながら、上述したようなBlogなどを毎日更新していくことは非常に面倒な作業であり、継続して更新することをあきらめてしまうユーザも少なくない。   However, it is very troublesome to update the above-mentioned Blog etc. every day, and there are not a few users who give up updating continuously.

従って、そのような負担を減らすために、特許文献1、特許文献2に開示されているような技術が各種提案されているものの、電波を受信して検出を行うGPSなどのセンサが設けられている点で装置が大掛かりであったり、使用するにあたりユーザに負担を強いるものもあったりして実用的ではないことが多い。   Therefore, in order to reduce such a burden, various technologies such as those disclosed in Patent Document 1 and Patent Document 2 have been proposed, but sensors such as GPS that receive and detect radio waves are provided. In many cases, it is not practical because the apparatus is large-scale and some users are burdened when used.

また、行動履歴の表現方法も、図2に示されるような形で、時刻、行動、場所がリスト化されたものであったりするなど、BlogやSNSで使うことを目的とした場合に、それに適していないものが多い。   Also, the action history is expressed in the form shown in Fig. 2, such as a list of times, actions, and places. Many are not suitable.

例えば、特許文献1に記載されている技術によれば、センサ出力に基づいてユーザの行動履歴のログをとることはできるものの、認識結果がそのまま記録・出力されるため、出力される情報はエンターテインメント性に欠けるものとなる。   For example, according to the technique described in Patent Document 1, although the user's behavior history can be logged based on the sensor output, since the recognition result is recorded and output as it is, the output information is entertainment. It will be lacking in nature.

また、特許文献2に記載されている技術においては、セリフなどの文章は主にユーザが入力した感想に基づいて決定されるため、感想の入力が煩雑である。   Moreover, in the technique described in Patent Document 2, sentences such as words are determined mainly based on the impressions input by the user, so that the input of the impressions is complicated.

本発明はこのような状況に鑑みてなされたものであり、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができるようにするものである。   The present invention has been made in view of such circumstances, and for example, it is possible to automatically generate, for example, an entertainment sentence corresponding to a user's action without depending on the user's input. is there.

本発明の一側面の情報処理装置は、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶する記憶手段と、前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段とを備える。   An information processing apparatus according to an aspect of the present invention includes a storage unit that recognizes a behavior parameter that is information related to a user's behavior and text information that is recognized based on an output of a sensor, and stores the text information in association with each other. Selection means for selecting text information corresponding to the behavior parameter extracted by the extraction means from the text information stored by the storage means when the behavior parameters that have been set match a predetermined condition; Prepare.

前記センサの出力の複数のパラメータを組み合わせて前記行動パラメータを生成する生成手段をさらに設けることができる。   Generation means for generating the behavior parameter by combining a plurality of parameters of the sensor output may be further provided.

前記行動パラメータを正規化する正規化手段をさらに設けることができる。   Normalization means for normalizing the behavior parameter may be further provided.

複数の前記行動パラメータを組み合わせてユーザの行動の度合いを表現する体験パラメータを生成する生成手段をさらに設けることができる。   Generation means for generating an experience parameter expressing the degree of user's action by combining a plurality of the action parameters can be further provided.

前記選択手段には、テキスト情報の中から、未選択のものを優先して選択させることができる。   The selection means can preferentially select unselected text information from the text information.

前記記憶手段には、日付に関する情報と前記テキストデータとを対応付けてさらに記憶させることができる。   The storage means can further store information relating to the date and the text data in association with each other.

本発明の一側面の情報処理方法またはプログラムは、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択するステップを含む。   An information processing method or program according to an aspect of the present invention stores an action parameter that is recognized based on an output of a sensor and that is information about a user action and text information in association with each other, and that is extracted If the predetermined condition is satisfied, the step includes selecting text information corresponding to the extracted behavior parameter from the stored text information.

本発明の一側面においては、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とが対応付けて記憶され、抽出された行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された行動パラメータに対応するテキスト情報が選択される。   In one aspect of the present invention, a behavior parameter that is information related to a user's behavior recognized based on the output of the sensor and text information are stored in association with each other, and the extracted behavior parameter matches a predetermined condition. In this case, text information corresponding to the extracted behavior parameter is selected from the stored text information.

本発明の一側面によれば、ユーザの行動に応じた例えばエンターテインメント性のある文章を、ユーザの入力によらずに自動的に生成することができる。   According to one aspect of the present invention, for example, an entertainment sentence corresponding to a user's action can be automatically generated without depending on the user's input.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. On the contrary, even if an embodiment is described herein as corresponding to the invention, this does not mean that the embodiment does not correspond to other than the configuration requirements. .

本発明の一側面の情報処理装置(例えば、図3の携帯電話機1)は、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶する記憶手段(例えば、図5の体験表現辞書記憶部23)と、前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段(例えば、図21に体験表現選択部72)とを備える。   The information processing apparatus according to one aspect of the present invention (for example, the mobile phone 1 in FIG. 3) stores a behavior parameter, which is information related to a user's behavior, recognized based on the output of the sensor, and text information in association with each other. When the storage unit (for example, the experience expression dictionary storage unit 23 in FIG. 5) and the behavior parameter extracted by the extraction unit match predetermined conditions, the text information stored in the storage unit And selection means (for example, the experience expression selection unit 72 in FIG. 21) for selecting text information corresponding to the behavior parameters extracted by the extraction means.

前記センサの出力の複数のパラメータを組み合わせて前記行動パラメータを生成する生成手段(例えば、図5の行動パラメータ抽出・行動認識部21)をさらに設けることができる。   Generation means (for example, the behavior parameter extraction / behavior recognition unit 21 in FIG. 5) that generates the behavior parameter by combining a plurality of parameters of the sensor output may be further provided.

前記行動パラメータを正規化する正規化手段(例えば、図18の行動パラメータ正規化部61)をさらに設けることができる。   Normalization means for normalizing the behavior parameters (for example, behavior parameter normalization unit 61 in FIG. 18) may be further provided.

複数の前記行動パラメータを組み合わせてユーザの行動の度合いを表現する体験パラメータを生成する生成手段(例えば、図18の体験パラメータ生成部63)をさらに設けることができる。   Generation means (for example, the experience parameter generation unit 63 in FIG. 18) for generating an experience parameter that expresses the degree of user's action by combining the plurality of action parameters may be further provided.

本発明の一側面の情報処理方法またはプログラムは、センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択するステップ(例えば、図27のステップS24)を含む。   An information processing method or program according to an aspect of the present invention stores an action parameter that is recognized based on an output of a sensor and that is information about a user action and text information in association with each other, and that is extracted Includes a step of selecting text information corresponding to the extracted behavior parameter from the stored text information (for example, step S24 in FIG. 27).

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図3は、本発明を適用した情報処理システムの構成例を示す図である。   FIG. 3 is a diagram showing a configuration example of an information processing system to which the present invention is applied.

図3に示されるように、この情報処理システムは、携帯電話機1、サーバ2、およびパーソナルコンピュータ3がインターネットを介して接続されることによって構成される。   As shown in FIG. 3, the information processing system is configured by connecting a mobile phone 1, a server 2, and a personal computer 3 via the Internet.

携帯電話機1は、内蔵するセンサからの出力に基づいてユーザの行動を認識し、認識結果に応じて、ユーザの行動を表す文章を自動的に生成する。携帯電話機1には加速度センサ、ジャイロセンサなどのセンサが内蔵されており、例えば、1日にどのくらいの距離を歩いたか、歩くことについてもまっすぐ歩いていたか、ふらふらしながら歩いていたかなどが、それらのセンサの出力から認識される。   The mobile phone 1 recognizes the user's behavior based on the output from the built-in sensor, and automatically generates a sentence representing the user's behavior according to the recognition result. The mobile phone 1 incorporates sensors such as an acceleration sensor and a gyro sensor. For example, how long the user walks in a day, whether he / she walks straight, or walks while walking. It is recognized from the output of the sensor.

携帯電話機1には、ユーザの行動を表す文章が行動と対応付けて記憶されており、例えば、普段より多くの距離を歩いたことが認識されたときには「いっぱい歩いたね。」の文章が選択され、ふらふらしながら歩いていたことが認識されたときには「今日はお買い物。」の文章が選択される。普段より多くの距離を歩いたかどうかは、履歴として毎日記録される歩行距離の平均などを基準に判断される。ふらふらしながら歩いていたかどうかは、左を向いたり、右を向いたりする回数が所定の時間にどれだけ検出されたかなどに基づいて判断される。   The mobile phone 1 stores text representing the user's behavior in association with the behavior. For example, when it is recognized that the user has walked more than usual, the text “I walked a lot” is selected. When it is recognized that he was walking while walking, the text “Shopping today” is selected. Whether or not the person has walked more than usual is determined based on the average walking distance recorded daily as a history. Whether or not he / she was walking while walking is determined based on how many times the number of turns to the left or the right is detected at a predetermined time.

携帯電話機1は、以上のようにして生成した文章をインターネットを介してサーバ2に送信し、BlogやSNSの文章としてサーバ2に登録する。行動の認識は例えば1日の間に加速度センサ、ジャイロセンサの出力の履歴を用いて行われ、認識された行動に基づいて作成された1日の行動を表す文章が、1日に1回などの所定の周期で作成される。   The cellular phone 1 transmits the sentence generated as described above to the server 2 via the Internet, and registers it in the server 2 as a blog or SNS sentence. Action recognition is performed using, for example, an acceleration sensor and a gyro sensor output history during a day, and a sentence representing a daily action created based on the recognized action is once a day. It is created at a predetermined cycle.

パーソナルコンピュータ3のユーザは、パーソナルコンピュータ3を操作してサーバ2にアクセスし、携帯電話機1のユーザのBlogやSNSの文章として公開されている、携帯電話機1により生成された文章を閲覧することができる。   The user of the personal computer 3 can access the server 2 by operating the personal computer 3 and browse the text generated by the mobile phone 1 that is published as a blog or SNS text of the user of the mobile phone 1. it can.

このように、携帯電話機1においては、行動の認識が加速センサ、ジャイロセンサの出力に基づいて行われるため、電波を受信して検出を行うGPSなどの出力に基づいて行動を認識したりする場合に較べて、システムを小型化することができる。   As described above, in the mobile phone 1, since the action is recognized based on the outputs of the acceleration sensor and the gyro sensor, the action is recognized based on the output of the GPS or the like that receives and detects the radio wave. Compared to the above, the system can be miniaturized.

また、ユーザは、図2に示されるように単に「歩く」、「走る」、・・・などの行動の羅列ではなく、BlogやSNSで用いるものとして適した、エンターテインメント性のある文章を容易に作成することができる。   In addition, as shown in FIG. 2, the user can easily enter entertainment sentences suitable for use in Blog and SNS, not just a list of actions such as “walking”, “running”,... Can be created.

図4は、携帯電話機1のハードウエア構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a hardware configuration example of the mobile phone 1.

図4に示されるように、携帯電話機1は、加速度センサ11、ジャイロセンサ12、およびプロセッサ13から構成される。   As shown in FIG. 4, the mobile phone 1 includes an acceleration sensor 11, a gyro sensor 12, and a processor 13.

加速度センサ11は、互いに直交する3軸方向の加速度を測定可能なセンサであり、所定の周期で測定を行い、測定結果である加速度データをプロセッサ13に出力する。   The acceleration sensor 11 is a sensor capable of measuring accelerations in three axial directions orthogonal to each other, performs measurement at a predetermined cycle, and outputs acceleration data as a measurement result to the processor 13.

ジャイロセンサ12は、互いに直交する3軸周りの角速度を測定可能なセンサであり、所定の周期で測定を行い、測定結果であるジャイロデータをプロセッサ13に出力する。   The gyro sensor 12 is a sensor capable of measuring angular velocities around three axes orthogonal to each other, performs measurement at a predetermined cycle, and outputs gyro data as a measurement result to the processor 13.

プロセッサ13は、加速度センサ11から供給された加速度データとジャイロセンサ12から供給されたジャイロデータに基づいて、携帯電話機1を携帯しているユーザの行動を認識し、認識結果に応じて文章を作成する。   The processor 13 recognizes the action of the user carrying the mobile phone 1 based on the acceleration data supplied from the acceleration sensor 11 and the gyro data supplied from the gyro sensor 12, and creates a sentence according to the recognition result. To do.

また、プロセッサ13は、作成した文章をサーバ2にインターネットを介して送信し、携帯電話機1のユーザがあらかじめ作成しているBlogやSNSに登録させる。プロセッサ13は、作成した文章を携帯電話機1に設けられるディスプレイに表示し、ユーザに確認させることなども行う。   In addition, the processor 13 transmits the created text to the server 2 via the Internet, and registers it in Blog or SNS created by the user of the mobile phone 1 in advance. The processor 13 also displays the created text on a display provided in the mobile phone 1 and allows the user to confirm.

図5は、携帯電話機1の機能構成例を示すブロック図である。図5に示す機能部のうちの少なくとも一部は、図4のプロセッサ13により所定のプログラムが実行されることによって実現される。   FIG. 5 is a block diagram illustrating a functional configuration example of the mobile phone 1. At least a part of the functional units shown in FIG. 5 is realized by executing a predetermined program by the processor 13 of FIG.

図5に示されるように、携帯電話機1においては行動パラメータ抽出・行動認識部21、体験表現生成部22、体験表現辞書記憶部23が実現される。   As shown in FIG. 5, in the mobile phone 1, a behavior parameter extraction / behavior recognition unit 21, an experience expression generation unit 22, and an experience expression dictionary storage unit 23 are realized.

行動パラメータ抽出・行動認識部21は、加速度センサ11、ジャイロセンサ12により測定され、供給されたセンサデータに基づいて、例えば歩行ピッチ、歩行パワー、重力軸まわりの回転角を求め、求めたそれらの情報から、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求める。   The behavior parameter extraction / behavior recognition unit 21 measures, for example, the walking pitch, the walking power, and the rotation angle around the gravity axis based on the supplied sensor data, measured by the acceleration sensor 11 and the gyro sensor 12, From the information, the number of steps, the average walking pitch, the average number of turns, and the average number of walks / stops are obtained.

また、行動パラメータ抽出・行動認識部21は、センサデータに基づいて求められた歩行ピッチ、歩行パワー、重力軸まわりの回転角に基づいて、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかをユーザの行動として認識し、それぞれの行動の時間、割合、回数、継続時間などを求める。   In addition, the behavior parameter extraction / recognition unit 21 performs “stationary”, “walking”, “running”, “right” based on the walking pitch, walking power, and rotation angle around the gravity axis obtained based on the sensor data. Either “turn” or “left turn” is recognized as a user action, and the time, ratio, number of times, duration, etc. of each action are obtained.

後述するように、行動パラメータ抽出・行動認識部21には、静止している状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM(Hidden Markov Model)、歩いている状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、走っている状態のときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、右ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、左ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMMがあらかじめ用意されており、それらのHMMが参照されることによって、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかの行動が認識される。   As will be described later, the behavior parameter extraction / recognition unit 21 walks through an HMM (Hidden Markov Model) generated based on the sensor data output from the acceleration sensor and the gyro sensor in a stationary state. HMM generated based on the sensor data output from the acceleration sensor and gyro sensor when in the running state, HMM generated based on the sensor data output from the acceleration sensor and gyro sensor in the running state, HMM generated based on sensor data output from acceleration sensor and gyro sensor when making a right turn, generated based on sensor data output from acceleration sensor and gyro sensor when making a left turn HMMs are prepared in advance, and by referring to those HMMs, it is possible to select “stationary”, “walking”, “running”, “ Turn ", any of the behavior of the" left turn "is recognized.

行動パラメータ抽出・行動認識部21は、図6に示されるように、加速度データやジャイロデータなどのセンサデータに基づいて求められた各種の情報と、認識した行動の履歴を表す情報が記述された行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22に出力する。行動パラメータファイルは、例えばXML(eXtensible Markup Language)形式のファイルとされる。   As shown in FIG. 6, the behavior parameter extraction / behavior recognition unit 21 describes various information obtained based on sensor data such as acceleration data and gyro data, and information representing the history of recognized behavior. A behavior parameter file is generated, and the generated behavior parameter file is output to the experience expression generation unit 22. The behavior parameter file is, for example, an XML (eXtensible Markup Language) format file.

図7は、行動パラメータファイルに記述される情報の例を示す図である。   FIG. 7 is a diagram illustrating an example of information described in the behavior parameter file.

図7に示されるように、行動パラメータファイルには、ログの開始時刻、ログの終了時刻、ログの総時間が記述される。ログの開始時刻は、ユーザが携帯電話機1の使用を開始した時刻を表し、ログの終了時刻は、ユーザが携帯電話機1の使用を終了した時刻を表す。ログの総時間は、ユーザが1日の間に携帯電話機1を使用していた時間を表す。   As shown in FIG. 7, the behavior parameter file describes the start time of the log, the end time of the log, and the total time of the log. The log start time represents the time when the user started using the mobile phone 1, and the log end time represents the time when the user finished using the mobile phone 1. The total log time represents the time that the user was using the mobile phone 1 during the day.

また、行動パラメータファイルには、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数、認識された、それぞれの行動の総時間、割合、回数、継続時間、最大時間、平均時間が記述される。   Also, the behavior parameter file contains the number of steps, average walking pitch, average number of turns, average number of walks / stops, total time, percentage, number of times, duration, maximum time, average of each recognized action Time is described.

行動の最大時間は、「静止」については、静止していたとして継続して認識された時間のうちの最も長い時間、「歩き」については、歩いていたとして継続して認識された時間のうちの最も長い時間、「走り」については、走っていたとして継続して認識された時間のうちの最も長い時間、「右ターン」については、右ターンを行っていたとして継続して認識された時間のうちの最も長い時間、「左ターン」については、左ターンを行っていたとして継続して認識された時間のうちの最も長い時間とされる。   The maximum time of action is the longest time that is continuously recognized as being stationary for “stationary”, and the time that is continuously recognized as walking for “walking”. For the longest time, “running”, the longest time continuously recognized as being run, and for “right turn”, the time continuously recognized as having been making a right turn The longest time among them, the “left turn”, is the longest time continuously recognized as having made a left turn.

行動の平均時間は、「静止」については、静止していたとして継続して認識された時間の平均時間(秒)、「歩き」については、歩いていたとして継続して認識された時間の平均時間(秒)、「走り」については、走っていたとして継続して認識された時間の平均時間(秒)、「右ターン」については、右ターンを行っていたとして継続して認識された時間の平均時間、「左ターン」については、左ターンを行ったとして継続して認識された時間の平均時間とされる。   The average action time is the average time (seconds) that is continuously recognized as being stationary for “still”, and the average time that is continuously recognized as walking for “walking”. For time (seconds) and “running”, the average time (seconds) continuously recognized as being run, and for “right turn”, the time continuously recognized as having been making a right turn The average time of “left turn” is the average time continuously recognized as a left turn.

また、行動パラメータファイルには、認識された行動の時系列が記述される。記述される1つの行動の情報は、例えば、1つの行動の開始時刻、終了時刻、総時間、行動の内容からなる。   The action parameter file describes a time series of recognized actions. The information of one action described includes, for example, the start time, end time, total time, and action content of one action.

このようなパラメータが記述された行動パラメータファイルが行動パラメータ抽出・行動認識部21により生成され、体験表現生成部22に出力される。例えば、図7に示されるような1つの行動パラメータファイルが毎日、その日のうちに加速度センサ11、ジャイロセンサ12により検出されたセンサデータに基づいて生成される。   A behavior parameter file in which such parameters are described is generated by the behavior parameter extraction / behavior recognition unit 21 and output to the experience expression generation unit 22. For example, one behavior parameter file as shown in FIG. 7 is generated every day based on the sensor data detected by the acceleration sensor 11 and the gyro sensor 12 during the day.

図5の説明に戻り、体験表現生成部22は、体験表現辞書記憶部23に記憶されている辞書を参照し、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述されている情報に基づいて、ユーザの1日の行動を表す文章を作成する。体験表現生成部22は、作成した文章をインターネットを介してサーバ2に送信したり、携帯電話機1に設けられる表示装置24に表示させたりする。   Returning to the description of FIG. 5, the experience expression generation unit 22 refers to the dictionary stored in the experience expression dictionary storage unit 23 and is described in the behavior parameter file supplied from the behavior parameter extraction / behavior recognition unit 21. Based on the information, a sentence representing the daily action of the user is created. The experience expression generation unit 22 transmits the created text to the server 2 via the Internet or displays the text on the display device 24 provided in the mobile phone 1.

体験表現辞書記憶部23は、文章と行動の対応関係を表す辞書を記憶する。体験表現辞書記憶部23に記憶される辞書は、携帯電話機1のメーカなどによりあらかじめ用意されるようにしてもよいし、1日の行動を表す文章がユーザにより入力された場合、その1日の間に行動パラメータ抽出・行動認識部21により認識された行動の認識結果と、ユーザにより入力された文章から学習により生成され、用意されるようにしてもよい。   The experience expression dictionary storage unit 23 stores a dictionary representing the correspondence between sentences and actions. The dictionary stored in the experience expression dictionary storage unit 23 may be prepared in advance by the manufacturer of the mobile phone 1 or the like. It may be generated and prepared by learning from the recognition result of the action recognized by the action parameter extraction / behavior recognition unit 21 and the text input by the user.

ここで、行動パラメータ抽出・行動認識部21により行われる、行動パラメータの抽出と行動の認識について説明する。   Here, behavior parameter extraction and behavior recognition performed by the behavior parameter extraction / behavior recognition unit 21 will be described.

図8は、行動パラメータ抽出・行動認識部21の詳細な構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating a detailed configuration example of the behavior parameter extraction / behavior recognition unit 21.

図8に示されるように、行動パラメータ抽出・行動認識部21は、キャリブレーション実行部31、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35、行動認識部36、およびファイル生成部37から構成される。   As shown in FIG. 8, the behavior parameter extraction / behavior recognition unit 21 includes a calibration execution unit 31, a walking pitch detection unit 32, a walking power detection unit 33, a gravity direction detection unit 34, a heading detection unit 35, and a behavior recognition unit. 36 and a file generation unit 37.

キャリブレーション実行部31は、加速度センサ11、ジャイロセンサ12から供給されたセンサデータのキャリブレーションを行い、キャリブレーション後のセンサデータを歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35にそれぞれ出力する。例えば、温度の違いなどによって加速度センサ11、ジャイロセンサ12の感度も異なり、出力される値も異なるから、それを補正する処理がキャリブレーション実行部31により行われる。   The calibration execution unit 31 calibrates the sensor data supplied from the acceleration sensor 11 and the gyro sensor 12, and uses the sensor data after calibration as the walking pitch detection unit 32, the walking power detection unit 33, and the gravity direction detection unit 34. , Output to the heading detector 35. For example, the sensitivity of the acceleration sensor 11 and the gyro sensor 12 are different depending on the temperature or the like, and the output values are also different. Therefore, the calibration execution unit 31 performs a process for correcting the sensitivity.

歩行ピッチ検出部32は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて、図9に示されるような歩行ピッチを検出する。周期的信号の周期を検知・測定するための方法としては信号の自己相関性(autocorrelation)におけるピークを見つける方法があり、加速度センサ11により測定されたデータを用いた歩行ピッチの検出においても例えばこの方法が用いられる。図9の横軸は時刻(加速度センサ11のサンプル数)を表し、縦軸は周波数(Hz)を表す。人が歩くときに加速度センサにより測定される周波数は一般的に2Hz(1秒間に2歩)であるから、2Hz付近の周波数の測定結果の時系列などから、認識結果としての「歩き」が、HMMが参照されて得られる。歩行ピッチ検出部32は、検出した歩行ピッチを行動認識部36に出力する。   The walking pitch detection unit 32 detects the walking pitch as shown in FIG. 9 based on the acceleration data in the sensor data supplied from the calibration execution unit 31. As a method for detecting and measuring the period of a periodic signal, there is a method of finding a peak in signal autocorrelation. For example, in the detection of a walking pitch using data measured by the acceleration sensor 11, for example, The method is used. The horizontal axis in FIG. 9 represents time (the number of samples of the acceleration sensor 11), and the vertical axis represents frequency (Hz). Since the frequency measured by the acceleration sensor when a person walks is generally 2 Hz (2 steps per second), from the time series of measurement results of frequencies around 2 Hz, the “walk” as the recognition result is Obtained by referring to the HMM. The walking pitch detection unit 32 outputs the detected walking pitch to the action recognition unit 36.

歩行パワー検出部33は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて図10に示されるような歩行パワーを検出する。図10の横軸は時刻を表し、縦軸は強さを表す。歩行パワー検出部33は、検出した歩行パワーを行動認識部36に出力する。   The walking power detection unit 33 detects the walking power as shown in FIG. 10 based on the acceleration data among the sensor data supplied from the calibration execution unit 31. The horizontal axis in FIG. 10 represents time, and the vertical axis represents strength. The walking power detection unit 33 outputs the detected walking power to the action recognition unit 36.

重力方向検出部34は、キャリブレーション実行部31から供給されたセンサデータのうちの加速度データに基づいて重力軸の方向を検出する。加速度センサ11が重力軸に対して水平方向の加速度を検出する状態にある場合にはその出力は0となり、一方、重力軸に対して水平方向以外の方向の加速度を検出する状態にある場合には所定の値が測定されるから、上述したように、3軸方向の加速度を測定することができるようになされているときには、それぞれの方向の加速度の測定結果から重力軸を求めることが可能となる。図11は加速度の重力方向の変化を表す。図11の横軸は時刻を表し、縦軸は加速度を表す。重力方向検出部34は、検出した重力軸の方向を表す情報をヘディング検出部35に出力する。   The gravity direction detection unit 34 detects the direction of the gravity axis based on acceleration data among the sensor data supplied from the calibration execution unit 31. When the acceleration sensor 11 is in a state of detecting acceleration in the horizontal direction with respect to the gravity axis, the output is 0. On the other hand, when the acceleration sensor 11 is in a state of detecting acceleration in a direction other than the horizontal direction with respect to the gravity axis. Since a predetermined value is measured, as described above, when it is possible to measure the acceleration in the three-axis direction, the gravity axis can be obtained from the measurement result of the acceleration in each direction. Become. FIG. 11 shows the change in the gravitational direction of acceleration. The horizontal axis in FIG. 11 represents time, and the vertical axis represents acceleration. The gravity direction detector 34 outputs information indicating the detected direction of the gravity axis to the heading detector 35.

ヘディング検出部35は、キャリブレーション実行部31から供給されたセンサデータのうちのジャイロデータと、重力方向検出部34から供給された重力軸の方向を表す情報に基づいて、図12に示されるような、重力軸まわりの回転角(Heading)を検出する。ジャイロデータを重力軸方向に投影すると、重力軸まわりの回転角が求められる。図12の横軸は時刻を表し、縦軸は回転角を表す。ヘディング検出部35は、検出した重力軸まわりの回転角を行動認識部36に出力する。   The heading detection unit 35 is shown in FIG. 12 based on gyro data in the sensor data supplied from the calibration execution unit 31 and information indicating the direction of the gravity axis supplied from the gravity direction detection unit 34. The rotation angle (Heading) around the gravity axis is detected. When the gyro data is projected in the direction of the gravity axis, the rotation angle around the gravity axis is obtained. The horizontal axis of FIG. 12 represents time, and the vertical axis represents the rotation angle. The heading detection unit 35 outputs the detected rotation angle around the gravity axis to the action recognition unit 36.

行動認識部36は、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35から供給された情報に基づいて、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求め、求めたそれらの情報を行動パラメータとして抽出する。   Based on the information supplied from the walking pitch detection unit 32, the walking power detection unit 33, the gravity direction detection unit 34, and the heading detection unit 35, the behavior recognition unit 36 determines the number of steps, average walking pitch, average number of turns, and average. The number of times of walking / stopping is obtained, and the obtained information is extracted as an action parameter.

歩行ピッチ検出部32により求められた歩行ピッチがPwalk(i)で表されるものとすると、歩数Nwalk(歩)は下式(1)により求められる。求められた歩数は、ユーザが例えば1日にどれだけ歩いたのかを判断する目安として用いられる。式(1)において、iはサンプルの順番であり、Nは総サンプル数である。 If the walking pitch obtained by the walking pitch detection unit 32 is represented by P walk (i), the number of steps N walk (steps) is obtained by the following equation (1). The obtained number of steps is used as a guideline for determining how much the user has walked in one day, for example. In equation (1), i is the order of samples and N is the total number of samples.

Figure 2008003655
Figure 2008003655

また、歩行ピッチが0以上だったサンプル数がCwalkで表されるものとすると、平均の歩行ピッチAwalk(Hz)は下式(2)により求められる。求められた平均の歩行ピッチは、歩きの速さ(忙しく歩いていたか、のんびり歩いていたか)を判断する目安として用いられる。 Further, assuming that the number of samples whose walking pitch is 0 or more is represented by C walk , the average walking pitch A walk (Hz) is obtained by the following equation (2). The obtained average walking pitch is used as a standard for judging the speed of walking (whether walking was busy or leisurely walking).

Figure 2008003655
Figure 2008003655

平均のターン回数は、ヘディング検出部35から供給された重力軸まわりの回転角からターンの回数をカウントし、それを単位時間あたりの回数とすることにより求められる。例えば、図12において、0.1以上の回転角の値が検出された位置がユーザが左ターンを行った位置としてカウントされ、−0.1以下の回転角の値が検出された位置がユーザが右ターンを行った位置としてカウントされる。   The average number of turns can be obtained by counting the number of turns from the rotation angle around the gravity axis supplied from the heading detector 35 and setting it as the number of turns per unit time. For example, in FIG. 12, a position where a rotation angle value of 0.1 or more is detected is counted as a position where the user has made a left turn, and a position where a rotation angle value of −0.1 or less is detected is the user. Is counted as a position where a right turn is made.

1分あたりのターン回数(左ターンの回数と右ターンの回数をあわせた回数)がCturnで表され、1分あたりのサンプル数がNminで表されるものとすると、平均ターン回数Aturn(回/分)は下式(3)により求められる。求められた平均のターン回数は、まっすぐな行動をしていたか、ふらふらした行動をしていたかを判断する目安として用いられる。 Assuming that the number of turns per minute (the number of left turns and right turns combined) is represented by C turn and the number of samples per minute is represented by N min , the average number of turns A turn (Times / min) is obtained by the following equation (3). The obtained average number of turns is used as a guideline for judging whether the player has been acting straight or swaying.

Figure 2008003655
Figure 2008003655

平均の歩行・停止回数は、歩行ピッチ検出部32により求められた歩行ピッチからユーザが歩行している位置を検出し、検出した位置の数をカウントすることにより求められる。例えば、人の歩行ピッチは平均2.0Hz程度であるため、1.0Hz以上の周波数が検出された位置が、ユーザが歩行している位置として検出される。1分あたりの歩行・停止回数がCstop_goで表され、1分あたりのサンプル数がNminで表されるものとすると、平均歩行・停止回数Astop_go(回/分)は下式(4)により求められる。求められた平均歩行・停止回数は、じっとしながら行動をとっていたか、せわしなく行動をとっていたかを判断する目安として用いられる。 The average number of times of walking / stopping is obtained by detecting the position where the user is walking from the walking pitch obtained by the walking pitch detection unit 32 and counting the number of detected positions. For example, since a person's walking pitch is about 2.0 Hz on average, a position where a frequency of 1.0 Hz or higher is detected is detected as a position where the user is walking. Assuming that the number of walks / stops per minute is represented by C stop_go and the number of samples per minute is represented by N min , the average number of walks / stops A stop_go (times / minute) is Is required. The obtained average number of walks / stops is used as a guideline for determining whether the user has taken a steady action or has taken an action.

Figure 2008003655
Figure 2008003655

以上のようにして行動パラメータとして抽出された歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数はファイル生成部37に出力される。   The number of steps extracted as behavior parameters as described above, the average walking pitch, the average number of turns, and the average number of walks / stops are output to the file generation unit 37.

図13は、行動認識部36に設けられる一部の機能部の例を示す図である。   FIG. 13 is a diagram illustrating an example of some functional units provided in the action recognition unit 36.

図13に示されるように、行動認識部36には、上述したような歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を求める機能部の他に、ユーザの行動をHMMによって認識する機能部も設けられる。   As shown in FIG. 13, the action recognition unit 36 displays the user's action in addition to the function unit for obtaining the number of steps, the average walking pitch, the average number of turns, and the average number of times of walking / stopping as described above. A functional unit recognized by the HMM is also provided.

認識部51は、歩行ピッチ検出部32、歩行パワー検出部33、重力方向検出部34、ヘディング検出部35から供給された情報を所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM データベース52に用意されているHMMを参照して認識する。   The recognizing unit 51 accumulates a predetermined amount of information supplied from the walking pitch detecting unit 32, the walking power detecting unit 33, the gravity direction detecting unit 34, and the heading detecting unit 35, and based on the time series of the accumulated feature data. The action of the user of the mobile phone 1 is recognized with reference to the HMM prepared in the HMM database 52.

また、認識部51は、例えば1日のユーザの行動を認識したとき、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のそれぞれの行動の総時間、それぞれの行動の割合、それぞれの行動の回数、それぞれの行動の継続時間(秒)、それぞれの行動の最大の継続時間(秒)、それぞれの行動の平均の継続時間(秒)を求める。それぞれの行動の総時間、それぞれの行動の割合、およびそれぞれの行動の回数は、その日のユーザの行動の傾向を判断する目安として用いられる。   For example, when the recognizing unit 51 recognizes the user's action for one day, the total time of each action of “stationary”, “walking”, “running”, “right turn”, and “left turn”, The ratio of actions, the number of times of each action, the duration (second) of each action, the maximum duration (second) of each action, and the average duration (second) of each action are obtained. The total time of each action, the ratio of each action, and the number of times of each action are used as a standard for judging the tendency of the user's action on that day.

また、行動の開始時刻、終了時刻、その単位時間でとっていた行動からなる、任意の単位時間あたりの行動情報などが認識部51により生成されるようにしてもよい。この単位時間あたりの行動情報は、例えば、時系列での行動の遷移を判断する目安として用いることが可能となる。   Further, the recognition unit 51 may generate action information per arbitrary unit time including action start time, end time, and action taken in the unit time. This behavior information per unit time can be used, for example, as a guideline for determining behavioral transitions in time series.

HMM データベース52には、静止している状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、歩いている状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、走っている状態のときに加速度センサ11、ジャイロセンサ12から出力されたセンサデータに基づいて生成されたHMM、右ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMM、左ターンを行ったときに加速度センサ、ジャイロセンサから出力されたセンサデータに基づいて生成されたHMMがあらかじめ用意されており、それらのHMMが参照されることによって、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかの行動が認識部51により認識される。   The HMM database 52 includes an HMM generated based on the sensor data output from the acceleration sensor 11 and the gyro sensor 12 when in a stationary state, and the acceleration sensor 11 and the gyro sensor 12 when in a walking state. HMM generated based on output sensor data, acceleration sensor 11 when running, HMM generated based on sensor data output from gyro sensor 12, acceleration sensor when making a right turn HMM generated based on sensor data output from gyro sensor, acceleration sensor when left turn is performed, HMM generated based on sensor data output from gyro sensor are prepared in advance By referring to the HMM, "stationary", "walking", "running", "right turn", "left turn" "Is recognized by the recognition unit 51.

図14は、認識部51による行動認識を模式的に示す図である。   FIG. 14 is a diagram schematically illustrating action recognition by the recognition unit 51.

生データ(raw data)としての加速度データとジャイロデータに対してはキャリブレーションが施され、キャリブレーションが施されることによって得られたデータから、上述したような、歩行ピッチ、歩行パワー、重力軸方向、重力軸まわりの回転角が特徴量(low level context)として取得される。また、HMMが参照され、取得された特徴量に基づいてユーザの行動(high level context)が統計学的に認識される。   The acceleration data and the gyro data as raw data are calibrated, and from the data obtained by the calibration, the walking pitch, walking power, and gravity axis as described above The direction and the rotation angle around the gravity axis are acquired as a low level context. Also, the HMM is referred to, and the user's behavior (high level context) is statistically recognized based on the acquired feature amount.

なお、図14に示されるようなものだけでなく、各種のアルゴリズムにより行動認識が行われるようにしてもよい。例えば、ヘディング検出部35により求められた重力軸まわりの回転角の情報に基づいて、0.1以上の回転角の値が検出された位置をユーザが左ターンを行った位置として認識し、−0.1以下の回転角の値が検出された位置をユーザが右ターンを行った位置として認識するといったように、単に、センサデータの閾値処理によって行動が認識されるようにすることができる。   In addition, action recognition may be performed not only as shown in FIG. 14 but also by various algorithms. For example, based on the rotation angle information about the gravity axis obtained by the heading detection unit 35, the position where the rotation angle value of 0.1 or more is detected is recognized as the position where the user has made a left turn, − An action can be recognized simply by threshold processing of sensor data, such as recognizing a position where a rotation angle value of 0.1 or less is detected as a position where the user has made a right turn.

図15は、センサデータ、特徴量、認識結果の例を時系列的に示す図であり、図15の例においては、「歩き」、「走り」、「歩き」、「走り」、「静止」、「歩き」、「静止」の順に行動の認識結果が取得されている。   FIG. 15 is a diagram showing examples of sensor data, feature amounts, and recognition results in time series. In the example of FIG. 15, “walk”, “run”, “walk”, “run”, “still” The action recognition results are acquired in the order of “walking” and “still”.

以上のようにして認識された行動認識の結果も、その行動をユーザが行っていた時刻、時間などの情報とともに行動認識部36からファイル生成部37に出力される。また、それぞれの行動の割合、それぞれの行動の回数、それぞれの行動の継続時間、それぞれの行動の最大の継続時間、それぞれの行動の平均の継続時間を表す情報もファイル生成部37に出力される。   The result of the action recognition recognized as described above is also output from the action recognition unit 36 to the file generation unit 37 together with information such as the time and time when the user performed the action. In addition, information indicating the ratio of each action, the number of times of each action, the duration of each action, the maximum duration of each action, and the average duration of each action is also output to the file generation unit 37. .

図8の説明に戻り、ファイル生成部37は、行動認識部36から供給された情報が記述された行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22(図5)に出力する。   Returning to the description of FIG. 8, the file generation unit 37 generates a behavior parameter file in which the information supplied from the behavior recognition unit 36 is described, and outputs the generated behavior parameter file to the experience expression generation unit 22 (FIG. 5). To do.

図16と図17は、ファイル生成部37により生成される行動パラメータファイルの具体的な記述の例を示す図である。図16と図17の左側に示される数字は説明の便宜上付してあるものであり、行動パラメータファイルに記述される情報を構成するものではない。   16 and 17 are diagrams illustrating examples of specific descriptions of behavior parameter files generated by the file generation unit 37. FIG. The numbers shown on the left side of FIGS. 16 and 17 are given for convenience of explanation and do not constitute information described in the behavior parameter file.

図16の2行目に記述されている「<start>〜</start>」は図7でいうログ開始時刻に相当し、3行目に記述されている「<stop>〜</stop>」は図7でいうログ終了時刻に相当する。4行目に記述されている「<duration>〜</duration>」は図7でいう総時間に相当する。   “<Start> ˜ </ start>” described in the second line in FIG. 16 corresponds to the log start time in FIG. 7, and “<stop> ˜ </ stop>” described in the third line. "Corresponds to the log end time in FIG. “<Duration> ˜ </ duration>” described in the fourth line corresponds to the total time shown in FIG.

図16の7行目に記述されている「<pedometer>〜</pedometer>」は図7でいう歩数に相当し、8行目に記述されている「<pitch>〜</pitch>」は図7でいう平均歩行ピッチに相当する。9行目に記述されている「<turn_freq>〜</turn_freq>」は図7でいう平均ターン回数に相当し、10行目に記述されている「<walk_stop_freq>〜</walk_stop_freq>」は図7でいう平均歩行・停止回数に相当する。   “<Pedometer> ˜ </ pedometer>” described in the seventh line in FIG. 16 corresponds to the number of steps in FIG. 7, and “<pitch> ˜ </ pitch>” described in the eighth line This corresponds to the average walking pitch in FIG. “<Turn_freq> ˜ </ turn_freq>” described in the ninth line corresponds to the average number of turns shown in FIG. 7, and “<walk_stop_freq> ˜ </ walk_stop_freq>” described in the tenth line This corresponds to the average number of walks / stops referred to in FIG.

図16の12行目から16行目までの記述は図7でいうそれぞれの行動の総時間に相当する。12行目に記述されている「<still>〜</still>」は「静止」として認識された総時間を表し、13行目に記述されている「<walk>〜</walk>」は「歩き」として認識された総時間を表す。14行目に記述されている「<run>〜</run>」は「走り」として認識された総時間を表し、15行目に記述されている「<right>〜</right>」は「右ターン」として認識された総時間を表す。16行目に記述されている「<left>〜</left>」は「左ターン」として認識された総時間を表す。   The description from the 12th line to the 16th line in FIG. 16 corresponds to the total time of each action in FIG. “<Still> to </ still>” described in the 12th line represents the total time recognized as “still”, and “<walk> to </ walk>” described in the 13th line Represents the total time recognized as “walking”. "<Run> ~ </ run>" described in the 14th line represents the total time recognized as "running", and "<right> ~ </ right>" described in the 15th line is Represents the total time recognized as a “right turn”. “<Left> ˜ </ left>” described in the 16th line represents the total time recognized as “left turn”.

図16の19行目から23行目までの記述は図7でいうそれぞれの行動の割合に相当する。19行目に記述されている「<still>〜</still>」は行動が認識された全時間に対する「静止」として認識された時間の割合を表し、20行目に記述されている「<walk>〜</walk>」は行動が認識された全時間に対する「歩き」として認識された時間の割合を表す。21行目に記述されている「<run>〜</run>」は行動が認識された全時間に対する「走り」として認識された時間の割合を表し、22行目に記述されている「<right>〜</right>」は行動が認識された全時間に対する「右ターン」として認識された時間の割合を表す。23行目に記述されている「<left>〜</left>」は行動が認識された全時間に対する「左ターン」として認識された時間の割合を表す。   The description from the 19th line to the 23rd line in FIG. 16 corresponds to the ratio of each action in FIG. “<Still> to </ still>” described in the 19th line represents the ratio of the time recognized as “still” to the total time in which the action is recognized, and “<still” described in the 20th line. “walk> ˜ </ walk>” represents the ratio of the time recognized as “walk” to the total time when the action was recognized. “<Run> ˜ </ run>” described in the 21st line represents the ratio of the time recognized as “running” to the total time in which the action is recognized, and “<run” described in the 22nd line. “right> ˜ </ right>” represents the ratio of the time recognized as the “right turn” to the total time when the action is recognized. “<Left> ˜ </ left>” described in the 23rd line represents the ratio of the time recognized as the “left turn” to the total time when the action is recognized.

図16の26行目から30行目までの記述は図7でいうそれぞれの行動の回数に相当する。26行目に記述されている「<still>〜</still>」は「静止」として認識された回数を表し、27行目に記述されている「<walk>〜</walk>」は「歩き」として認識された回数を表す。28行目に記述されている「<run>〜</run>」は「走り」として認識された回数を表し、29行目に記述されている「<right>〜</right>」は「右ターン」として認識された回数を表す。30行目に記述されている「<left>〜</left>」は「左ターン」として認識された回数を表す。   The description from the 26th line to the 30th line in FIG. 16 corresponds to the number of times of each action in FIG. “<Still> ˜ </ still>” described in the 26th line represents the number of times recognized as “still”, and “<walk> ˜ </ walk>” described in the 27th line “ Indicates the number of times recognized as "walking". “<Run> ˜ </ run>” described in the 28th line represents the number of times recognized as “running”, and “<right> ˜ </ right>” described in the 29th line is “ Indicates the number of times recognized as “right turn”. “<Left> ˜ </ left>” described in the 30th line represents the number of times recognized as “left turn”.

図16の34行目から38行目までの記述は図7でいうそれぞれの行動の最大時間に相当する。34行目に記述されている「<still>〜</still>」は「静止」として認識された最大時間を表し、35行目に記述されている「<walk>〜</walk>」は「歩き」として認識された最大時間を表す。36行目に記述されている「<run>〜</run>」は「走り」として認識された最大時間を表し、37行目に記述されている「<right>〜</right>」は「右ターン」として認識された最大時間を表す。38行目に記述されている「<left>〜</left>」は「左ターン」として認識された最大時間を表す。   The description from the 34th line to the 38th line in FIG. 16 corresponds to the maximum time of each action shown in FIG. “<Still> ˜ </ still>” described in the 34th line represents the maximum time recognized as “still”, and “<walk> ˜ </ walk>” described in the 35th line Represents the maximum time recognized as “walking”. "<Run> ~ </ run>" described in the 36th line represents the maximum time recognized as "running", and "<right> ~ </ right>" described in the 37th line is Represents the maximum time recognized as a “right turn”. “<Left> ˜ </ left>” described in the 38th line represents the maximum time recognized as “left turn”.

図16の41行目から45行目までの記述は図7でいうそれぞれの行動の平均時間に相当する。41行目に記述されている「<still>〜</still>」は「静止」として認識された平均時間を表し、42行目に記述されている「<walk>〜</walk>」は「歩き」として認識された平均時間を表す。43行目に記述されている「<run>〜</run>」は「走り」として認識された平均時間を表し、44行目に記述されている「<right>〜</right>」は「右ターン」として認識された平均時間を表す。45行目に記述されている「<left>〜</left>」は「左ターン」として認識された平均時間を表す。   The description from the 41st line to the 45th line in FIG. 16 corresponds to the average time of each action in FIG. “<Still> ˜ </ still>” described in the 41st line represents an average time recognized as “still”, and “<walk> ˜ </ walk>” described in the 42nd line It represents the average time recognized as “walking”. "<Run> ~ </ run>" described in the 43rd line represents the average time recognized as "running", and "<right> ~ </ right>" described in the 44th line is Represents the average time recognized as “right turn”. “<Left> ˜ </ left>” described in the 45th line represents an average time recognized as “left turn”.

図17は、認識された行動の時系列の部分の記述を示す図である。   FIG. 17 is a diagram showing a description of a time-series portion of recognized actions.

図17の3行目の「<slot>」から10行目の「</slot>」までが1番目に認識された行動に関する情報であり、11行目の「<slot>」から18行目の「</slot>」までが2番目に認識された行動に関する情報である。   In FIG. 17, “<slot>” on the third line to “</ slot>” on the tenth line is information regarding the first recognized action, and “<slot>” on the eleventh line is the 18th line. Up to “</ slot>” is information on the second recognized action.

例えば、1番目に認識された行動に関する情報のうち、5行目に記述されている「<start>〜</start>」は図7でいう時系列情報の開始時刻に相当し、6行目に記述されている「<stop>〜</stop>」は図7でいう時系列情報の終了時刻に相当する。7行目に記述されている「<duration>〜</duration>」は図7でいう時系列情報の総時間に相当する。9行目に記述されている「<activity>turn_left</activity>」は、1番目に認識された行動が「左ターン」であることを表す。   For example, “<start> to </ start>” described in the fifth line of the information related to the action recognized first corresponds to the start time of the time series information shown in FIG. “<Stop> to </ stop>” described in the above corresponds to the end time of the time series information shown in FIG. “<Duration> ˜ </ duration>” described in the seventh line corresponds to the total time of the time series information shown in FIG. “<Activity> turn_left </ activity>” described in the ninth line indicates that the action recognized first is “left turn”.

認識された他の行動についても、認識された順に、同じ情報が記述される。このような記述からなる行動パラメータファイルが体験表現生成部22に出力される。   For other recognized actions, the same information is described in the recognized order. An action parameter file having such a description is output to the experience expression generating unit 22.

次に、体験表現生成部22により行われる、文章の生成について説明する。   Next, sentence generation performed by the experience expression generation unit 22 will be described.

図18は、図5の体験表現生成部22の詳細な構成例を示すブロック図である。   FIG. 18 is a block diagram illustrating a detailed configuration example of the experience expression generation unit 22 of FIG.

図18に示されるように、体験表現生成部22は、行動パラメータ正規化部61、個人情報データベース62、体験パラメータ生成部63、体験分類部64、およびスコアテーブル記憶部65から構成される。   As shown in FIG. 18, the experience expression generation unit 22 includes a behavior parameter normalization unit 61, a personal information database 62, an experience parameter generation unit 63, an experience classification unit 64, and a score table storage unit 65.

行動パラメータ正規化部61は、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述される行動パラメータの正規化を行い、正規化を行って得られた行動パラメータを体験パラメータ生成部63と体験分類部64に出力する。正規化には、例えば、個人情報データベース62に記憶されている個人情報が参照される。   The behavior parameter normalization unit 61 normalizes the behavior parameters described in the behavior parameter file supplied from the behavior parameter extraction / behavior recognition unit 21, and uses the behavior parameters obtained by normalization as the experience parameter generation unit. 63 and the experience classification unit 64. For normalization, for example, personal information stored in the personal information database 62 is referred to.

図19は、個人情報データベース62に記憶される個人情報の例を示す図である。   FIG. 19 is a diagram illustrating an example of personal information stored in the personal information database 62.

個人情報データベース62には、行動パラメータ抽出・行動認識部21により過去に生成された行動パラメータファイルに記述されている行動パラメータに基づいて得られた行動パラメータの平均が個人情報として記憶されている。行動パラメータの平均は、携帯電話機1が例えば複数のユーザにより使用される場合、図19に示されるように、ユーザ毎に、異なるファイルによって管理される。   In the personal information database 62, an average of behavior parameters obtained based on behavior parameters described in a behavior parameter file generated in the past by the behavior parameter extraction / behavior recognition unit 21 is stored as personal information. For example, when the mobile phone 1 is used by a plurality of users, the average of the behavior parameters is managed by a different file for each user as shown in FIG.

図19に重ねて示されるファイルのうちの1番上のファイルは、ユーザ名「hoge」、ユーザID「0001」で識別されるユーザの個人情報であり、図16を参照して説明した各種の情報の過去の平均値が記述される。携帯電話機1の使用を開始するとき、ユーザは、あらかじめ登録しておいた自分のユーザ名やユーザIDを携帯電話機1に入力することになる。なお、平均値だけでなく、各行動パラメータの分散値や積算値が個人情報として管理されるようにしてもよい。   The top file among the files shown in FIG. 19 is the personal information of the user identified by the user name “hoge” and the user ID “0001”, and the various files described with reference to FIG. A past average value of information is described. When starting to use the mobile phone 1, the user inputs his / her user name and user ID registered in advance to the mobile phone 1. Note that not only the average value but also the variance value and integrated value of each behavior parameter may be managed as personal information.

例えば、行動パラメータ正規化部61は、行動パラメータ抽出・行動認識部21から行動パラメータファイルが供給されてきたとき、供給されてきた行動パラメータファイルに記述される行動パラメータにより表される行動を行ったユーザの個人情報を個人情報データベース62から読み出し、読み出した個人情報を用いて、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルに記述される行動パラメータの正規化を行う。   For example, when the behavior parameter file is supplied from the behavior parameter extraction / behavior recognition unit 21, the behavior parameter normalization unit 61 performs a behavior represented by the behavior parameter described in the supplied behavior parameter file. The personal information of the user is read from the personal information database 62, and the behavior parameters described in the behavior parameter file supplied from the behavior parameter extraction / behavior recognition unit 21 are normalized using the read personal information.

具体的には、ユーザの歩数が多いか少ないかを判断する場合について考えると、1日の歩数は、通勤経路の違いや体力の違いなどからユーザ毎にかなり差が出てくるため、単純に、歩数を閾値と比較することによって判断するだけでは適切な判断を行うことができない。従って、個人情報から、ユーザの歩数の分布(正規分布と仮定)を調べ、それを用いて、行動パラメータファイルに記述されるユーザの今日1日の歩数を正規化することによって、普段歩いてる歩数とどれくらい違うのかがわかることになる。   Specifically, when considering whether the number of steps of the user is large or small, since the number of steps per day varies considerably from user to user due to differences in commuting routes, physical strength, etc. It is not possible to make an appropriate determination simply by comparing the number of steps with a threshold value. Therefore, the number of steps normally taken by checking the distribution of the number of steps of the user (assuming a normal distribution) from the personal information and normalizing the number of steps of the user today described in the behavior parameter file by using the distribution. You can see how different it is.

正規化された歩数を、平均0、分散1の正規分布とすると、例えば、
正規化された歩数が0〜1の間であれば「だいたいいつもと同じ歩数」
正規化された歩数が1〜2の間であれば「まぁまぁ歩いた」
正規化された歩数が2〜3の間であれば「かなり多く歩いた」
正規化された歩数が3以上であれば「年に1回あるか無いかというくらい、相当な歩数歩いた!!」
と判断することが可能となる。
If the normalized number of steps is a normal distribution with an average of 0 and a variance of 1, for example,
If the normalized number of steps is between 0 and 1, "about the same number of steps as usual"
If the normalized number of steps is between 1 and 2, "I walked well"
If the normalized number of steps is between 2 and 3, "I walked a lot"
If the normalized number of steps is 3 or more, “I walked a considerable number of steps as if there were once a year!”
It becomes possible to judge.

このような正規化を行って歩数についての判断を行い、文章を選択すると、個人の差を吸収した形で、「今日は多く歩いた」などの文章を選択することが可能になる。同様にして正規化を行うことによって得られた複数の行動パラメータを組み合わせることで、さらに適切な判断を行うことも可能となる。   When such normalization is performed to determine the number of steps and a sentence is selected, it is possible to select a sentence such as “I walked a lot today” in a form that absorbed individual differences. Similarly, by combining a plurality of behavior parameters obtained by performing normalization, it is possible to make a more appropriate determination.

例えば、曜日による平均、分散を用いた正規化によって得られた行動パラメータ、天気による平均、分散を用いた正規化によって得られた行動パラメータ、ユーザの月齢による平均、分散を用いた正規化によって得られた行動パラメータが、各種の判断に用いられるようにすることができる。また、1日全体の行動をクラス分けして、クラスごとの平均、分散を用いた正規化によって得られた行動パラメータ、短時間の行動をクラス分けして、クラスごとの平均、分散を用いた正規化によって得られた行動パラメータが用いられるようにすることができる。   For example, average by day of week, behavior parameter obtained by normalization using variance, average by weather, behavior parameter obtained by normalization by variance, average by user age, obtained by normalization by variance The given behavior parameter can be used for various determinations. In addition, classifying the behavior of the whole day, classifying the behavior parameters obtained by normalization using average and variance for each class, and short-term behavior, and using the average and variance for each class Action parameters obtained by normalization can be used.

図18の説明に戻り、体験パラメータ生成部63は、行動パラメータ正規化部61により正規化された行動パラメータに基づいて体験パラメータを生成し、生成した体験パラメータと、正規化された行動パラメータに基づいて表示装置24に画面の表示を行わせる。   Returning to the description of FIG. 18, the experience parameter generation unit 63 generates an experience parameter based on the behavior parameter normalized by the behavior parameter normalization unit 61, and based on the generated experience parameter and the normalized behavior parameter. The display device 24 displays the screen.

また、体験パラメータ生成部63は、生成した体験パラメータと、正規化された行動パラメータをサーバ2に送信する。ユーザの行動に基づいて生成された文章だけでなく、体験パラメータ、行動パラメータに関する情報も、サーバ2上で公開されたり、表示装置24に表示されたりする。さらに、ユーザの行動に基づいて生成された文章、体験パラメータ、行動パラメータに関する情報は、サーバ2上に公開されるだけでなく、例えばサーバ2上に蓄積させ、個人の行動プロファイルとして利用することも可能である。   In addition, the experience parameter generation unit 63 transmits the generated experience parameter and the normalized behavior parameter to the server 2. Not only the text generated based on the user's action, but also information related to the experience parameter and the action parameter is published on the server 2 or displayed on the display device 24. Furthermore, the text, the experience parameters, and the information regarding the behavior parameters generated based on the user's behavior are not only disclosed on the server 2 but also stored on the server 2 and used as an individual behavior profile, for example. Is possible.

例えば、体験パラメータ生成部63においては、行動パラメータ正規化部61により正規化された複数の行動パラメータが組み合わせられることによって、「すたすた度」、「ぶらぶら度」、「はつらつ度」、「のんびり度」などの新しいパラメータが生成される。複数の行動パラメータに基づいて新たにパラメータが生成され、それに基づいて情報の表示が行われるようにすることによって、正規化された歩数、左ターンの回数などの行動パラメータに基づいて、そのまま、「歩数度」、「左ターン回数度」などが表示される場合に較べて、エンターテインメント性を向上させることができる。   For example, in the experience parameter generation unit 63, a plurality of behavior parameters normalized by the behavior parameter normalization unit 61 are combined, so that “the degree of staggering”, “the degree of dangling”, “the degree of perturbing”, “the degree of leisure” New parameters are generated. By newly generating parameters based on a plurality of behavior parameters and displaying information based on them, the behavior parameters such as the normalized number of steps and the number of left turns are used as they are. As compared with the case where “step count”, “left turn count” or the like is displayed, the entertainment property can be improved.

図20に示されるように、「すたすた度」は、例えば、平均歩行ピッチ(Hz)と平均ターン回数(回/分)を足した値に、歩数(歩)を掛け合わせることによって求められ、「ぶらぶら度」は、例えば、歩数(歩)、平均歩行ピッチ(Hz)、平均ターン回数(回/分)、ユーザの行動が「歩き」として認識された割合、「歩き」として認識された回数(回)、「歩き」として継続して認識された時間を足し合わせることによって求められる。   As shown in FIG. 20, the “degree of progress” is obtained, for example, by multiplying a value obtained by adding the average walking pitch (Hz) and the average number of turns (times / minute) with the number of steps (steps). The “hanging degree” includes, for example, the number of steps (steps), the average walking pitch (Hz), the average number of turns (times / minute), the rate at which the user's behavior is recognized as “walking”, and the number of times as “walking” ( Times), and adding the time continuously recognized as “walking”.

また、「はつらつ度」は、消費カロリー、歩数(歩)、平均歩行ピッチ(Hz)を足し合わせることによって求められ、「のんびり度」は、ユーザの行動が「静止」として認識された割合から、歩数(歩)と平均歩行ピッチ(Hz)の和を引くことによって求められる。「はつらつ度」における消費カロリーは、例えば、ユーザによりあらかじめ入力してもらった体重や年齢、行動パラメータファイルに記述される「歩き」と「走り」それぞれの総時間などから求められる。   In addition, “Hatsuatsu degree” is calculated by adding calories burned, steps taken (steps), and average walking pitch (Hz), and “relaxation degree” is calculated based on the ratio that the user's action is recognized as “still”. It is obtained by subtracting the sum of the number of steps (steps) and the average walking pitch (Hz). The calorie consumption in “Hatsutsutsu” is obtained from, for example, the weight and age input in advance by the user, the total time of “walking” and “running” described in the behavior parameter file, and the like.

なお、他のパラメータが、体験パラメータとして体験パラメータ生成部63により求められるようにしてもよい。   Other parameters may be obtained by the experience parameter generating unit 63 as experience parameters.

体験分類部64は、体験表現辞書記憶部23に記憶されている体験表現辞書と、スコアテーブル記憶部65に記憶されているスコアテーブルを参照し、行動パラメータ正規化部61により正規化された行動パラメータと体験分類部64により生成された体験パラメータに応じた文章を選択し、選択した文章を表示装置24に表示させたり、選択した文章をサーバ2に送信したりする。上述したように、体験表現辞書記憶部23に記憶されている体験表現辞書には、文章と行動が対応付けられている。   The experience classification unit 64 refers to the experience expression dictionary stored in the experience expression dictionary storage unit 23 and the score table stored in the score table storage unit 65, and the behavior normalized by the behavior parameter normalization unit 61. A sentence according to the experience parameter generated by the parameter and experience classification unit 64 is selected, and the selected sentence is displayed on the display device 24 or the selected sentence is transmitted to the server 2. As described above, sentences and actions are associated with the experience expression dictionary stored in the experience expression dictionary storage unit 23.

図21は、体験分類部64の詳細な構成例を示すブロック図である。   FIG. 21 is a block diagram illustrating a detailed configuration example of the experience classification unit 64.

図21に示されるように、体験分類部64は、体験分類選択部71、体験表現選択部72、更新部73、および表示データ生成部74から構成される。   As shown in FIG. 21, the experience classification unit 64 includes an experience classification selection unit 71, an experience expression selection unit 72, an update unit 73, and a display data generation unit 74.

体験分類選択部71は、スコアテーブル記憶部65に記憶されているスコアテーブルを参照することによって、行動パラメータ正規化部61から供給された行動パラメータと、体験パラメータ生成部63から供給された行動パラメータに基づいてユーザの行動を分類し、分類結果を体験表現選択部72に出力する。分類結果は、大分類と小分類の組合せからなり、この組合せに応じて、文章が体験表現選択部72により選択される。   The experience classification selection unit 71 refers to the score table stored in the score table storage unit 65, and thereby the behavior parameters supplied from the behavior parameter normalization unit 61 and the behavior parameters supplied from the experience parameter generation unit 63. The user's action is classified based on the result, and the classification result is output to the experience expression selecting unit 72. The classification result consists of a combination of a large classification and a small classification, and a sentence is selected by the experience expression selection unit 72 according to this combination.

体験分類選択部71によるユーザの行動の分類の処理は、主に、大分類選択処理、小分類条件チェック処理、小分類選択処理の3つの処理からなる。   The process of classifying a user's action by the experience classification selection unit 71 mainly includes three processes: a large classification selection process, a small classification condition check process, and a small classification selection process.

大分類選択処理は、スコアテーブルに登録されている大分類を、登録されている順に1つずつ注目する処理である。それぞれの大分類には確率があらかじめ設定されており、100%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが100%の確率で行われ、50%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが50%の確率で行われる。   The major classification selection process is a process of paying attention to the major classifications registered in the score table one by one in the registered order. Each major category has a probability set in advance. For a major category for which a probability of 100% is set, the condition of the minor category set for it is checked with a probability of 100%, 50% For the large classification for which the probability is set, the condition of the small classification set for it is checked with a probability of 50%.

設定されている確率に応じて小分類の条件のチェックが行われる毎に、注目の対象となる大分類が切り換えられる。また、設定されている確率に応じて小分類の条件のチェックが行われない場合、注目の対象となる大分類は次の大分類に切り換えられる。   Each time the minor classification condition is checked according to the set probability, the major classification to be noticed is switched. In addition, when the check of the condition of the minor classification is not performed according to the set probability, the major classification to be noticed is switched to the next major classification.

小分類条件チェック処理は、1つの大分類に対して設定されている小分類の条件をチェックする処理である。1つの大分類に対して複数の小分類の条件が設定されている場合、条件のチェックは1つずつ順に行われる。それぞれの小分類の条件にも確率があらかじめ設定されており、100%の確率が設定されている小分類の条件については、そのチェックが100%の確率で行われ、50%の確率が設定されている小分類の条件については、そのチェックが50%の確率で行われる。   The minor classification condition check process is a process of checking the minor classification condition set for one major classification. When a plurality of minor classification conditions are set for one major classification, the conditions are checked one by one in order. Probabilities are also set in advance for each sub-classification condition. For sub-classification conditions for which a probability of 100% is set, the check is performed with a probability of 100% and a probability of 50% is set. The check is performed with a probability of 50% for the condition of the small classification.

小分類の条件のチェック時には、適宜、体験表現選択部72により選択される文章中の変数がセットされる。例えば、小分類の条件のチェックとして、日記(Blogなど)を付けはじめてからの経過日数のチェックが行われた場合、体験表現選択部72により選択される文章中に日数をあてはめる変数がある場合、チェックに用いられたものと同じ経過日数が体験分類選択部71から体験表現選択部72に通知され、文章中の変数に、チェックに用いられたものと同じ経過日数がセットされる。   When checking the sub-category conditions, variables in the text selected by the experience expression selection unit 72 are set as appropriate. For example, when checking the number of days since the start of adding a diary (such as a blog) as a check for the condition of the small classification, if there is a variable that fits the number of days in the sentence selected by the experience expression selection unit 72, The same elapsed days as those used for the check are notified from the experience classification selection unit 71 to the experience expression selection unit 72, and the same elapsed days as those used for the check are set in the variable in the sentence.

小分類選択処理は、小分類条件チェック処理により、条件に一致すると判断した小分類を選択する処理である。小分類にも確率があらかじめ設定されており、100%の確率が設定されている小分類については、条件が一致すると判断された場合、その小分類は100%の確率で選択され、50%の確率が設定されている小分類については、条件が一致すると判断された場合、その小分類は50%の確率で選択される。   The small classification selection process is a process of selecting a small classification determined to match the condition by the small classification condition check process. Probabilities are also set in advance for the sub-classes. For sub-classes for which a probability of 100% is set, if it is determined that the conditions match, the sub-classes are selected with a probability of 100%, and 50% For a small category for which a probability is set, if it is determined that the conditions match, the small category is selected with a probability of 50%.

条件は一致するが、確率によって選択されなかった小分類はスキップされ、同じ大分類に属する次の小分類の条件のチェックなどが行われる。また、大分類選択処理によって選択された1つの大分類に属する全ての小分類が選択されなかった場合、次の大分類を選択するか否かを判断することが大分類選択処理によって行われる。   The minor classifications that match the conditions but are not selected according to the probability are skipped, and the condition of the next minor classification belonging to the same major classification is checked. Further, when all the small categories belonging to one major category selected by the major category selection process are not selected, it is determined by the major category selection process whether or not the next major category is selected.

小分類選択処理によって選択された小分類は、それが属する大分類とともに、体験表現選択部72に通知される。   The small classification selected by the small classification selection process is notified to the experience expression selection unit 72 together with the large classification to which the small classification belongs.

図22は、スコアテーブル記憶部65に記憶されているスコアテーブルの例を示す図である。   FIG. 22 is a diagram illustrating an example of a score table stored in the score table storage unit 65.

図22に示されるように、1つの大分類には複数の小分類が属しており、それぞれの大分類とそれぞれの小分類には確率が設定されている。図22の右端に示される小分類選択確率が、小分類を選択するか否かを判断する基準となる確率である。それぞれの小分類には小分類選択条件も設定されている。   As shown in FIG. 22, a plurality of small classifications belong to one large classification, and a probability is set for each large classification and each small classification. The small category selection probability shown at the right end of FIG. 22 is a probability serving as a reference for determining whether or not to select a small category. A small category selection condition is also set for each small category.

それぞれの小分類に設定されている小分類最大確率は、小分類選択確率の最大確率であり、その隣に示される減算、増分の確率に応じて、更新部73により更新される。   The maximum minor classification probability set for each minor classification is the maximum probability of the minor classification selection probability, and is updated by the updating unit 73 according to the subtraction and increment probabilities shown next to it.

図22の例においては、大分類として「記念日ネタ」、「曜日」、「行動パラメータ」、「体験パラメータ」が示されており、それぞれの確率は、100%,100%,50%,50%とされている。   In the example of FIG. 22, “anniversary news item”, “day of the week”, “behavior parameter”, and “experience parameter” are shown as major classifications, and the respective probabilities are 100%, 100%, 50%, 50 %.

100%の確率が設定されている「記念日ネタ」と「曜日」の大分類は大分類選択処理において100%の確率で選択され、それに属する小分類の条件をチェックする処理が行われる。また、50%の確率が設定されている「行動パラメータ」と「体験パラメータ」の大分類は大分類選択処理において50%の確率で選択され、確率に応じて選択されたときだけ、それに属する小分類の条件をチェックする処理が行われる。   The major classification of “anniversary news item” and “day of the week” for which the probability of 100% is set is selected with a probability of 100% in the major classification selection process, and the process of checking the conditions of the minor classification belonging to it is performed. In addition, the major categories of “behavior parameter” and “experience parameter” for which a probability of 50% is set are selected with a probability of 50% in the major category selection process, and only when selected according to the probability, Processing for checking the classification condition is performed.

図22の例においては、大分類「記念日ネタ」には「日記開始日」と「100日毎」の小分類が属しており、それぞれ100%の小分類選択確率が設定されている。すなわち、条件が一致する場合、「日記開始日」と「100日毎」は、100%の確率で選択される小分類とされている。「日記開始日」の選択条件は「日記の開始日」であり、「100日毎」の選択条件は「100日経過毎」である。   In the example of FIG. 22, the small classification “diary start date” and “every 100 days” belong to the large classification “anniversary news item”, and a small classification selection probability of 100% is set for each. In other words, when the conditions match, “diary start date” and “every 100 days” are sub-categories selected with a probability of 100%. The selection condition for “diary start date” is “diary start date”, and the selection condition for “every 100 days” is “every 100 days have elapsed”.

従って、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「日記開始日」である場合、大分類「記念日ネタ」に属する「日記開始日」の小分類は、その条件が一致すると判断され、100%の確率で、小分類選択処理によって選択される。このとき、大分類「記念日ネタ」と小分類「日記開始日」の組合せが、体験表現選択部72に出力される。   Therefore, when the behavior parameter is supplied from the behavior parameter normalization unit 61 and the experience parameter is supplied from the experience parameter generation unit 63 is the “diary start date”, the “diary” belonging to the major classification “anniversary news item” The sub-category “start date” is determined to satisfy the condition, and is selected by the sub-class selection process with a probability of 100%. At this time, the combination of the major classification “anniversary news item” and the minor classification “diary start date” is output to the experience expression selection unit 72.

同様に、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、日記の開始日から「100日毎」の日にあたる場合、大分類「記念日ネタ」に属する「100日毎」の小分類は、その条件が一致すると判断され、100%の確率で、小分類選択処理によって選択される。このとき、大分類「記念日ネタ」と小分類「100日毎」の組合せが、体験表現選択部72に出力される。体験表現選択部72においては、日付も管理されている。   Similarly, when the behavior parameter is supplied from the behavior parameter normalization unit 61 and the experience parameter is supplied from the experience parameter generation unit 63 today is “every 100 days” from the start date of the diary, The subcategory “every 100 days” belonging to the “net” is determined to satisfy the condition, and is selected by the subclass selection process with a probability of 100%. At this time, the combination of the major classification “anniversary news item” and the minor classification “every 100 days” is output to the experience expression selection unit 72. In the experience expression selection unit 72, dates are also managed.

また、図22の例においては、大分類「曜日」には「平日」と「休日」の小分類が属しており、それぞれ50%の小分類選択確率が設定されている。「平日」の選択条件は「平日」であり、「休日」の選択条件は「休日」である。   In the example of FIG. 22, the major category “day of the week” belongs to the minor categories “weekday” and “holiday”, and the minor category selection probability of 50% is set for each. The selection condition for “weekdays” is “weekdays”, and the selection condition for “holidays” is “holiday”.

従って、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「平日」である場合、大分類「記念日ネタ」に属する「平日」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「平日」の小分類が選択されたとき、大分類「記念日ネタ」と小分類「平日」の組合せが、体験表現選択部72に出力される。   Accordingly, when the behavior parameter is supplied from the behavior parameter normalization unit 61 and the experience parameter is supplied from the experience parameter generation unit 63 today is “weekday”, the “weekdays” belonging to the major classification “anniversary news item” The minor classification is determined to have the same condition, and is selected by the minor classification selection process with a probability of 50%. When the subcategory “weekday” is selected in consideration of the probability, the combination of the major category “anniversary news item” and the subcategory “weekday” is output to the experience expression selection unit 72.

同様に、行動パラメータ正規化部61から行動パラメータが供給され、体験パラメータ生成部63から体験パラメータが供給された今日が、「休日」である場合、大分類「記念日ネタ」に属する「休日」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「休日」の小分類が選択されたとき、大分類「記念日ネタ」と小分類「休日」の組合せが、体験表現選択部72に出力される。   Similarly, when the behavior parameter is supplied from the behavior parameter normalization unit 61 and the experience parameter is supplied from the experience parameter generation unit 63 today is “holiday”, “holiday” belonging to the major class “anniversary news item” It is determined that the conditions match, and are selected by the small classification selection process with a probability of 50%. When the minor category “holiday” is selected in consideration of the probability, the combination of the major category “anniversary news item” and the minor category “holiday” is output to the experience expression selection unit 72.

さらに、図22の例においては、大分類「行動パラメータ」には「歩数」と「運動カロリー」の小分類が属しており、「歩数」の小分類には35%の小分類選択確率が設定され、「運動カロリー」の小分類には50%の小分類選択確率が設定されている。「歩数」の選択条件は「歩数が閾値を超えた場合」であり、「運動カロリー」の選択条件は「運動カロリーが閾値を超えた場合」である。   Further, in the example of FIG. 22, a small classification of “steps” and “exercise calories” belongs to the large classification “behavior parameter”, and a small classification selection probability of 35% is set to the small classification of “steps”. The subcategory selection probability of 50% is set in the subcategory of “exercise calories”. The selection condition for “number of steps” is “when the number of steps exceeds a threshold”, and the selection condition for “exercise calories” is “when exercise calories exceed a threshold”.

従って、50%の確率を考慮した上で「行動パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、行動パラメータ正規化部61から供給された行動パラメータにより表される「歩数」が閾値を超えている場合、大分類「行動パラメータ」に属する「歩数」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「歩数」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「歩数」の組合せが、体験表現選択部72に出力される。   Therefore, when the large classification of “behavior parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to it is performed, and the behavior parameter supplied from the behavior parameter normalization unit 61 is performed. When the “step count” represented by the above is over the threshold, it is determined that the conditions of the small number of “steps” belonging to the large classification “behavior parameter” match, and the probability of 35% is determined by the small classification selection process. Selected. When the small category “step count” is selected in consideration of the probability, the combination of the large category “action parameter” and the small category “step count” is output to the experience expression selection unit 72.

同様に、50%の確率を考慮した上で「行動パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、行動パラメータ正規化部61から供給された行動パラメータにより表される「運動カロリー」が閾値を超えている場合、大分類「行動パラメータ」に属する「運動カロリー」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「運動カロリー」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「運動カロリー」の組合せが、体験表現選択部72に出力される。   Similarly, when the large classification of “behavior parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to it is performed, and the action supplied from the action parameter normalization unit 61 When the “exercise calorie” represented by the parameter exceeds the threshold, it is determined that the conditions of the “exercise calories” belonging to the large classification “behavioral parameters” are the same, and the subcategory has a probability of 50%. Selected by the selection process. When the small category of “exercise calorie” is selected in consideration of the probability, the combination of the large category “behavior parameter” and the small category “exercise calorie” is output to the experience expression selection unit 72.

図22の例においては、大分類「体験パラメータ」には「すたすた度1」、「すたすた度2」、「ぶらぶら度1」の小分類が属しており、「すたすた度1」の小分類と「すたすた度2」の小分類には35%の小分類選択確率が設定され、「ぶらぶら度1」の小分類には50%の小分類選択確率が設定されている。「すたすた度1」の選択条件は「すたすた度が閾値*を超えた場合」であり、「すたすた度2」の選択条件は「すたすた度が*以上、以*内の場合」である。「ぶらぶら度1」の選択条件は「ぶらぶら度が閾値*を超えた場合」である。   In the example of FIG. 22, the large classification “experience parameter” belongs to the small classifications “Studying degree 1”, “Studying degree 2”, and “Blurring degree 1”. A small classification selection probability of 35% is set for the small classification of “Studying degree 2”, and a small classification selection probability of 50% is set for the small classification of “Standing degree 1”. The selection condition of “degree of promotion 1” is “when the degree of advancement exceeds the threshold value *”, and the selection condition of “degree of advancement 2” is “when the degree of advancement is greater than or equal to * and within *”. The selection condition of “hanging degree 1” is “when the hanging degree exceeds a threshold value *”.

従って、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「すたすた度」が閾値を超えている場合、大分類「行動パラメータ」に属する「すたすた度1」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「すたすた度1」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「すたすた度1」の組合せが、体験表現選択部72に出力される。   Therefore, when the large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to the large classification is performed, and the experience parameter supplied from the experience parameter generation unit 63 is used. If the expressed “degree of support” exceeds the threshold value, it is determined that the condition of the subclass of “degree of support 1” belonging to the large classification “behavior parameter” matches the condition, and the small classification is selected with a probability of 35%. Selected by processing. When the subclass “Studder degree 1” is selected in consideration of the probability, the combination of the major class “Behavior parameter” and the subclass “Studder degree 1” is output to the experience expression selection unit 72.

また、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「すたすた度」が*以上*以内の場合、大分類「行動パラメータ」に属する「すたすた度2」の小分類は、その条件が一致すると判断され、35%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「すたすた度2」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「すたすた度2」の組合せが、体験表現選択部72に出力される。   In addition, when a large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking a condition of a small classification belonging to the large classification is performed, and the experience parameter supplied from the experience parameter generation unit 63 is used. If the “degree of support” is between * and *, it is judged that the conditions of the sub-class of “degree of support 2” belonging to the large classification “behavior parameters” match, and the sub-class is selected with a probability of 35%. Selected by processing. When the subclass “Studder degree 2” is selected in consideration of the probability, the combination of the major class “Behavior parameter” and the subclass “Studder degree 2” is output to the experience expression selection unit 72.

同様に、50%の確率を考慮した上で「体験パラメータ」の大分類が選択された場合、それに属する小分類の条件をチェックする処理が行われ、体験パラメータ生成部63から供給された体験パラメータにより表される「ぶらぶら度」が閾値を超えた場合、大分類「行動パラメータ」に属する「ぶらぶら度1」の小分類は、その条件が一致すると判断され、50%の確率で、小分類選択処理によって選択される。確率をも考慮した上で「ぶらぶら度1」の小分類が選択されたとき、大分類「行動パラメータ」と小分類「ぶらぶら度1」の組合せが、体験表現選択部72に出力される。   Similarly, when the large classification of “experience parameter” is selected in consideration of the probability of 50%, a process for checking the condition of the small classification belonging to the large classification is performed, and the experiential parameter supplied from the experiential parameter generation unit 63 is performed. When the “hanging degree” expressed by the above expression exceeds the threshold, it is determined that the conditions of the small classification of “hanging degree 1” belonging to the large classification “behavior parameter” match, and the small classification selection is performed with a probability of 50%. Selected by processing. When a small classification of “hanging degree 1” is selected in consideration of the probability, a combination of the large classification “behavior parameter” and the small classification “hanging degree 1” is output to the experience expression selection unit 72.

このように、スコアテーブル記憶部65に記憶されるスコアテーブルに基づいて、文章を選択する元になる大分類と小分類の組合せが体験分類選択部71により選択される。   As described above, based on the score table stored in the score table storage unit 65, the combination of the large classification and the small classification from which the sentence is selected is selected by the experience classification selection unit 71.

図21の説明に戻り、体験表現選択部72は、体験表現辞書記憶部23に記憶されている体験表現辞書を参照することによって、体験分類選択部71による分類の結果に基づいて文章を選択し、選択した文章を更新部73と表示データ生成部74に出力する。   Returning to the description of FIG. 21, the experience expression selection unit 72 selects a sentence based on the result of classification by the experience classification selection unit 71 by referring to the experience expression dictionary stored in the experience expression dictionary storage unit 23. The selected text is output to the update unit 73 and the display data generation unit 74.

図23は、体験表現辞書記憶部23に記憶されている体験表現辞書の例を示す図である。   FIG. 23 is a diagram illustrating an example of the experience expression dictionary stored in the experience expression dictionary storage unit 23.

図23に示されるように、体験表示辞書は、体験分類と文章(テキストデータ)を対応付けるテーブルである。なお、ここでは、体験分類と文章を対応付けるものとして説明するが、これに限らず、アイコンやアニメーションなどの画像情報(画像データ)、および音声情報(音声データ)を対応付けることもできる。   As shown in FIG. 23, the experience display dictionary is a table that associates experience classifications with sentences (text data). Here, the description is made on the assumption that the experience classification and the text are associated with each other. However, the present invention is not limited to this, and image information (image data) such as icons and animations and audio information (audio data) can also be associated.

図23の例においては、大分類「時間ネタ」、小分類「日記開始日」が、「今日から日記をつけるよ。」の文章と、「日記を書こうぜ。」の文章に対応付けられている。また、大分類「時間ネタ」、小分類「日記開始日」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。   In the example of FIG. 23, the major classification “time story” and the minor classification “diary start date” are associated with the sentence “I will add a diary from today” and the sentence “I will write a diary”. Yes. “Random” is set as the selection policy for the sentences associated with the major classification “time news” and the minor classification “diary start date”.

すなわち、体験分類選択部71により大分類が「時間ネタ」として選択され、小分類が「日記開始日」として選択された場合、「今日から日記をつけるよ。」の文章と、「日記を書こうぜ。」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。   That is, when the major classification is selected as “time news” and the minor classification is selected as “diary start date” by the experience classification selection unit 71, a sentence “I will add a diary from today” and “write a diary” Any sentence among the sentences “Kazeze.” Is selected at random.

図23の例においては、「今日から日記をつけるよ。」の文章には、選択済みの回数として「1」が設定されており、過去に、「今日から日記をつけるよ。」の文章が1回だけ選択されたものとされている。文章の選択には、このような選択済みの回数も適宜考慮され、過去に選択されていない文章が優先的に選択される。大分類と小分類の1つの組合せに多くの文章が対応付けられ、さらに、選択済みの回数が考慮されることにより、選択される文章が同じようなものになってしまうのを防ぐことができる。   In the example of FIG. 23, “1” is set as the number of selected times in the sentence “I will add a diary from today.”, And the sentence “I will add a diary from today.” It is assumed that it has been selected only once. In selecting a sentence, such a selected number of times is also considered as appropriate, and a sentence that has not been selected in the past is preferentially selected. Many sentences are associated with one combination of the large classification and the small classification, and further, the number of selected times is taken into consideration, thereby preventing the selected sentences from being similar. .

図23の例においては、大分類「時間ネタ」、小分類「100日毎」が、「今日で日記を付けはじめて**日経しました。」の文章と、「もう**日経ったんだ。」の文章に対応付けられている。また、大分類「時間ネタ」、小分類「100日毎」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。   In the example of FIG. 23, the major classification “time story” and the minor classification “every 100 days” include the sentence “It has started ** days since we started adding a diary today” and “It has already passed ** days.” Is associated with the sentence. Also, “random” is set as the selection policy for the sentences associated with the major classification “time news” and minor classification “every 100 days”.

体験分類選択部71により大分類が「時間ネタ」として選択され、小分類が「100日毎」として選択された場合、「今日で日記を付けはじめて**日経しました。」の文章と、「もう**日経ったんだ。」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。「もう**日経ったんだ。」の文章には、選択済みの回数として「1」が設定されている。   When the major category is selected as “time news” and the minor category is selected as “every 100 days” by the experience category selection unit 71, the text “Beginning diary today and ** Nikkei has passed.” Any sentence from "** It's been a day" is supposed to be selected randomly. In the sentence “It's already ** days,” “1” is set as the selected number of times.

同様に、図23の例においては、大分類「体験パラメータ」、小分類「すたすた度1」が、「今日はお仕事だったの?」の文章と、「今日はいつもの所にいってきたの?」の文章と、「今日はなんだか忙しかったね?」の文章に対応付けられている。また、大分類「体験パラメータ」、小分類「すたすた度1」に対応付けられている文章の選択ポリシーとして「ランダム」が設定されている。   Similarly, in the example of FIG. 23, the major classification “experience parameter” and the minor classification “Studying degree 1” include the text “Did you work today?” And “Did you come to the usual place today? "And the sentence" I was busy today? " In addition, “random” is set as the selection policy for the sentences associated with the large classification “experience parameter” and the small classification “degree of staring 1”.

体験分類選択部71により大分類が「体験パラメータ」として選択され、小分類が「すたすた度1」として選択された場合、「今日はお仕事だったの?」の文章と、「今日はいつもの所にいってきたの?」の文章と、「今日はなんだか忙しかったね?」の文章のうちのいずれかの文章が、ランダムで、選択されるものとされている。「今日はお仕事だったの?」の文章には、選択済みの回数として「1」が設定されている。   When the major category is selected as the “experience parameter” by the experience category selection unit 71 and the minor category is selected as “Studying 1”, the text “Did you work today?” Any sentence of the sentence “Was you come to?” Or “Are you busy today?” Is selected at random. In the sentence “Did you work today?”, “1” is set as the selected number of times.

体験表現辞書には、それぞれの大分類と小分類の組合せに対して、このように複数の文章が対応付けられており、体験分類選択部71による分類結果に応じた文章が体験表現選択部72により選択される。   In the experience expression dictionary, a plurality of sentences are associated with each combination of the major classification and the minor classification in this way, and sentences according to the classification result by the experience classification selecting section 71 are the experience expression selecting section 72. Is selected.

体験表現選択部72は、以上のようにして選択した文章を体験分類選択部71、更新部73、および表示データ生成部74に出力する。   The experience expression selection unit 72 outputs the sentence selected as described above to the experience classification selection unit 71, the update unit 73, and the display data generation unit 74.

更新部73は、体験表現選択部72により選択された文章に応じて、スコアテーブル記憶部65に記憶されているスコアテーブルと体験表現辞書記憶部23に記憶されている体験表現辞書を更新する。   The update unit 73 updates the score table stored in the score table storage unit 65 and the experience expression dictionary stored in the experience expression dictionary storage unit 23 in accordance with the sentence selected by the experience expression selection unit 72.

例えば、更新部73は、図22を参照して説明したような、小分類を選択する基準となる小分類選択確率を、小分類に設定されている小分類最大確率を超えない範囲で、減算、増分として設定されている確率に応じて更新する。また、更新部73は、図23を参照して説明したような選択済みの回数を、体験表現選択部72により選択された文章に応じて更新し、同じ文章が繰り返し選択されないようにする。   For example, the update unit 73 subtracts the small classification selection probability that is a criterion for selecting the small classification as described with reference to FIG. 22 within a range not exceeding the maximum small classification probability set in the small classification. , Update according to the probability set as increment. In addition, the updating unit 73 updates the selected number of times as described with reference to FIG. 23 according to the text selected by the experience expression selecting unit 72 so that the same text is not repeatedly selected.

表示データ生成部74は、体験表現選択部72により選択された文章を表示するための表示データを生成し、生成した表示データをサーバ2に送信したり、表示装置24に出力したりする。サーバ2に文章を送信するとき、携帯電話機1のユーザの識別情報なども文章とともに送信され、携帯電話機1のユーザが開設しているBlogやSNSに登録される。表示データ生成部74による文章や識別情報の送信と、上述した体験パラメータ生成部63による体験パラメータの送信は例えば同時に行われ、体験パラメータも、文章にあわせてBlogやSNSに登録される。   The display data generation unit 74 generates display data for displaying the text selected by the experience expression selection unit 72, and transmits the generated display data to the server 2 or outputs it to the display device 24. When the text is transmitted to the server 2, identification information of the user of the mobile phone 1 is also transmitted along with the text, and is registered in Blog or SNS established by the user of the mobile phone 1. The transmission of the text and identification information by the display data generation unit 74 and the transmission of the experience parameter by the experience parameter generation unit 63 described above are performed simultaneously, for example, and the experience parameter is also registered in Blog or SNS in accordance with the text.

表示データ生成部74から表示装置24に対して表示データが出力されるときも同様に、その出力は、体験パラメータ生成部63による体験パラメータの出力と同時に行われる。表示装置24においては、表示データ生成部74から供給された文章と、体験パラメータ生成部63から供給された体験パラメータに基づいて画面表示が行われる。   Similarly, when the display data is output from the display data generation unit 74 to the display device 24, the output is performed simultaneously with the output of the experience parameters by the experience parameter generation unit 63. In the display device 24, screen display is performed based on the text supplied from the display data generation unit 74 and the experience parameters supplied from the experience parameter generation unit 63.

図24は、表示装置24に表示される画面の例を示す図である。   FIG. 24 is a diagram illustrating an example of a screen displayed on the display device 24.

図24の例においては、画面の上方に「hogeの日記 2005年11月12日(土)」と表示されており、図24に示される画面が、ユーザ「hoge」による「2005年11月12日」の行動に基づいて表示された画面とされている。   In the example of FIG. 24, “hoge diary November 12, 2005 (Sat)” is displayed at the top of the screen, and the screen shown in FIG. 24 is displayed by the user “hoge” “November 12, 2005”. The screen is displayed based on the “day” action.

日付などの下に画像Pとして表示されるキャラクタのポーズは、例えば、体験パラメータ生成部63により生成された体験パラメータを組み合わされることによって選択されたポーズであり、ユーザ「hoge」の状態を表す。   The pose of the character displayed as the image P under the date or the like is, for example, a pose selected by combining the experience parameters generated by the experience parameter generation unit 63 and represents the state of the user “hoge”.

画像Pの右側に示される「はつらつ度」、「のんびり度」、「すたすた度」、「ぶらぶら度」の星の数は、体験パラメータ生成部63により生成された「はつらつ度」、「のんびり度」、「すたすた度」、「ぶらぶら度」のそれぞれの体験パラメータの値に基づいて選択され、表示されるものである。   The number of stars of “Hatsutsu degree”, “Leased degree”, “Studying degree”, and “Hanging degree” shown on the right side of the image P is “Hatsu degree”, “Leased degree” generated by the experience parameter generation unit 63. , “Degree of stagnation” and “Degree of dangling” are selected and displayed based on the respective experience parameter values.

「ぶらぶら度」の下に表示される「歩数:2110歩」、「消費カロリー:35.0カロリー」、「歩行ピッチ:2.05歩/秒」は、体験パラメータ生成部63から体験パラメータとともに供給された、正規化された行動パラメータに基づいて表示されるものである。   “Steps: 2110 steps”, “Calories consumed: 35.0 calories”, and “Walking pitch: 2.05 steps / second” displayed under “Stillness” are supplied from the experience parameter generation unit 63 together with the experience parameters. Displayed based on the normalized behavior parameters.

「歩行ピッチ」などの下に表示される「今日はお買い物?それともお掃除?いっぱいしたね。今日はあまり歩かなかったね...」の文章は、体験表現選択部72により選択された文章の羅列である。   The text “Today's shopping or cleaning? I did not walk too much ...” displayed under “Walking Pitch” etc. is a list of sentences selected by the experience expression selection unit 72 It is.

このように、携帯電話機1のユーザは、1日の行動を表す文章を自ら入力することなく、「今日はあまり歩かなかったね」などの、自分の行動に関する文章を記録することができる。また、表示される文章は、歩数、歩いた場所などのリストが単に表示される場合に較べてエンターテインメント性のある文章であるため、より面白みのある文章を記録することができる。   In this manner, the user of the mobile phone 1 can record a sentence related to his / her action such as “You didn't walk too much today” without inputting a sentence representing the action of the day. Further, since the displayed text is a text that is more entertaining than when a list such as the number of steps and the place where the user walks is simply displayed, a more interesting text can be recorded.

なお、図24に示されるような画面と同じ画面が携帯電話機1のユーザのBlogやSNSとしてサーバ2においても管理される。パーソナルコンピュータ3のユーザは、サーバ2にアクセスすることによって、図24に示されるような画面から、携帯電話機1のユーザの1日の行動などを閲覧することができる。   Note that the same screen as that shown in FIG. 24 is also managed in the server 2 as a Blog or SNS of the user of the mobile phone 1. The user of the personal computer 3 can browse the daily action of the user of the mobile phone 1 from the screen shown in FIG. 24 by accessing the server 2.

ここで、以上のような構成を有する携帯電話機1の一連の処理についてフローチャートを参照して説明する。   Here, a series of processes of the mobile phone 1 having the above configuration will be described with reference to a flowchart.

はじめに、図25のフローチャートを参照して、行動パラメータを生成する携帯電話機1の処理について説明する。   First, with reference to the flowchart of FIG. 25, the process of the mobile telephone 1 which produces | generates an action parameter is demonstrated.

ステップS1において、携帯電話機1の行動パラメータ抽出・行動認識部21は、加速度センサ11、ジャイロセンサ12から供給されたセンサデータに基づいて、例えば歩行ピッチ、歩行パワー、重力軸まわりの回転角を求め、求めたそれらの情報から、歩数、平均の歩行ピッチ、平均のターン回数、平均の歩行・停止の回数を、行動パラメータとして抽出する。行動パラメータを抽出する処理は、例えば、ユーザ名やユーザIDが入力され、携帯電話機1による行動の認識を開始することがユーザにより指示されたときに開始される。   In step S1, the behavior parameter extraction / recognition unit 21 of the mobile phone 1 obtains, for example, the walking pitch, the walking power, and the rotation angle around the gravity axis based on the sensor data supplied from the acceleration sensor 11 and the gyro sensor 12. From the obtained information, the number of steps, the average walking pitch, the average number of turns, and the average number of walks / stops are extracted as action parameters. The process of extracting the behavior parameter is started when, for example, a user name or a user ID is input and the user instructs the mobile phone 1 to start behavior recognition.

また、行動パラメータ抽出・行動認識部21は、センサデータに基づいて求められた歩行ピッチ、歩行パワー、重力軸まわりの回転角に基づいて、「静止」、「歩き」、「走り」、「右ターン」、「左ターン」のいずれかをHMMなどを用いることによってユーザの行動として認識し、それぞれの行動の時間、割合、回数、継続時間などの情報も、行動パラメータとして抽出する。   In addition, the behavior parameter extraction / recognition unit 21 performs “stationary”, “walking”, “running”, “right” based on the walking pitch, walking power, and rotation angle around the gravity axis obtained based on the sensor data. Either “turn” or “left turn” is recognized as a user's action by using an HMM or the like, and information such as the time, ratio, number of times, and duration of each action is also extracted as an action parameter.

行動パラメータを抽出する処理は、例えば、ユーザが1日の携帯電話機1の使用を終えるまで、あるいは、あらかじめ決められた時刻(例えば、平均的な帰宅時刻や就寝時刻など)まで繰り返し行われる。   The process of extracting the behavior parameter is repeatedly performed until, for example, the user finishes using the mobile phone 1 on a day or until a predetermined time (for example, an average time to go home or bedtime).

ステップS2において、行動パラメータ抽出・行動認識部21は、抽出した行動パラメータが記述された例えばXML形式の行動パラメータファイルを生成し、生成した行動パラメータファイルを体験表現生成部22に出力する。行動パラメータ抽出・行動認識部21により生成された行動パラメータファイルは、ユーザの1日の行動を表すものとなる。   In step S <b> 2, the behavior parameter extraction / recognition unit 21 generates a behavior parameter file in, for example, XML format in which the extracted behavior parameters are described, and outputs the generated behavior parameter file to the experience expression generation unit 22. The behavior parameter file generated by the behavior parameter extraction / behavior recognition unit 21 represents the user's daily behavior.

次に、図26のフローチャートを参照して、行動パラメータファイルに記述される行動パラメータに基づいて、ユーザの体験表現としての文章を生成する携帯電話機1の処理について説明する。   Next, with reference to the flowchart of FIG. 26, the process of the mobile phone 1 for generating a sentence as a user's experience expression based on the behavior parameters described in the behavior parameter file will be described.

この処理は、例えば、図25の処理が行われ、行動パラメータ抽出・行動認識部21から体験表現生成部22に行動パラメータファイルが供給されたときに行われる。   This process is performed, for example, when the process of FIG. 25 is performed and the behavior parameter file is supplied from the behavior parameter extraction / behavior recognition unit 21 to the experience expression generation unit 22.

ステップS11において、体験表現生成部22は、行動パラメータ抽出・行動認識部21から供給された行動パラメータファイルを読み込む。行動パラメータファイルが読み込まれたとき、体験表現生成部22の行動パラメータ正規化部61においては、行動パラメータファイルに記述される各種の行動パラメータの正規化が行われ、正規化して得られた行動パラメータが体験パラメータ生成部63と体験分類部64に出力される。   In step S <b> 11, the experience expression generation unit 22 reads the behavior parameter file supplied from the behavior parameter extraction / behavior recognition unit 21. When the behavior parameter file is read, the behavior parameter normalization unit 61 of the experience expression generation unit 22 normalizes various behavior parameters described in the behavior parameter file, and the behavior parameters obtained by normalization are obtained. Is output to the experience parameter generation unit 63 and the experience classification unit 64.

ステップS12において、体験表現生成部22の体験パラメータ生成部63は、行動パラメータ正規化部61から供給された行動パラメータのいくつかを組み合わせるなどして体験パラメータを生成し、生成した体験パラメータを体験分類部64に出力する。また、体験パラメータ生成部63は、生成した体験パラメータを、行動パラメータ正規化部61から供給された行動パラメータとともに表示装置24に出力する。   In step S <b> 12, the experience parameter generation unit 63 of the experience expression generation unit 22 generates experience parameters by combining some of the behavior parameters supplied from the behavior parameter normalization unit 61, and the generated experience parameters are classified into experience classifications. To the unit 64. In addition, the experience parameter generation unit 63 outputs the generated experience parameters to the display device 24 together with the behavior parameters supplied from the behavior parameter normalization unit 61.

ステップS13において、体験表現生成部22の体験分類部64は、行動パラメータ正規化部61から供給された行動パラメータ、体験パラメータ生成部63から供給された体験パラメータ等に基づいて体験分類・体験表現生成処理を行う。ここでは、図21乃至図23を参照して説明したようにして、大分類と小分類の組合せが選択され、選択された組合せに応じて文章が選択される。体験分類・体験表現生成処理の詳細については図27のフローチャートを参照して後述する。   In step S13, the experience classification unit 64 of the experience expression generation unit 22 generates experience classification / experience expression based on the behavior parameters supplied from the behavior parameter normalization unit 61, the experience parameters supplied from the experience parameter generation unit 63, and the like. Process. Here, as described with reference to FIGS. 21 to 23, a combination of the major classification and the minor classification is selected, and a sentence is selected according to the selected combination. Details of the experience classification / experience expression generation processing will be described later with reference to the flowchart of FIG.

ステップS14において、例えば、表示装置24は、体験表現生成部22の体験パラメータ生成部63から供給された行動パラメータと体験パラメータ、体験分類部64により選択された文章に基づいて、ユーザの体験表現としての図24に示されるような画面を表示し、処理を終了させる。   In step S14, for example, the display device 24 uses the behavior parameters and experience parameters supplied from the experience parameter generation unit 63 of the experience expression generation unit 22 and the sentence selected by the experience classification unit 64 as user experience expressions. The screen as shown in FIG. 24 is displayed, and the process is terminated.

次に、図27のフローチャートを参照して、図26のステップS13において行われる体験分類・体験表現生成処理について説明する。   Next, the experience classification / experience expression generation process performed in step S13 of FIG. 26 will be described with reference to the flowchart of FIG.

ステップS21において、体験分類選択部71は、例えば図22に示したスコアテーブルに登録されている大分類を、登録されている順に1つ選択して確率をチェックする。100%の確率が設定されている大分類は、それに設定されている小分類の条件のチェックが100%の確率で行われるため、ステップS22に進む。50%の確率が設定されている大分類については、それに設定されている小分類の条件のチェックが50%の確率で行われる。つまり、ステップS21において、確率により選択しない場合には、次の大分類が選択される。   In step S21, the experience category selection unit 71 selects one major category registered in the score table shown in FIG. 22, for example, in the registered order, and checks the probability. For the major classification for which the probability of 100% is set, the condition of the minor classification set for it is checked with the probability of 100%, and the process proceeds to step S22. For the large classification for which the probability of 50% is set, the condition of the small classification set for it is checked with a probability of 50%. That is, in step S21, if not selected by probability, the next major classification is selected.

ステップS22において、体験分類選択部71は、ステップS21の処理で選択された大分類に対して設定されている小分類の条件を順番にチェックする。チェックの結果、条件が一致しない場合には、次の小分類の条件がチェックされる。また、条件に一致する小分類がない場合には、ステップS21に戻り、次の大分類が選択される。   In step S <b> 22, the experience classification selection unit 71 sequentially checks the minor classification conditions set for the major classification selected in step S <b> 21. If the condition does not match as a result of the check, the condition of the next minor classification is checked. If there is no minor category that matches the condition, the process returns to step S21, and the next major category is selected.

ステップS22において、条件に一致する小分類がある場合には、ステップS23に進み、体験分類選択部71は、条件に一致すると判断した小分類を現在の選択確率で選択するか否かを判断する。条件に一致するが現在の選択確率で選択されなかった場合には、ステップS22に戻り、次の小分類の条件がチェックされる。またどの小分類も選択されなかった場合には、ステップS21に戻り、次の大分類が選択される。   In step S22, when there is a small classification that matches the condition, the process proceeds to step S23, and the experience classification selection unit 71 determines whether or not to select the small classification determined to match the condition with the current selection probability. . If the conditions match but are not selected with the current selection probability, the process returns to step S22 to check the next sub-classification condition. If no minor category is selected, the process returns to step S21, and the next major category is selected.

ステップS23において、体験分類選択部71は、条件に一致し現在の選択確率で選択すると判断した場合には、大分類と小分類の組合せを体験表現選択部72に出力し、ステップS24に進む。   In step S23, when it is determined that the experience classification selection unit 71 matches the conditions and is selected with the current selection probability, the combination of the large classification and the small classification is output to the experience expression selection unit 72, and the process proceeds to step S24.

ステップS24において、体験表現選択部72は、体験表現辞書記憶部23に記憶されている体験表現辞書を参照することによって、ステップS23の処理で体験分類選択部71から通知された大分類と小分類の組合せに基づいて体験表現(テキストデータ)をランダムにまたはシーケンシャルに選択する。体験表現が選択されなかった場合には、ステップS22に戻り、次の小分類の条件がチェックされる。   In step S24, the experience expression selection unit 72 refers to the experience expression dictionary stored in the experience expression dictionary storage unit 23, so that the major classification and the minor classification notified from the experience classification selection unit 71 in the process of step S23. The experience expression (text data) is selected randomly or sequentially based on the combination of. If the experience expression is not selected, the process returns to step S22, and the condition for the next subclass is checked.

ステップS24の処理で体験表現が選択された後、ステップS25において、更新部73は、体験表現選択部72により選択された文章に応じて、スコアテーブル記憶部65に記憶されているスコアテーブルと体験表現辞書記憶部23に記憶されている体験表現辞書を更新する。   After the experience expression is selected in the process of step S24, in step S25, the update unit 73 determines the score table and the experience stored in the score table storage unit 65 according to the sentence selected by the experience expression selection unit 72. The experience expression dictionary stored in the expression dictionary storage unit 23 is updated.

ステップS25において、表示データ生成部74は、体験表現選択部72により選択された文章を表示するための表示データを生成する。その後、処理は、図26のステップS14にリターンされる。これにより、体験パラメータ生成部63により生成された行動パラメータと体験パラメータ、表示データ生成部74により生成された表示データに基づいて、ユーザの体験表現としての図24に示されるような画面が表示される。   In step S <b> 25, the display data generation unit 74 generates display data for displaying the text selected by the experience expression selection unit 72. Thereafter, the process returns to step S14 in FIG. Accordingly, a screen as shown in FIG. 24 as a user's experience expression is displayed based on the action parameter and experience parameter generated by the experience parameter generation unit 63 and the display data generated by the display data generation unit 74. The

以上においては、ユーザの行動をセンサの出力に基づいて認識し、行動パラメータファイルを生成することから、ユーザの体験を表す文章を選択して画面表示を行うための表示データを生成するまでの全ての処理が携帯電話機1において行われるものとしたが、一部の処理までが携帯電話機1により行われ、携帯電話機1により行われた処理に続く処理は、サーバ2などの他の機器において行われるようにすることも可能である。   In the above, everything from recognizing the user's behavior based on the output of the sensor and generating a behavior parameter file to generating display data for selecting a sentence representing the user's experience and performing screen display However, a part of the processing is performed by the mobile phone 1, and the processing subsequent to the processing performed by the mobile phone 1 is performed by another device such as the server 2. It is also possible to do so.

図28は、携帯電話機1の他の構成例を示すブロック図である。   FIG. 28 is a block diagram illustrating another configuration example of the mobile phone 1.

図28に示される携帯電話機1においては、例えば、行動パラメータファイルの生成までが行われ、携帯電話機1により生成された行動パラメータファイルに基づいてユーザの体験の分類を行い、文章を選択する処理などについてはサーバ2により行われるようになされている。すなわち、携帯電話機1においては図5の行動パラメータ抽出・行動認識部21が実現され、体験表現生成部22はサーバ2により実現されることになる。   In the mobile phone 1 shown in FIG. 28, for example, a process up to generation of a behavior parameter file is performed, a user experience is classified based on the behavior parameter file generated by the mobile phone 1, and a sentence is selected. Is performed by the server 2. That is, in the mobile phone 1, the behavior parameter extraction / behavior recognition unit 21 of FIG. 5 is realized, and the experience expression generation unit 22 is realized by the server 2.

図28のプロセッサ13は、加速度センサ11、ジャイロセンサ12からの出力に基づいて、上述した図4の構成を有する携帯電話機1と同様に行動パラメータファイルを生成し、生成した行動パラメータファイルを内蔵するストレージ91に記憶させる。ストレージ91に記憶された行動パラメータファイルは所定のタイミングでサーバ2により読み込まれ、サーバ2により、ユーザの体験の分類や、文章の選択などが行われる。図24に示されるような画面はサーバ2により管理され、他のユーザに公開される。   The processor 13 in FIG. 28 generates a behavior parameter file on the basis of the outputs from the acceleration sensor 11 and the gyro sensor 12, similarly to the mobile phone 1 having the configuration in FIG. 4 described above, and incorporates the generated behavior parameter file. Store in the storage 91. The behavior parameter file stored in the storage 91 is read by the server 2 at a predetermined timing, and the server 2 performs classification of user experiences, selection of sentences, and the like. A screen as shown in FIG. 24 is managed by the server 2 and is disclosed to other users.

図29は、携帯電話機1のさらに他の構成例を示すブロック図である。   FIG. 29 is a block diagram showing still another configuration example of the mobile phone 1.

図28に示される携帯電話機1においては、例えば、加速度センサ11、ジャイロセンサ12の出力を取得する処理までが行われ、携帯電話機1により取得されたセンサデータに基づいて行動パラメータファイルを生成する処理や、ユーザの体験の分類を行い、文章を選択する処理などについてはサーバ2により行われるようになされている。すなわち、図5の行動パラメータ抽出・行動認識部21と体験表現生成部22がサーバ2により実現されることになる。   In the mobile phone 1 shown in FIG. 28, for example, processing up to acquiring the outputs of the acceleration sensor 11 and the gyro sensor 12 is performed, and processing for generating a behavior parameter file based on the sensor data acquired by the mobile phone 1 is performed. The server 2 classifies the user's experience and selects a sentence. That is, the behavior parameter extraction / behavior recognition unit 21 and the experience expression generation unit 22 of FIG. 5 are realized by the server 2.

図29のストレージ91は、加速度センサ11、ジャイロセンサ12からの出力であるセンサデータを例えば時系列順に記憶する。ストレージ91に記憶されたセンサデータは所定のタイミングでサーバ2により読み込まれ、サーバ2により、行動パラメータファイルの生成、ユーザの体験の分類、文章の選択などが行われる。図24に示されるような画面はサーバ2により管理され、他のユーザに公開される。   The storage 91 in FIG. 29 stores sensor data that is output from the acceleration sensor 11 and the gyro sensor 12, for example, in chronological order. The sensor data stored in the storage 91 is read by the server 2 at a predetermined timing, and the server 2 generates behavior parameter files, classifies user experiences, selects sentences, and the like. A screen as shown in FIG. 24 is managed by the server 2 and is disclosed to other users.

このように、ユーザが携帯する機器に一部の機能だけを搭載し、他の機器において、ユーザが携帯する機器により集められた情報に基づく行動パラメータファイルの生成などが行われるようにしてもよい。   In this way, only a part of the functions may be mounted on the device carried by the user, and the behavior parameter file may be generated based on the information collected by the device carried by the user in the other device. .

以上においては、センサデータに基づいて認識されるユーザの行動パラメータや日付に関する情報(記念日や曜日など)をテキスト情報と対応付けて記憶させるようにしたが、さらに、温度や湿度、あるいは天気情報などもテキスト情報と対応付けて記憶させておくようにしてもよい。   In the above, user behavior parameters recognized based on sensor data and information on dates (anniversaries, days of the week, etc.) are stored in association with text information. However, temperature, humidity, or weather information is also stored. May be stored in association with the text information.

また行動の認識にはHMMが用いられるものとしたが、例えば時系列データを対象とするパターン認識の他のアルゴリズムを用いて判別が行われるようにしてもよい。そのようなアルゴリズムとしては、例えば、ビタビアルゴリズムやニューラルネットワークなどがある。   In addition, although the HMM is used for the action recognition, the determination may be performed using another algorithm for pattern recognition for time series data, for example. Examples of such an algorithm include a Viterbi algorithm and a neural network.

さらに加速度センサ11およびジャイロセンサ12が用いられるものとしたが、必ずしも両方が必要とされるものではなく、一方だけが用いられるようにしてもよい。加速度センサ11のみが用いられる場合、歩行ピッチおよび歩数が検出され、検出されたセンサデータに基づいて「歩き」、「走り」、および「静止」が認識される。ジャイロセンサ12のみが用いられる場合、歩行ピッチおよび歩数が検出され、検出されたセンサデータに基づいて「歩き」、「走り」、および「静止」が認識される。   Further, although the acceleration sensor 11 and the gyro sensor 12 are used, both are not necessarily required, and only one of them may be used. When only the acceleration sensor 11 is used, the walking pitch and the number of steps are detected, and “walking”, “running”, and “stillness” are recognized based on the detected sensor data. When only the gyro sensor 12 is used, the walking pitch and the number of steps are detected, and “walking”, “running”, and “still” are recognized based on the detected sensor data.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図30は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。   FIG. 30 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program.

CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。   A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a storage unit 208. A RAM (Random Access Memory) 203 appropriately stores programs executed by the CPU 201 and data. The CPU 201, ROM 202, and RAM 203 are connected to each other via a bus 204.

CPU201にはまた、バス204を介して入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。   An input / output interface 205 is also connected to the CPU 201 via the bus 204. Connected to the input / output interface 205 are an input unit 206 composed of a keyboard, mouse, microphone, and the like, and an output unit 207 composed of a display, a speaker, and the like. The CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.

入出力インターフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data. The communication unit 209 communicates with an external device via a network such as the Internet or a local area network.

入出力インターフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。   The drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Get etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図30に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 30, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 211 that is a package medium made of a semiconductor memory, a ROM 202 in which a program is temporarily or permanently stored, or a storage unit 208 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

Blogの例を示す図である。It is a figure which shows the example of Blog. 行動履歴の表現の例を示す図である。It is a figure which shows the example of expression of action history. 本発明を適用した情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system to which this invention is applied. 図3の携帯電話機のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the mobile telephone of FIG. 図3の携帯電話機の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the mobile telephone of FIG. 行動パラメータ抽出・行動認識部に対する入力と、行動パラメータ抽出・行動認識部からの出力の例を示す図である。It is a figure which shows the example of the input with respect to an action parameter extraction and action recognition part, and the output from an action parameter extraction and action recognition part. 行動パラメータファイルに記述される情報の例を示す図である。It is a figure which shows the example of the information described in a behavior parameter file. 行動パラメータ抽出・行動認識部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of an action parameter extraction and action recognition part. 歩行ピッチの例を示す図である。It is a figure which shows the example of a walking pitch. 歩行パワーの例を示す図である。It is a figure which shows the example of walking power. 重力軸方向の加速度の変化の例を示す図である。It is a figure which shows the example of the change of the acceleration of a gravity axis direction. 重力軸まわりの回転角の例を示す図である。It is a figure which shows the example of the rotation angle around a gravity axis. 図8の行動認識部に設けられる一部の機能部の例を示す図である。It is a figure which shows the example of the one part function part provided in the action recognition part of FIG. 図13の認識部による行動認識を模式的に示す図である。It is a figure which shows typically the action recognition by the recognition part of FIG. センサデータ、特徴量、認識結果の例を時系列的に示す図である。It is a figure which shows the example of sensor data, a feature-value, and a recognition result in time series. 行動パラメータファイルの具体的な記述の例を示す図である。It is a figure which shows the example of the specific description of an action parameter file. 行動パラメータファイルの具体的な記述の例を示す図16に続く図である。It is a figure following FIG. 16 which shows the example of the specific description of a behavior parameter file. 図5の体験表現生成部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the experience expression production | generation part of FIG. 個人情報の例を示す図である。It is a figure which shows the example of personal information. 体験パラメータの求め方の例を示す図である。It is a figure which shows the example of how to obtain | require an experience parameter. 図18の体験分類部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the experience classification | category part of FIG. スコアテーブルの例を示す図である。It is a figure which shows the example of a score table. 体験表現辞書の例を示す図である。It is a figure which shows the example of an experience expression dictionary. 画面の表示例を示す図である。It is a figure which shows the example of a display of a screen. 携帯電話機の行動パラメータ生成処理について説明するフローチャートである。It is a flowchart explaining the action parameter generation process of a mobile telephone. 携帯電話機の体験表現生成処理について説明するフローチャートである。It is a flowchart explaining the experience expression production | generation process of a mobile telephone. 図26のステップS13において行われる体験分類・体験表示処理について説明するフローチャートである。It is a flowchart explaining the experience classification / experience display process performed in step S13 of FIG. 携帯電話機の他のハードウエア構成例を示すブロック図である。FIG. 25 is a block diagram illustrating another hardware configuration example of the mobile phone. 携帯電話機のさらに他のハードウエア構成例を示すブロック図である。FIG. 25 is a block diagram illustrating still another hardware configuration example of the mobile phone. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 携帯電話機, 2 サーバ, 21 行動パラメータ抽出・行動認識部, 22 体験表現生成部, 23 体験表現辞書記憶部, 24 表示装置   DESCRIPTION OF SYMBOLS 1 Mobile phone, 2 Server, 21 Action parameter extraction and action recognition part, 22 Experience expression production | generation part, 23 Experience expression dictionary memory | storage part, 24 Display apparatus

Claims (8)

センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶する記憶手段と、
前記抽出手段により抽出された前記行動パラメータが所定の条件に合致する場合、前記記憶手段により記憶されているテキスト情報の中から、前記抽出手段により抽出された前記行動パラメータに対応するテキスト情報を選択する選択手段と
を備える情報処理装置。
Storage means for recognizing an action parameter, which is information related to a user's action, recognized based on the output of the sensor, and text information;
When the behavior parameter extracted by the extraction unit matches a predetermined condition, the text information corresponding to the behavior parameter extracted by the extraction unit is selected from the text information stored by the storage unit And an information processing apparatus.
前記センサの出力の複数のパラメータを組み合わせて前記行動パラメータを生成する生成手段をさらに備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a generation unit configured to generate the behavior parameter by combining a plurality of parameters of the sensor output.
前記行動パラメータを正規化する正規化手段をさらに備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a normalizing unit that normalizes the behavior parameter.
複数の前記行動パラメータを組み合わせてユーザの行動の度合いを表現する体験パラメータを生成する生成手段をさらに備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a generation unit configured to generate an experience parameter that represents a degree of user behavior by combining a plurality of the behavior parameters.
前記選択手段は、テキスト情報の中から、未選択のものを優先して選択する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the selection unit preferentially selects unselected text information from text information.
前記記憶手段は、日付に関する情報と前記テキストデータとを対応付けてさらに記憶する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the storage unit further stores information related to a date and the text data in association with each other.
センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、
抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択する
ステップを含む情報処理方法。
A behavior parameter, which is information related to the user's behavior, recognized based on the output of the sensor, and text information are stored in association with each other,
An information processing method including a step of selecting text information corresponding to the extracted behavior parameter from the stored text information when the extracted behavior parameter meets a predetermined condition.
センサの出力に基づいて認識される、ユーザの行動に関する情報である行動パラメータと、テキスト情報とを対応付けて記憶し、
抽出された前記行動パラメータが所定の条件に合致する場合、記憶されているテキスト情報の中から、抽出された前記行動パラメータに対応するテキスト情報を選択する
ステップを含む処理をコンピュータに実行させるプログラム。
A behavior parameter, which is information related to the user's behavior, recognized based on the output of the sensor, and text information are stored in association with each other,
A program for causing a computer to execute a process including a step of selecting text information corresponding to an extracted behavior parameter from stored text information when the extracted behavior parameter matches a predetermined condition.
JP2006169647A 2006-06-20 2006-06-20 Information processing apparatus, information processing method, and program Expired - Fee Related JP5041202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006169647A JP5041202B2 (en) 2006-06-20 2006-06-20 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006169647A JP5041202B2 (en) 2006-06-20 2006-06-20 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2008003655A true JP2008003655A (en) 2008-01-10
JP5041202B2 JP5041202B2 (en) 2012-10-03

Family

ID=39008005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006169647A Expired - Fee Related JP5041202B2 (en) 2006-06-20 2006-06-20 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5041202B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505478A (en) * 2008-10-08 2012-03-01 ディーピー テクノロジーズ インコーポレイテッド Method and system for waking up a device based on movement
WO2012132643A1 (en) * 2011-03-31 2012-10-04 ソニー株式会社 Information processing device, information processing method, programme, and recording medium
US8438127B2 (en) 2009-10-02 2013-05-07 Sony Corporation Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program
WO2013065519A1 (en) 2011-10-31 2013-05-10 ソニー株式会社 Power generation control system, power generation control program, and electronic device
US8508536B2 (en) 2008-12-05 2013-08-13 Sony Corporation Information processing apparatus and information processing method
JP2015036836A (en) * 2013-08-12 2015-02-23 ソニー株式会社 Information processing apparatus, information processing method, and program
US8981941B2 (en) 2012-06-01 2015-03-17 Sony Corporation Information processing apparatus, information processing method and program
US9135368B2 (en) 2012-06-13 2015-09-15 Sony Corporation Information processing apparatus, information processing method and program
US9369535B2 (en) 2012-06-01 2016-06-14 Sony Corporation Information processing apparatus, information processing method and program
JP2016157487A (en) * 2016-05-26 2016-09-01 ソニー株式会社 Computer program, information processing apparatus, and information processing method
US10311303B2 (en) 2014-05-22 2019-06-04 Sony Corporation Information processing apparatus, information processing method, and program
US10460291B2 (en) 2011-10-13 2019-10-29 Sony Corporation Information processing apparatus, information processing method, and computer program for scheduling activities modelled from activities of third parties
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP6883370B1 (en) * 2020-09-25 2021-06-09 株式会社ライフクエスト Diary generator, diary generator, diary generator, and program
US11366954B2 (en) 2017-02-16 2022-06-21 Hitachi, Ltd. Text preparation apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002141841A (en) * 2000-10-31 2002-05-17 Toshiba Corp Head-mounted information processor
JP2002215611A (en) * 2001-01-16 2002-08-02 Matsushita Electric Ind Co Ltd Diary making support device
JP2003296782A (en) * 2002-03-29 2003-10-17 Casio Comput Co Ltd Device and program for recording action

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002141841A (en) * 2000-10-31 2002-05-17 Toshiba Corp Head-mounted information processor
JP2002215611A (en) * 2001-01-16 2002-08-02 Matsushita Electric Ind Co Ltd Diary making support device
JP2003296782A (en) * 2002-03-29 2003-10-17 Casio Comput Co Ltd Device and program for recording action

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505478A (en) * 2008-10-08 2012-03-01 ディーピー テクノロジーズ インコーポレイテッド Method and system for waking up a device based on movement
US8508536B2 (en) 2008-12-05 2013-08-13 Sony Corporation Information processing apparatus and information processing method
US9189136B2 (en) 2008-12-05 2015-11-17 Sony Corporation Information processing apparatus and information processing method
US8438127B2 (en) 2009-10-02 2013-05-07 Sony Corporation Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program
WO2012132643A1 (en) * 2011-03-31 2012-10-04 ソニー株式会社 Information processing device, information processing method, programme, and recording medium
JP2012212364A (en) * 2011-03-31 2012-11-01 Sony Corp Information processor, information processing method, program, and recording medium
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
US10460291B2 (en) 2011-10-13 2019-10-29 Sony Corporation Information processing apparatus, information processing method, and computer program for scheduling activities modelled from activities of third parties
WO2013065519A1 (en) 2011-10-31 2013-05-10 ソニー株式会社 Power generation control system, power generation control program, and electronic device
US8981941B2 (en) 2012-06-01 2015-03-17 Sony Corporation Information processing apparatus, information processing method and program
US9369535B2 (en) 2012-06-01 2016-06-14 Sony Corporation Information processing apparatus, information processing method and program
US11017660B2 (en) 2012-06-01 2021-05-25 Sony Corporation Information processing apparatus, information processing method and program
US10586445B2 (en) 2012-06-01 2020-03-10 Sony Corporation Information processing apparatus for controlling to execute a job used for manufacturing a product
US9619998B2 (en) 2012-06-01 2017-04-11 Sony Corporation Information processing apparatus, information processing method and program
US9978259B2 (en) 2012-06-01 2018-05-22 Sony Corporation Information processing apparatus, information processing method and program
US10217351B2 (en) 2012-06-01 2019-02-26 Sony Corporation Information processing apparatus, information processing method and program
US9135368B2 (en) 2012-06-13 2015-09-15 Sony Corporation Information processing apparatus, information processing method and program
US9507840B2 (en) 2012-06-13 2016-11-29 Sony Corporation Information processing apparatus, information processing method and program
US10042943B2 (en) 2012-06-13 2018-08-07 Sony Corporation Information processing apparatus, information processing method and program
US10824687B2 (en) 2012-06-13 2020-11-03 Sony Corporation Information processing apparatus, information processing method and program
US10972562B2 (en) 2013-08-12 2021-04-06 Sony Corporation Information processing apparatus, information processing method, and program
US10601935B2 (en) 2013-08-12 2020-03-24 Sony Corporation Information processing apparatus, information processing method, and program
JP2015036836A (en) * 2013-08-12 2015-02-23 ソニー株式会社 Information processing apparatus, information processing method, and program
EP3591577A1 (en) 2014-05-22 2020-01-08 Sony Corporation Information processing apparatus, information processing method, and program
US10853650B2 (en) 2014-05-22 2020-12-01 Sony Corporation Information processing apparatus, information processing method, and program
US10311303B2 (en) 2014-05-22 2019-06-04 Sony Corporation Information processing apparatus, information processing method, and program
US11244163B2 (en) 2014-05-22 2022-02-08 Sony Corporation Information processing apparatus, information processing method, and program
US11763580B2 (en) 2014-05-22 2023-09-19 Sony Group Corporation Information processing apparatus, information processing method, and program
JP2016157487A (en) * 2016-05-26 2016-09-01 ソニー株式会社 Computer program, information processing apparatus, and information processing method
US11366954B2 (en) 2017-02-16 2022-06-21 Hitachi, Ltd. Text preparation apparatus
JP6883370B1 (en) * 2020-09-25 2021-06-09 株式会社ライフクエスト Diary generator, diary generator, diary generator, and program
WO2022064664A1 (en) * 2020-09-25 2022-03-31 株式会社ライフクエスト Diary generation device, diary generation system, diary generation method, and program
JP2022054381A (en) * 2020-09-25 2022-04-06 株式会社ライフクエスト Diary generation device, diary generation system, diary generation method, and program

Also Published As

Publication number Publication date
JP5041202B2 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5041202B2 (en) Information processing apparatus, information processing method, and program
JP5935516B2 (en) Information processing apparatus, information processing method, and program
CN103488666B (en) Information processing equipment and method, electronic device and computer readable storage medium
Lu et al. Soundsense: scalable sound sensing for people-centric applications on mobile phones
US9443202B2 (en) Adaptation of context models
JP5768517B2 (en) Information processing apparatus, information processing method, and program
JP5895716B2 (en) Information processing apparatus, information processing method, and program
CN107209807B (en) Wearable equipment of pain management
EP2819383A1 (en) User activity tracking system and device
US10791072B2 (en) Generating conversations for behavior encouragement
WO2015178078A1 (en) Information processing device, information processing method, and program
US8626797B2 (en) Information processing apparatus, text selection method, and program
CN107548474A (en) The method, system and the medium that are used for environmental background noise modification based on mood and/or behavioural information
US20130346016A1 (en) Information terminal, information providing server, and control program
CN107567619A (en) Recommendation is provided based on the mood from multiple data sources and/or behavioural information
WO2018053133A1 (en) Venue detection
JP2010286344A (en) Method and system for estimating moving condition of portable terminal device
JPWO2013157332A1 (en) Action identification device, action identification system, and action identification program
JP5549802B2 (en) Mode identification device, mode identification method, and program
JP2010049374A (en) Exhibition guidance system
JP6183489B2 (en) Information processing system, information processing method, and program
CN110741439A (en) Providing suggested behavior modifications for relevance
JP2010016444A (en) Situation recognizing apparatus, situation recognizing method, and radio terminal apparatus
CN108877773B (en) Voice recognition method and electronic equipment
JP2021124567A (en) Estimation system and estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120627

R151 Written notification of patent or utility model registration

Ref document number: 5041202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees