JP6087624B2 - User interface device, program and method capable of presenting action correspondence information in a timely manner - Google Patents

User interface device, program and method capable of presenting action correspondence information in a timely manner Download PDF

Info

Publication number
JP6087624B2
JP6087624B2 JP2012288514A JP2012288514A JP6087624B2 JP 6087624 B2 JP6087624 B2 JP 6087624B2 JP 2012288514 A JP2012288514 A JP 2012288514A JP 2012288514 A JP2012288514 A JP 2012288514A JP 6087624 B2 JP6087624 B2 JP 6087624B2
Authority
JP
Japan
Prior art keywords
action
information
type
user
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012288514A
Other languages
Japanese (ja)
Other versions
JP2014128459A (en
Inventor
服部 元
元 服部
小野 智弘
智弘 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012288514A priority Critical patent/JP6087624B2/en
Publication of JP2014128459A publication Critical patent/JP2014128459A/en
Application granted granted Critical
Publication of JP6087624B2 publication Critical patent/JP6087624B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、ユーザの行動に対応した情報、例えば健康管理情報、を提示する技術に関する。   The present invention relates to a technique for presenting information corresponding to user behavior, for example, health management information.

従来、ユーザに対し、ユーザのニーズや興味に沿った情報、例えば健康に関する情報、を提示する技術が普及している。例えば、スマートフォンやタブレット型コンピュータといったユーザインタフェース装置の多くが、ユーザの一日毎の歩数を計測して、ユーザの歩行状況に応じたアドバイスを表示するサービスを可能にしている。   2. Description of the Related Art Conventionally, a technique for presenting information that meets a user's needs and interests, for example, information related to health, to a user has been widespread. For example, many user interface devices, such as smartphones and tablet computers, enable a service that measures the number of steps per day of the user and displays advice according to the user's walking situation.

また、車両のユーザ(運転者)の健康状態を診断する技術として、例えば、特許文献1には、健康状態センサを用いて運転者の身体データを収集するとともに、運転者に質問を行って、得られた回答から運転者の健康状態に関するデータを取得する技術が開示されている。ここで、質問を行うタイミングとして、信号待ち等の停車中、又は高速道路等の交差点のない直線路の走行中、といった運転負荷の少ないタイミングを判定している。   In addition, as a technique for diagnosing the health condition of a vehicle user (driver), for example, Patent Document 1 collects the driver's body data using a health condition sensor and asks the driver a question. A technique for acquiring data on the health condition of a driver from the obtained answer is disclosed. Here, the timing at which the question is asked is determined as a timing with a low driving load such as when the vehicle is stopped such as waiting for a signal or when traveling on a straight road without an intersection such as an expressway.

さらに、特許文献2には、ユーザの状態やコンテンツの状況に応じて、ユーザに話し掛けるコンテンツ視聴システムが開示されている。この話し掛けの形態としては、例えば、スポーツのコンテンツにおいて、試合前や試合の途中で対戦結果の予測を行い、応援や対話を行うことが挙げられている。また、ユーザが同一のコンテンツを2度以上視聴しても、1回目の視聴時と同じ話し掛けを行わない技術も開示されている。   Furthermore, Patent Literature 2 discloses a content viewing system that talks to a user according to the user's state and content status. As a form of this talk, for example, in a sport content, prediction of a battle result is performed before a game or during a game, and support and dialogue are performed. In addition, a technique is disclosed in which even if the user views the same content twice or more, the same conversation as in the first viewing is not performed.

特開2012−24481号公報JP 2012-24481 A 特開2006−245941号公報JP 2006-245941 A

しかしながら、特許文献1及び2に提示されたような従来技術では、ユーザ自身の通常行われ得る行動に応じた話し掛けの内容と、この話し掛けのタイミングとを制御することが困難である。   However, it is difficult to control the contents of the conversation according to the actions that can be normally performed by the user and the timing of the conversation with the conventional techniques as disclosed in Patent Documents 1 and 2.

例えば、特許文献1の技術は、車両の運転中といった特定の状況における質問のタイミングを調整するのみであり、ユーザ自身の通常行われ得る行動における話し掛けの内容及びそのタイミングを制御するものではない。さらに、特許文献2の技術は、話し掛けるタイミングの制御を行っていない。   For example, the technique of Patent Document 1 only adjusts the timing of a question in a specific situation such as during driving of the vehicle, and does not control the content and timing of the conversation in the user's own normal behavior. Furthermore, the technique of Patent Document 2 does not control the timing of talking.

そこで、本発明は、ユーザの行動に対応した情報を適時に提示可能なユーザインタフェース装置、プログラム及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a user interface device, a program, and a method capable of presenting information corresponding to a user's behavior in a timely manner.

本発明によれば、ユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
行動の種類毎に、行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度と、記憶された行動時の加速度パターンとに基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
提示された対話情報が、推定された行動の種類を確認するための質問を含んでいる場合に、この質問に対するユーザの回答を取得し、この回答からユーザの行動についての情報を抽出する回答情報抽出手段と
を有しており、
提示情報管理手段は、抽出されたユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、この行動の種類に対応付けられた行動時の加速度パターンを更新する
ことを特徴とするユーザインタフェース装置が提供される。
According to the present invention, a user interface device that presents information corresponding to a user's behavior,
An acceleration measuring unit capable of measuring acceleration;
For each type of action, a presentation information management means for storing an acceleration pattern during action and dialogue information to be presented in association with each other,
Action estimation means for estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern at the time of action;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presenting means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time ;
When the presented dialogue information includes a question for confirming the type of the estimated action, the answer information for acquiring the user's answer to this question and extracting the information about the user's action from this answer extracting means and <br/> and have a,
When the presentation information management means determines that the acceleration pattern at the time of the action associated with the type of action related to the extracted information about the user's action does not correspond to the measured acceleration, Update the acceleration pattern of the associated action
A user interface device is provided.

このユーザインタフェース装置の一実施形態として、行動推定手段は、測定された加速度との間で、最も高い類似度又は所定閾値以上の類似度を有する加速度パターンに対応付けられた行動の種類を、推定される行動の種類とすることも好ましい。 One embodiment of the user interface device, behavior estimation means, between the measured acceleration, the highest similarity or types of actions associated with the acceleration pattern having a predetermined threshold value or more similarity, It is also preferable that the type of action to be estimated.

また、本発明によるユーザインタフェース装置の他の実施形態として、提示情報管理手段は、抽出されたユーザの行動についての情報をもって、
(a)行動の種類及びこの行動の種類に対応付けられた提示する対話情報を更新する、又は
(b)行動の種類に対応付けられた行動時の加速度パターンを更新する、又は
(c)抽出されたユーザの行動の情報に係る新たな行動の種類を登録させ、この行動の際に得られた加速度データに基づいた加速度パターンを対応付けて記憶させる
ことも好ましい。
Further, as another embodiment of a user interface device according to the present invention, Hisage shows information management means with the information about the behavior of the extracted user,
(A) Update the type of action and the dialogue information to be presented associated with the type of action, or (b) Update the acceleration pattern during action associated with the type of action, or (c) Extraction It is also preferable to register a new type of action related to the information on the user's action, and to store an acceleration pattern based on the acceleration data obtained at the time of the action in association with each other.

さらに、本発明によるユーザインタフェース装置の一実施形態として、ユーザのプロファイルを示す少なくとも1つのプロファイルパラメータの値を記録するプロファイル管理手段を更に有しており、
提示情報管理手段は、行動の種類毎及び少なくとも1つのプロファイルパラメータ毎に、提示する対話情報を対応付けて記憶させ、
情報提示手段は、推定された行動の種類と記録されたプロファイルパラメータ値とに対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる
ことも好ましい。
Furthermore, as one embodiment of the user interface device according to the present invention, it further comprises profile management means for recording a value of at least one profile parameter indicating the profile of the user,
The presentation information management means stores the interaction information to be presented in association with each type of action and at least one profile parameter,
It is also preferable that the information presenting means presents the dialogue information associated with the estimated action type and the recorded profile parameter value at a time based on the estimated action end time.

ここで、プロファイル管理手段を用いる上記の実施形態において、少なくとも1つのプロファイルパラメータ値は、ユーザの健康状態・気分を示す値、ユーザの趣味嗜好を示す値、及びユーザの習慣行動を示す値のうち少なくとも1つであることも好ましい。   Here, in the above-described embodiment using the profile management means, the at least one profile parameter value is a value indicating the user's health condition / mood, a value indicating the user's hobby preference, and a value indicating the user's habit behavior It is also preferred that there is at least one.

さらに、プロファイル管理手段を用いる上記の実施形態において、行動の種類毎に行動の実施時間の履歴を対応付けて記録し、この履歴と合わせて当該ユーザの健康状態・気分を示す値の履歴を記録する行動履歴管理手段と、
行動の実施時間と健康状態・気分を示す値との間の相関関係を判別する行動相関判別手段とを有しており、
提示情報管理手段は、この判別に係る行動を促す対話情報及びこの行動を制限させる対話情報を含む対話情報群を、行動の種類に対応付けて記憶させ、
情報提示手段は、行動相関判別手段による判別結果に基づいて、対話情報群の中から、提示する対話情報を選択することも好ましい。
Further, in the above-described embodiment using the profile management means, a history of action execution time is recorded in association with each type of action, and a history of values indicating the health state / mood of the user is recorded together with this history. Action history management means,
Action correlation determining means for determining the correlation between the action execution time and the value indicating the state of health and mood,
The presentation information management means stores a dialogue information group including dialogue information that prompts an action related to the determination and dialogue information that restricts the action in association with the type of action,
It is also preferable that the information presenting unit selects the dialogue information to be presented from the dialogue information group based on the determination result by the behavior correlation determining unit.

さらに、本発明によるユーザインタフェース装置の一実施形態として、周囲の音声を検知するマイクロフォンと、検知された音声がユーザの声であるか否かを判定する音声判定手段とを更に有しており、
情報提示手段は、音声判定手段によって真の判定が行われた時点から少なくとも所定時間以内は、推定された行動の終了時点に基づいた時点であるにもかかわらず、推定された行動の種類に対応付けられた対話情報を提示させないことも好ましい。
Furthermore, as one embodiment of the user interface device according to the present invention, it further includes a microphone that detects surrounding sounds, and a sound determination unit that determines whether or not the detected sound is a user's voice,
The information presenting means corresponds to the type of the estimated action even though at least the predetermined time from the time when the true judgment is made by the voice judging means is a time based on the estimated end time of the action It is also preferable not to present the attached dialogue information.

また、行動の種類に関する実施形態として、当該行動の種類は、走り、歩き、階段の上り、階段の下り、エレベータでの上り、エレベータでの下り、エスカレータでの上り、エスカレータでの下り、自転車での移動、自動車での移動、及び電車での移動のうちの少なくとも1つを含むことも好ましい。   In addition, as an embodiment relating to the type of action, the type of action includes running, walking, climbing stairs, descending stairs, climbing on elevators, descending on elevators, climbing on escalators, descending on escalators, cycling It is also preferable to include at least one of a movement of a car, a movement by a car, and a movement by train.

さらに、本発明によるユーザインタフェース装置の一実施形態として、気圧を測定する気圧センサと、検知された気圧値から、上下方向の移動速度を決定する上下移動速度決定手段とを更に有しており、
提示情報管理手段は、行動の種類としてのエスカレータでの上り又は下りに、このエスカレータでの上り時又は下り時に対応する上下方向の移動速度と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、測定された加速度の変動が所定閾値以下であって、且つ決定された上下方向の移動速度とエスカレータでの上り時又は下り時に対応する上下方向の移動速度との差が所定範囲内である際、エスカレータでの上り又は下りを、推定される行動の種類とすることも好ましい。
Furthermore, as one embodiment of the user interface device according to the present invention, it further includes an atmospheric pressure sensor that measures atmospheric pressure, and a vertical movement speed determination means that determines a vertical movement speed from the detected atmospheric pressure value,
The presenting information management means stores the ascending or descending on the escalator as the type of action in association with the moving speed in the vertical direction corresponding to the up or down on this escalator and the dialogue information to be presented,
The behavior estimating means has a predetermined range in which a difference between a measured acceleration fluctuation is equal to or less than a predetermined threshold value and a determined vertical movement speed and an upward or downward movement speed corresponding to an escalator. It is also preferable to set the escalator ascending or descending as the type of action to be estimated.

また、本発明によるユーザインタフェース装置の一実施形態として、環境音を検知するマイクロフォンと、検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段とを更に有しており、
提示情報管理手段は、行動の種類としての自転車での移動に、この自転車での移動時に対応する加速度パターンと、開空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、環境音判定手段による開空間での音であるとの判定を、自転車での移動と推定するための必要条件とすることも好ましい。
As one embodiment of the user interface device according to the present invention, there is provided a microphone for detecting environmental sound, and environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space. In addition,
The presentation information management means stores, in association with movement on a bicycle as a type of action, an acceleration pattern corresponding to the movement on the bicycle, information on the presence of sound in an open space, and dialogue information to be presented. Let
It is also preferable that the behavior estimation means sets the determination that the sound is an open space by the environmental sound determination means as a necessary condition for estimating movement by bicycle.

さらに、本発明によるユーザインタフェース装置の一実施形態として、環境音を検知するマイクロフォンと、検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段とを更に有しており、
提示情報管理手段は、行動の種類としての自動車での移動に、この自動車での移動時に対応する加速度パターンと、閉空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、環境音判定手段による閉空間での音であるとの判定を、自動車での移動と推定するための必要条件とすることも好ましい。
Furthermore, as one embodiment of the user interface device according to the present invention, there is provided a microphone for detecting environmental sound, and environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space. In addition,
The presentation information management means stores, in association with movement in a car as a type of action, an acceleration pattern corresponding to the movement in the car, information on the presence of sound in a closed space, and dialogue information to be presented. Let
It is also preferable that the behavior estimation means sets the determination that the sound is in a closed space by the environmental sound determination means as a necessary condition for estimating movement in an automobile.

さらに、本発明によるユーザインタフェース装置によれば、終了時点推定手段は、
(a)測定された加速度の変動が所定閾値以下である時点、又は
(b)行動推定手段によって推定される当該行動の種類が変化した時点
を、ユーザによる行動の終了時点であると推定することも好ましい。
Furthermore, according to the user interface device of the present invention, the end point estimation means is
(A) Estimating a point in time when the measured acceleration fluctuation is equal to or less than a predetermined threshold, or (b) a point in time when the type of the behavior estimated by the behavior estimation means is changed, as the end point of the action by the user. Is also preferable.

本発明によれば、また、ユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
周囲の音声を検知するマイクロフォンと、
検知された音声がユーザの声であるか否かを判定する音声判定手段と、
行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度に基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
を有しており、
情報提示手段は、音声判定手段によって真の判定が行われた時点から少なくとも所定時間以内は、推定された行動の終了時点に基づいた時点であるにもかかわらず、推定された行動の種類に対応付けられた対話情報を提示させない
ことを特徴とするユーザインタフェース装置が提供される。
また、本発明によれば、さらに、エスカレータでの上り及びエスカレータでの下りをその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
気圧を測定する気圧センサと、
検知された気圧値から、上下方向の移動速度を決定する上下移動速度決定手段と、
行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度に基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
を有しており、
提示情報管理手段は、行動の種類としてのエスカレータでの上り又は下りに、エスカレータでの上り時又は下り時に対応する上下方向の移動速度と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、測定された加速度の変動が所定閾値以下であって、且つ決定された上下方向の移動速度とエスカレータでの上り時又は下り時に対応する上下方向の移動速度との差が所定範囲内である際、エスカレータでの上り又は下りを、推定される行動の種類とする
ことを特徴とするユーザインタフェース装置が提供される。
さらに、本発明によれば、また、自転車での移動をその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
環境音を検知するマイクロフォンと、
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と、
行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度に基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
を有しており、
提示情報管理手段は、行動の種類としての自転車での移動に、自転車での移動時に対応する加速度パターンと、開空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、環境音判定手段による開空間での音であるとの判定を、自転車での移動と推定するための必要条件とする
ことを特徴とするユーザインタフェース装置が提供される。
また、本発明によれば、さらに、自動車での移動をその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
環境音を検知するマイクロフォンと、
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と、
行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度に基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
を有しており、
提示情報管理手段は、行動の種類としての自動車での移動に、自動車での移動時に対応する加速度パターンと、閉空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
行動推定手段は、環境音判定手段による閉空間での音であるとの判定を、自動車での移動と推定するための必要条件とする
ことを特徴とするユーザインタフェース装置が提供される。
さらに、本発明によれば、また、ユーザの行動に対応した情報を提示するユーザインタフェース装置に搭載されたコンピュータを機能させる情報提示プログラムであって、
上記装置は、加速度を測定することが可能な加速度測定部を備えており、
上記情報提示プログラムは、
行動の種類毎に、行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度と、記憶された行動時の加速度パターンとに基づいてユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいてユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる情報提示手段と
提示された対話情報が、推定された行動の種類を確認するための質問を含んでいる場合に、この質問に対するユーザの回答を取得し、この回答からユーザの行動についての情報を抽出する回答情報抽出手段と
してコンピュータを機能させ
提示情報管理手段は、抽出されたユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、この行動の種類に対応付けられた行動時の加速度パターンを更新する
ことを特徴とする情報提示プログラムが提供される。
According to the present invention, there is also provided a user interface device that presents information corresponding to user behavior,
An acceleration measuring unit capable of measuring acceleration;
A microphone that detects ambient sound,
Voice determination means for determining whether or not the detected voice is a voice of a user;
A presentation information management means for storing dialogue information to be presented in association with each type of action;
Action estimating means for estimating the type of action by the user based on the measured acceleration;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presentation means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time;
Have
The information presenting means corresponds to the type of the estimated action even though at least the predetermined time from the time when the true judgment is made by the voice judging means is a time based on the estimated end time of the action Do not present the attached dialogue information
A user interface device is provided.
Moreover, according to the present invention, there is further provided a user interface device for presenting information corresponding to a user's action including ascending and descending on an escalator as its type,
An acceleration measuring unit capable of measuring acceleration;
An atmospheric pressure sensor for measuring atmospheric pressure;
A vertical movement speed determining means for determining a vertical movement speed from the detected atmospheric pressure value;
A presentation information management means for storing dialogue information to be presented in association with each type of action;
Action estimating means for estimating the type of action by the user based on the measured acceleration;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presentation means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time;
Have
The presentation information management means stores the up and down movement on the escalator as the type of action in association with the moving speed in the vertical direction corresponding to the up or down movement on the escalator and the interactive information to be presented,
The behavior estimating means has a predetermined range in which a difference between a measured acceleration fluctuation is equal to or less than a predetermined threshold value and a determined vertical movement speed and an upward or downward movement speed corresponding to an escalator. Escalator ascends or descends as an estimated action type
A user interface device is provided.
Furthermore, according to the present invention, there is also provided a user interface device for presenting information corresponding to a user's action including movement on a bicycle as its type,
An acceleration measuring unit capable of measuring acceleration;
A microphone that detects environmental sounds;
Environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space;
A presentation information management means for storing dialogue information to be presented in association with each type of action;
Action estimating means for estimating the type of action by the user based on the measured acceleration;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presentation means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time;
Have
The presentation information management means stores the acceleration pattern corresponding to the movement on the bicycle, the information on the presence of sound in the open space, and the interactive information to be presented in association with the movement on the bicycle as the type of action. ,
The behavior estimation means uses the determination that the sound is an open space by the environmental sound determination means as a necessary condition for estimating movement by bicycle.
A user interface device is provided.
Moreover, according to the present invention, there is further provided a user interface device that presents information corresponding to a user's action including movement in an automobile as its type,
An acceleration measuring unit capable of measuring acceleration;
A microphone that detects environmental sounds;
Environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space;
A presentation information management means for storing dialogue information to be presented in association with each type of action;
Action estimating means for estimating the type of action by the user based on the measured acceleration;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presentation means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time;
Have
The presentation information management means stores the acceleration pattern corresponding to the movement in the automobile, the information that there is sound in the closed space, and the dialogue information to be presented in association with the movement in the automobile as the type of action. ,
The behavior estimation means uses the determination that the sound is in a closed space by the environmental sound determination means as a necessary condition for estimating movement in an automobile.
A user interface device is provided.
Furthermore, according to the present invention, there is also provided an information presentation program for causing a computer mounted on a user interface device that presents information corresponding to a user's behavior to function.
The apparatus includes an acceleration measuring unit capable of measuring acceleration,
The above information presentation program
For each type of action, a presentation information management means for storing an acceleration pattern during action and dialogue information to be presented in association with each other,
Action estimation means for estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern at the time of action;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presenting means for presenting dialogue information associated with the estimated action type at a time based on the estimated action end time ;
When the presented dialogue information includes a question for confirming the type of the estimated action, the answer information for acquiring the user's answer to this question and extracting the information about the user's action from this answer Let the computer function as an extraction means ,
When the presentation information management means determines that the acceleration pattern at the time of the action associated with the type of action related to the extracted information about the user's action does not correspond to the measured acceleration, Update the acceleration pattern of the associated action
Information presentation program shall be the feature is provided that.

本発明によれば、さらにまた、ユーザの行動に対応した情報を提示する情報提示方法であって、
行動の種類毎に、当該行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる第1のステップと、
ユーザの行動による加速度を測定する第2のステップと、
測定された加速度と、記憶された行動時の加速度パターンとに基づいてユーザによる行動の種類を推定する第3のステップと、
測定された加速度に基づいてユーザによる行動の終了時点を推定する第4のステップと、
推定された行動の種類に対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させる第5のステップと
提示された対話情報が、推定された行動の種類を確認するための質問を含んでいる場合に、この質問に対するユーザの回答を取得し、この回答からユーザの行動についての情報を抽出する第6のステップと、
抽出されたユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、この行動の種類に対応付けられた行動時の加速度パターンを更新する第7のステップと
を有する情報提示方法が提供される。
According to the present invention, there is further provided an information presentation method for presenting information corresponding to user behavior,
For each type of action, a first step of storing an acceleration pattern at the time of the action and dialogue information to be presented in association with each other;
A second step of measuring acceleration due to user behavior;
A third step of estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern of action;
A fourth step of estimating an end point of the action by the user based on the measured acceleration;
A fifth step of presenting dialogue information associated with the estimated action type at a time based on the estimated action end time ;
When the presented dialogue information includes a question for confirming the type of the estimated action, a user's answer to this question is acquired, and information on the user's action is extracted from this answer And the steps
When the action acceleration pattern associated with the type of action related to the extracted user action information is determined not to correspond to the measured acceleration, the action time associated with this action type An information presentation method is provided that includes a seventh step of updating the acceleration pattern .

本発明のユーザインタフェース装置、情報提示プログラム及び方法によれば、ユーザの行動に対応した情報を適時に提示することができる。   According to the user interface device, the information presentation program, and the method of the present invention, it is possible to present information corresponding to the user's behavior in a timely manner.

本発明によるユーザインタフェース装置を用いた対話情報の提示における種々の形態を説明するための概略図である。It is the schematic for demonstrating the various form in presentation of the dialog information using the user interface apparatus by this invention. 本発明による携帯端末1の一実施形態における機能構成図である。It is a functional block diagram in one Embodiment of the portable terminal 1 by this invention. 本発明に係る提示情報テーブルにおける一実施形態の概略図である。It is the schematic of one Embodiment in the presentation information table which concerns on this invention. 本発明による情報提示方法の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the information presentation method by this invention. 本発明に係る行動履歴に基づいた対話情報の選択の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of selection of the dialog information based on the action history which concerns on this invention.

本発明によるユーザインタフェース装置は、ユーザの「行動の種類」に対応付けられた「対話情報」を、この「行動の終了時点」に基づいた時点で提示することができる。ここで、「行動の種類」には、例えば、
(イ)走り、(ロ)歩き、(ハ)階段の上り、(ニ)階段の下り、
(ホ)エレベータでの上り、(ヘ)エレベータでの下り、
(ト)エスカレータでの上り、(チ)エスカレータでの下り、
(リ)自転車での移動、(ヌ)自動車での移動、及び(ル)電車での移動
のうちの少なくとも1つが含まれることが好ましい。
The user interface device according to the present invention can present “conversation information” associated with the “behavior type” of the user at a time based on this “behavior end time”. Here, “type of action” includes, for example,
(I) Run, (b) Walk, (c) Up the stairs, (d) Down the stairs,
(E) Ascending at the elevator, (f) Getting off at the elevator,
(G) Ascending on the escalator, (h) descending on the escalator,
It is preferable that at least one of (li) movement by bicycle, (nu) movement by automobile, and (le) movement by train be included.

このような対話情報の提示を実現するため、このユーザインタフェース装置は、
(a)「加速度」を測定することが可能な加速度測定部と、
(b)「行動の種類」毎に、提示する「対話情報」を対応付けて記憶させる提示情報管理部と
を有している。このうち、提示情報管理部は、
(b’)「行動の種類」毎に、当該行動時の「加速度パターン」と、提示する「対話情報」とを対応付けて記憶させることも好ましい。
In order to realize the presentation of such dialogue information, this user interface device
(A) an acceleration measuring unit capable of measuring “acceleration”;
(B) Each “action type” includes a presentation information management unit that stores “conversation information” to be presented in association with each other. Of these, the presentation information management department
(B ′) It is also preferable to store the “acceleration pattern” at the time of the action and the “dialog information” to be presented in association with each “type of action”.

本発明によるユーザインタフェース装置は、このような構成をもって、
(c)測定された「加速度」に基づいてユーザによる「行動の種類」を推定し、
(d)測定された「加速度」に基づいてユーザによる「行動の終了時点」を推定して、
(e)推定された「行動の種類」に対応付けられた「対話情報」を、推定された「行動の終了時点」に基づいた時点で提示させるのである。
The user interface device according to the present invention has such a configuration,
(C) Estimating the “type of action” by the user based on the measured “acceleration”;
(D) Based on the measured “acceleration”, estimate the “action end time” by the user,
(E) The “conversation information” associated with the estimated “type of action” is presented at a time based on the estimated “end time of action”.

このうち、「行動の種類」を推定する際、
(c’)測定された「加速度」との間で、最も高い類似度又は所定閾値以上の類似度を有する「加速度パターン」に対応付けられた「行動の種類」を、推定される「行動の種類」とすることも好ましい。
Of these, when estimating the "type of action"
(C ′) The “action type” associated with the “acceleration pattern” having the highest similarity or a similarity equal to or higher than a predetermined threshold with the measured “acceleration” is estimated “Type” is also preferable.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明によるユーザインタフェース装置を用いた対話情報の提示における種々の形態を説明するための概略図である。   FIG. 1 is a schematic diagram for explaining various forms of presentation of dialogue information using the user interface device according to the present invention.

図1(A)〜(D)に示された携帯端末1は、ユーザが所持して移動等の行動を行える程度の携帯性を有するユーザインタフェース装置である。例えば、スマートフォン、タブレット型コンピュータ、又は携帯電話等とすることができる。   A portable terminal 1 shown in FIGS. 1A to 1D is a user interface device having portability such that a user can carry and perform actions such as movement. For example, a smartphone, a tablet computer, a mobile phone, or the like can be used.

図1(A)に示された携帯端末1は、「歩き」を行っている(歩行している)ユーザに所持されて移動し、ユーザが「歩き」を終了すると、「歩き」の終了時点を推定する。次いで、推定された終了時点に基づいた時点で、対話情報としての話し掛け、例えば「歩き」を励ます内容の「その調子!」との音声の出力、又はディスプレイ等への表示、を実施する。   The mobile terminal 1 shown in FIG. 1A is carried by a user who is “walking” (walking) and moves, and when the user ends “walking”, the end point of “walking” Is estimated. Next, at the time based on the estimated end time, a conversation as dialogue information, for example, output of a voice “Tone!” Of the content that encourages “walking”, or display on a display or the like is performed.

ここで、「その調子!」(励まし)との話し掛けは、例えば「歩き」がユーザの健康に良いとの認識の下、「歩き」に対応付けられた対話情報として予め設定され、記憶されている。   Here, the conversation “That!” (Encouragement) is set and stored in advance as dialogue information associated with “walking”, for example, with the recognition that “walking” is good for the user's health. Yes.

ここで、推定された行動の終了時点に基づいた話し掛けの時点は、例えば、
(1)推定された終了時点そのもの、又は
(2)推定された行動の終了時点から所定時間(例えば5秒)だけ経過した時点、又は
(3)推定された行動の終了時点以後、(所定の)次の行動が検知された時点
とすることができる。この話し掛けの時点は、対応する推定された行動の種類に応じて取り決められることも好ましい。「歩き」の場合、この話し掛けの時点は、例えば(1)推定された終了時点そのものとしてもよい。
Here, the time of talking based on the estimated end time of the action is, for example,
(1) the estimated end time itself, or (2) the time when a predetermined time (for example, 5 seconds) has elapsed from the estimated action end time, or (3) after the estimated action end time (predetermined ) It can be the time when the next action is detected. It is also preferred that the point in time of this talk is negotiated according to the corresponding estimated action type. In the case of “walking”, the point in time of this conversation may be, for example, (1) the estimated end point itself.

また、図1(B)に示された携帯端末1は、「走り」を行っている(走っている)ユーザに所持されて移動し、ユーザが「走り」を終了すると、「走り」の終了時点を推定する。次いで、推定された終了時点に基づいた時点で、対話情報としての話し掛け、例えば「走り」を注意する内容の「無理は禁物です!」との音声の出力、又はディスプレイ等への表示、を実施する。   1B is carried by a user who is “running” (running) and moves, and when the user finishes “running”, the “running” ends. Estimate the time. Next, at the time based on the estimated end time, the dialogue information is spoken, for example, the content of “running” is cautioned, “sounding is forbidden!” Or output on a display or the like. To do.

この「走り」の場合、この話し掛けの時点は、例えば(2)推定された行動の終了時点から所定時間だけ経過した時点とすることができる。   In the case of “running”, the point of time for the talk can be, for example, (2) a point of time that has passed a predetermined time from the estimated point of end of the action.

ここで、携帯端末1は、現状のユーザの健康状態・気分に関するプロファイルパラメータ値を保持していて、例えば「走り」がユーザの健康に良くない可能性があると認識する。この上で、「無理は禁物です!」(励まし)との話し掛けは、「走り」及びこのプロファイルパラメータ値(の範囲)に対応付けられた対話情報として予め設定され、記憶されている。   Here, the mobile terminal 1 holds profile parameter values relating to the current state of health and mood of the user, and recognizes that, for example, “running” may not be good for the user's health. On top of this, the phrase “do not overdo it!” (Encouragement) is preliminarily set and stored as dialogue information associated with “running” and the profile parameter value (range).

さらに、図1(C)に示された携帯端末1は、「エスカレータでの上り」を行っている(上りのエスカレータに乗っている)ユーザに所持されて移動し、ユーザが「エスカレータでの上り」を終了すると、「エスカレータでの上り」の終了時点を推定する。次いで、推定された終了時点に基づいた時点で、対話情報としての話し掛け、例えば他の行動を促す内容の「たまには階段を使ってみるのもいいよ。」との音声の出力、又はディスプレイ等への表示、を実施する。   Further, the mobile terminal 1 shown in FIG. 1C is carried by a user who is performing “uphill on an escalator” (on an uphill escalator), and the user moves “uphill on an escalator”. ”Is terminated, the end point of“ up on the escalator ”is estimated. Next, at a time point based on the estimated end time point, talking as dialogue information, for example, outputting a voice saying “Sometimes you can try using stairs” or a display or the like that prompts other actions. Display.

この「エスカレータでの上り」の場合、この話し掛けの時点は、例えば(1)推定された終了時点そのものとすることができる。   In the case of “up on the escalator”, the point of time for the talk can be, for example, (1) the estimated end point itself.

ここで、「たまには階段を使ってみるのもいいよ。」(促し)との話し掛けは、例えば「エスカレータでの上り」よりも「階段の上り」の方がユーザの健康に良いとの認識の下、「エスカレータでの上り」に対応付けられた対話情報として予め設定され、記憶されている。   Here, “Sometimes you can try using stairs” (prompt) is, for example, the recognition that “up the stairs” is better for the user ’s health than “up the escalator”. Below, it is preset and stored as dialogue information associated with “up on the escalator”.

さらにまた、図1(D)に示された携帯端末1は、「自動車での移動」を行っている(乗車している又は乗車して自動車を運転している)ユーザと共に移動し、ユーザが「自動車での移動」を終了すると、「自動車での移動」の終了時点を推定する。次いで、推定された終了時点に基づいた時点で、対話情報としての質問、例えば行った行動の種類を確認する内容の「今日は、自動車でお出かけですか?」との音声の出力又はディスプレイ等への表示、を実施する。   Furthermore, the mobile terminal 1 shown in FIG. 1D moves with the user who is “moving in a car” (riding or riding and driving a car), and the user When “movement by car” is completed, the end point of “movement by car” is estimated. Next, at the time based on the estimated end time, a question as dialogue information, for example, a voice output of “Today is a car? Display.

この「自動車での移動」の場合、この質問の時点は、例えば(3)推定された行動の終了時点以後、「歩き」が検知された時点(行動の種類が変化した時点)とすることができる。または、(2)推定された行動の終了時点から所定時間だけ経過した時点としてもよい。   In the case of this “movement by car”, the time of this question may be, for example, (3) the time when “walking” is detected (the time when the type of action changes) after the estimated action end time. it can. Or (2) It is good also as the time which only predetermined time passed from the end time of the estimated action.

ここで、「今日は、自動車でお出かけですか?」との質問は、例えば「自動車での移動」に対応付けられた対話情報として予め設定され、記憶されている。尚、この質問を行うか、又は他の話し掛けを行うかの選択においては、例えば、
(a)測定された「加速度」が、「自動車での移動」に対応付けられた「加速度パターン」との間で、最も高い類似度であるが所定閾値未満である類似度を有する場合(即ち、明確な判定ができない場合)に質問を行う、とすることができる。または、
(b)「自動車での移動」が推定された回数について、例えば10回に1回だけ確認のために質問を行う、といった取り決めをしておくこともできる。
Here, the question “Are you going out in a car today?” Is preset and stored as dialog information associated with “movement in a car”, for example. In selecting whether to ask this question or to talk to others, for example,
(A) When the measured “acceleration” has the highest similarity but less than a predetermined threshold with the “acceleration pattern” associated with “movement by car” (ie, , When a clear decision cannot be made). Or
(B) With respect to the estimated number of times of “movement by car”, for example, it is possible to make an arrangement such that a question is asked for confirmation only once in 10 times.

以上の携帯端末1における対話情報の提示例から理解されるように、携帯端末1では、ユーザの行動に対応した対話情報を、適時に提示することが可能となる。   As can be understood from the above-described example of interactive information presentation on the mobile terminal 1, the mobile terminal 1 can present the interactive information corresponding to the user's behavior in a timely manner.

[携帯端末1]
図2は、本発明による携帯端末1の一実施形態における機能構成図である。
[Mobile terminal 1]
FIG. 2 is a functional configuration diagram of an embodiment of the mobile terminal 1 according to the present invention.

図2によれば、携帯端末1は、加速度センサ100とプロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、プログラムを実行することによってその機能を実現させる。携帯端末1は、さらに、気圧センサ101と、マイクロフォン102と、測位部103と、フロアマップ蓄積部104と、スピーカ105と、表示部106aと、入力部106bと、健康・気分情報蓄積部107と、趣味嗜好情報蓄積部108と、習慣行動情報蓄積部109とを有することも好ましい。   According to FIG. 2, the portable terminal 1 has an acceleration sensor 100 and a processor memory. Here, the processor memory realizes its function by executing a program. The portable terminal 1 further includes an atmospheric pressure sensor 101, a microphone 102, a positioning unit 103, a floor map storage unit 104, a speaker 105, a display unit 106a, an input unit 106b, and a health / mood information storage unit 107. It is also preferable to have a hobby preference information storage unit 108 and a habit behavior information storage unit 109.

また、プロセッサ・メモリは、機能構成部として、加速度データ生成部111と、提示情報管理部112と、行動推定部113と、終了時点推定部114と、情報提示部115とを有する。プロセッサ・メモリは、さらに、位置判定部110と、上下移動速度決定部116と、環境音判定部117と、音声判定部118と、プロファイル管理部119と、行動履歴管理部120と、行動相関判定部121と、回答情報抽出部122と、音声合成部123とを有することも好ましい。   Further, the processor memory includes an acceleration data generation unit 111, a presentation information management unit 112, a behavior estimation unit 113, an end time estimation unit 114, and an information presentation unit 115 as functional configuration units. The processor memory further includes a position determination unit 110, a vertical movement speed determination unit 116, an environmental sound determination unit 117, a sound determination unit 118, a profile management unit 119, an action history management unit 120, and an action correlation determination. It is also preferable to have a unit 121, an answer information extraction unit 122, and a speech synthesis unit 123.

加速度センサ100は、加速度を測定することが可能な加速度測定部である。加速度センサ100として、MEMS(Micro Electro Mechanical Systems)技術を用いて形成された、例えば静電容量方式又はピエゾ抵抗方式による、3軸タイプの加速度計測計を採用することができる。加速度センサ100での測定結果は、加速度データ生成部111に出力される。   The acceleration sensor 100 is an acceleration measuring unit capable of measuring acceleration. As the acceleration sensor 100, for example, a three-axis type acceleration measuring instrument formed by using MEMS (Micro Electro Mechanical Systems) technology, for example, by a capacitance method or a piezoresistive method can be employed. A measurement result obtained by the acceleration sensor 100 is output to the acceleration data generation unit 111.

気圧センサ101は、標高差数十cmに相当する微小な気圧変化を検出可能な気圧計とすることができる。これにより、エレベータ、エスカレータ又は階段による上下移動の移動量を計測することが可能となる。気圧センサ101での測定結果は、上下移動速度決定部116に出力される。   The atmospheric pressure sensor 101 can be a barometer capable of detecting a minute atmospheric pressure change corresponding to an altitude difference of several tens of centimeters. As a result, it is possible to measure the amount of vertical movement by the elevator, escalator, or stairs. The measurement result obtained by the atmospheric pressure sensor 101 is output to the vertical movement speed determination unit 116.

測位部103は、GPS衛星からの測位電波を捕捉し、さらにGPS測位方式によって携帯端末1の所在位置(緯度、経度)を測定する。また、測位部103で測定された位置の変化から、携帯端末1の移動における加速度を算出することも可能である。この場合、測位部103は、加速度測定部として機能する。   The positioning unit 103 captures a positioning radio wave from a GPS satellite, and further measures the location (latitude, longitude) of the mobile terminal 1 by a GPS positioning method. Further, it is also possible to calculate the acceleration in movement of the mobile terminal 1 from the change in position measured by the positioning unit 103. In this case, the positioning unit 103 functions as an acceleration measuring unit.

フロアマップ蓄積部104は、所定の屋内外エリアにおける通路・廊下、部屋・区域、階段、エスカレータ、エレベータ等の位置及び範囲の情報を記載した屋内外エリアの地図情報であるフロアマップを蓄積する。フロアマップ蓄積部104と、同エリアに設置された屋内位置センサからの情報又は測位部103による測位結果とを合わせて使用することにより、例えば、携帯端末1の現在位置に基づいて、ユーザは現在上りのエスカレータに乗って移動している等の情報が取得される。   The floor map accumulating unit 104 accumulates a floor map that is map information of an indoor / outdoor area in which information on positions and ranges of passages / corridors, rooms / areas, stairs, escalators, elevators, and the like in a predetermined indoor / outdoor area is described. By using the floor map storage unit 104 together with information from the indoor position sensor installed in the same area or the positioning result by the positioning unit 103, for example, based on the current position of the mobile terminal 1, the user can Information such as moving on an up escalator is acquired.

マイクロフォン102は、周囲の音声又は環境音を検知する(電気信号に変換する)。また、スピーカ105は、後述する情報提示部115から出力される対話情報(に対応して合成された音声信号)を、音声に変換して出力する。マイクロフォン102は、さらに、スピーカ105から発せられた対話情報としての質問を受けたユーザの音声による応答を検知する。   The microphone 102 detects ambient sound or environmental sound (converts it into an electrical signal). In addition, the speaker 105 converts dialogue information (a voice signal synthesized corresponding to the dialogue information) output from the information presentation unit 115 described later into a voice and outputs the voice. The microphone 102 further detects a response by the voice of the user who has received a question as dialogue information issued from the speaker 105.

表示部106aでは、情報提示部115から出力される対話情報が例えば文字として表示される。また、入力部106bでは、表示部106aに表示された質問を視認したユーザによる操作によって、この質問に対する応答が入力される。表示部106a及び入力部106bは、例えば、タッチパネル・ディスプレイとすることができる。   In the display unit 106a, the dialogue information output from the information presenting unit 115 is displayed as characters, for example. In the input unit 106b, a response to the question is input by an operation by a user who visually recognizes the question displayed on the display unit 106a. The display unit 106a and the input unit 106b can be, for example, a touch panel display.

加速度データ生成部111は、加速度センサ100から加速度情報を含む信号を入力し、各軸方向の加速度成分又は加速度絶対値の時間変化を表す加速度データを生成して、行動推定部113に出力する。   The acceleration data generation unit 111 receives a signal including acceleration information from the acceleration sensor 100, generates acceleration data representing a temporal change in the acceleration component or acceleration absolute value in each axis direction, and outputs the acceleration data to the behavior estimation unit 113.

提示情報管理部112は、ユーザの行動の種類毎に、提示する対話情報を対応付けて記憶させる。具体的には、後に図3を用いて説明する提示情報テーブル112tを生成し、管理する。ここで、ユーザの行動の種類毎に、行動時の加速度パターンと、提示する対話情報とを対応付けて記憶させることも好ましい。   The presentation information management unit 112 stores the dialogue information to be presented in association with each type of user action. Specifically, the presentation information table 112t described later with reference to FIG. 3 is generated and managed. Here, it is also preferable to store the acceleration pattern at the time of the action and the dialogue information to be presented in association with each type of action of the user.

また、提示情報管理部112は、ユーザの行動の種類毎及び少なくとも1つのプロファイルパラメータ毎に、提示する対話情報を対応付けて記憶させることも好ましい。ここで、プロファイルパラメータ値は、ユーザの健康状態・気分を示す値、ユーザの趣味嗜好を示す値、及びユーザの習慣行動を示す値のうち少なくとも1つとすることができる。   In addition, the presentation information management unit 112 preferably stores the dialogue information to be presented in association with each type of user action and at least one profile parameter. Here, the profile parameter value may be at least one of a value indicating the user's health condition / mood, a value indicating the user's hobby preference, and a value indicating the user's habit behavior.

さらに、提示情報管理部112は、ユーザの行動の種類としてのエスカレータでの上り又は下りに、エスカレータでの上り時又は下り時に対応する上下方向の移動速度と、提示する対話情報とを対応付けて記憶させることも好ましい。ここで、上下方向の移動速度は、例えば後述する気圧センサ100による気圧測定値の変動から算出される値を対比させる項目となる。   Further, the presentation information management unit 112 associates the up / down movement on the escalator as the type of user's behavior with the moving speed in the vertical direction corresponding to the up / down movement on the escalator and the dialogue information to be presented. It is also preferable to memorize. Here, the moving speed in the vertical direction is an item for comparing a value calculated from, for example, a change in an atmospheric pressure measurement value by an atmospheric pressure sensor 100 described later.

さらにまた、提示情報管理部112は、ユーザの行動の種類としての「自転車での移動」に、自転車での移動時に対応する加速度パターンと、開空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させることも好ましい。また、ユーザ行動の種類としての「自動車での移動」に、自動車での移動時に対応する加速度パターンと、閉空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させることも好ましい。   Furthermore, the presentation information management unit 112 provides information on an acceleration pattern corresponding to movement on a bicycle, information on presence of sound in an open space, and a dialogue to be presented for “movement on a bicycle” as the type of user's action. It is also preferable to store information in association with each other. In addition, “movement by car” as the type of user behavior is stored by associating and storing the acceleration pattern corresponding to the movement by the car, information on the presence of sound in a closed space, and the dialogue information to be presented Is also preferable.

行動推定部113は、加速度データ生成部111から入力した加速度データに基づいてユーザによる行動の種類を推定する。この際、提示情報テーブル112tにおいて、測定された加速度(加速度データ)との間で、最も高い「類似度」又は所定閾値以上の「類似度」を有する加速度パターンに対応付けられた行動の種類を、推定される行動の種類とすることも好ましい。ここで、「類似度」として相関度を採用することができ、この場合、所定閾値は、所定の相関係数の閾値となる。   The behavior estimation unit 113 estimates the type of behavior by the user based on the acceleration data input from the acceleration data generation unit 111. At this time, in the presentation information table 112t, the type of action associated with the acceleration pattern having the highest “similarity” or “similarity” equal to or higher than a predetermined threshold with the measured acceleration (acceleration data). It is also preferable to set the type of action to be estimated. Here, the degree of correlation can be adopted as the “similarity”. In this case, the predetermined threshold value is a threshold value of a predetermined correlation coefficient.

また、行動推定部113は、
(a)測定された加速度の変動が所定閾値以下であって、且つ
(b)決定された上下方向の移動速度と、提示情報テーブル112tにおけるエスカレータでの上り時(下り時)に対応する上下方向の移動速度との差が所定範囲内である際、
「エスカレータでの上り(下り)」を、推定される行動の種類とすることも好ましい。
In addition, the behavior estimation unit 113
(A) Up and down direction corresponding to the measured acceleration fluctuation is equal to or less than a predetermined threshold value, and (b) the determined vertical movement speed and the up (down) time of the escalator in the presentation information table 112t When the difference from the moving speed is within the predetermined range,
It is also preferable to set “uphill (downhill) on the escalator” as the type of action to be estimated.

終了時点推定部114は、測定された加速度(加速度データ生成部111から入力した加速度データ)に基づいてユーザによる行動の終了時点を推定する。ここで、
(a)測定された加速度の変動が所定閾値以下である時点、又は
(b)行動推定部113によって推定される行動の種類が変化した時点
を、ユーザによる行動の終了時点であると推定することができる。
The end point estimation unit 114 estimates the end point of the action by the user based on the measured acceleration (acceleration data input from the acceleration data generation unit 111). here,
(A) Estimating a point in time when the variation in measured acceleration is equal to or less than a predetermined threshold, or (b) a point in time when the type of behavior estimated by the behavior estimation unit 113 is changed, as the end point of the user's behavior. Can do.

情報提示部115は、行動推定部113によって推定された行動の種類に対応付けられた対話情報を、終了時点推定部114によって推定された行動の終了時点に基づいた時点で提示させる。この際、対話情報を音声合成部123に出力して、この対話情報に対応する音声信号を合成し、スピーカ105を介して対話情報の音声を出力することも好ましい。また、情報提示部115は、対話情報を表示部106aに出力して、対話情報に対応する文字又は画像等を表示させることもできる。   The information presenting unit 115 presents the dialogue information associated with the type of behavior estimated by the behavior estimating unit 113 at a time based on the end time of the behavior estimated by the end time estimating unit 114. At this time, it is also preferable to output the dialogue information to the voice synthesis unit 123, synthesize a voice signal corresponding to the dialogue information, and output the voice of the dialogue information via the speaker 105. In addition, the information presentation unit 115 can output dialogue information to the display unit 106a to display characters or images corresponding to the dialogue information.

位置判定部110は、測位部103での所在位置(緯度、経度)の測定結果を入力し、フロアマップからの位置情報を合わせて、携帯端末1の居場所、例えば、エスカレータ位置等に居るか否か、更にはエスカレータ位置で移動しているか否か、を判定する。また、位置判定部110は、携帯端末1の所在位置(緯度、経度)の変化から、携帯端末1の移動における加速度を算出することもできる。この場合、測位部103は、加速度測定部として機能する。   The position determination unit 110 inputs the measurement result of the location (latitude, longitude) in the positioning unit 103, and combines the position information from the floor map to determine whether the mobile terminal 1 is at the location such as the escalator position. Further, it is determined whether or not the vehicle is moving at the escalator position. Further, the position determination unit 110 can also calculate an acceleration in movement of the mobile terminal 1 from a change in the location (latitude, longitude) of the mobile terminal 1. In this case, the positioning unit 103 functions as an acceleration measuring unit.

上下移動速度決定部116は、気圧センサ101によって検知された気圧の変化から、携帯端末1における上下方向の移動速度を決定する。決定された上下方向の移動速度は、行動推定部113に出力される。   The vertical movement speed determination unit 116 determines the vertical movement speed of the mobile terminal 1 from the change in atmospheric pressure detected by the atmospheric pressure sensor 101. The determined movement speed in the vertical direction is output to the behavior estimation unit 113.

環境音判定部117は、マイクロフォン102によって検知された環境音が、閉空間での音か開空間での音かを判定し、判定結果を行動推定部113に出力する。一般に、閉空間の音場では、複数の共振周波数が存在し、さらに、音場内の音圧分布に特徴的なパターン(モード)が出現する。環境音判定部117は、入力した環境音のスペクトル解析又はモード解析を行うことにより、共振周波数の存在又はモードの存在を確認した場合に、環境音は閉空間での音である、との判定を行い、確認できなかった場合に、環境音は開空間での音である、との判定を行うことができる。   The environmental sound determination unit 117 determines whether the environmental sound detected by the microphone 102 is a sound in a closed space or a sound in an open space, and outputs the determination result to the behavior estimation unit 113. In general, in a sound field in a closed space, there are a plurality of resonance frequencies, and a characteristic pattern (mode) appears in the sound pressure distribution in the sound field. The environmental sound determination unit 117 determines that the environmental sound is a sound in a closed space when the presence of the resonance frequency or the mode is confirmed by performing spectrum analysis or mode analysis of the input environmental sound. If the environmental sound is not confirmed, it can be determined that the environmental sound is a sound in an open space.

さらに、自動車内に予め一定周波数の音波を発生させる装置を取り付けておき、マイクロフォン102によって検知された環境音がこの音波を含んでいる場合に、環境音は閉空間(自動車内)での音である、との判定を行ってもよい。   Furthermore, when a device for generating a sound wave of a constant frequency is installed in the car in advance, and the environmental sound detected by the microphone 102 includes this sound wave, the environmental sound is a sound in a closed space (in the car). You may determine that there exists.

ここで、行動推定部113は、環境音判定部117による開空間での音であるとの判定を、ユーザの行動の種類が「自転車での移動」である、と推定するための必要条件とすることも好ましい。また、環境音判定部117による閉空間での音であるとの判定を、ユーザの行動の種類が「自動車での移動」と推定するための必要条件とすることも好ましい。   Here, the behavior estimation unit 113 determines that the environmental sound determination unit 117 determines that the sound is an open space, and that the user's behavior type is “bicycle movement”. It is also preferable to do. Moreover, it is also preferable to make the determination that the sound is a closed space by the environmental sound determination unit 117 as a necessary condition for estimating that the user's action type is “movement by car”.

音声判定部118は、検知された音声がユーザの声であるか否かを判定し、判定結果を行動推定部113に出力する。ここで、音声判定部118は、ユーザの声の特徴を予め記憶しておき、声紋認証技術を用いて検知した音声がユーザの声であるか否かを判定することができる。   The sound determination unit 118 determines whether or not the detected sound is a user's voice, and outputs the determination result to the behavior estimation unit 113. Here, the voice determination unit 118 can store in advance the characteristics of the user's voice and determine whether or not the voice detected using the voiceprint authentication technique is the user's voice.

ここで、情報提示部115は、音声判定部118によって真の判定(ユーザの声であるとの判定)が行われた時点から少なくとも所定時間以内は、推定された行動の終了時点に基づいた時点であるにもかかわらず、推定された行動の種類に対応付けられた対話情報を提示させないことも好ましい。即ち、この場合、ユーザが会話を行っている可能性が高く、携帯端末1に対して応答・操作を行う余裕はないと判断し、話し掛け等を行わないのである。   Here, the information presentation unit 115 is based on the estimated action end time at least within a predetermined time from the time when the sound determination unit 118 performs the true determination (determination that the voice is the user's voice). However, it is also preferable not to present the dialogue information associated with the estimated type of action. That is, in this case, it is highly likely that the user is having a conversation, and it is determined that there is no room for responding / operating on the mobile terminal 1, and no talking is performed.

また、携帯端末1に、携帯端末1と同様の対話情報提示機能を有する端末への接近を検知する(電界、磁界、赤外線方式等の)近接センサが搭載されていて、
(a)この両端末が近接している(ユーザ同士が一緒に行動している)ことと、
(b)音声判定部118によって真の判定が行われた(ユーザ同士が会話をしている)ことと
をもって、上記所定時間以内は、推定された行動の種類に対応付けられた対話情報を提示させないとすることもできる。
The mobile terminal 1 is equipped with a proximity sensor (such as an electric field, a magnetic field, or an infrared system) that detects an approach to a terminal having the same interactive information presentation function as the mobile terminal 1.
(A) the two terminals are close together (users are acting together)
(B) When the true determination is performed by the voice determination unit 118 (users are having a conversation), the interaction information associated with the estimated action type is presented within the predetermined time. You can also choose not to let it.

健康・気分情報蓄積部107は、例えば図示していないが、携帯端末1に搭載された脈拍センサ等の生体センサからの出力(脈拍値等)、又は外部から入力されたユーザに関する(高血圧、肥満等の)健康状態情報、を健康情報データとして蓄積する。また、趣味嗜好情報蓄積部108は、電子日記、ブログ等のユーザが作成した日常の行動に関連したデータから、「炭酸ジュースが好き」等の言葉を抽出して、趣味嗜好データとして蓄積する。さらに、習慣行動情報蓄積部109も、電子日記、ブログ等のユーザが作成した日常の行動に関連したデータから、「深夜の食事が多い」、「夜更かしが多い」等の言葉を抽出して、習慣行動データとして蓄積する。   The health / mood information accumulating unit 107 is not shown in the figure, for example, output from a biosensor such as a pulse sensor mounted on the mobile terminal 1 (pulse value, etc.), or an externally input user (hypertension, obesity) Etc.) is stored as health information data. In addition, the hobby preference information storage unit 108 extracts words such as “I like carbonated juice” from data related to daily actions created by the user, such as an electronic diary and a blog, and stores them as hobby preference data. Furthermore, the habit behavior information storage unit 109 also extracts words such as “a lot of late-night meals” and “a lot of late night” from data related to daily actions created by users such as electronic diaries and blogs. , Accumulate as habit behavior data.

プロファイル管理部119は、ユーザのプロファイルを示す少なくとも1つのプロファイルパラメータの値を記録し、記録した当該値を情報提示部115に出力する。ここで、プロファイル管理部119は、健康情報蓄積部107、趣味嗜好情報蓄積部108及び習慣行動情報蓄積部109から、健康情報、趣味嗜好情報及び習慣行動情報を入力して、ユーザにおけるプロファイルパラメータの値として記録する。   The profile management unit 119 records the value of at least one profile parameter indicating the user profile, and outputs the recorded value to the information presentation unit 115. Here, the profile management unit 119 inputs the health information, the hobby preference information, and the habit behavior information from the health information accumulation unit 107, the hobby preference information accumulation unit 108, and the habit behavior information accumulation unit 109, and sets profile parameters of the user. Record as a value.

また、このプロファイル管理部119が設けられている場合、提示情報テーブル112tには、ユーザの行動の種類によって、行動の種類毎及び少なくとも1つのプロファイルパラメータ毎に、提示する対話情報が対応付けて記憶されている。この場合、情報提示部115は、提示情報テーブル112tにおいて、推定された行動の種類と、記録されたプロファイルパラメータ値とに対応付けられた対話情報を、推定された行動の終了時点に基づいた時点で提示させることも好ましい。   When this profile management unit 119 is provided, the presentation information table 112t stores the interaction information to be presented in association with each type of behavior and at least one profile parameter depending on the type of behavior of the user. Has been. In this case, in the presentation information table 112t, the information presentation unit 115 sets the interaction information associated with the estimated action type and the recorded profile parameter value based on the estimated action end time. It is also preferable to make it present.

行動履歴管理部120は、ユーザの行動の種類毎に当該行動の実施時間の履歴を対応付けて記録し、この履歴と合わせてユーザの健康状態・気分を示す値の履歴を記録する。具体的には、後に図5を用いて説明する行動履歴テーブル120tを生成する。   The action history management unit 120 records a history of the execution time of the action in association with each type of user's action, and records a history of values indicating the user's health state and mood together with this history. Specifically, an action history table 120t described later with reference to FIG. 5 is generated.

行動相関判定部121は、生成された行動履歴テーブル120tを用いて、行動(例えば「走り」)の実施時間と健康状態・気分を示す値との間の相関関係を判別する。   The behavior correlation determination unit 121 uses the generated behavior history table 120t to determine the correlation between the behavior time (for example, “run”) and the value indicating the health state / mood.

この場合、提示情報管理部112は、上記の判別に係る行動(例えば「走り」)を促す対話情報及びこの行動を制限させる対話情報を含む対話情報群を、行動の種類に対応付けて記憶させることも好ましい。さらに、情報提示部115は、行動相関判別部121による判別結果に基づいて、これらの対話情報群の中から、提示する対話情報を選択することも好ましい。   In this case, the presentation information management unit 112 stores a dialogue information group including dialogue information that prompts an action related to the above-described determination (for example, “run”) and dialogue information that restricts the action in association with the type of action. It is also preferable. Furthermore, it is also preferable that the information presentation unit 115 selects the dialogue information to be presented from the dialogue information group based on the determination result by the behavior correlation determination unit 121.

回答情報抽出部122は、対話情報として提示された質問であって、推定された行動の種類を確認するための質問に対するユーザの回答を取得する。具体的には、例えば、マイクロフォン102を介して入力されたユーザの回答の音声を、音声判定部118を経由して取得する。この際、音声判定部118は、検知された音声がユーザの声であるとの判定を行った場合にのみ、回答音声情報を回答情報抽出部122に出力することも好ましい。回答情報抽出部122は、さらに、ユーザの操作によって入力部106aを介して入力されたユーザの入力回答情報を入力することもできる。   The answer information extraction unit 122 acquires a user's answer to a question that is a question presented as dialogue information and that is used to check the estimated type of action. Specifically, for example, the voice of the user's answer input via the microphone 102 is acquired via the voice determination unit 118. At this time, it is preferable that the voice determination unit 118 outputs the answer voice information to the answer information extraction unit 122 only when it is determined that the detected voice is the voice of the user. The answer information extraction unit 122 can also input user input answer information input via the input unit 106a by a user operation.

回答情報抽出部122は、次いで、入力した回答音声情報又は入力回答情報から、ユーザの行動についての情報を抽出する。例えば、「今日は階段を走って上がっていましたね!」との質問に対する回答として、「いや、普通に上がったよ。」との回答を取得した際、この回答から「普通」及び「(階段を)上がった」との(音声又は文字の)行動関連情報を抽出する。ここで、回答情報抽出部122は、予め、設定された質問毎に、回答に含まれ得ると想定される行動関連情報を記憶しておき、記憶した各行動関連情報が取得した回答の中に含まれているか否かを判定することも好ましい。   Next, the answer information extraction unit 122 extracts information about the user's behavior from the input answer voice information or the input answer information. For example, as an answer to the question “I was running up the stairs today!”, When I got the answer “No, I went up normally.” Action related information (speech or text) is extracted. Here, the answer information extraction unit 122 stores action-related information assumed to be included in the answer for each set question in advance, and the stored action-related information is included in the acquired answers. It is also preferable to determine whether or not it is included.

回答情報抽出部122は、抽出したユーザの行動についての情報を、提示情報管理部112に出力する。この場合、提示情報管理部112は、入力したユーザの行動についての情報をもって、
(a)提示情報テーブル112tにおける、行動の種類及びこの行動の種類に対応付けられた対話情報を更新する、又は
(b)提示情報テーブル112tにおける、当該行動の種類に対応付けられた当該行動時の加速度パターンを更新する、又は
(c)提示情報テーブル112tに、抽出されたユーザの行動の情報に係る新たな行動の種類を登録させ、行動の際に得られた加速度データに基づいた加速度パターンを対応付けて記憶させる
ことができる。即ち、ユーザの行動の種類を確認する質問に対する回答を取得することによって、提示情報テーブル112tを、より現状に即した内容に更新することができる。
The answer information extraction unit 122 outputs information about the extracted user behavior to the presentation information management unit 112. In this case, the presentation information management unit 112 has information about the input user behavior,
(A) Updating the action type and the interaction information associated with this action type in the presentation information table 112t, or (b) the action time associated with the action type in the presentation information table 112t. Or (c) a new action type related to the extracted user action information is registered in the presentation information table 112t, and an acceleration pattern based on the acceleration data obtained at the time of the action Can be stored in association with each other. That is, by obtaining an answer to a question for confirming the type of user's action, the presentation information table 112t can be updated to a content that is more current.

ここで、上記(a)は、測定された加速度との間で最も高い又は所定閾値以上の類似度を有する加速度パターンに対応付けられた行動の種類が、抽出したユーザの行動と異なる場合に実施されてもよい。また、上記(b)は、測定された加速度が、1つの行動の種類に対応付けられた加速度パターンとの間で、最も高い類似度であるが所定閾値未満である類似度を有する場合(即ち、明確な判定ができない場合)に実施されてもよい。さらに、上記(c)は、抽出したユーザの行動が登録されていない新たなものである場合に実施されてもよい。尚、このような提示情報テーブル112tにおける現状に即した内容への更新によって、質問の回数も、通常、徐々に減少していく。 Here, the above (a) is performed when the type of action associated with the acceleration pattern having the highest degree of similarity with the measured acceleration or a predetermined threshold or more is different from the extracted user action. May be. In the case (b), when the measured acceleration has the highest similarity but less than a predetermined threshold with the acceleration pattern associated with one type of action (ie, , When a clear determination cannot be made). Furthermore, the above (c) may be performed when the extracted user action is a new one not registered. In addition, the number of questions is usually gradually reduced by updating the content in the presentation information table 112t according to the current state.

[提示情報テーブル]
図3は、本発明に係る提示情報テーブルにおける一実施形態の概略図である。
[Presentation information table]
FIG. 3 is a schematic diagram of an embodiment of the presentation information table according to the present invention.

図3に示した提示情報テーブル112tは、予め設定された「行動の種類」毎に、
(a)加速度パターン、(b)プロファイルパラメータ(A、B、・・・)
(c)上下方向移動速度、(d)環境音判定、(e)対話情報A、及び
(f)対話情報B(質問)
が対応付けられて記録されたテーブルとなっている。
The presentation information table 112t shown in FIG. 3 is provided for each preset “type of action”.
(A) Acceleration pattern, (b) Profile parameters (A, B, ...)
(C) Vertical movement speed, (d) Ambient sound determination, (e) Dialog information A, and (f) Dialog information B (question)
Is a table recorded in association with each other.

このうち、「行動の種類」は、上述したように、(イ)走り、(ロ)歩き、(ハ)階段の上り、(ニ)階段の下り、(ホ)エレベータでの上り、(ヘ)エレベータでの下り、
(ト)エスカレータでの上り、(チ)エスカレータでの下り、(リ)自転車での移動、(ヌ)自動車での移動、及び(ル)電車での移動のうちの少なくとも1つが含まれることが好ましい。
Among these, as described above, “type of action” includes (a) running, (b) walking, (c) going up the stairs, (d) going down the stairs, (e) going up at the elevator, (f) Going down the elevator,
It may include at least one of (g) going up on an escalator, (h) going down on an escalator, (li) traveling on a bicycle, (nu) traveling on a car, and (le) traveling on a train. preferable.

尚、当然に、行動の種類は上記のものに限定されるものではない。例えば、「階段の走っての上り」、「階段の走っての下り」等も、行動の種類として採用され得る。   Of course, the type of action is not limited to the above. For example, “up climbing on stairs”, “down climbing on stairs”, and the like can also be adopted as action types.

また、加速度パターンは、行動の種類に対応した加速度の典型パターンである。具体的には、例えば、ユーザが実際に走っている際の加速度の時間変化を加速度センサ100を用いて測定し、加速度データ生成部111で生成された(例えば各軸方向の加速度成分又は加速度絶対値の時間変化を表す)加速度データを、(イ)走りに対応した加速度パターンとすることができる。この際、複数回、所定時間走った際の加速度データを平均して、加速度パターンとしてもよい。   The acceleration pattern is a typical acceleration pattern corresponding to the type of action. Specifically, for example, a time change in acceleration when the user is actually running is measured using the acceleration sensor 100 and generated by the acceleration data generation unit 111 (for example, an acceleration component or acceleration absolute in each axis direction). Acceleration data (which represents a change in value over time) can be (a) an acceleration pattern corresponding to running. At this time, acceleration data obtained by running a plurality of times for a predetermined time may be averaged to obtain an acceleration pattern.

プロファイルパラメータ(A、B、・・・)は、ユーザにおける健康状態・気分、趣味嗜好、習慣行動等のプロファイルを表す指標であり、例えば、プロファイルパラメータ値として、肥満傾向有り/無し、脈拍値(の範囲での分類)、血圧値(又はその範囲での分類)、朝型/夜型の生活パターン、所定の嗜好品(例えば炭酸ジュース)が好き/嫌い、深夜の食事が多い/少ない/無し、等が挙げられる。   The profile parameters (A, B,...) Are indexes representing profiles of the user's health condition / mood, hobbies, habits, etc. For example, profile parameter values include obesity tendency presence / absence, pulse value ( Classification), blood pressure (or classification within that range), morning / night lifestyle patterns, likes / dislikes certain preference products (eg carbonated juice), many late night meals / less / none , Etc.

上下方向移動速度は、ユーザがエスカレータで上っている又は下っている際の典型的な上下方向(鉛直方向)での移動速度である。具体的には、例えば、ユーザが実際にエスカレータで上っている又は下っている際の気圧の変化を気圧センサ101を用いて測定し、上下移動速度決定部116で決定された上下方向移動速度を、(ト)エスカレータでの上又は(チ)エスカレータでの下りに対応した、典型的な上下方向移動速度とすることができる。この際、複数回、エスカレータで上った/下った際の加速度データを平均して、上下方向移動速度としてもよい。   The vertical movement speed is a movement speed in a typical vertical direction (vertical direction) when the user is climbing up or down on the escalator. Specifically, for example, the change in atmospheric pressure when the user actually goes up or down on the escalator is measured using the atmospheric pressure sensor 101, and the vertical movement speed determined by the vertical movement speed determination unit 116 is measured. Can be set to a typical vertical movement speed corresponding to (g) up on the escalator or (h) down on the escalator. At this time, the acceleration data when the escalator is raised / lowered a plurality of times may be averaged to obtain the vertical movement speed.

環境音判定は、環境音が閉空間での音であるか、又は開空間での音であるかを示すパラメータである。例えば(リ)自転車での移動に、開空間での音であるとの値が対応付けて記録され、(ヌ)自動車での移動に、閉空間での音であるとの値が対応付けて記録される。   The environmental sound determination is a parameter indicating whether the environmental sound is a sound in a closed space or a sound in an open space. For example, (li) the value of sound in an open space is recorded in association with movement on a bicycle, and (nu) the value of sound in a closed space is associated with movement in a car. To be recorded.

対話情報Aは、行動の種類及びプロファイルパラメータ値毎に対応付けられた、ユーザに対する話し掛けの内容である。例えば、(イ)走り及び(プロファイルパラメータAの値としての)「肥満傾向有り」に対応付けて、「その調子!」(励まし)との対話情報が記録される。一方、(イ)走り及び(プロファイルパラメータAの値としての)「肥満傾向無し」に対応付けて、「普段の行動が大切だよね!」(褒め)との対話情報が記録される。   The conversation information A is the content of the conversation to the user associated with each type of action and profile parameter value. For example, dialog information “(Tone!) (Encouragement)” is recorded in association with (i) running and “with obesity tendency” (as the value of profile parameter A). On the other hand, (a) running information and dialogue information “normal behavior is important!” (Praise) is recorded in association with “no obesity tendency” (as the value of profile parameter A).

対話情報Bは、行動の種類毎に対応付けられた、推定された行動の種類を確認するための質問の内容である。例えば、(リ)自転車での移動に対応付けて、「今日は、自転車?」との対話情報が記録される。   The conversation information B is the content of a question for confirming the estimated action type associated with each action type. For example, dialogue information “Today is a bicycle?” Is recorded in association with the movement on a bicycle.

尚、対話情報A及びBともに、以上に説明した内容に限定されるものではない。例えば、対話情報Aとして、ユーザの行った行動の種類(例えば(イ)走り)に応じて、所定の商品(例えばスポーツドリンク)の購入・使用を推奨する内容を採用することも可能である。   The dialogue information A and B are not limited to the contents described above. For example, as the dialogue information A, it is possible to adopt a content that recommends purchase / use of a predetermined product (for example, sports drink) according to the type of action (for example, (i) running) performed by the user.

[情報提示方法]
図4は、本発明による情報提示方法の一実施形態を示すフローチャートである。同図の方法を適用する状況として、ユーザは、ある種類の行動を開始し、その後、この行動を終了するものとする。携帯端末1は、このユーザによる行動が終了した後、ユーザに対し、話し掛け又は質問を行う。
[Information presentation method]
FIG. 4 is a flowchart showing an embodiment of the information presentation method according to the present invention. As a situation where the method of FIG. 6 is applied, the user starts a certain type of action and then ends this action. After the action by the user is finished, the mobile terminal 1 talks or asks the user.

(S300)携帯端末1は、ユーザの行動の種類及び行動の終了時点を推定すべく、加速度を測定する。
(S301)次いで、測定によって取得された加速度データが、提示情報テーブル112tに記憶された加速度パターンのうちのいずれと類似しているかの判定を行う。
(S300) The mobile terminal 1 measures acceleration in order to estimate the type of action of the user and the end point of the action.
(S301) Next, it is determined which of the acceleration patterns stored in the presentation information table 112t is similar to the acceleration data acquired by the measurement.

この判定では、所定時間での測定によって取得された加速度データと、提示情報テーブル112tに記録された加速度パターンにおける1つの当該所定時間分との間の相関度を求めることも好ましい。ここで、加速度データも加速度パターンも共に時間をパラメータとした加速度値(各軸成分値又は絶対値)のデータ列であるが、これら両データ列の各々において、最大値が1となるように且つ平均値がゼロとなるように調整されることも好ましい。この両データ列の間の相関係数を算出することによって、取得された加速度データと、記録された加速度パターンとの間の類似度(相関係数)が得られる。   In this determination, it is also preferable to obtain the degree of correlation between the acceleration data acquired by measurement at a predetermined time and one predetermined time in the acceleration pattern recorded in the presentation information table 112t. Here, both the acceleration data and the acceleration pattern are data strings of acceleration values (each axis component value or absolute value) using time as a parameter. In each of these data strings, the maximum value is 1 and It is also preferable that the average value is adjusted to be zero. By calculating the correlation coefficient between the two data strings, the similarity (correlation coefficient) between the acquired acceleration data and the recorded acceleration pattern is obtained.

さらに、例えば行動の種類が(イ)走りの場合、走りの速度(1秒あたりの歩数)が異なると加速度パターンの周波数も変化してしまう。これに対処するため、記録された加速度パターンを所定比率だけ引き伸ばしたもの又は押し縮めたもの(周波数を低下又は増加させたもの)を生成し、この変形した加速度パターンと、加速度測定値との間の相関係数を計算することも好ましい。具体的には、記録された(例えば10秒間の)加速度パターンを、例えばプラスマイナス10%の間で変化させながら、相関係数を算出して、得られた相関係数の最大値を、記録された加速度パターンとの間の類似度として決定する。   Further, for example, when the type of action is (i) running, the frequency of the acceleration pattern changes if the running speed (steps per second) is different. In order to cope with this, a recorded acceleration pattern that is stretched or compressed by a predetermined ratio (a frequency that is reduced or increased) is generated, and between the deformed acceleration pattern and the acceleration measurement value. It is also preferable to calculate the correlation coefficient. Specifically, the correlation coefficient is calculated while changing the recorded acceleration pattern (for example, for 10 seconds) between, for example, plus and minus 10%, and the maximum value of the obtained correlation coefficient is recorded. It is determined as the degree of similarity between the measured acceleration pattern.

ここで、プラスマイナス10%の間で変化させるとは、1つの10秒間の加速度パターンを、幾何学的に11秒間にまで引き伸ばしたパターンを生成し、同様に10.9秒、10.8秒、・・・に引き伸ばしたパターンを生成する。押し縮める場合でも同様に、1つの10秒間の加速度パターンを幾何学的に9秒間にまで押し縮めたパターンを生成し、同様に、9.1秒、9.2秒、・・・に押し縮めたパターンを生成する。この場合、全部で21パターンが生成されることになる。尚、当然に、引き伸ばす又は押し縮める比率・間隔は、上述したものに限定されるものではなく、例えば、より細かく、引き伸ばされた又は押し縮められた加速度パターンを生成してもよい。   Here, changing between plus and minus 10% generates a 10-second acceleration pattern geometrically extended to 11 seconds, and similarly 10.9 seconds and 10.8 seconds. Generate a pattern stretched to. Similarly, in the case of compression, a 10-second acceleration pattern is geometrically compressed to 9 seconds, and the pattern is similarly compressed to 9.1 seconds, 9.2 seconds, and so on. Generate a pattern. In this case, 21 patterns are generated in total. Naturally, the ratio / interval for stretching or contracting is not limited to the above-described one, and for example, an acceleration pattern that is stretched or contracted more finely may be generated.

次いで、この算出された相関係数に基づき、取得された加速度データとの間で、最も高い類似度(相関係数)を有する、又は所定閾値以上の類似度(相関係数)を有する加速度パターンを選択する。   Next, based on the calculated correlation coefficient, an acceleration pattern having the highest similarity (correlation coefficient) with the acquired acceleration data or having a similarity (correlation coefficient) equal to or higher than a predetermined threshold value Select.

(S302)選択された加速度パターンを用いて、ユーザによる行動の種類を推定する。この際、取得された加速度データとの間で最も高い類似度(相関係数)を有する加速度パターンに対応付けられた行動の種類を、推定される行動の種類に決定することができる。   (S302) The type of action by the user is estimated using the selected acceleration pattern. At this time, the type of action associated with the acceleration pattern having the highest similarity (correlation coefficient) with the acquired acceleration data can be determined as the type of action to be estimated.

または、取得された加速度データとの間で所定閾値以上の類似度(相関係数)を有する加速度パターンを選択してもよい。この場合、選択された加速度パターンに対応付けられた行動の種類のそれぞれについて、提示情報テーブル112tにおける他の項目(プロファイルパラメータ、上下方向移動速度、又は環境音判定等)による判定を行い、選択された加速度パターンの行動の種類の中から、より該当性の高い1つの行動の種類を決定してもよい。   Or you may select the acceleration pattern which has a similarity (correlation coefficient) more than a predetermined threshold with the acquired acceleration data. In this case, for each type of action associated with the selected acceleration pattern, a determination is made based on other items (profile parameter, vertical movement speed, environmental sound determination, etc.) in the presentation information table 112t. One action type with higher relevance may be determined from the action types of the acceleration pattern.

(S303)測定された加速度(取得された加速度データ)に基づいて、ユーザによる行動の終了時点を推定する。具体的には、測定された加速度の変動が所定閾値以下である時点を、ユーザによる行動の終了時点である、と推定してもよい。この場合、例えば、所定の加速度測定期間における加速度の各軸方向成分a、a及びaの分散V、V及びVが、
(1) V<Vth、且つV<Vth、且つ及びV<Vth (Vthは所定の閾値)
を満たした時点を、ユーザによる行動の終了時点とすることができる。または、所定の加速度測定期間における加速度の絶対値の分散Vが、
(2) V<Vth’ (Vth’は所定の閾値)
を満たした時点を、ユーザによる行動の終了時点としてもよい。
(S303) Based on the measured acceleration (acquired acceleration data), the end point of the action by the user is estimated. Specifically, the time point at which the measured change in acceleration is equal to or less than a predetermined threshold value may be estimated as the end point of the action by the user. In this case, for example, variances V x , V y, and V z of the axial components a x , a y, and a z of acceleration in a predetermined acceleration measurement period are
(1) V x <V th , V y <V th , and V z <V th (V th is a predetermined threshold)
It is possible to set the time when the action is satisfied as the end time of the action by the user. Alternatively, the variance V a of the absolute value of acceleration during a predetermined acceleration measurement period is
(2) V a <V th '(V th ' is a predetermined threshold value)
It is good also considering the time of satisfy | filling as the end time of the action by a user.

さらに、変更態様として、ステップS300〜S302を繰り返して実行して定期的に行動の種類を推定し、ここで、推定される行動の種類が変化した時点を、ユーザによる行動の終了時点である、と推定することも可能である。   Furthermore, as a change mode, steps S300 to S302 are repeatedly executed to periodically estimate the type of action, and the time point when the estimated action type is changed is the end point of the action by the user. It is also possible to estimate.

以下、設定され得る「行動の種類」毎における、ステップS302及びS303での実行例を説明する。
(S302及びS303:(イ)走り)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(イ)走りに対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(イ)走りと推定する。
(2)測定された加速度の変動が所定閾値以下である時点、または推定される行動の種類が変化した(例えば(ロ)歩きに変化した)時点を、ユーザによる(イ)走りの終了時点とする。
Hereinafter, an example of execution in steps S302 and S303 for each “action type” that can be set will be described.
(S302 and S303: (I) running)
(1) When the acquired acceleration data has the highest correlation coefficient with (b) the acceleration pattern associated with the running stored in the presentation information table 112t, the type of action of the user is (I) Estimated to run.
(2) A point in time when the measured acceleration fluctuation is equal to or less than a predetermined threshold, or a point in time when the type of estimated action changes (for example, (b) changes to walking) To do.

(S302及びS303:(ロ)歩き)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(ロ)歩きに対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(ロ)歩きと推定する。
(2)測定された加速度の変動が所定閾値以下である時点を、ユーザによる(ロ)歩きの終了時点とする。
(S302 and S303: (B) walking)
(1) When the acquired acceleration data has the highest correlation coefficient with the acceleration pattern associated with (b) walking stored in the presentation information table 112t, the type of user's action is (B) Estimate walking.
(2) A time point at which the measured change in acceleration is equal to or less than a predetermined threshold is defined as the end time point of (b) walking by the user.

(S302及びS303:(ハ)階段の上り、(ニ)階段の下り)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(ハ)階段の上り/(ニ)階段の下りに対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(ハ)階段の上り/(ニ)階段の下りと推定する。
(2)測定された加速度の変動が所定閾値以下である時点、または推定される行動の種類が変化した(例えば(イ)走り又は(ロ)歩きに変化した)時点を、ユーザによる(ハ)階段の上り/(ニ)階段の下りの終了時点とする。
(S302 and S303: (C) Up the stairs, (D) Down the stairs)
(1) The acquired acceleration data has the highest correlation coefficient with the acceleration pattern associated with (c) ascending stairs / (d) descending stairs stored in the presentation information table 112t. At this time, the type of the user's action is estimated as (c) going up the stairs / (d) going down the stairs.
(2) A point in time when the variation of the measured acceleration is equal to or less than a predetermined threshold value or a point in time when the type of estimated action changes (for example, (b) changes to (b) running or (b) walking). The end of stairs up / (d) stairs down.

(S302及びS303:(ホ)エレベータでの上り、(ヘ)エレベータでの下り)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(ホ)エレベータでの上り/(ヘ)エレベータでの下りに対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(ホ)エレベータでの上り/(ヘ)エレベータでの下りと推定する。
(2)測定された加速度の変動が所定閾値以下である時点を、ユーザによる(ホ)エレベータでの上り/(ヘ)エレベータでの下りの終了時点とする。
(S302 and S303: (e) ascending at the elevator, (f) descending at the elevator)
(1) The highest correlation coefficient between the acquired acceleration data and the acceleration pattern associated with (e) ascending at the elevator / (f) descending at the elevator, stored in the presentation information table 112t. , It is estimated that the type of user's action is (e) ascending at the elevator / (f) descending at the elevator.
(2) A time point at which the measured acceleration fluctuation is equal to or less than a predetermined threshold value is defined as an end point of (e) elevator up / (e) elevator down by the user.

(S302及びS303:(ト)エスカレータでの上り、(チ)エスカレータでの下り)
(1−1)取得された加速度データにおける加速度の変動が所定閾値以下であって、且つ上り方向/下り方向の移動速度が、提示情報テーブル112tにおける(ト)エスカレータでの上り/(チ)エスカレータでの下りに対応付けて記憶された速度範囲内の速度値である場合、ユーザの行動の種類を、(ト)エスカレータでの上り/(チ)エスカレータでの下りと推定する。
(1−2)または、取得された加速度データにおける加速度の変動が所定閾値以下であって、且つ測位部103及びフロアマップ蓄積部104からの出力(フロアマップ情報)を考慮した位置判定部110での判定結果が、ユーザが上り/下りエスカレータ位置で移動している、である場合、ユーザの行動の種類を、(ト)エスカレータでの上り/(チ)エスカレータでの下りと推定する。
(2)推定される行動の種類が変化した(例えば(イ)走り又は(ロ)歩きに変化した)時点を、ユーザによる(ト)エスカレータでの上り/(チ)エスカレータでの下りの終了時点とする。
(S302 and S303: (G) Uphill on the escalator, (H) Downhill on the escalator)
(1-1) The fluctuation of acceleration in the acquired acceleration data is equal to or less than a predetermined threshold, and the moving speed in the up / down direction is the up / (h) escalator in the (g) escalator in the presentation information table 112t. If the speed value is within the speed range stored in association with the downhill at (2), the user's action type is estimated to be (g) going up on the escalator / (h) going down on the escalator.
(1-2) Alternatively, in the position determination unit 110 in which the acceleration variation in the acquired acceleration data is equal to or less than a predetermined threshold value and the output (floor map information) from the positioning unit 103 and the floor map storage unit 104 is considered. If the determination result is that the user is moving at the up / down escalator position, the type of the user's action is estimated as (g) going up on the escalator / going down on the (h) escalator.
(2) The point in time when the type of the estimated action has changed (for example, (i) running or (b) changing to walking) is the end point of the user going up on (g) escalator / (h) going down on escalator And

(S302及びS303:(リ)自転車での移動)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(リ)自転車での移動に対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(リ)自転車での移動と推定する。さらに、この加速度パターンの条件と合わせて、環境音が開空間での音であることを、(リ)自転車での移動と推定するための必要条件とすることも好ましい。
(2)測定された加速度の変動が所定閾値以下である状態が所定時間以上継続した時点、または推定される行動の種類が変化した(例えば(イ)走り又は(ロ)歩きに変化した)時点を、ユーザによる(リ)自転車での移動の終了時点とする。
(S302 and S303: (L) Bicycle movement)
(1) When the acquired acceleration data has the highest correlation coefficient with the acceleration pattern associated with the movement on the bicycle stored in the presentation information table 112t, The type is estimated to be (li) bicycle movement. Furthermore, it is also preferable to make the environmental sound a sound in an open space as a necessary condition for estimating the movement on a bicycle in combination with the acceleration pattern condition.
(2) A point in time when the measured acceleration fluctuation is below a predetermined threshold for a predetermined period or more, or a point in time when the type of estimated action has changed (for example, changed to (i) running or (b) walking). Is the end point of (i) bicycle movement by the user.

(S302及びS303:(ヌ)自動車での移動)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(ヌ)自動車での移動に対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(ヌ)自動車での移動と推定する。さらに、この加速度パターンの条件と合わせて、環境音が閉空間での音であることを、(ヌ)自動車での移動と推定するための必要条件とすることも好ましい。
(2)測定された加速度の変動が所定閾値以下である状態が所定時間以上継続した時点、または推定される行動の種類が変化した(例えば(イ)走り又は(ロ)歩きに変化した)時点を、ユーザによる(ヌ)自動車での移動の終了時点とする。
(S302 and S303: (nu) Travel by car)
(1) When the acquired acceleration data has the highest correlation coefficient with the acceleration pattern associated with the movement in the car stored in the presentation information table 112t, The type is estimated to be (nu) traveling by car. Furthermore, it is also preferable to make the environmental sound a sound in a closed space as a necessary condition for estimating (m) movement in an automobile in combination with the conditions of the acceleration pattern.
(2) A point in time when the measured acceleration fluctuation is below a predetermined threshold for a predetermined period or more, or a point in time when the type of estimated action has changed (for example, changed to (i) running or (b) walking). Is the end point of the user's (nu) car movement.

(S302及びS303:(ル)電車での移動)
(1)取得された加速度データが、提示情報テーブル112tに記憶された、(ル)電車での移動に対応付けられた加速度パターンとの間で最も高い相関係数を有する際、ユーザの行動の種類を、(ル)電車での移動と推定する。
(2)測定された加速度の変動が所定閾値以下である状態が所定時間以上継続した時点、または推定される行動の種類が変化した(例えば(イ)走り又は(ロ)歩きに変化した)時点を、ユーザによる(ル)電車での移動の終了時点とする。
(S302 and S303: (Le) Moving by train)
(1) When the acquired acceleration data has the highest correlation coefficient with the acceleration pattern associated with (le) train movement stored in the presentation information table 112t, The type is estimated as (le) travel by train.
(2) A point in time when the measured acceleration fluctuation is below a predetermined threshold for a predetermined period or more, or a point in time when the type of estimated action has changed (for example, changed to (i) running or (b) walking). Is the end point of the user's (le) train movement.

(S304)提示される対話情報を、提示情報テーブル112tにおいて推定された1つの行動の種類(例えば(ヌ)自動車での移動)に対応付けられた話し掛け(対話情報A)とするか質問(対話情報B)とするかを決定する。この決定においては、例えば、
(a)測定された「加速度」が、提示情報テーブル112tに記憶された1つの行動の種類(例えば(イ)走り)に対応付けられた「加速度パターン」との間で、最も高い類似度であるが所定閾値未満である類似度を有する場合(即ち、明確な判定ができない場合)に質問を行う、とすることができる。または、
(b)1つの行動の種類(例えば(ヌ)自動車での移動)が推定された回数について、10回に1回だけ質問を行うといった取り決めに従うこともできる。
(S304) Whether the dialogue information to be presented is a conversation (dialog information A) associated with one type of action estimated in the presentation information table 112t (for example, (nu) movement in a car) Information B) is determined. In this decision, for example,
(A) The measured “acceleration” has the highest similarity with the “acceleration pattern” associated with one type of action (for example, (A) running) stored in the presentation information table 112t. A question may be made when there is a similarity that is less than a predetermined threshold (that is, when a clear determination cannot be made). Or
(B) It is also possible to follow an arrangement in which a question is asked only once in 10 times for the estimated number of times of one type of action (for example, (nu) movement in a car).

さらに、上記(a)の場合の1つであるが、これまで提示情報テーブル112tに登録されていない種類の行動(例えば「自動車での移動」)ではあるものの、質問に対する回答からその種類の行動を行うことが推定される場合(例えば、「自動車を購入した」との情報を取得した場合)において、
(a’)提示情報管理部112で別途管理している(例えば「自動車での移動」における)標準的な加速度パターンと加速度測定値との比較を行い、所定閾値以上の類似度を有する場合に、この種類の行動を行ったことを確認するための質問を行うことも可能である。
ここで、この質問に対する回答から、「自動車での移動」が行われたことが確認された場合、「自動車での移動」とこれに対応付ける形で当該加速度測定値とが、提示情報テーブル112tに登録される。
Furthermore, in the case of (a) above, although there is a type of action that has not been registered in the presentation information table 112t so far (for example, “travel by car”), the type of action is determined from the answer to the question. (For example, if you get information that you have purchased a car)
(A ′) When a standard acceleration pattern separately managed by the presentation information management unit 112 (for example, in “movement by car”) is compared with an acceleration measurement value, and the similarity is equal to or higher than a predetermined threshold It is also possible to ask a question to confirm that this type of action has been performed.
Here, when it is confirmed from the answer to this question that “movement by car” has been performed, “movement by car” and the acceleration measurement value corresponding to this are displayed in the presentation information table 112t. be registered.

さらに、行動の種類・終了時点を推定した際に、話し掛けるか否かについても、例えば以下のような基準を設定することができる。
(a)(いつも階段を使っている等、普段から良い行動を行っており、この普段通りに良い行動をした場合、例えば、「その調子!」と励ます話し掛けを、毎回、又は2回に1回程度行う。
(b)(階段を走って登ってみた等、)普段とは異なる良い行動をした場合、例えば、「がんばりましたね!」と褒める話し掛けを、毎回行う。
(c)(普段通りに歩いている等、)普段通りに普通の行動をした場合、例えば、「たまには走ってはどう?」との提案を、例えば、10回に1回程度行う。
Furthermore, for example, the following criteria can be set as to whether or not to speak when estimating the action type / end point.
(A) (I always use good stairs, such as using the stairs, and when I do good, I usually say, “That!” Do about once.
(B) When you do something different from usual (for example, you climbed up the stairs), for example, talk to praise “You did your best!” Every time.
(C) If you have a normal action (such as walking as usual), for example, make a suggestion of "How about running once in a while?"

(S305)ステップS304で対話情報を話し掛けにすると決定した場合、プロファイル管理部119からユーザのプロファイルの現状を示すプロファイル情報(プロファイルパラメータ値)を取得する。
(S306)提示情報テーブル112tにおいて、推定された行動の種類及び取得したプロファイルパラメータ値(を含む範囲)に対応付けられた話し掛け(対話情報A)を、提示する対話情報に決定する。
(S307)ステップS303で推定された行動の終了時点に基づいた時点で、決定した話し掛け(対話情報A)を提示する。具体的には、音声によって、又は文字表示としてユーザに提示する。
(S305) If it is determined in step S304 that the conversation information is to be spoken, profile information (profile parameter value) indicating the current state of the user's profile is acquired from the profile management unit 119.
(S306) In the presentation information table 112t, the conversation (dialog information A) associated with the estimated action type and the acquired profile parameter value (including the range) is determined as the dialog information to be presented.
(S307) The determined talk (dialog information A) is presented at a time based on the end time of the action estimated in step S303. Specifically, it is presented to the user by voice or as a character display.

(S308)一方、ステップS304で対話情報を質問にすると決定した場合、提示情報テーブル112tにおいて、推定された行動の種類に対応付けられた質問(対話情報B)を、提示する対話情報に決定し、ステップS303で推定された行動の終了時点に基づいた時点で提示する。具体的には、音声によって又は文字表示としてユーザに質問を提示する。
(S309)ユーザから回答を取得する。具体的には、ユーザの回答の音声情報をマイクロフォン102を介して取得してもよく、ユーザの入力操作による回答情報である入力回答情報を入力部106bを介して取得してもよい。
(S308) On the other hand, if it is determined in step S304 that the dialogue information is to be a question, the question (dialog information B) associated with the estimated action type in the presentation information table 112t is determined as the dialogue information to be presented. It is presented at the time based on the end time of the action estimated in step S303. Specifically, a question is presented to the user by voice or as a character display.
(S309) An answer is acquired from the user. Specifically, the voice information of the user's answer may be acquired via the microphone 102, or the input answer information which is answer information by the user's input operation may be acquired via the input unit 106b.

(S310)取得した回答音声情報又は入力回答情報から、ユーザの行動についての情報を抽出する。
(S311)ステップS310で抽出されたユーザの行動についての情報に基づいて提示情報テーブル112tを更新する。この後、ステップS300に移行し、再び加速度をモニタし、行動の種類に対応した対話情報を適時に提示する準備を行う。
(S310) Information about the user's behavior is extracted from the acquired answer voice information or input answer information.
(S311) The presentation information table 112t is updated based on the information about the user behavior extracted in step S310. Thereafter, the process proceeds to step S300, where the acceleration is monitored again, and preparation is made for presenting dialogue information corresponding to the type of action in a timely manner.

以上説明した情報提示方法によれば、ユーザの行動に対応した話し掛け・質問を適時に提示することが可能となる。特に、行動の終了時点は、多くの場合、ユーザが一息つく場面又は満足感を得ている場面であるので、この終了時点に基づいた時点での話し掛けによって、自動的な対話情報提示に対するユーザのネガティブな印象又は嫌悪感を低減することができる。さらに、この終了時点に基づいた時点での質問によって、ユーザからポジティブな又は好感に基づく応答を取得し易くなる。   According to the information presentation method described above, it is possible to present talks / questions corresponding to the user's behavior in a timely manner. In particular, since the end point of the action is often a scene where the user takes a break or is satisfied, the user's response to automatic dialogue information presentation is based on the conversation based on the end point. Negative impression or disgust can be reduced. Furthermore, it becomes easy to obtain a positive or favorable response from the user by the question at the time based on the end time.

また、ユーザの日常のちょっとした行動を把握した上で話し掛けるので、適切な話し掛けの内容を設定することによって、ユーザの携帯端末に対する親近感を高めることも可能となる。   Further, since the user talks after grasping a little daily behavior of the user, it is possible to enhance the user's familiarity with the mobile terminal by setting an appropriate content of the conversation.

[行動履歴に基づいた対話情報の選択]
図5は、本発明に係る行動履歴に基づいた対話情報の選択の一実施形態を示すフローチャートである。
[Select dialogue information based on action history]
FIG. 5 is a flowchart showing an embodiment of selection of dialogue information based on an action history according to the present invention.

図5に示すように、行動履歴管理部120は、行動履歴テーブル120tを生成する。行動履歴テーブル120tでは、ユーザによる行動の種類毎に行動の実施時間の履歴が対応付けて記録され、さらに、この履歴と合わせてユーザの健康状態を示す値(図5では血圧値及び血糖値)の履歴が記録されている。   As shown in FIG. 5, the action history management unit 120 generates an action history table 120t. In the action history table 120t, a history of action execution time is recorded in association with each type of action by the user, and values indicating the user's health state together with this history (blood pressure value and blood glucose level in FIG. 5). The history of is recorded.

(S500、S501)生成された行動履歴テーブル120tを用いて、行動の実施時間と健康状態を示す値との間の相関係数を算出し、相関関係を判別する。例えば、ある行動(例えば「走り」)の各時点までの累積実施時間と、その各時点での健康状態を示す値(血圧値)との間の相関係数が、例えば、
(a)−0.9以下の場合、(b)−0.9よりも大きい値であって−0.3以下の場合、(c)−0.3よりも大きい値であって0.3未満である場合、(d)0.3以上であって0.9未満の場合、及び(e)0.9以上の場合のいずれであるかを判別する。
(S500, S501) Using the generated action history table 120t, a correlation coefficient between the action execution time and the value indicating the health state is calculated, and the correlation is determined. For example, a correlation coefficient between a cumulative execution time until a certain time point of a certain action (for example, “run”) and a value (blood pressure value) indicating a health state at each time point is, for example,
When (a) −0.9 or less, (b) a value greater than −0.9 and −0.3 or less, (c) a value greater than −0.3 and 0.3. If it is less than (d) 0.3 or more and less than 0.9, (e) it is discriminated whether it is 0.9 or more.

ここで、この場合、提示情報テーブル112tには、上記の判別に係る行動(例えば「走り」)を促す対話情報及びこの行動(例えば「走り」)を制限させる対話情報を含む対話情報群が、行動の種類に対応付けて記録されている。   Here, in this case, the presentation information table 112t includes a dialogue information group including dialogue information for prompting an action related to the above-described determination (for example, “run”) and dialogue information for restricting the action (for example, “run”). It is recorded in association with the type of action.

(S502)ステップS501での判別結果に基づいて、提示情報テーブル112tに記録された対話情報群の中から、提示する対話情報を選択する。例えば、「走り」の各時点までの累積実施時間と、その各時点での健康状態を示す値である血圧値との間の相関係数が−0.92の場合、上記(a)の場合に該当するとして、上記の判別に係る行動(「走り」)を促す対話情報を選択して提示する。尚、ここでは、血圧値が高めであるユーザを前提として、血圧値は低いほど健康状態が良いものとして取り扱っている。 (S502) Based on the determination result in step S501, the dialogue information to be presented is selected from the dialogue information group recorded in the presentation information table 112t. For example, in the case of (a) above, when the correlation coefficient between the cumulative execution time until each time point of “running” and the blood pressure value that is a value indicating the health state at each time point is −0.92 The dialogue information that prompts the action related to the above-described determination ("running") is selected and presented. Here, assuming that the user has a high blood pressure value, the lower the blood pressure value is, the better the health condition is handled.

また、行動の実施時間が健康状態の効果として現れるのにはある程度の時間が必要となるので、上述したように相関係数を算出するための履歴記録期間は、例えば数週間以上等の、相当の時間に設定されることが好ましい。   In addition, since a certain amount of time is required for the action execution time to appear as an effect of the health condition, the history recording period for calculating the correlation coefficient as described above is equivalent to, for example, several weeks or more. It is preferable to set the time.

さらに、携帯端末1を所持した複数のユーザの「行動の実施時間」と「健康状態」の相関係数を算出することも好ましい。この場合、例えば、携帯端末1に通信機能を持たせ、ネットワーク上に設置したユーザ行動・健康状態管理サーバにおいて、各ユーザの「行動の実施時間」及び「健康状態」を、複数の携帯端末1から通信を介して集計してもよい。次いで、携帯端末1は、このユーザ行動・健康状態管理サーバから、複数のユーザの「行動の実施時間」と「健康状態」との関係を示すデータを取得し、両者の間の相関係数が0.9以上(正の相関)又は−0.9以下(負の相関)となる「行動の種類」と「健康状態」を抽出する。尚、ここでの「健康状態」は、値が大きいほど良い健康状態を示す量で規定されるものとする。   Furthermore, it is also preferable to calculate a correlation coefficient between “action execution time” and “health state” of a plurality of users possessing the mobile terminal 1. In this case, for example, in the user behavior / health state management server provided with a communication function in the portable terminal 1 and installed on the network, the “action execution time” and the “health state” of each user are set to the plurality of portable terminals 1 May be aggregated via communication. Next, the mobile terminal 1 acquires data indicating the relationship between “action execution time” and “health state” of a plurality of users from the user behavior / health state management server, and the correlation coefficient between the two is obtained. “Action types” and “health states” that are 0.9 or more (positive correlation) or −0.9 or less (negative correlation) are extracted. Here, the “health state” is defined by an amount indicating a better health state as the value is larger.

さらに、この抽出した結果を用いて、ある「健康状態」との間で高い正の相関係数を有する(0.9以上の相関係数を有する)特定の「行動の実施時間」が所定時間閾値未満の場合には、その行動を促す対話情報を選択して提示し、別のある「健康状態」との間で高い負の相関係数を有する(−0.9以下の相関係数を有する)特定の「行動の実施時間」が所定時間閾値以上の場合には、その行動を自粛するように促す対話情報を選択して提示してもよい。   Further, by using the extracted result, a specific “action execution time” having a high positive correlation coefficient (having a correlation coefficient of 0.9 or more) with a certain “health state” is a predetermined time. If it is less than the threshold value, dialogue information that prompts the action is selected and presented, and has a high negative correlation coefficient with another “health state” (correlation coefficient of −0.9 or less). If a specific “action execution time” is equal to or greater than a predetermined time threshold, dialogue information that prompts the user to refrain from the action may be selected and presented.

以上述べたように、行動履歴テーブル120tを生成し、利用することによって、同じ行動の種類を推定した場合においても、過去の行動履歴に基づいた、健康に関してより有用な話し掛けを提示することが可能となる。   As described above, by generating and using the action history table 120t, even when the same action type is estimated, it is possible to present a more useful conversation about health based on the past action history. It becomes.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 携帯端末(ユーザインタフェース装置)
100 加速度センサ
101 気圧センサ
102 マイクロフォン
103 測位部103
104 フロアマップ蓄積部
105 スピーカ
106a 表示部
106b 入力部
107 健康・気分情報蓄積部
108 趣味嗜好情報蓄積部
109 習慣行動情報蓄積部
110 位置判定部
111 加速度データ生成部
112 提示情報管理部
112t 提示情報テーブル
113 行動推定部
114 終了時点推定部
115 情報提示部
116 上下移動速度決定部
117 環境音判定部117
118 音声判定部
119 プロファイル管理部
120 行動履歴管理部
120t 行動履歴テーブル
121 行動相関判定部
122 回答情報抽出部
123 音声合成部
1 Mobile terminal (user interface device)
DESCRIPTION OF SYMBOLS 100 Acceleration sensor 101 Barometric pressure sensor 102 Microphone 103 Positioning part 103
DESCRIPTION OF SYMBOLS 104 Floor map storage part 105 Speaker 106a Display part 106b Input part 107 Health / mood information storage part 108 Hobby preference information storage part 109 Habit action information storage part 110 Position determination part 111 Acceleration data generation part 112 Presentation information management part 112t Presentation information table 113 Action Estimation Unit 114 End Time Estimation Unit 115 Information Presentation Unit 116 Vertical Movement Speed Determination Unit 117 Environmental Sound Determination Unit 117
118 voice determination unit 119 profile management unit 120 behavior history management unit 120t behavior history table 121 behavior correlation determination unit 122 answer information extraction unit 123 speech synthesis unit

Claims (18)

ユーザの行動に対応した情報を提示するユーザインタフェース装置であって、
加速度を測定することが可能な加速度測定部と、
当該行動の種類毎に、当該行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度と、記憶された当該行動時の加速度パターンとに基づいて当該ユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と
提示された対話情報が、推定された当該行動の種類を確認するための質問を含んでいる場合に、当該質問に対する当該ユーザの回答を取得し、当該回答から当該ユーザの行動についての情報を抽出する回答情報抽出手段と
を有しており、
前記提示情報管理手段は、抽出された当該ユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、当該行動の種類に対応付けられた当該行動時の加速度パターンを更新する
ことを特徴とするユーザインタフェース装置。
A user interface device that presents information corresponding to user behavior,
An acceleration measuring unit capable of measuring acceleration;
For each type of action, a presentation information management means for storing an acceleration pattern at the time of the action and dialogue information to be presented in association with each other,
Action estimating means for estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern of the action;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action ;
When the presented dialogue information includes a question for confirming the estimated type of the action, the user's answer to the question is acquired, and information about the user's action is extracted from the answer Answer information extracting means to have have a <br/>,
When the presentation information management means determines that the acceleration pattern at the time of the action associated with the type of action related to the extracted information about the action of the user does not correspond to the measured acceleration, A user interface device , wherein an acceleration pattern at the time of the action associated with the type is updated .
記行動推定手段は、測定された加速度との間で、最も高い類似度又は所定閾値以上の類似度を有する加速度パターンに対応付けられた当該行動の種類を、推定される行動の種類とすることを特徴とする請求項1に記載のユーザインタフェース装置。 Before SL activity estimation means, between the measured acceleration, a type of the action associated with the acceleration pattern having the highest similarity or predetermined threshold value or more similarity, to the type of action to be estimated the user interface device of claim 1, wherein the Turkey. 記提示情報管理手段は、抽出された当該ユーザの行動についての情報をもって、当該行動の種類及び該行動の種類に対応付けられた提示する対話情報を更新する、当該行動の種類に対応付けられた当該行動時の加速度パターンを更新する、又は抽出された当該ユーザの行動の情報に係る新たな行動の種類を登録させ、当該行動の際に得られた加速度データに基づいた加速度パターンを対応付けて記憶させることを特徴とする請求項2に記載のユーザインタフェース装置。 Before Symbol presenting information management means with the information about the behavior of the extracted the user, and updates the interactive information to present associated with the type of the type and the behavior of the action associated with the type of the action Update the acceleration pattern at the time of the action, or register the new action type related to the extracted action information of the user, and associate the acceleration pattern based on the acceleration data obtained at the time of the action the user interface device of claim 2, wherein the benzalkonium is stored Te. 当該ユーザのプロファイルを示す少なくとも1つのプロファイルパラメータの値を記録するプロファイル管理手段を更に有しており、
前記提示情報管理手段は、当該行動の種類毎及び当該少なくとも1つのプロファイルパラメータ毎に、提示する対話情報を対応付けて記憶させ、
前記情報提示手段は、推定された当該行動の種類と記録された当該プロファイルパラメータ値とに対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる
ことを特徴とする請求項1から3のいずれか1項に記載のユーザインタフェース装置。
Profile management means for recording a value of at least one profile parameter indicating the profile of the user;
The presentation information management means stores the interactive information to be presented in association with each type of action and for each at least one profile parameter,
The information presenting means causes the dialogue information associated with the estimated type of the action and the recorded profile parameter value to be presented at a time based on the estimated end time of the action, The user interface device according to any one of claims 1 to 3.
当該少なくとも1つのプロファイルパラメータ値は、当該ユーザの健康状態・気分を示す値、当該ユーザの趣味嗜好を示す値、及び当該ユーザの習慣行動を示す値のうち少なくとも1つであることを特徴とする請求項4に記載のユーザインタフェース装置。   The at least one profile parameter value is at least one of a value indicating the user's health condition / mood, a value indicating the user's hobbies, and a value indicating the user's habit behavior. The user interface device according to claim 4. 当該行動の種類毎に当該行動の実施時間の履歴を対応付けて記録し、該履歴と合わせて当該ユーザの健康状態・気分を示す値の履歴を記録する行動履歴管理手段と、
当該行動の実施時間と当該健康状態・気分を示す値との間の相関関係を判別する行動相関判別手段と
を有しており、
前記提示情報管理手段は、当該判別に係る当該行動を促す対話情報及び当該行動を制限させる対話情報を含む対話情報群を、当該行動の種類に対応付けて記憶させ、
前記情報提示手段は、前記行動相関判別手段による判別結果に基づいて、当該対話情報群の中から、提示する対話情報を選択する
ことを特徴とする請求項5に記載のユーザインタフェース装置。
An action history management unit that records a history of the execution time of the action in association with each type of the action, and records a history of values indicating the health state and mood of the user together with the history;
Action correlation determining means for determining the correlation between the time for performing the action and a value indicating the health state / mood,
The presentation information management means stores a dialogue information group including dialogue information for prompting the action related to the discrimination and dialogue information for restricting the action in association with the type of the action,
6. The user interface device according to claim 5, wherein the information presentation unit selects the dialogue information to be presented from the dialogue information group based on the determination result by the behavior correlation determination unit.
周囲の音声を検知するマイクロフォンと、
検知された音声がユーザの声であるか否かを判定する音声判定手段と
を更に有しており、
前記情報提示手段は、前記音声判定手段によって真の判定が行われた時点から少なくとも所定時間以内は、推定された当該行動の終了時点に基づいた時点であるにもかかわらず、推定された当該行動の種類に対応付けられた対話情報を提示させない
ことを特徴とする請求項1から6のいずれか1項に記載のユーザインタフェース装置。
A microphone that detects ambient sound,
Voice determination means for determining whether or not the detected voice is a voice of the user,
The information presenting means includes the estimated action in spite of being at a time based on the estimated end time of the action at least within a predetermined time from the time when the true determination is performed by the voice determining means. The user interface device according to any one of claims 1 to 6, wherein dialogue information associated with the type of the user is not presented.
当該行動の種類は、走り、歩き、階段の上り、階段の下り、エレベータでの上り、エレベータでの下り、エスカレータでの上り、エスカレータでの下り、自転車での移動、自動車での移動、及び電車での移動のうちの少なくとも1つを含む
ことを特徴とする請求項1から7のいずれか1項に記載のユーザインタフェース装置。
The types of behavior are: running, walking, climbing stairs, descending stairs, climbing by elevator, descending by elevator, climbing by escalator, descending by escalator, traveling by bicycle, traveling by car, and train The user interface device according to claim 1, wherein the user interface device includes at least one of movements.
気圧を測定する気圧センサと、
検知された気圧値から、上下方向の移動速度を決定する上下移動速度決定手段と
を更に有しており、
前記提示情報管理手段は、当該行動の種類としての前記エスカレータでの上り又は下りに、該エスカレータでの上り時又は下り時に対応する上下方向の移動速度と、提示する対話情報とを対応付けて記憶させ、
前記行動推定手段は、測定された加速度の変動が所定閾値以下であって、且つ決定された上下方向の移動速度と前記エスカレータでの上り時又は下り時に対応する上下方向の移動速度との差が所定範囲内である際、前記エスカレータでの上り又は下りを、推定される行動の種類とする
ことを特徴とする請求項8に記載のユーザインタフェース装置。
An atmospheric pressure sensor for measuring atmospheric pressure;
A vertical movement speed determining means for determining a vertical movement speed from the detected atmospheric pressure value;
The presenting information management means stores the ascending or descending on the escalator as the type of action in association with the moving speed in the up and down direction corresponding to the ascending or descending on the escalator and the dialogue information to be presented. Let
The behavior estimating means has a difference between a measured acceleration fluctuation that is equal to or less than a predetermined threshold and a determined vertical movement speed and a vertical movement speed corresponding to an up or down movement on the escalator. The user interface device according to claim 8, wherein when it is within a predetermined range, the ascending or descending on the escalator is set as the type of action to be estimated.
環境音を検知するマイクロフォンと、
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と
を更に有しており、
前記提示情報管理手段は、当該行動の種類としての前記自転車での移動に、該自転車での移動時に対応する加速度パターンと、開空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
前記行動推定手段は、前記環境音判定手段による開空間での音であるとの判定を、自転車での移動と推定するための必要条件とする
ことを特徴とする請求項8又は9に記載のユーザインタフェース装置。
A microphone that detects environmental sounds;
And environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space,
The presentation information management means corresponds to the movement of the bicycle as the type of action, the acceleration pattern corresponding to the movement of the bicycle, the information that there is a sound in the open space, and the dialogue information to be presented And remember
The said action estimation means makes the determination that it is the sound in the open space by the said environmental sound determination means as a necessary condition for estimating the movement with a bicycle, The Claim 8 or 9 characterized by the above-mentioned. User interface device.
環境音を検知するマイクロフォンと、
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と
を更に有しており、
前記提示情報管理手段は、当該行動の種類としての前記自動車での移動に、該自動車での移動時に対応する加速度パターンと、閉空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、
前記行動推定手段は、前記環境音判定手段による閉空間での音であるとの判定を、自動車での移動と推定するための必要条件とする
ことを特徴とする請求項8から10のいずれか1項に記載のユーザインタフェース装置。
A microphone that detects environmental sounds;
And environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space,
The presentation information management means corresponds to the movement in the automobile as the type of action, the acceleration pattern corresponding to the movement in the automobile, the information that there is sound in a closed space, and the dialogue information to be presented To remember,
11. The behavior estimation means uses the determination that the sound is a closed space by the environmental sound determination means as a necessary condition for estimating a movement in an automobile. The user interface device according to item 1.
前記終了時点推定手段は、測定された加速度の変動が所定閾値以下である時点、又は前記行動推定手段によって推定される当該行動の種類が変化した時点を、当該ユーザによる行動の終了時点であると推定することを特徴とする請求項1から11のいずれか1項に記載のユーザインタフェース装置。   The end time estimation means is a time when the measured acceleration fluctuation is equal to or less than a predetermined threshold, or a time when the type of the action estimated by the action estimation means changes is an end time of the action by the user. The user interface device according to claim 1, wherein the user interface device is estimated. ユーザの行動に対応した情報を提示するユーザインタフェース装置であって、  A user interface device that presents information corresponding to user behavior,
加速度を測定することが可能な加速度測定部と、  An acceleration measuring unit capable of measuring acceleration;
周囲の音声を検知するマイクロフォンと、  A microphone that detects ambient sound,
検知された音声がユーザの声であるか否かを判定する音声判定手段と、  Voice determination means for determining whether or not the detected voice is a voice of a user;
当該行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、  Presentation information management means for storing the interaction information to be presented in association with each type of action,
測定された加速度に基づいて当該ユーザによる行動の種類を推定する行動推定手段と、  Action estimating means for estimating the type of action by the user based on the measured acceleration;
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、  End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と  Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action;
を有しており、Have
前記情報提示手段は、前記音声判定手段によって真の判定が行われた時点から少なくとも所定時間以内は、推定された当該行動の終了時点に基づいた時点であるにもかかわらず、推定された当該行動の種類に対応付けられた対話情報を提示させない  The information presenting means includes the estimated action in spite of being at a time based on the estimated end time of the action at least within a predetermined time from the time when the true determination is performed by the voice determining means. Don't present conversation information associated with different types
ことを特徴とするユーザインタフェース装置。A user interface device.
エスカレータでの上り又は下りをその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、  A user interface device presenting information corresponding to a user's behavior including ascending or descending on an escalator,
加速度を測定することが可能な加速度測定部と、  An acceleration measuring unit capable of measuring acceleration;
気圧を測定する気圧センサと、  An atmospheric pressure sensor for measuring atmospheric pressure;
検知された気圧値から、上下方向の移動速度を決定する上下移動速度決定手段と、  A vertical movement speed determining means for determining a vertical movement speed from the detected atmospheric pressure value;
当該行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、  Presentation information management means for storing the interaction information to be presented in association with each type of action,
測定された加速度に基づいて当該ユーザによる行動の種類を推定する行動推定手段と、  Action estimating means for estimating the type of action by the user based on the measured acceleration;
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、  End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と  Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action;
を有しており、Have
前記提示情報管理手段は、当該行動の種類としての当該エスカレータでの上り又は下りに、当該エスカレータでの上り時又は下り時に対応する上下方向の移動速度と、提示する対話情報とを対応付けて記憶させ、  The presenting information management means stores the ascending or descending on the escalator as the type of action in association with the moving speed in the vertical direction corresponding to the ascending or descending on the escalator and the interactive information to be presented. Let
前記行動推定手段は、測定された加速度の変動が所定閾値以下であって、且つ決定された上下方向の移動速度と当該エスカレータでの上り時又は下り時に対応する上下方向の移動速度との差が所定範囲内である際、当該エスカレータでの上り又は下りを、推定される行動の種類とする  The behavior estimating means has a difference between a measured acceleration fluctuation that is equal to or less than a predetermined threshold and a determined vertical movement speed and a vertical movement speed when the escalator is up or down. When it is within the specified range, going up or down on the escalator is the type of action to be estimated
ことを特徴とするユーザインタフェース装置。A user interface device.
自転車での移動をその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、  A user interface device that presents information corresponding to a user's behavior including movement on a bicycle as its type,
加速度を測定することが可能な加速度測定部と、  An acceleration measuring unit capable of measuring acceleration;
環境音を検知するマイクロフォンと、  A microphone that detects environmental sounds;
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と、  Environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space;
当該行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、  Presentation information management means for storing the interaction information to be presented in association with each type of action,
測定された加速度に基づいて当該ユーザによる行動の種類を推定する行動推定手段と、  Action estimating means for estimating the type of action by the user based on the measured acceleration;
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、  End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と  Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action;
を有しており、Have
前記提示情報管理手段は、当該行動の種類としての当該自転車での移動に、当該自転車での移動時に対応する加速度パターンと、開空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、  The presentation information management means corresponds to the movement of the bicycle as the type of action, the acceleration pattern corresponding to the movement of the bicycle, the information that there is sound in the open space, and the interactive information to be presented. And remember
前記行動推定手段は、前記環境音判定手段による開空間での音であるとの判定を、自転車での移動と推定するための必要条件とする  The behavior estimation means uses the determination that the sound is an open space by the environmental sound determination means as a necessary condition for estimating a movement on a bicycle.
ことを特徴とするユーザインタフェース装置。A user interface device.
自動車での移動をその種類として含むユーザの行動に対応した情報を提示するユーザインタフェース装置であって、A user interface device that presents information corresponding to a user's action including movement in a car as its type,
加速度を測定することが可能な加速度測定部と、  An acceleration measuring unit capable of measuring acceleration;
環境音を検知するマイクロフォンと、  A microphone that detects environmental sounds;
検知された環境音が、閉空間での音か開空間での音かを判定する環境音判定手段と、  Environmental sound determination means for determining whether the detected environmental sound is a sound in a closed space or a sound in an open space;
当該行動の種類毎に、提示する対話情報を対応付けて記憶させる提示情報管理手段と、  Presentation information management means for storing the interaction information to be presented in association with each type of action,
測定された加速度に基づいて当該ユーザによる行動の種類を推定する行動推定手段と、  Action estimating means for estimating the type of action by the user based on the measured acceleration;
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、  End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と  Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action;
を有しており、Have
前記提示情報管理手段は、当該行動の種類としての当該自動車での移動に、当該自動車での移動時に対応する加速度パターンと、閉空間での音有りとの情報と、提示する対話情報とを対応付けて記憶させ、  The presentation information management means corresponds to the movement of the car as the type of action, the acceleration pattern corresponding to the movement of the car, the information that there is sound in a closed space, and the dialogue information to be presented. And remember
前記行動推定手段は、前記環境音判定手段による閉空間での音であるとの判定を、自動車での移動と推定するための必要条件とする  The behavior estimation means uses the determination that the sound is a closed space by the environmental sound determination means as a necessary condition for estimating movement in an automobile.
ことを特徴とするユーザインタフェース装置。A user interface device.
ユーザの行動に対応した情報を提示するユーザインタフェース装置に搭載されたコンピュータを機能させる情報提示プログラムであって、
前記装置は、加速度を測定することが可能な加速度測定部を備えており、
前記情報提示プログラムは、
当該行動の種類毎に、当該行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる提示情報管理手段と、
測定された加速度と、記憶された当該行動時の加速度パターンとに基づいて当該ユーザによる行動の種類を推定する行動推定手段と、
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する終了時点推定手段と、
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる情報提示手段と
提示された対話情報が、推定された当該行動の種類を確認するための質問を含んでいる場合に、当該質問に対する当該ユーザの回答を取得し、当該回答から当該ユーザの行動についての情報を抽出する回答情報抽出手段と
してコンピュータを機能させ
前記提示情報管理手段は、抽出された当該ユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、当該行動の種類に対応付けられた当該行動時の加速度パターンを更新する
とを特徴とする情報提示プログラム。
An information presentation program for causing a computer mounted on a user interface device to present information corresponding to a user's behavior,
The apparatus includes an acceleration measuring unit capable of measuring acceleration,
The information presentation program includes:
For each type of action, a presentation information management means for storing an acceleration pattern at the time of the action and dialogue information to be presented in association with each other,
Action estimating means for estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern of the action;
End point estimation means for estimating the end point of the action by the user based on the measured acceleration;
Information presenting means for presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action ;
When the presented dialogue information includes a question for confirming the estimated type of the action, the user's answer to the question is acquired, and information about the user's action is extracted from the answer to be <br/> the answer information extraction unit to function the computer,
When the presentation information management means determines that the acceleration pattern at the time of the action associated with the type of action related to the extracted information about the action of the user does not correspond to the measured acceleration, Update the acceleration pattern during the action associated with the type
Information presentation program, wherein a call.
ユーザの行動に対応した情報を提示する情報提示方法であって、
当該行動の種類毎に、当該行動時の加速度パターンと、提示する対話情報を対応付けて記憶させる第1のステップと、
当該ユーザの行動による加速度を測定する第2のステップと、
測定された加速度と、記憶された当該行動時の加速度パターンとに基づいて当該ユーザによる行動の種類を推定する第3のステップと、
測定された加速度に基づいて当該ユーザによる行動の終了時点を推定する第4のステップと、
推定された当該行動の種類に対応付けられた対話情報を、推定された当該行動の終了時点に基づいた時点で提示させる第5のステップと
提示された対話情報が、推定された当該行動の種類を確認するための質問を含んでいる場合に、当該質問に対する当該ユーザの回答を取得し、当該回答から当該ユーザの行動についての情報を抽出する第6のステップと、
抽出された当該ユーザの行動についての情報に係る行動の種類に対応付けられた行動時の加速度パターンが、測定された加速度に対応しないと判断した場合に、当該行動の種類に対応付けられた当該行動時の加速度パターンを更新する第7のステップと
を有することを特徴とする情報提示方法。
An information presentation method for presenting information corresponding to user behavior,
A first step of storing, in association with each action type, an acceleration pattern at the time of the action and dialogue information to be presented;
A second step of measuring acceleration due to the user's behavior;
A third step of estimating the type of action by the user based on the measured acceleration and the stored acceleration pattern at the time of the action ;
A fourth step of estimating an end point of the action by the user based on the measured acceleration;
A fifth step of presenting dialogue information associated with the estimated type of the action at a time based on the estimated end time of the action ;
When the presented dialogue information includes a question for confirming the estimated type of the action, the user's answer to the question is acquired, and information about the user's action is extracted from the answer A sixth step,
When it is determined that the acceleration pattern at the time of the action associated with the type of action related to the extracted information about the action of the user does not correspond to the measured acceleration, the action associated with the type of action An information presentation method comprising: a seventh step of updating an acceleration pattern during action .
JP2012288514A 2012-12-28 2012-12-28 User interface device, program and method capable of presenting action correspondence information in a timely manner Expired - Fee Related JP6087624B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012288514A JP6087624B2 (en) 2012-12-28 2012-12-28 User interface device, program and method capable of presenting action correspondence information in a timely manner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012288514A JP6087624B2 (en) 2012-12-28 2012-12-28 User interface device, program and method capable of presenting action correspondence information in a timely manner

Publications (2)

Publication Number Publication Date
JP2014128459A JP2014128459A (en) 2014-07-10
JP6087624B2 true JP6087624B2 (en) 2017-03-01

Family

ID=51407473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012288514A Expired - Fee Related JP6087624B2 (en) 2012-12-28 2012-12-28 User interface device, program and method capable of presenting action correspondence information in a timely manner

Country Status (1)

Country Link
JP (1) JP6087624B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6362521B2 (en) * 2014-11-26 2018-07-25 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
EP3227802A1 (en) * 2014-12-02 2017-10-11 Koninklijke Philips N.V. System and method for generating health data using measurements of wearable device
JP7222185B2 (en) * 2018-06-11 2023-02-15 日本電信電話株式会社 DATA TRANSMISSION METHOD, DATA TRANSMISSION DEVICE, AND PROGRAM

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004121864A (en) * 1995-09-13 2004-04-22 Seiko Epson Corp Health condition managing apparatus
JP4327825B2 (en) * 2000-03-14 2009-09-09 株式会社東芝 Body-worn life support device and method
JP2005011329A (en) * 2003-05-29 2005-01-13 Sanyo Electric Co Ltd Health management support apparatus, health management support system, health management support method, and health management support program
JP2005230340A (en) * 2004-02-20 2005-09-02 Intelligent Cosmos Research Institute Energy consumption estimation apparatus, energy consumption estimation system, and database
JP2008142470A (en) * 2006-12-13 2008-06-26 Seiko Epson Corp Body type measuring system
JP4992043B2 (en) * 2007-08-13 2012-08-08 株式会社国際電気通信基礎技術研究所 Action identification device, action identification system, and action identification method
JP2009072417A (en) * 2007-09-21 2009-04-09 Toshiba Corp Biological information processor and processing method
JP2010094243A (en) * 2008-10-15 2010-04-30 Kithit Co Ltd Automatic inquiry system
JP2010160783A (en) * 2008-12-12 2010-07-22 Flower Robotics Inc Information providing system, portable information terminal, and information management device
JP5614827B2 (en) * 2009-03-09 2014-10-29 学校法人法政大学 Mobile phone terminal and health condition monitoring system
JP5417204B2 (en) * 2010-01-28 2014-02-12 日本電信電話株式会社 Walking information extraction device, walking information extraction method, and walking information extraction program

Also Published As

Publication number Publication date
JP2014128459A (en) 2014-07-10

Similar Documents

Publication Publication Date Title
CN110088833B (en) Speech recognition method and device
US20190236368A1 (en) Information processing apparatus, information processing method, and program
JP5904021B2 (en) Information processing apparatus, electronic device, information processing method, and program
US9165280B2 (en) Predictive user modeling in user interface design
CN103038818B (en) Communication system between the outer speech recognition system of vehicle-mounted voice identification system and car and method
US8626797B2 (en) Information processing apparatus, text selection method, and program
KR20140060112A (en) Apparatus and method for determining user&#39;s mental state
CN107918637A (en) service providing apparatus and service providing method
WO2016181670A1 (en) Information processing device, information processing method, and program
JP2012112853A (en) Information processor, in-vehicle navigation device and information processing method
JP2019158975A (en) Utterance system
JP6087624B2 (en) User interface device, program and method capable of presenting action correspondence information in a timely manner
JP2020077000A (en) Interaction device, interaction method, program, and vehicle control method
JP2018041120A (en) Business assessment method, business assessment device and business assessment program
JP5198531B2 (en) Navigation device, method and program
JPWO2015178065A1 (en) Information processing apparatus and information processing method
WO2015178066A1 (en) Information processing device and information processing method
JP7430672B2 (en) Terminal device, transmission method, transmission program and information processing system
WO2022009504A1 (en) Information search device
CN110285824B (en) Information providing apparatus and control method thereof
CN110287422B (en) Information providing apparatus and control method thereof
JP3698090B2 (en) Customer preference estimation method and apparatus
JP2020149024A (en) Dialogue adaptation device, dialogue adaptation method, program, and storage medium
CN111739524B (en) Agent device, method for controlling agent device, and storage medium
CN113033940B (en) Information processing apparatus, information processing method, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170202

R150 Certificate of patent or registration of utility model

Ref document number: 6087624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees