JP2007213315A - Live assisting device, life assisting method and program - Google Patents

Live assisting device, life assisting method and program Download PDF

Info

Publication number
JP2007213315A
JP2007213315A JP2006032428A JP2006032428A JP2007213315A JP 2007213315 A JP2007213315 A JP 2007213315A JP 2006032428 A JP2006032428 A JP 2006032428A JP 2006032428 A JP2006032428 A JP 2006032428A JP 2007213315 A JP2007213315 A JP 2007213315A
Authority
JP
Japan
Prior art keywords
voice
input
unit
pattern
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006032428A
Other languages
Japanese (ja)
Inventor
Satoshi Kimura
聡 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2006032428A priority Critical patent/JP2007213315A/en
Publication of JP2007213315A publication Critical patent/JP2007213315A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To alleviate a user's psychological burden by giving a trigger for reminding a user of the content of habitual daily activity even if the user forgets the activity. <P>SOLUTION: This life assisting device comprises an activity pattern input part for inputting an activity pattern; a storage part for storing a plurality of inputted patterns paired with input times thereof; and a voice input part for inputting a keyword related to either of the activity pattern and the input time by a voice. The life assisting device further comprises a voice recognition part for analyzing the voice inputted from the voice input part and recognizing the keyword; a voice synthesis part for synthesizing the activity pattern in the storage part as voice; a voice output part for outputting the synthesized voice; and a control part for selecting the activity pattern corresponding to the recognized keyword from a plurality of activity patterns in the storage part and controlling the voice synthesis part based on the selected activity pattern to synthesize the pattern as a voice. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、生活補助装置、生活補助方法及びプログラムに関する。   The present invention relates to a life assistance device, a life assistance method, and a program.

近年、ユーザの日常生活に異常があった場合、その異常を検知して監視者に通知する生活行動パターンの異常判定システムが開発されている(例えば、特許文献1参照)。これにより、一人暮らしの老人が何らかのアクシデントで倒れたとしても、その異常が監視者に通知されるために、迅速に対処することが可能となっている。
特開2005−173668号公報
In recent years, when there is an abnormality in a user's daily life, an abnormality determination system for a living behavior pattern that detects the abnormality and notifies a monitoring person has been developed (for example, see Patent Document 1). As a result, even if an elderly person living alone falls due to some accident, the abnormality is notified to the supervisor, so that it is possible to cope with it quickly.
JP 2005-173668 A

しかしながら、上記のシステムは、異常が起きた場合に監視者に通知するものであるが、ユーザ自身が物忘れによって習慣となっている行動を忘れてしまい、思い出そうとしても、それを補助することは困難であった。   However, the above system is to notify the supervisor when an abnormality occurs, but if the user himself forgets the behavior that is habitual due to forgetting things, It was difficult.

本発明の課題は、習慣となっている日常的な行動をユーザが物忘れしてしまったとしても、その行動内容を思い出させるきっかけをユーザに与えることで、ユーザの精神的負担の軽減化を図ることである。   An object of the present invention is to reduce the mental burden of a user by giving the user a chance to remind the user of the behavioral content even if the user forgets about a routine daily behavior. That is.

請求項1記載の発明における生活補助装置は、
行動パターンが入力される行動パターン入力部と、
前記行動パターン入力部に入力された前記行動パターン及び当該行動パターンの入力時間を一組として複数組記憶する記憶部と、
前記行動パターン及び前記入力時間の何れか1つに関連するキーワードが音声により入力される音声入力部と、
前記音声入力部から入力された音声を解析し、前記キーワードを認識する音声認識部と、
前記記憶部内の前記行動パターンを音声として合成する音声合成部と、
前記音声合成部で合成された音声を出力する音声出力部と、
前記音声認識部で認識した前記キーワードに対応する前記行動パターンを、前記記憶部内の複数の前記行動パターンから選択して、当該選択された行動パターンを基に前記音声合成部を制御して、音声として合成する制御部とを備えることを特徴としている。
The life assistance device in the invention according to claim 1 is:
An action pattern input unit for inputting an action pattern;
A storage unit that stores a plurality of sets of the action pattern and the input time of the action pattern that are input to the action pattern input unit;
A voice input unit in which a keyword related to any one of the behavior pattern and the input time is input by voice;
A voice recognition unit that analyzes voice input from the voice input unit and recognizes the keyword;
A speech synthesizer that synthesizes the behavior pattern in the storage unit as speech;
A voice output unit for outputting the voice synthesized by the voice synthesis unit;
The behavior pattern corresponding to the keyword recognized by the speech recognition unit is selected from the plurality of behavior patterns in the storage unit, the speech synthesis unit is controlled based on the selected behavior pattern, and the speech And a control unit for synthesizing as a feature.

請求項2記載の発明は、請求項1記載の生活補助装置において、
前記制御部は、前記行動パターンの入力時間になると、前記入力時間と組となる前記記憶部内の前記行動パターンを基に前記音声合成部を制御して、音声として合成することを特徴としている。
The invention according to claim 2 is the life assistance device according to claim 1,
When the input time of the action pattern is reached, the control unit controls the voice synthesis unit based on the action pattern in the storage unit that is paired with the input time, and synthesizes the voice as a voice.

請求項3記載の発明における生活補助方法は、
行動パターンが入力される行動パターン入力工程と、
前記行動パターン入力工程で入力された前記行動パターンを複数記憶する記憶工程と、
前記行動パターンに関連するキーワードが音声により入力される音声入力工程と、
前記音声入力工程で入力された音声を解析し、前記キーワードを認識する音声認識工程と、
前記音声認識工程で認識した前記キーワードに対応する前記行動パターンを、前記記憶工程で記憶された複数の前記行動パターンから選択する選択工程と、
前記選択工程で選択された前記行動パターンを音声として合成する音声合成工程と、
前記音声合成工程で合成された音声を出力する音声出力工程と、を有することを特徴としている。
The life assistance method in the invention of claim 3 is:
An action pattern input process in which an action pattern is input;
A storage step of storing a plurality of the behavior patterns input in the behavior pattern input step;
A voice input step in which keywords related to the behavior pattern are input by voice;
Analyzing the voice input in the voice input step and recognizing the keyword;
A selection step of selecting the behavior pattern corresponding to the keyword recognized in the voice recognition step from the plurality of behavior patterns stored in the storage step;
A speech synthesis step of synthesizing the behavior pattern selected in the selection step as speech;
A voice output step of outputting the voice synthesized in the voice synthesis step.

請求項4記載の発明におけるプログラムは、
行動パターンが入力される行動パターン入力ステップと、
前記行動パターン入力ステップで入力された前記行動パターンを複数記憶する記憶ステップと、
前記行動パターンに関連するキーワードが音声により入力される音声入力ステップと、
前記音声入力ステップで入力された音声を解析し、前記キーワードを認識する音声認識ステップと、
前記音声認識ステップで認識した前記キーワードに対応する前記行動パターンを、前記記憶ステップで記憶された複数の前記行動パターンから選択する選択ステップと、
前記選択ステップで選択された前記行動パターンを音声として合成する音声合成ステップと、
前記音声合成ステップで合成された音声を出力する音声出力ステップと、を有することを特徴としている。
The program according to the invention of claim 4 is:
An action pattern input step in which an action pattern is input;
A storage step for storing a plurality of the behavior patterns input in the behavior pattern input step;
A voice input step in which keywords related to the behavior pattern are input by voice;
A speech recognition step of analyzing the speech input in the speech input step and recognizing the keyword;
A selection step of selecting the behavior pattern corresponding to the keyword recognized in the voice recognition step from the plurality of behavior patterns stored in the storage step;
A speech synthesis step of synthesizing the behavior pattern selected in the selection step as speech;
A voice output step of outputting the voice synthesized in the voice synthesis step.

本発明によれば、行動パターン及び入力時間の何れか1つに関連するキーワードが音声により音声入力部に入力されると、その音声を音声認識部が解析し、キーワードを認識する。そして、制御部は、音声認識部で認識したキーワードに対応する行動パターンを、記憶部内の複数の行動パターンから選択して、当該選択された行動パターンを基に音声合成部を制御して、音声として合成する。これにより、キーワードに対応する行動パターンが音声出力部から出力されるので、ユーザが日常的な行動を物忘れしてしまったとしても、その行動内容を思い出させるきっかけを与えることができ、ユーザの精神的負担を軽減することができる。   According to the present invention, when a keyword related to any one of the action pattern and the input time is input to the voice input unit by voice, the voice recognition unit analyzes the voice and recognizes the keyword. Then, the control unit selects an action pattern corresponding to the keyword recognized by the voice recognition unit from a plurality of action patterns in the storage unit, and controls the voice synthesis unit based on the selected action pattern to To synthesize. As a result, the behavior pattern corresponding to the keyword is output from the voice output unit, so that even if the user forgets the daily behavior, the user can be reminded of the content of the behavior, and the user's spirit Burden can be reduced.

また、行動パターンの入力時間になると、入力時間と組となる記憶部内の行動パターンを基に音声合成部が音声として合成するので、行動パターンが入力された時刻になると行動パターンが音声出力部から出力されることになる。これにより、ユーザからのキーワード入力がなくとも、ユーザに行動パターンを報知することができる。   Also, when the action pattern input time comes, the speech synthesizer synthesizes as speech based on the action pattern in the storage unit paired with the input time, so when the action pattern is input, the action pattern is Will be output. Thereby, even if there is no keyword input from a user, a user can be notified of an action pattern.

以下、図面を参照しつつ、本発明の実施形態について説明する。図1は、本実施形態の生活補助装置1の全体構成を示すブロック図である。この図1に示すように、生活補助装置1には、音声入力部2と、音声認識部3と、切替スイッチ4と、記憶部5と、音声合成部6と、音声出力部7と、制御部8とが備えられている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of the life assistance device 1 of the present embodiment. As shown in FIG. 1, the life assistance device 1 includes a voice input unit 2, a voice recognition unit 3, a changeover switch 4, a storage unit 5, a voice synthesis unit 6, a voice output unit 7, and a control. Part 8 is provided.

音声入力部2は、例えばマイク等から構成されており、ユーザからの発言内容が入力されるようになっている。
音声認識部3は、音声入力部2に入力された発言内容を認識するためのものである。具体的には、音声認識部3は音声入力部2からの発言内容の音声波形を取得することで、発言内容を認識するようになっている。音声認識部3には、単語と、当該単語の音声波形と、用途とを関連付けて記憶するデータベース31が設けられている。そして、音声認識部3は、取得した音声波形(以下、取得波形)と、データベース31中の各単語の音声波形とを照合して、取得波形に近似な波形を有する単語を抽出する。この際、取得波形に近似な波形の単語が1つ以上抽出されることもあるが、その場合最も近似な波形の単語が取得波形に適合すると判断するようになっている。
The voice input unit 2 is composed of, for example, a microphone or the like, and is adapted to input the content of a message from the user.
The voice recognizing unit 3 is for recognizing the content of a message input to the voice input unit 2. Specifically, the speech recognition unit 3 recognizes the content of the speech by acquiring the speech waveform of the content of the speech from the speech input unit 2. The speech recognition unit 3 is provided with a database 31 that stores words, speech waveforms of the words, and uses in association with each other. Then, the speech recognition unit 3 compares the acquired speech waveform (hereinafter, acquired waveform) with the speech waveform of each word in the database 31 and extracts a word having a waveform approximate to the acquired waveform. At this time, one or more words having a waveform approximate to the acquired waveform may be extracted. In this case, it is determined that the word having the closest waveform matches the acquired waveform.

切替スイッチ4は、ユーザからの発言内容が質問を示しているか、行動パターンを示しているかを切り替えるためのものである。例えば、ユーザが質問を入力する場合にはユーザ自身が切替スイッチ4を操作して質問入力モードに切り替え、行動パターンを入力する場合にはユーザ自身が切替スイッチ4を操作して、行動パターン入力モードに切り替える。この切替スイッチ4での切替指示は、制御部8に入力されるので、音声認識部3で認識された発言内容が、質問を示すものであるか、行動パターンを示すものであるかを制御部8側で判断できるようになっている。   The change-over switch 4 is used for switching whether the content of the statement from the user indicates a question or an action pattern. For example, when the user inputs a question, the user himself / herself operates the changeover switch 4 to switch to the question input mode, and when the user inputs a behavior pattern, the user himself / herself operates the changeover switch 4 to change the behavior pattern input mode. Switch to. Since the switching instruction by the selector switch 4 is input to the control unit 8, the control unit determines whether the utterance content recognized by the voice recognition unit 3 indicates a question or an action pattern. It can be judged on the 8th side.

記憶部5は、音声認識部3で認識された発言内容が行動パターン入力モードで入力されたものであると制御部8が判断した単語、音声波形及び用途を、行動パターンとして記憶する。この際、記憶部5には、制御部8から発言内容の入力時間が入力されているために、行動パターンと入力時間とを一組として記憶するようになっている。行動パターンが複数入力されている場合においては、記憶部5は行動パターンと当該行動パターンの入力時間とを複数組記憶するようになっている。   The storage unit 5 stores, as an action pattern, a word, a voice waveform, and a use that are determined by the control unit 8 that the utterance content recognized by the voice recognition unit 3 is input in the action pattern input mode. At this time, since the input time of the content of the message is input from the control unit 8 in the storage unit 5, the action pattern and the input time are stored as a set. When a plurality of action patterns are input, the storage unit 5 stores a plurality of sets of action patterns and input times of the action patterns.

具体的に記憶内容について図2及び図3を参照にして説明する。図2及び図3は、記憶部5に記憶される行動パターンの一覧表の一例を表す説明図である。
図2に示す一覧表H1であると、毎日7時から「朝食後に服薬」という行動が、18時からは「夕食後に服薬」という行動が設定されている。また、月曜日、火曜日、木曜日、金曜日の10時には「散歩」という行動が設定されていて、水曜日の10時には「通院」という行動が設定されている。
この図2の一覧表H1に対して、新たに毎日16時から「犬の散歩」という行動が追加されると、図3に示すような一覧表H2が形成されて、記憶部5に記憶されることになる。
Specifically, the stored contents will be described with reference to FIGS. 2 and 3 are explanatory diagrams illustrating an example of a list of behavior patterns stored in the storage unit 5.
In the list H1 shown in FIG. 2, an action “medicine after breakfast” is set every day from 7 o'clock, and an action “medication after dinner” is set from 18:00. In addition, an action “walk” is set at 10:00 on Monday, Tuesday, Thursday, and Friday, and an action “go to hospital” is set at 10:00 on Wednesday.
If a new action “walking dog” is newly added to the list H1 of FIG. 2 from 16:00 every day, a list H2 as shown in FIG. 3 is formed and stored in the storage unit 5. Will be.

音声合成部6は、記憶部5に記憶された行動パターンとしての音声波形を読み出して、合成することで返答内容全体の音声波形を作成する。
音声出力部7は、例えばスピーカーから構成されるものであり、音声合成部6で作成された返答内容全体の音声波形を基に、返答内容を音声で出力するようになっている。
The voice synthesizer 6 reads out a voice waveform as an action pattern stored in the storage unit 5 and synthesizes it to create a voice waveform of the entire response content.
The voice output unit 7 is composed of, for example, a speaker, and outputs the response content as a voice based on the voice waveform of the entire response content created by the voice synthesis unit 6.

制御部8は、切替スイッチ4が行動パターン入力モードを切替指示している場合には、音声認識部3で認識された発言内容に基づく単語、音声波形及び用途を、行動パターンとして記憶部5に記憶させる。一方、切替スイッチ4が質問入力モードを切替指示している場合には、制御部8は、音声認識部3で認識された発言内容をキーワードとして認識する。その後、制御部8は、キーワードに対応する行動パターンを、記憶部5内の複数の行動パターンから選択して、当該選択された行動パターンの音声波形を基に音声合成部6を制御して、音声として合成するようになっている。   When the changeover switch 4 is instructed to switch the action pattern input mode, the control unit 8 stores, in the storage unit 5, words, voice waveforms, and uses based on the content of the speech recognized by the voice recognition unit 3 as action patterns. Remember. On the other hand, when the changeover switch 4 instructs to switch the question input mode, the control unit 8 recognizes the content of the speech recognized by the voice recognition unit 3 as a keyword. Thereafter, the control unit 8 selects an action pattern corresponding to the keyword from a plurality of action patterns in the storage unit 5, and controls the speech synthesis unit 6 based on the voice waveform of the selected action pattern, It is designed to synthesize as speech.

ここで、キーワードに対応する行動パターンを選択する際には、質問入力モードで入力されて、音声認識部3で認識されたキーワードの単語、音声波形、用途のうち、用途に関連した用途を有する行動パターンを記憶部5中の複数の行動パターンから選択する。   Here, when selecting an action pattern corresponding to a keyword, it has a use related to the use among the word, the speech waveform, and the use of the keyword input in the question input mode and recognized by the speech recognition unit 3. An action pattern is selected from a plurality of action patterns in the storage unit 5.

以下、キーワードの用途に関連した用途を有する行動パターンについて説明する。
例えば「17時にどこ?」という質問が入力されたとすると、「17時」の用途は「時報」であり、「どこ?」の用途は「場所に関する質問」となる。制御部8は、「時報」を用途とする単語に対しては、その時刻付近に設定された行動パターンが制御部8により抽出されることになる。その後、制御部8は、抽出された行動パターンの用途が、例えば「行き先」、「置き場所」などの「場所」に関連するものであれば、その行動パターンがキーワードに対応していると判断して、選択する。
Hereinafter, behavior patterns having uses related to the use of keywords will be described.
For example, if the question “Where is 17:00?” Is input, the usage of “17:00” is “Hourly”, and the usage of “Where?” Is “Question about location”. The control unit 8 extracts the action pattern set near the time for a word for which “time signal” is used, by the control unit 8. After that, the control unit 8 determines that the action pattern corresponds to the keyword if the use of the extracted action pattern is related to “place” such as “destination” and “place”, for example. Then select.

これ以外にも、質問内容に「時報」の用途を有すキーワードがなかった場合には、制御部8は、その質問が入力された時刻及び質問内容の用途を基にして、キーワードに対応する行動パターンを選択する。具体的には、「時報」の用途を有すキーワードのない質問内容として、例えば「どこ行くんだっけ?」等が入力されたとすると、「どこ行く」の用途である「行き先」に関連する用途を有する行動パターンが制御部8により選択されることになる。   In addition to this, when there is no keyword having the use of “time signal” in the question content, the control unit 8 responds to the keyword based on the time when the question is input and the use of the question content. Select a behavior pattern. More specifically, for example, “Where are you going?” Is entered as a question without a keyword that has a “time signal” application, and it is related to “destination”, which is the application of “where to go”. An action pattern having a use is selected by the control unit 8.

次に、本実施形態の生活補助装置1で実行されるプログラムについて説明する。このプログラムが実行されることで本実施形態の対話方法が生活補助装置1で実現されるようになっている。   Next, a program executed by the life assistance device 1 of this embodiment will be described. By executing this program, the interaction method of the present embodiment is realized by the life assistance device 1.

図4は、生活補助装置1で実行されるプログラムのフローチャートである。この図4に示すように、まず、ステップS1では、制御部8は、切替スイッチ4からの指示が、行動パターン入力モードへの切替指示か、質問入力モードへの切替指示かを判断していて、行動パターン入力モードへの切替指示である場合にはステップS2に移行し、質問入力モードへの切替指示である場合にはステップS10に移行する。   FIG. 4 is a flowchart of a program executed by the life assistance device 1. As shown in FIG. 4, first, in step S1, the control unit 8 determines whether the instruction from the changeover switch 4 is a switching instruction to the behavior pattern input mode or a switching instruction to the question input mode. If it is an instruction to switch to the action pattern input mode, the process proceeds to step S2, and if it is an instruction to switch to the question input mode, the process proceeds to step S10.

ステップS2では、制御部8は、切替スイッチ4からの指示が、質問入力モードへの切替指示に切り替わったか否かを判断していて、切り替わった場合にはステップS10に移行して、切り替わっていない場合にはステップS3に移行する。   In step S2, the control unit 8 determines whether or not the instruction from the changeover switch 4 has been switched to the instruction to switch to the question input mode, and if so, the process proceeds to step S10 and has not been switched. If so, the process proceeds to step S3.

ステップS3では、制御部8は、行動パターンが音声として音声入力部2に入力されたか否かを判断し、入力された場合には、ステップS4に移行して、入力されていない場合にはステップS2に移行する。
ステップS4では、音声入力部2から入力された音声を、音声認識部3により行動パターンとして認識する(行動パターン入力工程、行動パターン入力ステップ)。
ステップS5では、制御部8は、音声認識部3で認識された行動パターンと当該行動パターンの入力時間とを一組として、記憶部5に記憶させて、ステップS2に移行する(記憶工程、記憶ステップ)。
In step S3, the control unit 8 determines whether or not the action pattern is input to the voice input unit 2 as a voice. If input, the process proceeds to step S4. The process proceeds to S2.
In step S4, the voice input from the voice input unit 2 is recognized as a behavior pattern by the voice recognition unit 3 (behavior pattern input step, behavior pattern input step).
In step S5, the control unit 8 stores the action pattern recognized by the voice recognition unit 3 and the input time of the action pattern in the storage unit 5 as a set, and proceeds to step S2 (storage process, storage). Step).

ステップS10では、制御部8は、切替スイッチ4からの指示が、行動パターン入力モードへの切替指示に切り替わったか否かを判断していて、切り替わった場合にはステップS2に移行して、切り替わっていない場合にはステップS11に移行する。   In step S10, the control unit 8 determines whether or not the instruction from the changeover switch 4 has been switched to an instruction to switch to the action pattern input mode. If the instruction has been switched, the process proceeds to step S2 and has been switched. If not, the process proceeds to step S11.

ステップS11では、制御部8は、行動パターンに関連したキーワードが音声として音声入力部2に入力されたか否かを判断し、入力された場合(音声入力工程、音声入力ステップ)には、ステップS12に移行して、入力されていない場合にはステップS10に移行する。   In step S11, the control unit 8 determines whether or not a keyword related to the action pattern has been input as a voice to the voice input unit 2, and if it has been input (speech input step, voice input step), step S12. If it is not input, the process proceeds to step S10.

ステップS12では、制御部8は、音声入力部2から入力された音声を、音声認識部3によりキーワードとして認識する(音声認識工程、音声認識ステップ)。
ステップS13では、制御部8は、音声認識部3で認識されたキーワードに対応する行動パターンが、記憶部5内の複数の行動パターン内に存在しているかどうかを判断し、ある場合にはステップS14に移行して、ない場合にはステップS20に移行する。
In step S12, the control unit 8 recognizes the voice input from the voice input unit 2 as a keyword by the voice recognition unit 3 (voice recognition step, voice recognition step).
In step S13, the control unit 8 determines whether or not an action pattern corresponding to the keyword recognized by the voice recognition unit 3 exists in the plurality of action patterns in the storage unit 5. If not, the process moves to step S20.

ステップS14では、制御部8は、記憶部5内のキーワードに対応する行動パターンを選択する(選択工程、選択ステップ)。
ステップS15では、制御部8は、選択した行動パターンを基に音声合成部6を制御して、音声として合成し(音声合成工程、音声合成ステップ)、ステップS16に移行する。
In step S14, the control unit 8 selects an action pattern corresponding to the keyword in the storage unit 5 (selection process, selection step).
In step S15, the control unit 8 controls the speech synthesizer 6 based on the selected action pattern to synthesize it as speech (speech synthesis step, speech synthesis step), and proceeds to step S16.

ステップS20では、制御部8は、キーワードに対応する行動パターンがない旨を、音声合成部6を制御して音声として合成し、ステップS16に移行する。   In step S20, the control unit 8 synthesizes that there is no action pattern corresponding to the keyword as a voice by controlling the voice synthesis unit 6, and proceeds to step S16.

ステップS16では、制御部8は、合成された音声を、音声出力部7から出力させて(音声出力工程、音声出力ステップ)、ステップS1に移行する。   In step S16, the control unit 8 outputs the synthesized voice from the voice output unit 7 (voice output step, voice output step), and proceeds to step S1.

以上のように本実施形態によれば、行動パターン及び入力時間の何れか1つに関連するキーワードが音声により音声入力部2に入力されると、その音声を音声認識部3が解析し、キーワードを認識する。そして、制御部8は、音声認識部3で認識したキーワードに対応する行動パターンを、記憶部5内の複数の行動パターンから選択して、当該選択された行動パターンを基に音声合成部6を制御して、音声として合成する。これにより、キーワードに対応する行動パターンが音声出力部7から出力されるので、ユーザが日常的な行動を物忘れしてしまったとしても、その行動内容を思い出させるきっかけを与えることができ、ユーザの精神的負担を軽減することができる。   As described above, according to the present embodiment, when a keyword related to any one of the action pattern and the input time is input to the voice input unit 2 by voice, the voice recognition unit 3 analyzes the voice, and the keyword Recognize Then, the control unit 8 selects an action pattern corresponding to the keyword recognized by the voice recognition unit 3 from a plurality of action patterns in the storage unit 5, and uses the voice synthesis unit 6 based on the selected action pattern. Control and synthesize as speech. Thereby, since the action pattern corresponding to the keyword is output from the voice output unit 7, even if the user forgets the daily action, it is possible to give an opportunity to remind the user of the action content. Mental burden can be reduced.

なお、本発明は上記実施形態に限らず適宜変更可能であるのは勿論である。
例えば、本実施形態では、音声入力部2及び音声認識部3が本発明の行動パターン入力部を兼ねる場合について説明したが、行動パターン入力部専用の音声入力部及び音声認識部を設ける構成であってもよい。また、これ以外にも行動パターンが入力されるものであれば、音声入力以外の入力形式のものであってもかまわない。例えば、行動パターンの種類によっては行動実行時に関連して物を動作させる場合がある。この動作させられる物に対してセンサを配置し、そのセンサによって動作の有無を検出させて、制御部8に出力させることで行動パターンとして認識させることも可能である。具体的には、服薬という行動パターンを入力する場合においては、薬箱にセンサを配置して、このセンサによって薬箱の開閉を検出し、制御部8に検出結果を出力させることで、服薬という行動パターンを認識させることができる。
Of course, the present invention is not limited to the above-described embodiment and can be modified as appropriate.
For example, in the present embodiment, the case where the voice input unit 2 and the voice recognition unit 3 also serve as the behavior pattern input unit of the present invention has been described. However, the voice input unit and the voice recognition unit dedicated to the behavior pattern input unit are provided. May be. In addition, as long as an action pattern is input, an input format other than voice input may be used. For example, depending on the type of action pattern, an object may be operated in association with action execution. It is also possible to arrange a sensor for the object to be operated, detect the presence or absence of the operation by the sensor, and cause the control unit 8 to output the recognition result as an action pattern. Specifically, in the case of inputting a behavior pattern called medication, a sensor is arranged in the medication box, the opening and closing of the medication box is detected by this sensor, and the detection result is output to the control unit 8, which is called medication. The behavior pattern can be recognized.

この他にも、例えば、行動パターンの種類によっては行動実行時にユーザがどこかに移動する場合がある。この場合には、ユーザ自身にGPS端末を携帯させて、GPS端末と制御部8とを通信可能とすることで、その移動先を制御部8に認識させることも可能である。具体的には、通院という行動パターンを入力する場合においては、GPS端末から入力された病院の位置情報から、制御部8に通院という行動パターンを認識させることができる。   In addition to this, for example, depending on the type of action pattern, the user may move somewhere during action execution. In this case, it is possible to cause the control unit 8 to recognize the movement destination by allowing the user to carry the GPS terminal and allowing the GPS terminal and the control unit 8 to communicate with each other. Specifically, in the case of inputting a behavior pattern called hospital visit, the control unit 8 can be made to recognize the behavior pattern called hospital visit from the position information of the hospital inputted from the GPS terminal.

また、本実施形態ではキーワードが入力されると、制御部8の制御により当該キーワードに対応する行動パターンが音声出力される場合を例示して説明したが、制御部は、行動パターンの入力時間になると、入力時間と組となる記憶部5内の行動パターンを基に音声合成部6を制御して、音声として合成するようにしてもよい。このように、行動パターンの入力時間になると、入力時間と組となる記憶部5内の行動パターンを基に音声合成部6が音声として合成するので、行動パターンが入力された時刻になると行動パターンが音声出力部7から出力されることになる。したがって、ユーザからのキーワード入力がなくとも、ユーザに行動パターンを報知することができる。
そして、本実施形態においては、上記したように習慣となっている日常行動以外にも、スケジュール管理や、TV・ラジオの番組視聴管理等に用いることも可能である。
Further, in the present embodiment, when a keyword is input, the case where an action pattern corresponding to the keyword is output as a sound under the control of the control unit 8 has been described as an example. In this case, the speech synthesis unit 6 may be controlled based on the action pattern in the storage unit 5 that is paired with the input time, and synthesized as speech. As described above, when the action pattern input time is reached, the speech synthesizer 6 synthesizes the speech based on the action pattern in the storage unit 5 paired with the input time. Therefore, the action pattern is input when the action pattern is input. Is output from the audio output unit 7. Therefore, even if there is no keyword input from the user, the behavior pattern can be notified to the user.
In the present embodiment, it can be used for schedule management, TV / radio program viewing management, and the like in addition to the daily activities that have become a habit as described above.

本実施形態に係る生活補助装置の概略構成を表すブロック図である。It is a block diagram showing schematic structure of the life assistance apparatus which concerns on this embodiment. 図1の生活補助装置の記憶部に記憶される行動パターンの一覧表の一例を表す説明図である。It is explanatory drawing showing an example of the list of the action patterns memorize | stored in the memory | storage part of the life assistance apparatus of FIG. 図1の生活補助装置の記憶部に記憶される行動パターンの一覧表の一例を表す説明図である。It is explanatory drawing showing an example of the list of the action patterns memorize | stored in the memory | storage part of the life assistance apparatus of FIG. 図1の生活補助装置で実行されるプログラムのフローチャトである。It is a flowchart of the program performed with the life assistance apparatus of FIG.

符号の説明Explanation of symbols

1 生活補助装置
2 音声入力部(行動パターン入力部)
3 音声認識部(行動パターン入力部)
4 切替スイッチ
5 記憶部
6 音声合成部
7 音声出力部
8 制御部
31 データベース
1 Life assistance device 2 Voice input unit (behavior pattern input unit)
3 Voice recognition unit (behavior pattern input unit)
4 switch 5 storage unit 6 voice synthesis unit 7 voice output unit 8 control unit 31 database

Claims (4)

行動パターンが入力される行動パターン入力部と、
前記行動パターン入力部に入力された前記行動パターン及び当該行動パターンの入力時間を一組として複数組記憶する記憶部と、
前記行動パターン及び前記入力時間の何れか1つに関連するキーワードが音声により入力される音声入力部と、
前記音声入力部から入力された音声を解析し、前記キーワードを認識する音声認識部と、
前記記憶部内の前記行動パターンを音声として合成する音声合成部と、
前記音声合成部で合成された音声を出力する音声出力部と、
前記音声認識部で認識した前記キーワードに対応する前記行動パターンを、前記記憶部内の複数の前記行動パターンから選択して、当該選択された行動パターンを基に前記音声合成部を制御して、音声として合成する制御部とを備えることを特徴とする生活補助装置。
An action pattern input unit for inputting an action pattern;
A storage unit that stores a plurality of sets of the action pattern and the input time of the action pattern that are input to the action pattern input unit;
A voice input unit in which a keyword related to any one of the behavior pattern and the input time is input by voice;
A voice recognition unit that analyzes voice input from the voice input unit and recognizes the keyword;
A speech synthesizer that synthesizes the behavior pattern in the storage unit as speech;
A voice output unit for outputting the voice synthesized by the voice synthesis unit;
The behavior pattern corresponding to the keyword recognized by the speech recognition unit is selected from the plurality of behavior patterns in the storage unit, the speech synthesis unit is controlled based on the selected behavior pattern, and the speech A life assistance device comprising: a control unit that synthesizes as:
請求項1記載の生活補助装置において、
前記制御部は、前記行動パターンの入力時間になると、前記入力時間と組となる前記記憶部内の前記行動パターンを基に前記音声合成部を制御して、音声として合成することを特徴とする生活補助装置。
The life assistance device according to claim 1,
The control unit synthesizes the voice as a voice by controlling the voice synthesis unit based on the behavior pattern in the storage unit paired with the input time at the input time of the behavior pattern. Auxiliary device.
行動パターンが入力される行動パターン入力工程と、
前記行動パターン入力工程で入力された前記行動パターンを複数記憶する記憶工程と、
前記行動パターンに関連するキーワードが音声により入力される音声入力工程と、
前記音声入力工程で入力された音声を解析し、前記キーワードを認識する音声認識工程と、
前記音声認識工程で認識した前記キーワードに対応する前記行動パターンを、前記記憶工程で記憶された複数の前記行動パターンから選択する選択工程と、
前記選択工程で選択された前記行動パターンを音声として合成する音声合成工程と、
前記音声合成工程で合成された音声を出力する音声出力工程と、を有することを特徴とする生活補助方法。
An action pattern input process in which an action pattern is input;
A storage step of storing a plurality of the behavior patterns input in the behavior pattern input step;
A voice input step in which keywords related to the behavior pattern are input by voice;
Analyzing the voice input in the voice input step and recognizing the keyword;
A selection step of selecting the behavior pattern corresponding to the keyword recognized in the voice recognition step from the plurality of behavior patterns stored in the storage step;
A speech synthesis step of synthesizing the behavior pattern selected in the selection step as speech;
And a voice output step of outputting the voice synthesized in the voice synthesis step.
行動パターンが入力される行動パターン入力ステップと、
前記行動パターン入力ステップで入力された前記行動パターンを複数記憶する記憶ステップと、
前記行動パターンに関連するキーワードが音声により入力される音声入力ステップと、
前記音声入力ステップで入力された音声を解析し、前記キーワードを認識する音声認識ステップと、
前記音声認識ステップで認識した前記キーワードに対応する前記行動パターンを、前記記憶ステップで記憶された複数の前記行動パターンから選択する選択ステップと、
前記選択ステップで選択された前記行動パターンを音声として合成する音声合成ステップと、
前記音声合成ステップで合成された音声を出力する音声出力ステップと、を有することを特徴とするプログラム。

An action pattern input step in which an action pattern is input;
A storage step for storing a plurality of the behavior patterns input in the behavior pattern input step;
A voice input step in which keywords related to the behavior pattern are input by voice;
A speech recognition step of analyzing the speech input in the speech input step and recognizing the keyword;
A selection step of selecting the behavior pattern corresponding to the keyword recognized in the voice recognition step from the plurality of behavior patterns stored in the storage step;
A speech synthesis step of synthesizing the behavior pattern selected in the selection step as speech;
A voice output step of outputting the voice synthesized in the voice synthesis step.

JP2006032428A 2006-02-09 2006-02-09 Live assisting device, life assisting method and program Pending JP2007213315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006032428A JP2007213315A (en) 2006-02-09 2006-02-09 Live assisting device, life assisting method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006032428A JP2007213315A (en) 2006-02-09 2006-02-09 Live assisting device, life assisting method and program

Publications (1)

Publication Number Publication Date
JP2007213315A true JP2007213315A (en) 2007-08-23

Family

ID=38491692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006032428A Pending JP2007213315A (en) 2006-02-09 2006-02-09 Live assisting device, life assisting method and program

Country Status (1)

Country Link
JP (1) JP2007213315A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170753B2 (en) 2018-10-10 2021-11-09 Panasonic Intellectual Property Corporation Of America Information processing method, information processing device, and computer-readable recording medium recording information processing program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178536A (en) * 2002-11-28 2004-06-24 Shinsaku Kitano Portable voice input forgetfulness prevention device and prevention method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178536A (en) * 2002-11-28 2004-06-24 Shinsaku Kitano Portable voice input forgetfulness prevention device and prevention method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170753B2 (en) 2018-10-10 2021-11-09 Panasonic Intellectual Property Corporation Of America Information processing method, information processing device, and computer-readable recording medium recording information processing program

Similar Documents

Publication Publication Date Title
Mokhtari et al. New trends to support independence in persons with mild dementia–a mini-review
JP3702867B2 (en) Voice control device
US20120265535A1 (en) Personal voice operated reminder system
JP7241499B2 (en) Information processing method, information processing apparatus, and information processing program
JP6654611B2 (en) Growth type dialogue device
JP2004086150A (en) Voice control system
CN103778527A (en) Voice memo prompting method and device
JP2007226642A (en) Voice recognition equipment controller
US20170249941A1 (en) Method for acquiring at least two pieces of information to be acquired, comprising information content to be linked, using a speech dialogue device, speech dialogue device, and motor vehicle
US20060293789A1 (en) Enhancements to mechanical robot
US11881229B2 (en) Server for providing response message on basis of user&#39;s voice input and operating method thereof
JP2009104020A (en) Voice recognition device
US20160125295A1 (en) User-interaction toy and interaction method of the toy
JP2007213315A (en) Live assisting device, life assisting method and program
JP2008158697A (en) Robot control device
JP6718243B2 (en) Display device, display program, display system, and method for controlling display device
JP2007193166A (en) Dialog device, dialog method, and program
JP6373709B2 (en) Dialogue device
JP2016143050A (en) Voice recognition device and voice recognition method
JP7290154B2 (en) Information processing device, information processing method, and program
KR102179220B1 (en) Electronic Bible system using speech recognition
JP2017049537A (en) Maneuvering device, correcting method, and program
JP2007212658A (en) Character input device
JP7299033B2 (en) Medication support system, schedule setting device, information processing method and program
JP4572080B2 (en) Robot or behavior update method in robot, and program for controlling behavior update in robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20090121

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20110517

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20110531

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111004