JPH06142342A - Voice recognizable toy - Google Patents

Voice recognizable toy

Info

Publication number
JPH06142342A
JPH06142342A JP4276050A JP27605092A JPH06142342A JP H06142342 A JPH06142342 A JP H06142342A JP 4276050 A JP4276050 A JP 4276050A JP 27605092 A JP27605092 A JP 27605092A JP H06142342 A JPH06142342 A JP H06142342A
Authority
JP
Japan
Prior art keywords
voice
input
specific word
sound
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4276050A
Other languages
Japanese (ja)
Inventor
Masayuki Iida
正幸 飯田
Shohei Mihara
正平 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP4276050A priority Critical patent/JPH06142342A/en
Publication of JPH06142342A publication Critical patent/JPH06142342A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

PURPOSE:To provide an original animal-likeness which responds when being talked to by a method where when a sound input to indicate a motion or vocalization is given within a specified period of time after the recognition of a specified word, the motion or sound to correspond to the input is output. CONSTITUTION:In the case of a stuffed animal of dog, a sound which is input from a microphone 1 being provided on the nose is analyzed at a sound analyzing part 2 being provided in the belly, and a sound pattern is created. The sound pattern is compared with standard patterns being previously stored in an identification part 3 which is provided in the belly part, and a signal to the most similar standard pattern is made to be the recognition result, and the signal is transmitted to a driving part 4 or sound synthesizing part 5. Concretely, the identification part 3 selects the most similar standard pattern, and transmits a recognition result to correspond to the selected standard pattern to a specified word judging part, and when the result is a specified word, the specified word judging part transmits the result to an output part. The output part commands an indicating motion to correspond to the specified work to the driving part 4 or sound synthesizing part 5.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声を認識し、その認
識結果に基づいて特定動作を行なう音声認識玩具に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition toy that recognizes voice and performs a specific action based on the recognition result.

【0002】[0002]

【従来の技術】従来の音声認識玩具が、特開昭62−2
53093号に開示されている。
2. Description of the Related Art A conventional voice recognition toy is disclosed in Japanese Patent Laid-Open No. 62-2.
No. 53093.

【0003】この音声認識玩具においては、音声指令と
なる命令語を予め登録し、入力された音声信号と登録さ
れている音声信号との比較を行って、上記両音声信号が
一致したとき、音声指令に対応する定められた電気信号
を出力し、これに基づいて玩具に特定動作を行わせるも
のである。
In this voice recognition toy, a command word to be a voice command is registered in advance, the input voice signal is compared with the registered voice signal, and when both voice signals match, voice A predetermined electric signal corresponding to the command is output, and the toy is caused to perform a specific operation based on the electric signal.

【0004】しかしながら、動物のぬいぐるみ等の如
き、音声を認識して特定動作を行わせる玩具では、その
ぬいぐるみと遊んでいる者の音声に対してのみ反応する
べく、パスワードのような特定語を設定して、その特定
語の音声入力の後に入力される予め登録された命令語の
音声に対してのみ動作を行ない、上記特定語の入力音声
に応答して動作させることはなかったため、玩具と雖も
本来の動物らしさが欠けていた。
However, in a toy that recognizes a voice and performs a specific action, such as a stuffed animal, a specific word such as a password is set so as to react only to the stuffed animal and the voice of a person who is playing. Then, the operation is performed only on the voice of the command word registered in advance after the voice input of the specific word, and the voice is not operated in response to the input voice of the specific word. However, the original animal-likeness was lacking.

【0005】[0005]

【発明が解決しようとする課題】従って、本発明は、予
め登録した命令語以外のパスワードのような特定語を、
音声認識玩具が認識した際に、その認識結果に基づいて
玩具を動作させることによって、人間が話しかけた際に
反応する本来の動物らしさを備えた音声認識玩具を提供
することを目的とする。
Therefore, according to the present invention, a specific word such as a password other than a command word registered in advance can be used.
It is an object of the present invention to provide a voice recognition toy having an original animal-like character that reacts when a human speaks, by operating the toy based on the recognition result when the voice recognition toy recognizes it.

【0006】[0006]

【課題を解決するための手段】本発明は、マイクロフォ
ンから入力された特定語、若しくは命令語からなる音声
を分析して、音声パターンを作成する音声分析部と、該
音声分析部から得られた音声パターンと予め用意された
複数の認識語群からなる標準パターンとを比較して、認
識結果を出力する識別部と、該識別部の認識結果が特定
語に該当する場合に、その特定語、若しくは命令語に対
応する動作を動作機構に指示する駆動部、並びにその特
定語、若しくは命令語に対応する発声を発声機構から音
声出力させる音声合成部と、を具備し、上記特定語の認
識時から所定時間内に、動作、若しくは発声を指示する
命令語の音声入力があれば、該音声入力に対応する動
作、若しくは音声出力をすることを特徴とする。
According to the present invention, there is provided a speech analysis section for analyzing a speech composed of a specific word or a command word input from a microphone to create a speech pattern, and a speech analysis section obtained from the speech analysis section. An identification unit that outputs a recognition result by comparing a voice pattern with a standard pattern composed of a plurality of previously prepared recognition words, and if the recognition result of the identification unit corresponds to a specific word, the specific word, Alternatively, a drive unit for instructing an operation mechanism to perform an operation corresponding to a command word, and a voice synthesis unit for outputting a voice corresponding to the specific word or command word from the voicing mechanism are provided. If there is a voice input of a command word for instructing an operation or utterance within a predetermined time from, the operation or voice output corresponding to the voice input is performed.

【0007】[0007]

【作用】特定語が音声入力されると、識別部がその特定
語を認識し、特定語に対応する動作、若しくは音声出力
をし、上記特定語の認識時から所定時間内に音声入力が
あれば、該音声入力に対応する動作、若しくは音声出力
を行なう。
When a specific word is input by voice, the identifying unit recognizes the specific word and performs an operation or voice output corresponding to the specific word. When the specific word is recognized, the voice input is performed within a predetermined time. For example, the operation corresponding to the voice input or the voice output is performed.

【0008】[0008]

【実施例】本発明の実施例を「犬のぬいぐるみ」を例に
挙げて、図1乃至図5を参照しながら説明する。
EXAMPLE An example of the present invention will be described with reference to FIG. 1 to FIG. 5, taking a "stuffed dog" as an example.

【0009】図1、及び図2において、犬の鼻に設けら
れたマイクロフォン1から入力された音声は、犬の腹部
に設けられた音声分析部2で分析され、音声パターンが
作成される。この音声パターンは、犬の腹部に設けられ
た識別部3に予め格納された標準パターンと比較され、
最も類似した標準パターンに対する信号を認識結果と
し、この信号を駆動部4、又は音声合成部5に送る。
In FIGS. 1 and 2, the voice input from the microphone 1 provided on the dog's nose is analyzed by the voice analysis unit 2 provided on the abdomen of the dog to create a voice pattern. This voice pattern is compared with a standard pattern stored in advance in the identification unit 3 provided on the abdomen of the dog,
The signal for the most similar standard pattern is used as the recognition result, and this signal is sent to the drive unit 4 or the voice synthesis unit 5.

【0010】ここで、識別部3は、図3に示すような構
成により処理を行なう。即ち、そのマッチング部31
は、入力音声パターンと標準パターンメモリ32の標準
パターンとの比較を行ない、最も類似した標準パターン
を選択し、それに対応した認識結果を特定語判定部33
に送る。
Here, the identification unit 3 performs processing by the configuration as shown in FIG. That is, the matching unit 31
Compares the input voice pattern with the standard pattern in the standard pattern memory 32, selects the most similar standard pattern, and outputs the recognition result corresponding to it as the specific word determination unit 33.
Send to.

【0011】次に、特定語判定部33は、マッチング部
31で得られた結果が特定語であるとき、その結果を出
力部35に送り、この出力部35は認識結果に基づいて
特定語に対応する指示動作を、駆動部4、若しくは音声
合成部5に命ずる。
Next, when the result obtained by the matching unit 31 is a specific word, the specific word determining unit 33 sends the result to the output unit 35, which outputs the specific word based on the recognition result. The corresponding instruction operation is instructed to the drive unit 4 or the voice synthesis unit 5.

【0012】ここで、特定語とは、例えば「ポチ」等の
話者を特定するためのパスワードであり、少なくとも、
この特定語を認識することによって、この次の動作を行
わせることができる。
Here, the specific word is a password for specifying a speaker such as "Pochi", and at least,
The next operation can be performed by recognizing the specific word.

【0013】これと共に、特定語判定部33は、特定語
の認識結果を認識結果記憶部34に書き込むと共に、特
定語判定部33による特定語の認識によって、タイマ3
6の計時が始まる。
At the same time, the specific word determination unit 33 writes the recognition result of the specific word in the recognition result storage unit 34, and when the specific word determination unit 33 recognizes the specific word, the timer 3 is detected.
Timing of 6 begins.

【0014】出力部35は、認識結果記憶部34に特定
語の認識結果が保持されているときのみ、特定語判定部
33から送られてきた特定語以外の認識結果に対応した
信号を出力し、保持されていないときは、出力しない。
また、タイマ36は、特定語判定部33の特定語の認識
時からの時間を計時しており、所定の時間が経過すると
認識結果記憶部34の内容を消去する。
The output unit 35 outputs a signal corresponding to the recognition result other than the specific word sent from the specific word determination unit 33, only when the recognition result storage unit 34 holds the specific word recognition result. , If not held, do not output.
Further, the timer 36 measures the time from the recognition of the specific word by the specific word determination unit 33, and erases the contents of the recognition result storage unit 34 when a predetermined time has elapsed.

【0015】ところで、本発明の第1の実施例である認
識動作を、図4のフローチャートに基づいて説明する。
尚、特定語「ポチ」、及び命令語「ワン」、「お手」、
「ご飯だよ」は既に標準パターンメモリ32に記憶され
ているものとする。
The recognition operation according to the first embodiment of the present invention will be described with reference to the flowchart of FIG.
In addition, the specific word “Pochi”, and the command words “One”, “Hand”,
It is assumed that "it's rice" is already stored in the standard pattern memory 32.

【0016】第1の実施例の特徴は、命令語「ワン」、
「お手」、「ご飯だよ」の入力音声を認識して、それに
対応する発声を行なうことは勿論のこと、特定語「ポ
チ」の入力音声をも認識して、それに対応して動作を行
わせることである。
The feature of the first embodiment is that the command word "one",
Not only does it recognize the input voices of “hand” and “rice” and make the corresponding utterances, but also recognizes the input voice of the specific word “poti” and operates accordingly. Is to do it.

【0017】ステップS10において、特定語「ポチ」
が入力音声として入力されたならば、ステップS11に
進み、一方その特定語が入力されなければ、入力される
までその入力を待ち続ける。
In step S10, the specific word "poti"
If is input as the input voice, the process proceeds to step S11. On the other hand, if the specific word is not input, the input word is kept waiting until it is input.

【0018】ステップS11において、犬の目を開け
て、ステップS12に進む。ステップS12において、
タイマ36のカウントを例えば10秒に設定し、ステッ
プS13に進む。ステップS13において、タイマ36
のカウントが10秒間を経過すると、ステップS14に
進んで犬の目を閉じ、ステップS10に戻る。また、ス
テップS13において、タイマ36のカウントが10秒
間を経過していなければ、ステップS15に進む。
In step S11, the eyes of the dog are opened and the process proceeds to step S12. In step S12,
The count of the timer 36 is set to, for example, 10 seconds, and the process proceeds to step S13. In step S13, the timer 36
When the count of 10 has elapsed for 10 seconds, the process proceeds to step S14, the eyes of the dog are closed, and the process returns to step S10. If the timer 36 has not counted for 10 seconds in step S13, the process proceeds to step S15.

【0019】ステップS15において、音声の入力がな
ければ、ステップS13に戻り、一方音声の入力があれ
ば、ステップS16に進む。ステップS16において、
入力音声が命令語でなく、且つ特定語であれば、ステッ
プS12に戻り、タイマ36はタイムアウトカウントを
再度10秒に設定し直す。ステップS16において、入
力音声が命令語であれば、ステップS17に進む。
If there is no voice input in step S15, the process returns to step S13, and if there is voice input, the process proceeds to step S16. In step S16,
If the input voice is not a command word and is a specific word, the process returns to step S12, and the timer 36 resets the timeout count to 10 seconds again. If the input voice is a command word in step S16, the process proceeds to step S17.

【0020】ステップS17において、入力音声が命令
語「ワン」であれば、ステップS18に進み、音声合成
出力をして「ワンワン」と鳴いた後、ステップS13に
戻り、入力音声が命令語「ワン」でなければ、ステップ
S19に進む。
In step S17, if the input voice is the command word "one", the process proceeds to step S18, the voice synthesis output is performed and "Wan one" is sounded, and then the process returns to step S13 and the input voice is the command word "one". Otherwise, the process proceeds to step S19.

【0021】ステップS19において、入力音声が命令
語「お手」であれば、ステップS20に進み、音声合成
出力をして「ワウ−ン」と鳴いた後、ステップS13に
戻り、一方入力音声が命令語「お手」でなければ、ステ
ップS21に進み、音声合成出力をして「ワンワンワ
ン」と鳴いた後、ステップS13に戻る。
In step S19, if the input voice is the command word "hand", the process proceeds to step S20, the voice synthesis output is performed and "Warn" is made, and then the process returns to step S13. If it is not the command word "hand", the process proceeds to step S21, the voice synthesis output is performed and "Wan-Wan-Wan" is sounded, and then the process returns to Step S13.

【0022】次に、本発明の第2の実施例である認識動
作を、図5のフローチャートに基づいて説明する。尚、
第1の実施例と同様に、特定語「ポチ」、及び命令語
「ワン」、「お手」、「ご飯だよ」は既に標準パターン
メモリ32に記憶されているものとする。
Next, the recognition operation according to the second embodiment of the present invention will be described with reference to the flowchart of FIG. still,
Similar to the first embodiment, it is assumed that the specific word "potty" and the command words "one", "hand", "rice" are already stored in the standard pattern memory 32.

【0023】第2の実施例の特徴は、命令語「ワン」、
「お手」、「ご飯だよ」の入力音声を認識して、それに
対応する動作、発声を行なうことは勿論のこと、特定語
「ポチ」の入力音声が複数回の場合に、それに対応して
夫々異なる動作を行わせることである。
The feature of the second embodiment is that the command word "one",
It recognizes the input voices of "hand" and "rice" and performs the corresponding actions and utterances. It also supports the input voice of the specific word "poti" multiple times. To perform different operations.

【0024】ステップS31において、第1の特定語
「ポチ」が入力音声として入力されたならば、ステップ
S32に進み、一方その第1の特定語が入力されなけれ
ば、入力されるまでその入力を待ち続ける。
If the first specific word "Pochi" is input as the input voice in step S31, the process proceeds to step S32, while if the first specific word is not input, the input is continued until it is input. Keep waiting

【0025】ステップS32において、犬の目を開け、
ステップS33に進む。ステップS33において、タイ
マ36のカウントを例えば5秒に設定する。ステップS
34において、タイマ36のカウントが5秒間を経過す
ると、ステップS35に進んで犬の目を閉じ、ステップ
S31に戻る。また、ステップS34において、タイマ
36のカウントが5秒間を経過していなければ、ステッ
プS36に進む。
In step S32, the dog's eyes are opened,
It proceeds to step S33. In step S33, the count of the timer 36 is set to 5 seconds, for example. Step S
In 34, when the count of the timer 36 has passed 5 seconds, the process proceeds to step S35, the eyes of the dog are closed, and the process returns to step S31. If it is determined in step S34 that the timer 36 has not counted 5 seconds, the process proceeds to step S36.

【0026】ステップS36において、第2の特定語
「ポチ」が入力されなければ、ステップS34に戻り、
一方第2の特定語「ポチ」が入力されたならば、ステッ
プS37に進み、第1の特定語とは異なる動作、即ち犬
の尾を振らせてから、ステップS38に進む。
If the second specific word "Pochi" is not input in step S36, the process returns to step S34,
On the other hand, if the second specific word "Pochi" is input, the process proceeds to step S37, and the operation different from the first specific word, that is, the dog's tail is swung, and then the process proceeds to step S38.

【0027】ステップS38において、タイマ36のカ
ウントを例えば10秒に設定した後、ステップS39に
進む。
In step S38, after the count of the timer 36 is set to, for example, 10 seconds, the process proceeds to step S39.

【0028】ステップS39において、タイマ36のカ
ウントが10秒間を経過すると、ステップS40に進ん
で、犬の尾振りを停止させて、ステップS35に戻り、
一方タイマ36のカウントが10秒間を経過していなけ
れば、ステップS41に進む。
When the timer 36 counts for 10 seconds in step S39, the process proceeds to step S40 to stop the dog's tail swing, and then returns to step S35.
On the other hand, if the count of the timer 36 has not exceeded 10 seconds, the process proceeds to step S41.

【0029】ステップS41において、音声の入力がな
ければ、ステップS39に戻り、一方音声の入力があれ
ばステップS42に進む。ステップS42において、入
力音声が命令語でなく、且つ第2の特定語であれば、ス
テップS38に戻り、タイマ36はタイムアウトカウン
トを再度10秒に設定し直す。ステップS42におい
て、入力音声が命令語であれば、ステップS43に進
む。
In step S41, if there is no voice input, the process returns to step S39, and if there is voice input, the process proceeds to step S42. If the input voice is not the command word and is the second specific word in step S42, the process returns to step S38, and the timer 36 resets the timeout count to 10 seconds again. If the input voice is the command word in step S42, the process proceeds to step S43.

【0030】ステップS43において、入力音声が命令
語「ワン」であれば、ステップS44に進み、音声合成
出力をして「ワンワン」と鳴いた後、ステップS39に
戻り、一方入力音声が命令語「ワン」でなければ、ステ
ップS45に進む。
In step S43, if the input voice is the command word "one", the process proceeds to step S44, the voice is synthesized and output "one one", and then the process returns to step S39. If not "one", the process proceeds to step S45.

【0031】ステップS45において、入力音声が命令
語「お手」であれば、ステップS46に進み、音声合成
出力をして「ワウ−ン」と鳴いた後、ステップS39に
戻り、一方入力音声が命令語「お手」でなければステッ
プS47に進み、音声合成出力をして「ワンワンワン」
と鳴いた後、ステップS39に戻る。
In step S45, if the input voice is the command word "hand", the process proceeds to step S46, the voice is synthesized and output "Warn", and then the process returns to step S39. If it is not the command word "hand", the process proceeds to step S47, where voice synthesis output is performed and "one one one"
And then returns to step S39.

【0032】尚、上述の第2の実施例において、第1の
特定語と第2の特定語とを同一に設定したがこれには限
られず、第1の特定語と第2の特定語とを全く異なるも
のに設定してもよい。また、第1の特定語と第2の特定
語との異同に拘らず、それらの特定語に対応する夫々の
動作を異ならしめることができ、これによって本来の動
物らしさが出てくる。
Although the first specific word and the second specific word are set to be the same in the above-described second embodiment, the present invention is not limited to this, and the first specific word and the second specific word are not set. May be set to something different. Further, regardless of the difference between the first specific word and the second specific word, it is possible to make the respective actions corresponding to these specific words different, which brings out the original animal-likeness.

【0033】更に、第1、及び第2の実施例において、
第1、又は第2の特定語を複数回入力することによっ
て、タイマ36のタイムアウトカウントを再度設定し直
すことができる。
Furthermore, in the first and second embodiments,
By inputting the first or second specific word a plurality of times, the timeout count of the timer 36 can be reset.

【0034】また、第1、及び第2の実施例において、
特定語に対応して「犬の目を開ける」、「尾を振らせ
る」といった動作をさせたが、これに代わって、音声出
力させても良いことはいうまでもない。
In the first and second embodiments,
Although operations such as "opening the eyes of the dog" and "shaking the tail" are performed in response to the specific word, it goes without saying that voice output may be performed instead.

【0035】上述の第1、及び第2の実施例では、犬の
ぬいぐるみに限って説明したが、この他に「ねこ」、
「九官鳥」等の動物でもよい。
In the above-mentioned first and second embodiments, the explanation has been given only to the stuffed dog, but in addition to this, a "cat",
Animals such as "mynah" may be used.

【0036】[0036]

【発明の効果】本発明によれば、命令語を入力した際は
勿論、特定語を入力した際においてもそれに対応して、
音声認識玩具に動作を行わせることができる。これによ
って、玩具と雖も動物らしさが出てきて愛嬌さを備えさ
せることができる。
According to the present invention, not only when a command word is input, but also when a specific word is input,
The voice recognition toy can be caused to perform an action. As a result, the toys and 雖 can be made to look like animals and have a charm.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の音声認識玩具のブロック図FIG. 1 is a block diagram of a voice recognition toy according to the present invention.

【図2】本発明の音声認識玩具の概略内部構造図FIG. 2 is a schematic internal structure diagram of the voice recognition toy of the present invention.

【図3】本発明の音声認識玩具の認識部に関するブロッ
ク図
FIG. 3 is a block diagram of a recognition unit of the voice recognition toy according to the present invention.

【図4】本発明の第1の実施例に関する音声認識に関す
るフローチャート
FIG. 4 is a flowchart regarding voice recognition according to the first embodiment of the present invention.

【図5】本発明の第2の実施例に関する音声認識に関す
るフローチャート
FIG. 5 is a flowchart regarding voice recognition according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 マイクロフォン 2 音声分析部 3 識別部 31 マッチング部 32 標準パターンメモリ 33 特定語判定部 34 認識結果記憶部 35 出力部 36 タイマ 4 駆動部 5 音声合成部 1 Microphone 2 Speech analysis section 3 Identification section 31 Matching section 32 Standard pattern memory 33 Specific word determination section 34 Recognition result storage section 35 Output section 36 Timer 4 Driving section 5 Speech synthesis section

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 マイクロフォンから入力された音声を分
析して、音声パターンを作成する音声分析部と、該音声
分析部から得られる音声パターンと予め用意された複数
の認識語群からなる標準パターンとを比較して、認識結
果を出力する識別部と、該識別部の結果に基づいて動作
機構を駆動させる駆動部、並びに発声機構から音声出力
させる音声合成部と、を具備する音声認識玩具におい
て、 上記識別部が、音声入力された特定語を認識すると、該
特定語に対応する動作、若しくは音声出力をし、この
後、上記特定語の認識時から所定時間内に、動作、若し
くは発声を指示する音声入力があれば、該音声入力に対
応する動作、若しくは音声出力をすることを特徴とした
音声認識玩具。
1. A voice analysis unit that analyzes a voice input from a microphone to create a voice pattern, a voice pattern obtained from the voice analysis unit, and a standard pattern including a plurality of recognition word groups prepared in advance. A voice recognition toy comprising: an identification unit that outputs a recognition result, a drive unit that drives the operation mechanism based on the result of the identification unit, and a voice synthesis unit that outputs a voice from the voice mechanism. When the identification unit recognizes a specific word that is input by voice, it outputs an operation or a voice output corresponding to the specific word, and thereafter, instructs an operation or utterance within a predetermined time after the specific word is recognized. If there is a voice input, a voice recognition toy characterized by performing an operation corresponding to the voice input or outputting a voice.
【請求項2】 上記特定語が複数回音声入力された際の
該特定語に対応する動作、若しくは音声出力は夫々異な
ることを特徴とする請求項1記載の音声認識玩具。
2. The voice recognition toy according to claim 1, wherein an operation or a voice output corresponding to the specific word when the specific word is voice-input a plurality of times is different from each other.
【請求項3】 上記特定語が、所定時間内に1回、若し
くは2回以上入力されると、該所定時間は再延長され、
音声入力の待機状態となることを特徴とする請求項1記
載の音声認識玩具。
3. The specific time is re-extended when the specific word is input once or twice or more within a predetermined time,
The voice recognition toy according to claim 1, wherein the voice recognition toy is in a standby state for voice input.
JP4276050A 1992-10-14 1992-10-14 Voice recognizable toy Pending JPH06142342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4276050A JPH06142342A (en) 1992-10-14 1992-10-14 Voice recognizable toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4276050A JPH06142342A (en) 1992-10-14 1992-10-14 Voice recognizable toy

Publications (1)

Publication Number Publication Date
JPH06142342A true JPH06142342A (en) 1994-05-24

Family

ID=17564096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4276050A Pending JPH06142342A (en) 1992-10-14 1992-10-14 Voice recognizable toy

Country Status (1)

Country Link
JP (1) JPH06142342A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08266747A (en) * 1995-03-31 1996-10-15 Matsushita Electric Ind Co Ltd Voice recognition device, reacting device, reaction selecting device, and reactive toy using those devices
US5802488A (en) * 1995-03-01 1998-09-01 Seiko Epson Corporation Interactive speech recognition with varying responses for time of day and environmental conditions
JP2001154694A (en) * 1999-09-13 2001-06-08 Matsushita Electric Ind Co Ltd Voice recognition device and method
KR20030073407A (en) * 2002-03-11 2003-09-19 주식회사 보스텍 Apparatus for driving lip of robot
US6991511B2 (en) 2000-02-28 2006-01-31 Mattel Inc. Expression-varying device
JP2006149805A (en) * 2004-11-30 2006-06-15 Asahi Kasei Corp Nam sound responding toy device and nam sound responding toy system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0231786A (en) * 1988-07-21 1990-02-01 Hitoshi Miyamori Toy moving in response to calls from specified person

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0231786A (en) * 1988-07-21 1990-02-01 Hitoshi Miyamori Toy moving in response to calls from specified person

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802488A (en) * 1995-03-01 1998-09-01 Seiko Epson Corporation Interactive speech recognition with varying responses for time of day and environmental conditions
JPH08266747A (en) * 1995-03-31 1996-10-15 Matsushita Electric Ind Co Ltd Voice recognition device, reacting device, reaction selecting device, and reactive toy using those devices
JP2001154694A (en) * 1999-09-13 2001-06-08 Matsushita Electric Ind Co Ltd Voice recognition device and method
US6991511B2 (en) 2000-02-28 2006-01-31 Mattel Inc. Expression-varying device
KR20030073407A (en) * 2002-03-11 2003-09-19 주식회사 보스텍 Apparatus for driving lip of robot
JP2006149805A (en) * 2004-11-30 2006-06-15 Asahi Kasei Corp Nam sound responding toy device and nam sound responding toy system

Similar Documents

Publication Publication Date Title
JP4166153B2 (en) Apparatus and method for discriminating emotion of dog based on analysis of voice characteristics
Latorre et al. Effect of data reduction on sequence-to-sequence neural TTS
TW586056B (en) Robot control device, robot control method, and recording medium
Rosen et al. Automatic speech recognition and a review of its functioning with dysarthric speech
JPH05232984A (en) Reference pattern forming method for voice analysis
JP2001157976A (en) Robot control device, robot control method, and recording medium
JPH0962293A (en) Speech recognition dialogue device and speech recognition dialogue processing method
JP4687936B2 (en) Audio output device, audio output method, program, and recording medium
JPH06142342A (en) Voice recognizable toy
WO2002082423A1 (en) Word sequence output device
JP2002318594A (en) Language processing system and language processing method as well as program and recording medium
US20220148570A1 (en) Speech interpretation device and system
JP2002258886A (en) Device and method for combining voices, program and recording medium
CN107305771A (en) For carrying out visual system and method to connected speech
JP2002311981A (en) Natural language processing system and natural language processing method as well as program and recording medium
JPH0774960B2 (en) Method and system for keyword recognition using template chain model
Meloni et al. A nonverbal recognition method to assist speech
JP2008136530A (en) Automatic recorded data output system
JP4656354B2 (en) Audio processing apparatus, audio processing method, and recording medium
JP7342419B2 (en) Robot control device, robot, robot control method and program
JPS5887599A (en) Spoken word recognition equipment
JPS5953900A (en) Speaker recognition system
JP2010060729A (en) Reception device, reception method and reception program
JP2002304187A (en) Device and method for synthesizing voice, program and recording medium
JP2003271181A (en) Information processor, information processing method, recording medium and program