JP2001265364A - Sound processor - Google Patents

Sound processor

Info

Publication number
JP2001265364A
JP2001265364A JP2000077864A JP2000077864A JP2001265364A JP 2001265364 A JP2001265364 A JP 2001265364A JP 2000077864 A JP2000077864 A JP 2000077864A JP 2000077864 A JP2000077864 A JP 2000077864A JP 2001265364 A JP2001265364 A JP 2001265364A
Authority
JP
Japan
Prior art keywords
voice
stored
sound
predetermined
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2000077864A
Other languages
Japanese (ja)
Inventor
Junji Kuwabara
淳司 桑原
Manabu Hoshino
学 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2000077864A priority Critical patent/JP2001265364A/en
Publication of JP2001265364A publication Critical patent/JP2001265364A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound processor which gives unexpectedness and makes a user more feel keeping company with a living body. SOLUTION: The sound inputted from a sound input means 4 is automatically taken in and stored in a storage means 3. Relation is set to the sound data stored in the storage means 3. A control means 1 selects at least one sound out of sounds stored in the storage means 3 and makes a sound output means 7 to output it, so that a continuous pronunciation sound of the automatically taken-in sound and related sound is enjoyed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声を記憶し、記
憶した音声を出力させる音声処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice processing device for storing voice and outputting the stored voice.

【0002】[0002]

【従来の技術】本発明者らは、たとえば電子玩具または
パーソナルコンピュータ上のキャラクタに応用でき、入
力した音声を音声で返しながら登録する音声処理装置
(音声認識および音声発生装置)を既に出願した(特願
平09−262557号)。この音声処理装置は、入力
された音声を任意に記憶し、この任意に記憶した音声を
任意に発声することができる。したがって、使用者に意
外性と面白みを与えることができる。
2. Description of the Related Art The present inventors have already applied for a speech processing apparatus (speech recognition and speech generation apparatus) which can be applied to, for example, a character on an electronic toy or a personal computer, and registers input speech while returning it as speech. Japanese Patent Application No. 09-262557). The voice processing device can arbitrarily store the input voice, and can arbitrarily utter the stored voice. Therefore, it is possible to provide the user with unexpectedness and fun.

【0003】[0003]

【発明が解決しようとする課題】しかし、この従来の音
声処理装置では、なお発声される音声の種類に乏しく、
たとえば周囲が静かな状態にある場合などにおいて、か
えって面白みに欠ける場合もあった。
However, in this conventional voice processing apparatus, the types of voices uttered are still poor.
For example, in a case where the surroundings are in a quiet state, there are cases where it is rather uninteresting.

【0004】本発明は、このような事情に鑑みてなされ
たものであり、その目的は、意外性があり、より生き物
を相手している感覚が得られやすい音声処理装置を提供
することにある。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a voice processing apparatus which is surprising and makes it easier to obtain a sense of being opposed to a living thing. .

【0005】[0005]

【課題を解決するための手段】上述した従来技術の問題
点を解決し、上記目的を達成するために、本発明に係る
音声処理装置は、音声出力手段と、音声を記憶する記憶
手段と、第1の動作状態において、上記記憶手段に記憶
された音声のうちの少なくとも1つの音声をランダムに
生成された信号に基づいて選択し、上記音声出力手段に
出力させる制御手段とを有している。
In order to solve the above-mentioned problems of the prior art and to achieve the above object, an audio processing apparatus according to the present invention comprises: an audio output unit; a storage unit for storing audio; A control means for selecting at least one of the sounds stored in the storage means based on a randomly generated signal in the first operation state, and outputting the selected sound to the sound output means. .

【0006】本発明では、乱数生成手段を含み、上記第
1の動作状態において、上記記憶手段に記憶された音声
のうちの少なくとも1つの音声を上記乱数生成手段に生
成された信号に基づいて選択し、上記音声出力手段に出
力させている。本発明では、乱数生成手段と、上記第1
の動作状態において、上記記憶手段に記憶された音声の
うちの所定数の音声を上記乱数生成手段の生成する乱数
に基づいてランダムに選択し、所定の順序で上記音声出
力手段に出力させる少なくとも1つの音声選択手段とを
含み、上記第1の動作状態において、上記音声選択手段
の1つを上記乱数に基づいてランダムに選択している。
本発明では、上記記憶手段に記憶された2つの音声の関
連付け設定し、当該関連付けを上記記憶手段に記憶し、
上記音声選択手段は、上記記憶手段に記憶されている関
連付けのうちの所定数を上記乱数に基づいてランダムに
選択し、選択された当該関連付けにおいて設定された音
声を、所定の順序で上記音声出力手段に出力させる音声
選択手段を含んでいる。
In the present invention, a random number generating means is included, and in the first operating state, at least one of the voices stored in the storage means is selected based on a signal generated by the random number generating means. Then, the sound is output to the audio output means. In the present invention, the random number generation means and the first
In the operation state, at least one of a predetermined number of voices among the voices stored in the storage means is randomly selected based on the random number generated by the random number generation means, and is output to the voice output means in a predetermined order. And one voice selecting means is randomly selected based on the random number in the first operation state.
In the present invention, an association between two voices stored in the storage unit is set, and the association is stored in the storage unit.
The voice selecting means randomly selects a predetermined number of the associations stored in the storage means based on the random number, and outputs the voices set in the selected associations in a predetermined order. And means for selecting sound to be output by the means.

【0007】本発明では上記音声選択手段は、上記記憶
手段に名称として記憶された音声のうちの1つと、上記
記憶手段に記憶された他の音声のうちの所定数の音声を
上記乱数に基づいてランダムに選択し、上記名称として
記憶された音声を第1番目とする所定の順序で上記音声
出力手段に出力させる音声選択手段を含んでいる。
In the present invention, the voice selecting means determines one of the voices stored as names in the storage means and a predetermined number of voices among the other voices stored in the storage means based on the random number. And a voice selecting means for outputting the voice stored in the name as the first voice to the voice output means in a predetermined order.

【0008】本発明では、上記制御手段は、第2の動作
状態において、上記音入力手段から入力された音を所定
の時間上記記憶手段に記憶させ、上記音声選択手段は、
上記第2の動作状態において記憶された音のうちの所定
数の音を上記乱数に基づいてランダムに選択し、所定の
順序で上記音声出力手段に出力させる音声選択手段とを
含んでいる。
In the present invention, in the second operation state, the control means stores the sound input from the sound input means in the storage means for a predetermined time, and the sound selection means
Voice selecting means for randomly selecting a predetermined number of sounds among the sounds stored in the second operation state based on the random numbers and outputting the selected sounds to the voice output means in a predetermined order.

【0009】本発明では、上記制御手段は、第2の動作
状態において、上記音入力手段から入力された音を所定
の時間上記記憶手段に記憶させる処理を、所定の時間間
隔で、上記乱数に基づいたランダムな回数実行してい
る。
In the present invention, in the second operating state, the control means stores the sound input from the sound input means in the storage means for a predetermined time at a predetermined time interval. Based on a random number of runs.

【0010】本発明では、上記制御手段は、上記音声選
択手段で選択した音声を上記音声出力手段に出力させる
回数を、上記乱数に基づいてランダムに設定している。
In the present invention, the control means randomly sets the number of times the sound selected by the sound selection means is output to the sound output means based on the random number.

【0011】本発明では、上記制御手段は、第3の動作
状態において、上記音入力手段から入力された音に基づ
いて音声を認識し、当該音声と上記記憶手段に記憶され
た音声を照合し、当該照合の結果に基づいて、当該認識
された音声を上記記憶手段に記憶させ、上記記憶手段に
記憶された音声を上記音声出力手段に出力させている。
本発明では、上記制御手段は、複数の動作状態を上記乱
数に基づいてランダムに選択している。
In the present invention, in the third operation state, the control means recognizes a voice based on the sound input from the sound input means, and compares the voice with the voice stored in the storage means. Based on the result of the collation, the recognized voice is stored in the storage unit, and the voice stored in the storage unit is output to the voice output unit.
In the present invention, the control means randomly selects a plurality of operation states based on the random numbers.

【0012】本発明の上記の構成によれば、本発明の音
声処理装置は第1の動作状態、第2の動作状態および第
3の動作状態を有し、当該動作状態を含む複数の動作状
態が上記乱数に基づいてランダムに選択される。上記第
1の動作状態において、上記音声選択手段の1つが上記
乱数に基づいてランダムに選択される。そして、選択さ
れた上記音声選択手段によって、上記記憶手段に記憶さ
れた音声のうちの所定数の音声が上記乱数生成手段の生
成する乱数に基づいてランダムに選択され、所定の順序
で上記音声出力手段に出力される。上記音声選択手段
は、好適には、上記記憶手段に記憶されている関連付け
のうちの所定数を上記乱数に基づいてランダムに選択さ
せ、選択させた当該関連付けにおいて設定された音声
を、所定の順序で上記音声出力手段に出力させている。
また、上記音声選択手段は、上記記憶手段に名称として
記憶された音声のうちの1つと、上記記憶手段に記憶さ
れた他の音声のうちの所定数の音声を上記乱数に基づい
てランダムに選択させ、上記名称として記憶された音声
を第1番目とする所定の順序で上記音声出力手段に出力
させている。上記第2の動作状態において、上記音入力
手段から入力された音は所定の時間上記記憶手段に記憶
されている。当該音は、上記第1の動作状態において、
上記音声選択手段により所定数を上記乱数に基づいてラ
ンダムに選択され、所定の順序で上記音声出力手段に出
力される。上記第3の動作状態において、上記音入力手
段から入力された音に基づいて音声が認識され、当該音
声と上記記憶手段に記憶された音声が照合される。当該
照合の結果に基づいて、当該認識された音声が上記記憶
手段に記憶される。そして、上記記憶手段に記憶された
音声が上記音声出力手段に出力されれる。
According to the above configuration of the present invention, the voice processing apparatus of the present invention has a first operating state, a second operating state, and a third operating state, and includes a plurality of operating states including the operating state. Is randomly selected based on the random numbers. In the first operation state, one of the voice selecting means is randomly selected based on the random number. Then, a predetermined number of voices among the voices stored in the storage means are randomly selected by the selected voice selection means based on a random number generated by the random number generation means, and the voice output is performed in a predetermined order. Output to the means. Preferably, the voice selecting means preferably causes a predetermined number of associations stored in the storage means to be randomly selected based on the random number, and outputs the voices set in the selected association in a predetermined order. Is output to the audio output means.
Further, the voice selecting means randomly selects one of the voices stored as names in the storage means and a predetermined number of voices among other voices stored in the storage means based on the random number. Then, the sound stored as the name is output to the sound output means in a predetermined order of the first sound. In the second operation state, the sound input from the sound input means has been stored in the storage means for a predetermined time. The sound is in the first operating state,
A predetermined number is randomly selected by the voice selection means based on the random numbers, and is output to the voice output means in a predetermined order. In the third operation state, a voice is recognized based on the sound input from the sound input unit, and the voice is compared with the voice stored in the storage unit. Based on the result of the collation, the recognized voice is stored in the storage unit. Then, the sound stored in the storage means is output to the sound output means.

【0013】本発明では、認識された音声と記憶された
音声の所定の特徴を照合する音声処理装置として、音声
を記憶する記憶手段と、前後に行われた上記照合におい
て上記認識された音声と上記記憶された音声とが上記所
定の特徴を共有し、かつ上記記憶された音声が前後で異
なる場合、前後の当該記憶された音声と上記所定の特徴
を共有している音声をさらに交互に所定時間内にm回
(m:所定の自然数)認識することを条件として、2つ
の当該記憶された音声の関連付けを上記記憶手段に記憶
させる制御手段とを有している。
According to the present invention, as a voice processing device for verifying a predetermined feature of the recognized voice and the stored voice, a storage means for storing the voice; When the stored voice shares the predetermined feature and the stored voice is different before and after, the stored voice before and after the voice and the voice sharing the predetermined feature are further alternately predetermined. And a control unit for storing the association between the two stored voices in the storage unit on condition that the recognition is performed m times (m: a predetermined natural number) in time.

【0014】本発明では、音声を出力する音声出力手段
を有し、上記制御手段は、上記照合において上記認識さ
れた音声に対し上記所定の特徴を共有する上記記憶され
た音声が有する関連付けの1つを選択して、当該関連付
けに示された音声を上記出力手段に出力させた場合、当
該記憶された音声と当該関連付けに示された音声との関
連付けの度合いを示すパラメータであって、当該記憶さ
れた音声と当該関連付けに示された音声にそれぞれ付属
する対語関連度パラメータをそれぞれ増加させて上記記
憶手段に記憶させている。
According to the present invention, there is provided a voice output means for outputting a voice, wherein the control means includes one of the associations of the stored voice sharing the predetermined feature with the voice recognized in the collation. One of the parameters, the parameter indicating the degree of association between the stored voice and the voice indicated by the association, when the voice indicated by the association is output to the output unit, The logarithmic relevance parameters attached to the generated voice and the voice indicated in the association are respectively increased and stored in the storage means.

【0015】本発明では、上記制御手段は、所定の時間
を経過する毎に上記対語関連度パラメータを所定量だけ
減少させている。
[0015] In the present invention, the control means decreases the word relevance parameter by a predetermined amount every time a predetermined time elapses.

【0016】本発明の上記の構成によれば、前後に行わ
れた上記照合において、上記認識された音声と上記記憶
された音声とが上記所定の特徴を共有し、かつ上記記憶
された音声が前後で異なる場合に、前後の当該記憶され
た音声と上記所定の特徴を共有している音声をさらに交
互に所定時間内にm回(m:所定の自然数)認識させる
ことによって、前後の当該記憶された音声が関連付けら
れる。対語関連度パラメータは、上記照合において、上
記認識された音声と所定の特徴を共有する上記記憶され
た音声が有する関連付けの1つを選択され、当該関連付
けに示された音声を上記出力手段に出力された場合に増
加される。このとき、当該記憶された音声および当該出
力された音声の対語関連度パラメータがそれぞれ増加さ
れる。好適には、上記対語関連度パラメータは、所定の
時間を経過する毎に所定量だけ減少される。
According to the above configuration of the present invention, in the collation performed before and after, the recognized voice and the stored voice share the predetermined characteristic, and the stored voice is In the case where the sound is different between before and after, the stored sound before and after and the sound sharing the above-mentioned predetermined feature are further alternately recognized m times (m: a predetermined natural number) within a predetermined time, so that the memory before and after is stored. The associated voice is associated. In the collation, one of the associations of the stored speech that shares a predetermined characteristic with the recognized speech is selected, and the speech indicated by the association is output to the output unit. It will be increased if it is done. At this time, the word relevance parameters of the stored voice and the output voice are respectively increased. Preferably, the word relevance parameter is decreased by a predetermined amount each time a predetermined time elapses.

【0017】本発明では、認識された音声と記憶された
音声の所定の特徴を照合する音声処理装置として、音声
を記憶する記憶手段と、上記認識された音声と上記記憶
された音声とが上記所定の特徴を共有している場合に、
当該記憶された音声の記憶保持に関する記憶度パラメー
タを増加させ、当該記憶されている音声と当該認識され
た音声を、上記記憶度パラメータの大きさに応じて置き
換えて上記記憶手段に記憶させる制御手段とを有してい
る。
According to the present invention, as a voice processing device for collating a predetermined feature between the recognized voice and the stored voice, a storage means for storing voice, and the recognized voice and the stored voice are stored in the memory. If you share certain features,
Control means for increasing a storage degree parameter relating to storage and holding of the stored voice, and replacing the stored voice and the recognized voice in the storage means in accordance with the magnitude of the storage degree parameter And

【0018】本発明では、上記制御手段は、上記記憶さ
れた音声の数が所定数に達している場合に、上記記憶手
段に記憶されている音声と上記認識された音声を上記記
憶度パラメータの大きさに応じて置き換えて上記記憶手
段に記憶させている。
In the present invention, when the number of the stored voices reaches a predetermined number, the control means compares the voice stored in the storage means and the recognized voice with the storage degree parameter. The information is replaced in accordance with the size and stored in the storage means.

【0019】本発明では、上記制御手段は、上記記憶手
段に記憶された音声の数が上記所定数に達している場合
に、上記記憶手段に記憶された音声のうち上記記憶度パ
ラメータが最小の音声と上記認識された音声を置き換え
て上記記憶手段に記憶させている。
In the present invention, when the number of voices stored in the storage unit has reached the predetermined number, the control unit determines that the memory parameter of the voice stored in the storage unit is the minimum. The voice and the recognized voice are replaced and stored in the storage unit.

【0020】本発明では、上記制御手段は、乱数を生成
する乱数生成手段を含み、上記の記憶度パラメータの増
加量を上記乱数生成手段の生成する乱数に基づいてラン
ダムに変化させている。
In the present invention, the control means includes a random number generating means for generating a random number, and the amount of increase of the memory parameter is changed randomly based on the random number generated by the random number generating means.

【0021】本発明では、上記制御手段は、所定の時間
を経過する毎に上記記憶度パラメータを所定量だけ減少
させている。
In the present invention, the control means reduces the storage parameter by a predetermined amount every time a predetermined time elapses.

【0022】本発明の上記の構成によれば、音声を認識
させた場合に、記憶された音声と認識させた当該音声が
照合され、上記認識された音声と上記記憶された音声が
所定の特徴を共有している場合、上記記憶度パラメータ
が増加される。そして、上記記憶された音声が所定数に
達している場合に上記記憶された音声のうち上記記憶度
パラメータが最小の音声と上記認識された音声を置き換
えて、上記記憶手段に記憶させる。好適には、上記記憶
度パラメータの増加量は、上記乱数生成手段の生成する
乱数に基づいてランダムに変化さる。また、上記記憶度
パラメータは所定の時間を経過する毎に所定量だけ減少
される。
According to the above configuration of the present invention, when a voice is recognized, the stored voice is collated with the recognized voice, and the recognized voice and the stored voice are compared with each other with a predetermined characteristic. Is shared, the memory parameter is increased. Then, when the number of stored voices reaches a predetermined number, the stored voice is replaced with a voice having the smallest storage parameter and the recognized voice, and stored in the storage unit. Preferably, the increase amount of the memory parameter changes randomly based on a random number generated by the random number generation unit. The storage parameter is reduced by a predetermined amount every time a predetermined time elapses.

【0023】本発明では、上記制御手段は、上記音入力
手段から入力された音に基づいて認識された音声と上記
記憶手段に記憶された音声の所定の特徴を照合し、当該
照合の結果に基づいて当該音声を上記記憶手段に記憶ま
たは登録させ、当該記憶された音声のうちの登録された
音声を上記音声出力手段に出力させる。
In the present invention, the control means collates a voice recognized based on the sound input from the sound input means with a predetermined feature of the voice stored in the storage means, and determines a result of the collation. Based on the stored voice, the voice is stored or registered in the storage unit, and the voice registered among the stored voices is output to the voice output unit.

【0024】本発明の上記の構成によれば、上記第3の
動作状態において、上記音入力手段から入力された音に
基づいて音声が認識され、当該認識された音声と上記記
憶手段に記憶された音声の所定の特徴が照合される。そ
して、当該照合結果に基づいて、当該音声を上記記憶手
段に記憶または登録させる。音入力手段から入力され、
上記記憶手段に記憶された音声のうちの登録された音声
は、上記音声出力手段から出力される。
According to the configuration of the present invention, in the third operation state, a voice is recognized based on the sound input from the sound input means, and the recognized voice is stored in the storage means. A predetermined feature of the sound is compared. Then, based on the matching result, the voice is stored or registered in the storage unit. Input from the sound input means,
The registered voice of the voices stored in the storage means is output from the voice output means.

【0025】本発明では、上記制御手段は、上記認識さ
れた音声と上記記憶手段に記憶され、かつ登録された音
声とが所定の特徴を共有していないことを条件に、当該
認識された音声を上記記憶手段に記憶させている。
[0025] In the present invention, the control means may control the recognized voice on condition that the recognized voice and the registered voice stored in the storage means do not share a predetermined characteristic. Is stored in the storage means.

【0026】本発明では、上記制御手段は、上記認識さ
れた音声と上記記憶手段に記憶され、かつ登録された音
声とが所定の特徴を共有していない場合に、音声の上記
認識を所定の回数行うことを条件に、当該認識された音
声を上記記憶手段に記憶させている。
In the present invention, when the recognized voice and the registered voice stored in the storage unit do not share predetermined characteristics, the control unit performs the predetermined voice recognition. The recognized voice is stored in the storage means on condition that the number of times is performed.

【0027】本発明では、上記制御手段は、上記認識さ
れた音声と上記記憶手段に記憶され、かつ登録された音
声とが所定の特徴を共有していない場合に、上記認識さ
れた音声と上記登録された音声の所定の特徴を所定の回
数照合し、かつ、当該照合において上記認識された音声
と上記登録された音声とが所定の特徴を共有していない
ことを条件に、当該認識された音声を上記記憶手段に記
憶させている。
[0027] In the present invention, when the recognized voice and the registered voice stored in the storage unit do not share a predetermined feature, the control unit controls the recognized voice and the recognized voice. A predetermined feature of the registered voice is collated a predetermined number of times, and the recognized voice and the registered voice in the collation do not share a predetermined feature. The voice is stored in the storage means.

【0028】本発明では、上記制御手段は、上記認識さ
れた音声と上記記憶手段に記憶され、かつ登録された音
声とが所定の特徴を共有していない場合に、所定時間内
に連続して認識された2つの音声の所定の特徴を所定の
回数照合し、かつ、当該照合において上記認識された音
声が互いに所定の特徴を共有していることを条件に、当
該認識された音声を上記記憶手段に記憶させている。
In the present invention, when the recognized voice and the registered voice stored in the storage unit do not share a predetermined characteristic, the control unit continuously performs the control within a predetermined time. A predetermined feature of the two recognized voices is collated a predetermined number of times, and the recognized voice is stored in the memory under the condition that the voices recognized in the collation share a predetermined feature with each other. It is stored in the means.

【0029】本発明の上記の構成によれば、所定の条件
のもとで上記認識された音声を上記記憶手段に記憶させ
る。1つの条件として、上記認識された音声と上記登録
された音声とが所定の特徴を共有していないことがあ
る。また、他の条件として、音声の上記認識を所定の回
数行うことがある。また、他の条件として、上記認識さ
れた音声と上記登録された音声の所定の特徴を所定の回
数照合し、かつ、当該照合において上記認識された音声
と上記登録された音声とが所定の特徴を共有していない
ことがある。また、他の条件として、所定時間内に連続
して認識された2つの音声の所定の特徴を所定の回数照
合し、かつ、当該照合において上記認識された音声が互
いに所定の特徴を共有していることがある。
According to the above configuration of the present invention, the recognized voice is stored in the storage means under a predetermined condition. One condition is that the recognized voice and the registered voice do not share predetermined characteristics. As another condition, the above-mentioned recognition of voice may be performed a predetermined number of times. Further, as another condition, a predetermined feature of the recognized voice and the registered voice is collated a predetermined number of times, and the recognized voice and the registered voice in the collation are a predetermined feature. May not share. Further, as another condition, a predetermined feature of two voices continuously recognized within a predetermined time is collated a predetermined number of times, and the voices recognized in the collation share a predetermined feature with each other. May be.

【0030】本発明では、上記制御手段は、上記認識さ
れた音声と上記記憶手段に記憶され、かつ登録されてい
ない音声とが所定の特徴を共有している場合に、当該登
録されていない音声を上記記憶手段に登録させている。
In the present invention, when the recognized voice and the unregistered voice stored in the storage unit share a predetermined feature, the control unit determines that the unregistered voice is unregistered. Is registered in the storage means.

【0031】本発明では、上記制御手段は、自然数の乱
数nを生成する乱数生成手段を含み、上記認識された音
声と上記記憶手段に記憶され、かつ登録されていない音
声とが所定の特徴を共有している場合に、音声の上記認
識をn回行うことを条件に、当該登録されていない音声
を上記記憶手段に登録させている。
In the present invention, the control means includes a random number generation means for generating a natural number random number n, wherein the recognized voice and the voice stored in the storage means and not registered have predetermined characteristics. In the case of sharing, the unregistered voice is registered in the storage means on condition that the recognition of the voice is performed n times.

【0032】本発明では、上記制御手段は、自然数の乱
数nを生成する乱数生成手段を含み、上記認識された音
声と上記記憶手段に記憶され、かつ登録されていない音
声とが所定の特徴を共有している場合に、上記認識され
た音声と上記登録されていない音声の所定の特徴をn回
照合し、かつ、当該照合において上記認識された音声と
上記登録されていない音声とが所定の特徴を共有してい
ることを条件に、当該登録されていない音声を上記記憶
手段に登録している。
In the present invention, the control means includes a random number generation means for generating a natural number random number n, wherein the recognized voice and the voice stored in the storage means and not registered have predetermined characteristics. When sharing, the predetermined feature of the recognized voice and the non-registered voice are collated n times, and the recognized voice and the unregistered voice in the verification are compared with a predetermined feature. The unregistered voice is registered in the storage means on condition that the feature is shared.

【0033】本発明では、上記制御手段は、自然数の乱
数nを生成する乱数生成手段を含み、上記認識された音
声と上記記憶手段に記憶され、かつ登録されていない音
声とが所定の特徴を共有している場合に、所定時間内に
連続して認識された音声の所定の特徴を所定の回数照合
し、かつ、当該照合において上記認識された音声が互い
に所定の特徴を共有していることを条件に、当該登録さ
れていない音声を上記記憶手段に登録している。
In the present invention, the control means includes a random number generating means for generating a natural number random number n, and the recognized voice and the voice stored in the storage means and not registered have predetermined characteristics. When sharing, a predetermined feature of voices continuously recognized within a predetermined time is collated a predetermined number of times, and the voices recognized in the collation share predetermined characteristics with each other. , The unregistered voice is registered in the storage means.

【0034】本発明の上記の構成によれば、所定の条件
のもとで上記登録さていない音声を上記記憶手段に登録
させる。1つの条件として、上記認識された音声と上記
登録されていない音声とが所定の特徴を共有しているこ
とがある。また、他の条件として、音声の上記認識を所
定の回数行うことがある。また、他の条件として、上記
認識された音声と上記登録されていない音声の所定の特
徴を所定の回数照合し、かつ、当該照合において上記認
識された音声と上記登録されていない音声とが所定の特
徴を共有していることがある。また、他の条件として、
所定時間内に連続して認識された2つの音声の所定の特
徴を所定の回数照合し、かつ、当該照合において上記認
識された音声が互いに所定の特徴を共有していることが
ある。
According to the above configuration of the present invention, the unregistered voice is registered in the storage means under a predetermined condition. One condition is that the recognized voice and the unregistered voice share predetermined characteristics. As another condition, the above-mentioned recognition of voice may be performed a predetermined number of times. Further, as another condition, predetermined characteristics of the recognized voice and the unregistered voice are collated a predetermined number of times, and the recognized voice and the unregistered voice in the collation are determined by a predetermined number. Features may be shared. Also, as other conditions,
There is a case where predetermined characteristics of two voices continuously recognized within a predetermined time are collated a predetermined number of times, and the voices recognized in the collation share predetermined characteristics with each other.

【0035】[0035]

【発明の実施の形態】以下、本発明の音声処理装置の実
施形態を、本発明を電子ペット玩具に適用した場合を例
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of a voice processing apparatus according to the present invention will be described with reference to an example in which the present invention is applied to an electronic pet toy.

【0036】図1は、本発明の音声処理装置の実施形態
に係る玩具の外観を示す図である。図1においてM1〜
M8は擬似生物をかたどった玩具の体の各部を示してお
り、M1は頭部ボタンを、M2およびM3は耳を、M4
は右手を、M5は左手を、M6は右足を、M7は左足
を、M8は本体をそれぞれ示している。
FIG. 1 is a diagram showing the appearance of a toy according to an embodiment of the voice processing device of the present invention. In FIG.
M8 indicates each part of the body of the toy in the form of a simulated creature, M1 indicates a head button, M2 and M3 indicate ears, and M4 indicates an ear.
Indicates a right hand, M5 indicates a left hand, M6 indicates a right foot, M7 indicates a left foot, and M8 indicates a main body.

【0037】頭部ボタンM1は本発明における起動およ
び就寝を制御するボタンであり、内部に後述する頭部ス
イッチを内蔵させている。使用者が頭部ボタンM1を押
し下げることによって、後述する頭部スイッチをONに
させることができる。耳M2およびM3は、内部に後述
するマイク(音入力手段)を内蔵させており、玩具に認
識される音声はここにから玩具に取り込まれる。右手M
4は、内部に後述する磁石を内蔵させており、左手M5
は、内部に後述するリードスイッチを内蔵させている。
左手に磁石が接近してリードスイッチが導通すると、後
述するコミュニケーションスイッチがONにされる。ま
た右手M4および左手M5は矢印aおよび矢印bの方向
へ上下に動かすことができ、右手M4および左手M5の
上げ下ろし動作に応じて後述するアラームスイッチがO
Nにされる。右足M6および左足M7は本体M8の側面
に配設されて玩具が水平面上に直立できるように本体M
8を支持している。本体M8は玩具を動作させるための
電池や、後述する時計動作機構、スピーカ、制御回路等
を含む基板を内蔵している。
The head button M1 is a button for controlling activation and sleeping in the present invention, and incorporates a head switch described later inside. When the user depresses the head button M1, a head switch described later can be turned on. The ears M2 and M3 have a built-in microphone (sound input means) described later, and the voice recognized by the toy is taken into the toy from here. Right hand M
Reference numeral 4 has a magnet built therein, which will be described later.
Has a built-in reed switch described below.
When the magnet approaches the left hand and the reed switch conducts, the communication switch described later is turned on. Further, the right hand M4 and the left hand M5 can be moved up and down in the directions of arrows a and b.
N. The right foot M6 and the left foot M7 are disposed on the side of the main body M8 so that the toy can stand upright on a horizontal plane.
8 is supported. The main body M8 includes a battery for operating the toy, and a board including a clock operation mechanism, a speaker, a control circuit, and the like to be described later.

【0038】図2は、本発明の音声処理装置の実施形態
に係る玩具の構成を示す図である。図2において、1は
制御回路(登録手段)を、2はROMを(通知音記憶手
段)、3はFLASH ROM(記憶手段および一時記
憶手段)を、4はマイク(音入力手段)を、5は音程変
換回路を、6は音声増幅回路を、7はスピーカ(音声出
力手段)を、8は頭部スイッチを、9はコミュニケーシ
ョンスイッチを、10はアラームスイッチを、11はリ
セットスイッチを、12は時計動作機構をそれぞれ示し
ている。
FIG. 2 is a diagram showing a configuration of a toy according to an embodiment of the voice processing device of the present invention. In FIG. 2, 1 is a control circuit (registering means), 2 is a ROM (notification sound storage means), 3 is a FLASH ROM (storage means and temporary storage means), 4 is a microphone (sound input means), and 5 is a microphone. Is a pitch conversion circuit, 6 is an audio amplifier circuit, 7 is a speaker (audio output means), 8 is a head switch, 9 is a communication switch, 10 is an alarm switch, 11 is a reset switch, and 12 is a reset switch. Each shows a clock operation mechanism.

【0039】制御回路1は、マイク4から出力されたア
ナログの音声信号をデジタルの音声データに変換してF
LASH ROM3に記録させるとともに、ROM2お
よびFLASH ROM3に記録された音声データをア
ナログの音声信号S3に変換して音程変換回路5に出力
する。また、制御信号S4によって音程変換回路の出力
する音声信号の音程を制御する。また、時計動作機構1
2による制御信号S1によって後述するアラームモード
の警報動作が開始され、パルス信号S2によって時間の
計測が行われる。さらに、頭部スイッチ8、コミュニケ
ーションスイッチ9、アラームスイッチ10、リセット
スイッチ11による各制御信号に応じて音声の記録や音
声の出力を行う。制御回路1の動作は、ROM2から読
み出されるプログラムに基づいて実行される。
The control circuit 1 converts the analog audio signal output from the microphone 4 into digital audio data and
The audio data recorded on the ROM 2 and the FLASH ROM 3 are converted into an analog audio signal S 3 and output to the pitch conversion circuit 5. Further, the pitch of the audio signal output from the pitch conversion circuit is controlled by the control signal S4. Clock operation mechanism 1
The alarm operation in the alarm mode, which will be described later, is started by the control signal S1 by the control signal 2 and the time is measured by the pulse signal S2. In addition, voice recording and voice output are performed in accordance with control signals from the head switch 8, the communication switch 9, the alarm switch 10, and the reset switch 11. The operation of the control circuit 1 is executed based on a program read from the ROM 2.

【0040】ROM2は、玩具に発声させる各音声デー
タおよび制御回路1のプログラムがデータとして記録さ
れており、制御回路1によって指定されたアドレスのデ
ータを制御回路1に出力する。FLASH ROM3
は、制御回路1から出力された音声データを含む各種の
データを制御回路の指定する所定のアドレスに記録する
とともに、制御回路1の指定する所定のアドレスのデー
タを制御回路1に出力する。マイク4は音声信号を制御
回路1に出力する。音程変換回路5は、制御回路1の出
力する音声信号S3の音程を制御信号S3に基づいて変
換した信号を音声増幅回路6に出力する。音声増幅回路
6は、音程変換回路5の出力する信号を増幅して、スピ
ーカ7に出力する。スピーカ7は、音声増幅回路6の出
力する音声信号を音声に変換して出力する。頭部スイッ
チ8、コミュニケーションスイッチ9、アラームスイッ
チ10は、いずれも後述する玩具の動作モードを制御す
る信号を制御回路1に出力する。リセットスイッチ11
は、玩具に記憶させた音声や玩具の動作を制御する各パ
ラメータの値をすべてリセットし、玩具の動作モードを
初期状態に設定する。時計動作機構は、アラーム動作の
開始と停止を制御する信号S1を制御回路1に出力する
とともに、一定の周期のパルス信号S2を時間計測用の
パルス信号として制御回路1に出力している。
The ROM 2 stores voice data to be uttered by the toy and a program of the control circuit 1 as data, and outputs data at an address designated by the control circuit 1 to the control circuit 1. FLASH ROM3
Records various data including audio data output from the control circuit 1 at a predetermined address specified by the control circuit, and outputs data at a predetermined address specified by the control circuit 1 to the control circuit 1. The microphone 4 outputs an audio signal to the control circuit 1. The pitch conversion circuit 5 outputs a signal obtained by converting the pitch of the audio signal S3 output from the control circuit 1 based on the control signal S3 to the audio amplification circuit 6. The audio amplification circuit 6 amplifies the signal output from the pitch conversion circuit 5 and outputs the amplified signal to the speaker 7. The speaker 7 converts an audio signal output from the audio amplification circuit 6 into audio and outputs the audio. The head switch 8, the communication switch 9, and the alarm switch 10 all output a signal for controlling an operation mode of a toy described later to the control circuit 1. Reset switch 11
Resets all the voices stored in the toy and the values of each parameter for controlling the operation of the toy, and sets the operation mode of the toy to an initial state. The clock operation mechanism outputs a signal S1 for controlling start and stop of the alarm operation to the control circuit 1, and outputs a pulse signal S2 having a constant cycle to the control circuit 1 as a pulse signal for time measurement.

【0041】次に、上述した構成を有する玩具の動作を
説明する。
Next, the operation of the toy having the above configuration will be described.

【0042】図3は、本発明の実施形態に係る玩具の初
回起動時の動作に係る動作モードを示す図である。図3
において、M0は初起動モードをMは通常モードをそれ
ぞれ示している。また、I0〜I2は各モードにおけるモー
ドの遷移をそれぞれ示している。
FIG. 3 is a diagram showing an operation mode related to the operation at the time of the first activation of the toy according to the embodiment of the present invention. FIG.
In the table, M0 indicates an initial startup mode, and M indicates a normal mode. Also, I0 to I2 indicate the mode transition in each mode.

【0043】初起動モードM0は、初めて電池が挿入さ
れた状態もしくはリセットスイッチ11がONされた状
態における動作モードである。この初起動モードでは、
玩具自身の名前(以下、ペット名という)および玩具の
使用者の名前(以下、飼い主名という)を、玩具に登録
させる動作が実行される。通常モードMは、後述する玩
具の通常の動作が行なわれるモードである。
The initial start mode M0 is an operation mode in a state where a battery is inserted for the first time or a state where the reset switch 11 is turned on. In this first boot mode,
The operation of registering the name of the toy itself (hereinafter referred to as a pet name) and the name of the user of the toy (hereinafter referred to as an owner name) to the toy is performed. The normal mode M is a mode in which a normal operation of the toy described later is performed.

【0044】玩具に初めて電池が挿入されたとき、玩具
の動作状態は初起動モードM0になる。本モードの初期
では、後述するパラメータは全て初期状態になってお
り、また、後述する登録ワードも全て消去されている。
本モードにおいて上述したペット名および飼い主名を玩
具に登録させる処理が行なわれ、この登録が完了したと
き、動作モードは遷移I2により通常モードMに移行さ
れる。モードが通常モードに移行すると、後述する通常
モードMの動作が実行される。通常モードMにおいてリ
セットスイッチ11の状態は常に監視されており、この
リセットスイッチ11がONされると、動作モードは遷
移I1によって直ちに初起動モードM0に移行される。
このとき、後述する各パラメータや登録ワードは全て失
われる。なお、遷移I0は電池の交換等による内部回路
への電源供給の一時的な停止によるモードの遷移を表し
ている。通常モードMにおいて電池の交換等により電源
供給が停止されても、再び電源の供給が開始された場
合、動作モードは通常モードMのままで変わらない。す
なわち、後述するパラメータや登録ワードはFLASH
ROM3に保持される。初起動モードM0において
も、遷移I0によるモードの移行は発生しない。
When the battery is inserted into the toy for the first time, the operating state of the toy is the initial activation mode M0. At the beginning of this mode, all parameters described later are in the initial state, and all registered words described later are also deleted.
In this mode, the process of registering the pet name and the owner name in the toy is performed. When the registration is completed, the operation mode is shifted to the normal mode M by the transition I2. When the mode shifts to the normal mode, an operation of a normal mode M described later is executed. In the normal mode M, the state of the reset switch 11 is constantly monitored, and when the reset switch 11 is turned on, the operation mode is immediately shifted to the initial startup mode M0 by the transition I1.
At this time, all parameters and registered words described later are lost. The transition I0 indicates a mode transition due to a temporary stop of power supply to the internal circuit due to replacement of a battery or the like. Even if the power supply is stopped in the normal mode M due to battery replacement or the like, if the power supply is started again, the operation mode remains unchanged in the normal mode M. That is, parameters and registration words described later are FLASH
It is stored in the ROM 3. Even in the first activation mode M0, the mode transition by the transition I0 does not occur.

【0045】図4は、通常モードMにおける動作モード
の詳細を示した図である。図4において、M11は起床
モードを、M12は就寝モードを、M13はアラームモ
ードを、M14はコミュニケーションモードをそれぞれ
示している。
FIG. 4 is a diagram showing details of the operation mode in the normal mode M. In FIG. 4, M11 indicates a wake-up mode, M12 indicates a sleeping mode, M13 indicates an alarm mode, and M14 indicates a communication mode.

【0046】起床モードM11は、会話や言葉の学習を
行なう音声認識処理や、記憶した言葉をランダムに発言
するランダム発言処理、マイク4に入力された音を自動
的に記憶する自動音声登録処理などの後述する処理を行
なうモードである。
The wake-up mode M11 includes a voice recognition process for learning conversation and words, a random utterance process for randomly uttering the stored words, an automatic voice registration process for automatically storing the sound input to the microphone 4, and the like. Is a mode for performing the processing described later.

【0047】就寝モードM12は、起床モードM11に
おける会話など動作処理を全て停止させたモードであ
る。
The sleeping mode M12 is a mode in which all operation processes such as conversation in the wake-up mode M11 are stopped.

【0048】アラームモードM13は、使用者があらか
じめ設定した所定の時刻になったときに、登録されてい
る言葉等をアラームとして発声することにより、使用者
に設定時刻がきたことを知らせる音声アラームの動作を
行なうモードである。使用者は、玩具がアラームの音声
を発した後、玩具の記憶している言葉を玩具のマイク4
に向かって話し掛けて言葉を認識させることにより、玩
具に触れることなく時報のアラームを一時的停止させる
ことができる。
The alarm mode M13 is a voice alarm for notifying the user that the set time has come by uttering registered words and the like as an alarm when a predetermined time set in advance by the user is reached. This is the mode in which the operation is performed. After the toy emits an alarm sound, the user inputs the words stored in the toy into the microphone 4 of the toy.
By talking to the user and recognizing the words, the alarm of the time signal can be temporarily stopped without touching the toy.

【0049】コミュニケーションモードM14は、本玩
具同士を近接させた状態で本玩具が記憶している言葉を
互いに発声させるとともに、発声されている音を記憶さ
せるモードである。このような動作によって、玩具同士
があたかも自律的にコミュニケーションを図っているよ
うな印象を使用者に与える。図5は、コミニュケーショ
ンモードM14における玩具の配置を示す俯瞰図であ
る。玩具の左手M5および右手M4の先端には、それぞ
れリードスイッチ91および磁石92が内蔵されてい
る。一方の玩具のリードスイッチ91に他方の玩具の磁
石92が近接してリードスイッチ91が導通しコミニュ
ケーションスイッチ9がONされると、動作モードがコ
ミュニケーションモードM14に移行する。
The communication mode M14 is a mode in which the words stored in the toy are uttered together while the toys are brought close to each other, and the sound being uttered is stored. Such an operation gives the user an impression as if the toys are autonomously communicating. FIG. 5 is an overhead view showing the arrangement of the toys in the communication mode M14. At the tips of the left hand M5 and the right hand M4 of the toy, a reed switch 91 and a magnet 92 are respectively built. When the magnet 92 of the other toy approaches the reed switch 91 of one toy and the reed switch 91 conducts and the communication switch 9 is turned on, the operation mode shifts to the communication mode M14.

【0050】次に、上述した通常モードMにおける各モ
ード間の遷移について説明する。
Next, the transition between the respective modes in the normal mode M will be described.

【0051】初起動モードM0における上述した動作が
完了すると、動作モードは遷移I2で起床モードM11
に移行する。起床モードM0への移行とともに計時が開
始し、動作モードが起床モードにある経過時間が計時さ
れ、経過時間が例えば10分を超えると、遷移I3で動
作モードは就寝モードM12に移行する。
When the above-described operation in the first activation mode M0 is completed, the operation mode is changed to the wake-up mode M11 in transition I2.
Move to Timing starts with the transition to the wake-up mode M0, and the elapsed time when the operation mode is in the wake-up mode is measured. If the elapsed time exceeds, for example, 10 minutes, the operation mode shifts to the sleep mode M12 in transition I3.

【0052】就寝モードM12において、玩具の頭部ボ
タンM1が押されて頭部ボタンM1に内蔵されている頭
部スイッチ8がONされると、動作モードは遷移I4で
起床モードM11に移行する。起床モードM11におい
て、頭部スイッチ8がONされた場合、玩具が何らかの
発声を行っていない状態であれば、動作モードは変化し
ない。この場合、上述した起床モードM11の経過時間
がリセットされて、起床モードM11から就寝モードM
12に移行するまでの時間が10分間延長される。一
方、起床モードM11において、玩具が何らかの発声を
行っている状態で頭部スイッチ8がONされた場合に
は、動作モードは強制的に就寝モードM12へ移行され
る。
In the sleep mode M12, when the head button M1 of the toy is pressed and the head switch 8 incorporated in the head button M1 is turned on, the operation mode shifts to the wake-up mode M11 at transition I4. When the head switch 8 is turned on in the wake-up mode M11, the operation mode does not change if the toy does not emit any sound. In this case, the elapsed time in the wake-up mode M11 described above is reset, and the wake-up mode M11 is changed to the sleep mode M11.
The time to shift to 12 is extended by 10 minutes. On the other hand, in the wake-up mode M11, if the head switch 8 is turned on in a state where the toy is making some sound, the operation mode is forcibly shifted to the sleep mode M12.

【0053】左手M5が図1の矢印aの方向に回転され
てアラームスイッチ10がONされると、起床モードM
11、就寝モードM12およびコミュニケーションモー
ドM14から遷移I5でアラームモードM13に移行す
る。アラームモードM13は、通常モードMにおける他
の3つのモードの中で最も優先されるモードである。右
手M4または左手M5が矢印aと反対の方向に回転され
てアラームスイッチ10がOFFされると、遷移I6で
動作モードは就寝モードM12に移行する。
When the left hand M5 is rotated in the direction of arrow a in FIG. 1 and the alarm switch 10 is turned on, the wake-up mode M
11. A transition from the sleep mode M12 and the communication mode M14 to the alarm mode M13 is made in transition I5. The alarm mode M13 is a mode having the highest priority among the other three modes in the normal mode M. When the right hand M4 or the left hand M5 is rotated in the direction opposite to the arrow a and the alarm switch 10 is turned off, the operation mode shifts to the sleep mode M12 at transition I6.

【0054】リードスイッチ91が導通しコミニュケー
ションスイッチ9がONされると、起床モードM11お
よび就寝モードM12は遷移I7でコミュニケーション
モードM14に移行する。アラームスイッチ10とコミ
ュニケーションスイッチ9が同時にONされている場合
は、アラームスイッチ10によるアラームモードM13
が優先されるため、コミュニケーションモードM14に
は移行しない。
When the reed switch 91 is turned on and the communication switch 9 is turned on, the wake-up mode M11 and the sleeping mode M12 shift to the communication mode M14 at the transition I7. When the alarm switch 10 and the communication switch 9 are simultaneously turned on, the alarm mode M13 by the alarm switch 10 is set.
Does not shift to the communication mode M14.

【0055】以上説明した初起動モードM0および通常
モードMに係る動作モードとは独立に、後述する信頼パ
ラメータに係る3つの動作モードがある。図6は、信頼
パラメータに係る動作モードを示す図である。図6にお
いて、M21は健康モードを、M22は病気モードを、
M23は仮死モードをそれぞれ示している。
There are three operation modes relating to the reliability parameters described later, independently of the operation modes relating to the initial start-up mode M0 and the normal mode M described above. FIG. 6 is a diagram illustrating an operation mode according to the reliability parameter. In FIG. 6, M21 is a health mode, M22 is a disease mode,
M23 indicates the asphyxia mode, respectively.

【0056】初回の電池挿入後およびリセットスイッチ
11がONされた後、信頼パラメータに係るモードは健
康モードM21になっている。後に述べる条件によって
信頼パラメータの値が変動し健康モードM21と病気モ
ードM22の境界を定めるしきい値を超えると、遷移I
9で健康モードM21から病気モードM22に移行す
る。病気モードM21においては、健康モードM21で
処理されていた一部の動作が行なわれなくなったり、玩
具が病気になっているような声を発するなどして、使用
者にあたかも玩具が病気になっているような印象を起こ
させる。玩具に言葉を認識させる等の行為を続けること
によって、玩具の使用者が信頼パラメータを所定のしき
い値内に回復させれば、遷移I11で病気モードM22
から健康モードM21に移行させることができる。逆
に、信頼パラメータが変動して病気モードM22と仮死
モードM23の境界を定めるしきい値を超えると、遷移
I10で病気モードM22から仮死モードM23に移行
する。仮死モードM23においては健康モードM22で
なされていたほとんどの処理が行なわれなくなり、記憶
されていた言葉も全て消去されるほか、後述するパラメ
ータが更新されなくなる。リセットスイッチ11をON
させると、信頼パラメータに係るモードは病気モードM
22および仮死モードM23から遷移I1で健康モード
M21に移行する。
After the first battery insertion and after the reset switch 11 is turned on, the mode relating to the reliability parameter is the health mode M21. When the value of the confidence parameter fluctuates due to a condition described later and exceeds a threshold value that defines the boundary between the health mode M21 and the disease mode M22, the transition I
At 9, the mode is shifted from the health mode M21 to the disease mode M22. In the sick mode M21, a part of the operation processed in the health mode M21 is stopped, or the toy makes a sick voice as if the toy became sick to the user. Make the impression that you are. If the user of the toy recovers the confidence parameter within a predetermined threshold value by continuing the action such as making the toy recognize words, the illness mode M22 is made in transition I11.
To the health mode M21. Conversely, when the confidence parameter fluctuates and exceeds a threshold value that defines the boundary between the illness mode M22 and the asphyxia mode M23, the state shifts from the sickness mode M22 to the asphyxia mode M23 in transition I10. In the asphyxia mode M23, most of the processing performed in the health mode M22 is not performed, all stored words are deleted, and parameters described later are not updated. Turn on reset switch 11
Then, the mode relating to the confidence parameter is sick mode M
22 and a transition to the health mode M21 from the asphyxia mode M23 in transition I1.

【0057】次に、上述した各動作モードにおける具体
的な動作を説明する。
Next, a specific operation in each of the above operation modes will be described.

【0058】図7および図8は、初起動モードM0にお
ける処理を説明するフローチャート図である。図7およ
び図8において、Pa1〜Pa54、PbおよびPcは
ステップを示している。また、図7のと図8のはス
テップの接続関係を示している。
FIGS. 7 and 8 are flow charts for explaining the processing in the initial startup mode M0. 7 and 8, Pa1 to Pa54, Pb and Pc indicate steps. FIG. 7 and FIG. 8 show the connection relation of the steps.

【0059】初起動モードM0における処理では、まず
マイク4から入力された音声データがペット名として登
録される。その場合、誤った音声が登録されてしまわな
いように、使用者に2回おなじ音声を入力させることに
よって登録させたい音声を確認させ、2回の音声データ
の特徴が一致した場合にこれをペット名として登録させ
ている。ペット名の登録に続けて、飼い主名の登録も行
なわれる。この登録手順も、ペット名の登録と同様であ
り、使用者に2回おなじ音声を入力させて、2回の音声
データの特徴が一致した場合にこれを飼い主名として登
録させている。
In the process in the first activation mode M0, first, voice data input from the microphone 4 is registered as a pet name. In that case, to prevent the wrong voice from being registered, the user is asked to input the same voice twice to confirm the voice to be registered. If the characteristics of the voice data match twice, the pet is Registered as first names. Following the registration of the pet name, the owner's name is also registered. This registration procedure is similar to the registration of the pet name. The user is required to input the same voice twice, and when the characteristics of the voice data match twice, the user is registered as the owner name.

【0060】ステップPa1において、初起動モードM
0の処理が開始される。ステップPa2において、初期
起動モードの最初に玩具が音声を発する処理が実行され
る。このステップにおいてはまだ音声データが記録され
ていないので、ROM2にあらかじめ記録されている音
声データから音声が生成される。具体的には、ROM2
に記録されている音声、例えば「ヒヒャハハ」といった
音声のデジタル化されたデータが制御回路1の要求に応
じてROM2の所定のアドレスから制御回路1に出力さ
れる。制御回路1に出力された音声データはD/A変換
を施されてアナログの音声信号に変換され、信号S3と
して音程変換回路5に出力される。音程変換回路5に出
力された音声信号は、制御回路1の出力する信号S4に
応じて音程を変換され、音声増幅回路6により増幅され
てスピーカ7で音波に変換される。ステップPa2にお
いて玩具から所定の音声が発せられることにより、使用
者は玩具が動作状態にあることを認識できる。
In step Pa1, the initial start mode M
0 processing is started. In step Pa2, a process in which the toy emits sound is executed at the beginning of the initial startup mode. In this step, since the audio data has not been recorded yet, the audio is generated from the audio data recorded in the ROM 2 in advance. Specifically, ROM2
The digitized data of the voice recorded in the ROM 2, for example, "Hiyahaha" is output to the control circuit 1 from a predetermined address of the ROM 2 in response to a request from the control circuit 1. The audio data output to the control circuit 1 is subjected to D / A conversion, converted into an analog audio signal, and output to the pitch conversion circuit 5 as a signal S3. The sound signal output to the pitch conversion circuit 5 is converted in pitch according to the signal S4 output from the control circuit 1, amplified by the voice amplification circuit 6, and converted into sound waves by the speaker 7. By emitting a predetermined sound from the toy in step Pa2, the user can recognize that the toy is operating.

【0061】ステップPa3において、次に説明する待
ち時間パラメータがリセットされ、ステップPa4にお
いて、時計動作機構12から所定の時間間隔、例えば2
秒ごとに入力されるパルス信号S2に応じて、待ち時間
パラメータをインクリメントする割り込み処理が開始さ
れる。待ち時間パラメータの値はステップPa3におい
てリセットされているため、この値を参照することによ
り、ステップPa4からの経過時間を計ることができ
る。
In step Pa3, a waiting time parameter described below is reset. In step Pa4, a predetermined time interval, for example, 2
In response to the pulse signal S2 input every second, an interrupt process for incrementing the waiting time parameter is started. Since the value of the waiting time parameter has been reset in Step Pa3, the elapsed time from Step Pa4 can be measured by referring to this value.

【0062】ステップPa5においては、後述するステ
ップPa10において使用される整数kの値がリセット
されて0になる。
In step Pa5, the value of the integer k used in step Pa10 described later is reset to zero.

【0063】ステップPa6において、マイク4から入
力される音声の有無が制御回路1によって判断される。
具体的には、マイク4から入力された音声信号のレベル
が所定のしきい値より小さいとき音声信号が入力されて
いないと判断され、所定のしきい値より大きいとき音声
信号が入力されていると判断される。制御回路1におい
て音声信号が入力されていないと判断された場合、ステ
ップPa7に処理が移行される。ステップPa7では、
上述した待ち時間パラメータの値によって示されるステ
ップPa4からの経過時間と所定の時間、例えば10秒
間とが比較されて、経過時間が10秒間より短い場合、
ステップPa6に再び処理が戻されて、マイク4から入
力される音声の有無が検出される。10秒以内にステッ
プPa6において音声が検出された場合は、前記した待
ち時間パラメータをインクリメントする割り込み処理が
停止されてステップPa6からステップPa8に処理が
移行される。また、10秒以内にステップPa6におい
て音声が検出されなかった場合は、同様に待ち時間パラ
メータをインクリメントする割り込み処理が停止された
後、ステップPa7から後述するステップPa25に処
理が移行される。
In step Pa6, the control circuit 1 determines whether or not there is a voice input from the microphone 4.
Specifically, when the level of the audio signal input from the microphone 4 is smaller than a predetermined threshold, it is determined that the audio signal is not input, and when the level is higher than the predetermined threshold, the audio signal is input. Is determined. If it is determined in the control circuit 1 that no audio signal has been input, the process proceeds to step Pa7. In step Pa7,
The elapsed time from step Pa4 indicated by the value of the above-mentioned waiting time parameter is compared with a predetermined time, for example, 10 seconds, and when the elapsed time is shorter than 10 seconds,
The process returns to step Pa6 again, and the presence or absence of the voice input from the microphone 4 is detected. If a voice is detected in Step Pa6 within 10 seconds, the interrupt processing for incrementing the waiting time parameter is stopped, and the processing shifts from Step Pa6 to Step Pa8. If no voice is detected in Step Pa6 within 10 seconds, the interrupt process for incrementing the waiting time parameter is similarly stopped, and the process shifts from Step Pa7 to Step Pa25 described later.

【0064】ステップPa8では、ステップPa6で検
出されたアナログの音声信号が、制御回路1でA/D変
換を施されてデジタル化された音声データに変換され
る。この際、例えば、音声の大きさが制御回路1におい
て定められている上限のしきい値より大きい場合や、下
限のしきい値より小さい場合、さらには音声の長さが定
められた上限のしきい値より長い場合には、ステップP
a9に処理が移行されて、入力された音声のレベルが不
適当であることを知らせる音声が発せられる。具体的に
は、例えば「ブ〜」という音のデータがROM2から読
み出されてD/A変換され、音程変換回路5、音声増幅
回路6を経てスピーカ7より音声として発せられる。
At step Pa8, the analog audio signal detected at step Pa6 is subjected to A / D conversion by the control circuit 1 and converted into digitized audio data. At this time, for example, when the volume of the voice is larger than the upper threshold set in the control circuit 1, or smaller than the lower threshold, the voice length is set to the upper limit. If it is longer than the threshold, step P
The process shifts to a9, and a sound is issued to notify that the level of the input sound is inappropriate. More specifically, for example, data of the sound “B” is read from the ROM 2, D / A-converted, and transmitted as a sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6.

【0065】次いで、ステップPa10において上述し
た整数kの値が1だけインクリメントされ、ステップP
a11でこの整数kと整数1の大小関係が判断される。
整数kが所定の整数、例えば1と等しいか、または1よ
り小さい場合は、ステップPa6に戻って再び音声の入
力を待つ処理が実行され、整数kが1より大きい場合
は、後述するステップPa25に処理が移行される。こ
のように、ステップPa8で変換された音声のレベルが
不適当であった場合に、所定の回数だけ音声を再入力さ
せる機会を設けているので、使用者が誤った音声を入力
したときに同一の手順を繰り返す不便を軽減させてい
る。
Next, at step Pa10, the value of the integer k is incremented by one, and
At a11, the magnitude relationship between the integer k and the integer 1 is determined.
If the integer k is equal to or smaller than a predetermined integer, for example, 1, the process returns to step Pa6 to wait for the input of a voice again. If the integer k is larger than 1, the process returns to step Pa25 described later. Processing is shifted. As described above, when the level of the sound converted in step Pa8 is inappropriate, the opportunity to re-input the sound a predetermined number of times is provided, so that when the user inputs an incorrect sound, The inconvenience of repeating the procedure is reduced.

【0066】ステップPa12では、ステップPa8で
取得された音声データを変数Vdに代入させている。こ
の音声データは後の処理で参照される。
At step Pa12, the voice data obtained at step Pa8 is substituted for the variable Vd. This audio data is referred to in later processing.

【0067】ステップPa13では、音声データが認識
されたことを使用者に通知する音声、例えば「ウン?」
という音声データがROM2から読み出されてD/A変
換され、音程変換回路5、音声増幅回路6を経てスピー
カ7より音声として発せられる。このように、入力され
た音声が玩具に認識された結果に応じて異なる音声(上
記の例では「ブ〜」および「ウン?」)が出力されるた
め、使用者は玩具と対話するような感覚で玩具に音声を
登録させることができる。
At step Pa13, a voice for notifying the user that the voice data has been recognized, for example, "un?"
Is read from the ROM 2 and D / A-converted. The sound data is transmitted as a sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6. As described above, different voices (in the above example, “bu-” and “un?”) Are output according to the result of recognition of the input voice by the toy, so that the user interacts with the toy. Sound can be registered in the toy with a sense.

【0068】ステップPa14において、上述した待ち
時間パラメータが再びリセットされ、ステップPa15
において、時計動作機構12から所定の時間間隔ごとに
入力されるパルス信号S2に応じて、待ち時間パラメー
タをインクリメントする割り込み処理が開始される。ス
テップPa16においては、ステップPa21において
使用する整数kの値がリセットされて0になる。
At step Pa14, the above-mentioned waiting time parameter is reset again, and at step Pa15
In, an interrupt process for incrementing the waiting time parameter is started according to the pulse signal S2 input from the clock operating mechanism 12 at predetermined time intervals. In step Pa16, the value of the integer k used in step Pa21 is reset to zero.

【0069】ステップPa17において、マイク4から
入力される音声の有無が再び制御回路1によって判断さ
れ、音声信号が入力されていないと判断された場合、ス
テップPa18に処理が移行される。ステップPa18
では、上述した待ち時間パラメータの値によって示され
るステップPa15からの経過時間と所定の時間、例え
ば10秒間とが比較されて、経過時間が10秒間より短
い場合、ステップPa17に再び処理が戻されて、マイ
ク4から入力される音声の有無が検出される。10秒以
内にステップPa17において音声が検出された場合
は、前記した待ち時間パラメータをインクリメントする
割り込み処理が停止されてステップPa17からステッ
プPa19に処理が移行される。また、10秒以内にス
テップPa17において音声が検出されなかった場合
は、同様に待ち時間パラメータをインクリメントする割
り込み処理が停止された後、ステップPa18から後述
するステップPa25に処理が移行される。
In step Pa17, the control circuit 1 determines again whether or not there is a voice input from the microphone 4, and if it is determined that no voice signal has been input, the process proceeds to step Pa18. Step Pa18
Then, the elapsed time from step Pa15 indicated by the value of the waiting time parameter described above is compared with a predetermined time, for example, 10 seconds. If the elapsed time is shorter than 10 seconds, the process is returned to step Pa17 again. , The presence or absence of voice input from the microphone 4 is detected. If a voice is detected in Step Pa17 within 10 seconds, the interrupt process for incrementing the waiting time parameter is stopped, and the process proceeds from Step Pa17 to Step Pa19. If no voice is detected in step Pa17 within 10 seconds, the interrupt process for incrementing the waiting time parameter is similarly stopped, and the process proceeds from step Pa18 to step Pa25 described later.

【0070】ステップPa19では、ステップPa17
で検出されたアナログの音声信号が、制御回路1でA/
D変換を施されてデジタル化された音声データに変換さ
れる。上述したステップPa8と同様の条件で入力され
た音声が不適当と判断された場合は、ステップPa20
に処理が移行されて、入力された音声のレベルが不適当
であることを知らせる音声、例えば「ブ〜」という音声
データがROM2から読み出されてD/A変換され、音
程変換回路5、音声増幅回路6を経てスピーカ7より音
声として発せられる。次いで、ステップPa21におい
て上述した整数kの値が1だけインクリメントされ、ス
テップPa22でこの整数kと所定の整数の大小関係が
判断される。整数kが所定の整数、例えば1と等しい
か、または1より小さい場合は、ステップPa17に戻
って再び音声の入力を待つ処理が実行され、整数kが1
より大きい場合は、後述するステップPa25に処理が
移行される。ステップPa9〜Pa11と同様にして、
音声のレベルが不適当であった場合に所定の回数だけ音
声を再入力させる機会を設けているので、使用者の不便
が軽減させる。
In step Pa19, step Pa17
The analog audio signal detected by the control circuit 1
It is subjected to D conversion and converted to digitized audio data. If it is determined that the voice input under the same conditions as in step Pa8 described above is inappropriate, step Pa20
The processing is shifted to the step S3, and the voice that informs that the level of the input voice is inappropriate, for example, the voice data “B” is read out from the ROM 2 and D / A-converted. The sound is emitted from the speaker 7 through the amplifier circuit 6. Next, in step Pa21, the value of the integer k is incremented by one, and in step Pa22, the magnitude relationship between the integer k and a predetermined integer is determined. If the integer k is equal to or smaller than a predetermined integer, for example, 1, the process returns to step Pa17 and waits for the input of a voice again.
If it is larger, the process proceeds to Step Pa25 described later. Similarly to steps Pa9 to Pa11,
Since an opportunity is provided to re-enter the sound a predetermined number of times when the sound level is inappropriate, the inconvenience of the user is reduced.

【0071】ステップPa23では、ステップPa12
で変数Vdに代入され音声データと、ステップPa19
で取得された音声データの特徴が制御回路1において比
較される。音声データの特徴は、例えば音声データをフ
ーリエ変換して得られた周波数スペクトルの振幅などを
用いて抽出され、所定の比較手順で比較される。変数V
dの音声データとステップPa19で取得された音声デ
ータの特徴が一致していると判断された場合は、ステッ
プPa24に処理が移行され、ステップPa19で取得
された音声データがペット名としてFLASH ROM
3の所定のアドレスに書き込まれる。逆に互いの音声デ
ータの特徴が一致しないと判断された場合は、上述した
ステップPa20に処理が移行され、ステップPa17
で再び音声を入力させる機会が使用者に与えられる。
In step Pa23, step Pa12
And the voice data substituted for the variable Vd at step Pa19
Are compared in the control circuit 1. The features of the audio data are extracted using, for example, the amplitude of a frequency spectrum obtained by performing Fourier transform on the audio data, and are compared by a predetermined comparison procedure. Variable V
If it is determined that the voice data of step d and the characteristics of the voice data acquired in step Pa19 match, the process proceeds to step Pa24, and the voice data acquired in step Pa19 is used as the pet name in the FLASH ROM.
3 is written to a predetermined address. Conversely, if it is determined that the characteristics of the audio data do not match each other, the process proceeds to step Pa20 described above and proceeds to step Pa17.
Is given to the user again.

【0072】ステップPa24でペット名が登録される
とステップPa28に処理が移行されて、使用者にペッ
ト名が登録されたことを通知する音声、例えばペット名
として登録された音声が発せられる。これにより、使用
者がペット名の登録に成功したことを知ることができる
他、登録させた音声を確認することができる。
When the pet name is registered in step Pa24, the process proceeds to step Pa28, and a sound for notifying the user that the pet name has been registered, for example, a sound registered as the pet name is issued. As a result, the user can know that the pet name has been successfully registered, and can confirm the registered voice.

【0073】この場合、FLASH ROM3に書き込
んだ音声データは使用者自身の発した音声のデータであ
るが、音程変換回路5の出力する音声信号は制御回路1
による信号S4によって音程を制御させることができる
ので、例えばインコのような愛らしい音声に変換させて
スピーカ7より音声を出力させることができる。これに
より、使用者自身の音声を聞かされる味気なさを免れる
ことができ、あたかも玩具が自らの音声を発しているよ
うな印象を使用者に与えることができるため、玩具を擬
似生物として扱う趣向性が高まる。
In this case, the voice data written in the FLASH ROM 3 is data of a voice uttered by the user himself, but the voice signal output from the pitch conversion circuit 5 is
Since the pitch can be controlled by the signal S4, the sound can be converted to an adorable sound such as a parakeet, and the sound can be output from the speaker 7. As a result, it is possible to avoid the unpleasantness of listening to the user's own voice, and to give the user the impression that the toy is emitting his own voice. Increase.

【0074】ステップPa25〜Pa27は、音声の入
力待ち時間が10秒を超えてしまった場合や、音が大き
すぎる等により音声データが不適当だった場合に他の処
理へランダムに移行させるためのステップである。ラン
ダムに移行させる手順は、上述したステップPa2〜P
a24によるペット名の登録手順および後述するランダ
ム発言処理Pb、自動音声登録処理Pcの3つである。
Steps Pa25 to Pa27 are used to randomly shift to another processing when the audio input waiting time exceeds 10 seconds or when the audio data is inappropriate due to the sound being too loud. Step. The procedure for shifting at random is based on steps Pa2 to P
a24: a pet name registration procedure, a random utterance process Pb described later, and an automatic voice registration process Pc.

【0075】ステップPa25では、0から2の整数が
ランダムに生成されて、変数mに代入される。ステップ
Pa26では、変数mに代入された数値と整数0との一
致を判断し、一致している場合、ステップPa2に処理
を戻して、再びペット名を登録させる処理が初めから実
行される。また、変数mと整数0が一致していない場合
はステップPa27に処理を移行させて、変数mと整数
1との一致が判断され、一致している場合には後述する
ランダム発言処理Pbに処理を移行させ、一致していな
い場合は後述する自動音声登録処理Pcに処理を移行さ
せる。このように、初起動モードにおいてペット名が登
録されないまま放置されている状態であっても、後述す
るランダム発言処理Pbや自動音声登録処理Pcなどの
処理がランダムに実行されるので、上述したような処理
によれば、ペット名が登録されないときにいつまでも登
録を催促し続けるような処理に比べて使用者が玩具に抱
く機械的な印象を低減させることができる。
At step Pa25, an integer from 0 to 2 is randomly generated and assigned to a variable m. In step Pa26, it is determined whether the numerical value assigned to the variable m matches the integer 0, and if they match, the process returns to step Pa2, and the process of registering the pet name again is executed from the beginning. If the variable m and the integer 0 do not match, the process proceeds to step Pa27, where it is determined that the variable m and the integer 1 match, and if they do match, the process proceeds to a random utterance process Pb to be described later. If not, the process proceeds to an automatic voice registration process Pc described later. As described above, even in a state where the pet name is left unregistered in the first activation mode, processes such as a random utterance process Pb and an automatic voice registration process Pc to be described later are randomly executed. According to such a process, the mechanical impression of the user on the toy can be reduced as compared with a process in which the pet name is not registered, and the registration is urged forever.

【0076】ここで、ランダム発言処理Pbおよび自動
音声登録処理Pcについて説明する。
Here, the random speech processing Pb and the automatic voice registration processing Pc will be described.

【0077】ランダム発言処理Pbにおいては、玩具の
ROM2に記録されているあらかじめ用意された音声デ
ータや、FLASH ROM3に記録されている使用者
に登録された音声データが制御回路1によってランダム
に読み出されて、音程変換回路5、音声増幅回路6を経
てスピーカ7より音声として発せられる。動作モードが
初起動モードにある場合は、まだ使用者の登録操作によ
ってFLASH ROM3に音声データが登録されてい
ないので、後述する自動音声登録処理Pcによって自動
的に登録された音声データや、ROM2に記録されてい
るあらかじめ用意された音声データが専ら出力される。
ランダム発言処理Pbによってランダムに選択される音
声データは、後述する気分パラメータや信頼パラメータ
によって種類が変化する。
In the random speech processing Pb, the control circuit 1 randomly reads out voice data prepared in advance stored in the ROM 2 of the toy or voice data registered in the FLASH ROM 3 by the user. Then, the sound is emitted as sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6. When the operation mode is the initial startup mode, since voice data has not yet been registered in the FLASH ROM 3 by a user's registration operation, the voice data automatically registered by the automatic voice registration process Pc to be described later, or the ROM 2 The recorded audio data prepared in advance is exclusively output.
The type of the voice data selected at random by the random utterance process Pb changes depending on a mood parameter and a reliability parameter described later.

【0078】図17は、ランダム発言処理Pbにおける
処理を説明するフローチャート図である。図17におい
て、Pb1〜Pb22は処理の各ステップを示してい
る。ランダム発言処理PbはステップPb1で処理を開
始し、ステップPb2で1〜10の範囲でランダムに生
成された整数を変数mに代入し、ステップPb3〜Pb
11において変数mと整数1〜9の一致が判断され、一
致した整数に応じてステップPb12〜Pb21に処理
を移行させる。そして各ステップで定められた処理に応
じて(発言処理1〜10)、記憶されている音声をスピ
ーカ7から出力させる。各発言処理においては、例えば
ROM2にあらかじめ記憶させてある種々の合成音や、
使用者が後に述べる操作によってFLASH ROM3
に記憶させた種々の登録ワードをランダムに選択させ、
ランダムな回数で発言させることができる。また、後に
述べる各音声の対語をランダムに発声させることができ
る。さらに、次に述べる自動音声登録モードで登録させ
た音声をランダムに選択して発言させることもできる。
あるいは、初期起動モードで玩具に記憶させた飼い主名
とペット名を一番最初に発言させ、その後他の音声を続
けて発声させることができる、玩具が飼い主名とペット
名を主語にして何か言葉をしゃべっているような発声を
させることもできる。このように、玩具がROM2やF
LASH ROM3に記憶させている音声に対し、さま
ざまな発声の処理手順を設け、それらをランダムに選択
して音声を出力させているので、使用者に意外性をもた
らし、玩具を飽きのこないものにできる。
FIG. 17 is a flowchart for explaining the processing in the random speech processing Pb. In FIG. 17, Pb1 to Pb22 indicate each step of the processing. The random utterance process Pb starts in step Pb1, substitutes an integer randomly generated in a range of 1 to 10 in step Pb2 into a variable m, and executes steps Pb3 to Pb
At 11, it is determined whether the variable m matches the integers 1 to 9, and the process proceeds to steps Pb12 to Pb21 according to the matched integer. Then, the stored sound is output from the speaker 7 according to the processing determined in each step (speech processing 1 to 10). In each utterance processing, for example, various synthetic sounds stored in the ROM 2 in advance,
The FLASH ROM 3 can be operated by the user to
Randomly select various registered words stored in
You can make them speak at random times. Further, it is possible to randomly generate a pair of each voice described later. Furthermore, the voice registered in the automatic voice registration mode described below can be selected at random and made to speak.
Alternatively, the owner name and pet name stored in the toy in the initial startup mode can be spoken first, and then other sounds can be uttered continuously.The toy is something with the owner name and pet name as subjects. You can also make them speak as if they were talking. Thus, the toy is ROM2 or F
Various voice processing procedures are provided for the voice stored in the LASH ROM 3 and the voice is output by randomly selecting them, so that the user can be surprised and the toy will not get tired. it can.

【0079】自動音声登録処理Pcにおいては、マイク
4に入力された所定の長さの以内の音声が制御回路1に
おいて自動的に音声データに変換されて、FLASH
ROM3へ記録される。登録される音声データの数は所
定の最大数、例えば3つ以下に定められており、これを
超えて登録される場合は、自動音声登録処理Pcにおい
て音声データが記録される何れかの記録エリアに上書き
して記録される。自動音声登録処理Pcにおいて登録さ
れた音声データは、上記のランダム発言処理Pbのほ
か、後述する会話処理などで発声されるため、玩具が発
声する音声の内容の意外性が増し、これにより玩具の機
械的な印象が低減して、擬似生物としての趣向性を高め
ることができる。
In the automatic voice registration process Pc, voices within a predetermined length inputted to the microphone 4 are automatically converted into voice data by the control circuit 1 and FLASH
Recorded in the ROM 3. The number of audio data to be registered is set to a predetermined maximum number, for example, three or less. If the number of audio data to be registered exceeds this, any one of the recording areas where audio data is recorded in the automatic audio registration process Pc. Is overwritten and recorded. The voice data registered in the automatic voice registration process Pc is uttered in the above-described random utterance process Pb and in a conversation process described below, so that the content of the voice uttered by the toy increases, and as a result, The mechanical impression is reduced, and the taste as a simulated creature can be enhanced.

【0080】ペット名登録処理の過程で上述したランダ
ム発言処理Pbや自動音声登録処理Pcに移行するほ
か、他の異なる処理をいくつも設けてランダムに移行さ
せることができる。これにより、単一な処理を使用者に
強いることによって玩具を飽きさせるデメリットを低減
させることができる。
In the course of the pet name registration process, the process shifts to the above-mentioned random utterance process Pb or the automatic voice registration process Pc. In addition, a number of other different processes can be provided to shift the process randomly. This can reduce the disadvantage that the toy is bored by forcing the user to perform a single process.

【0081】次に、初起動モードM0においてペット名
登録が完了した後の処理について説明する。
Next, the processing after the completion of the pet name registration in the first activation mode M0 will be described.

【0082】ペット名を登録した後は、同様のステップ
によって今度は飼い主名を登録させる。具体的には、ス
テップPa29〜Pa49とステップPa3〜Pa23
ではそれぞれ同じ処理が行われる。
After the pet name is registered, the owner name is registered by the same steps. Specifically, steps Pa29 to Pa49 and steps Pa3 to Pa23
Then, the same processing is performed respectively.

【0083】ステップPa52では、0から2の整数が
ランダムに生成されて、変数mに代入される。ステップ
Pa53では、変数mに代入された数値と整数0との一
致を判断し、一致している場合、ステップPa28に処
理を戻して、ペット名を発声させた後再び飼い主名を登
録させる処理が初めから実行される。また、変数mと整
数0が一致していない場合はステップPa54に処理を
移行させて、変数mと整数1との一致が判断され、一致
している場合には上述したランダム発言処理Pbに処理
を移行させ、一致していない場合は上述した自動音声登
録処理Pcに処理を移行させる。ペット名の登録におけ
るステップPa25〜Pa27と同様の手順を経て、ラ
ンダム発言処理Pbや自動音声登録処理Pcなどの処理
がランダムに実行されるので、使用者が玩具に抱く機械
的な印象を低減させることができる。
At step Pa52, an integer from 0 to 2 is randomly generated and assigned to a variable m. In step Pa53, it is determined whether the numerical value assigned to the variable m is equal to the integer 0, and if they match, the process returns to step Pa28, in which the pet name is uttered and then the owner name is registered again. Executed from the beginning. If the variable m and the integer 0 do not match, the process proceeds to step Pa54, where it is determined that the variable m matches the integer 1, and if they do match, the process proceeds to the above-described random utterance process Pb. And if not, the process proceeds to the automatic voice registration process Pc described above. Through the same procedure as steps Pa25 to Pa27 in the registration of the pet name, processes such as the random utterance process Pb and the automatic voice registration process Pc are executed at random, so that the mechanical impression of the user on the toy is reduced. be able to.

【0084】ステップPa49において、ステップPa
45で取得された音声データと変数Vdの音声データの
特徴が一致していると判断されると、ステップPa50
においていステップPa45で取得された音声データが
飼い主名としてFLASHROM3の所定のアドレスに
書き込まれる。その後、飼い主名が登録されたことを示
す音声、例えば登録された飼い主名が出力される。ペッ
ト名の登録における処理と同様に、FLASH ROM
3に飼い主名として登録された音声データを音声に変換
させる場合にも、音程変換回路5により音程を変化され
るので、あたかも玩具が自らの音声を発しているような
印象を使用者に与えることができる。
In step Pa49, step Pa
If it is determined that the characteristics of the voice data acquired in step 45 and the voice data of the variable Vd match, step Pa50
The audio data obtained in step Pa45 is written to a predetermined address of the flash ROM 3 as the owner name. Thereafter, a sound indicating that the owner name has been registered, for example, a registered owner name is output. As with the process for registering pet names, FLASH ROM
When the voice data registered as the owner's name in 3 is converted to voice, the pitch is changed by the pitch conversion circuit 5, so that the user is given the impression that the toy is emitting his own voice. Can be.

【0085】ペット名および飼い主名の登録が完了する
ことによって初起動モードM0の動作は完了し、動作モ
ードは遷移I2で起床モードM11に移行される。
When the registration of the pet name and the owner's name is completed, the operation of the initial activation mode M0 is completed, and the operation mode is shifted to the wake-up mode M11 by the transition I2.

【0086】次に、起床モードM11の動作を説明す
る。図9は、起床モードM11における処理を説明する
フローチャート図である。図4と図9の同一符号は同一
内容を示す。その他、Pd1〜Pd17はステップを示
している。
Next, the operation in the wake-up mode M11 will be described. FIG. 9 is a flowchart illustrating processing in the wake-up mode M11. 4 and 9 indicate the same contents. In addition, Pd1 to Pd17 indicate steps.

【0087】起床モードM11では、上述したランダム
発言処理Pbや自動音声登録処理Pcのほか、後述する
音声認識処理Peが生成された乱数によってランダムに
選択されて実行される。このとき、信頼パラメータによ
るモードが上述した病気モードM21にある場合はラン
ダム発言処理Pbや自動音声登録処理Pcが実行され
ず、時折病気を暗示するような音声が発せられる。仮死
モードM23にある場合は、ランダム発言処理Pb、自
動音声登録処理Pcおよび後述する音声認識処理Peが
全て実行されなくなり、仮死モードを通知する音声が発
せられる。また、頭部スイッチ8、コミュニケーション
スイッチ9、アラームスイッチ10の状態が監視され、
スイッチの状態に応じて各動作モードに処理を移行させ
る。さらに、起床モードM11に処理が移行してからの
時間が計測され、所定の時間を経過した場合は就寝モー
ドM12に処理を移行させる。
In the wake-up mode M11, in addition to the above-described random utterance processing Pb and the automatic voice registration processing Pc, a voice recognition processing Pe, which will be described later, is randomly selected and executed by the generated random numbers. At this time, when the mode based on the trust parameter is the sick mode M21 described above, the random utterance process Pb and the automatic voice registration process Pc are not executed, and a voice that sometimes indicates the sickness is generated. In the temporary death mode M23, the random utterance process Pb, the automatic voice registration process Pc, and the voice recognition process Pe, which will be described later, are all not executed, and a voice notifying the temporary death mode is issued. Also, the status of the head switch 8, the communication switch 9, and the alarm switch 10 are monitored,
The processing is shifted to each operation mode according to the state of the switch. Further, the time from when the process is shifted to the wake-up mode M11 is measured, and when a predetermined time has elapsed, the process is shifted to the sleeping mode M12.

【0088】起床モードM11のステップPd1におい
て処理が開始されると、ステップPd2において、次に
述べる起床時間パラメータがリセットされてゼロにな
る。ステップPd3において、時計動作機構12から所
定の時間間隔、例えば2秒ごとに入力されるパルス信号
S2に応じて、起床時間パラメータをインクリメントす
る割り込み処理が開始される。起床時間パラメータの値
はステップPd2においてリセットされているため、こ
の値を参照することにより、ステップPd3からの経過
時間を計ることができる。
When the process is started in step Pd1 of the wake-up mode M11, in step Pd2, the wake-up time parameter described below is reset to zero. In step Pd3, an interrupt process for incrementing the wake-up time parameter is started in response to a pulse signal S2 input from the clock operation mechanism 12 at predetermined time intervals, for example, every two seconds. Since the value of the wake-up time parameter has been reset in step Pd2, the elapsed time from step Pd3 can be measured by referring to this value.

【0089】ステップPd4において、信頼パラメータ
に係るモードが仮死モードM23になっているかどうか
確認される。仮死モードM23になっている場合は、ス
テップPd5において仮死モードにあることを使用者に
通知する音声を発する。具体的には、ROM2の所定の
アドレスに記録されている仮死状態を表現する音声デー
タが読み出されてD/A変換され、音程変換回路5で音
程を変換されて音声増幅回路6を経てスピーカ7から音
声として出力される。その後、後述するステップPd1
1に処理が移行される。
At step Pd4, it is confirmed whether or not the mode relating to the reliability parameter is the temporary death mode M23. In the case of the temporary death mode M23, a voice notifying the user of the temporary death mode is issued in step Pd5. More specifically, audio data representing a suspended state recorded at a predetermined address in the ROM 2 is read out, D / A-converted, pitch-converted by a pitch conversion circuit 5, passed through a voice amplification circuit 6 and passed through a speaker. 7 is output as audio. Thereafter, a step Pd1 described later.
The process is shifted to 1.

【0090】ステップPd4において仮死モードM23
でないことが確認された場合、次にステップPd6にお
いて病気モードM22になってるかどうか確認される。
病気モードM22になっている場合は、ステップPd7
において病気モードM22にあることを使用者に通知す
る音声を発する。具体的には、ROM2の所定のアドレ
スに記録されている病気状態を表現する音声データが読
み出されてD/A変換され、音程変換回路5で音程を変
換されて音声増幅回路6を経てスピーカ7から音声とし
て出力される。その後、後述する音声認識処理Peに処
理が移行される。
In step Pd4, the suspended-matter mode M23
If not, it is next checked in step Pd6 whether the mode is the sick mode M22.
If it is in the sick mode M22, step Pd7
At step S22, a voice is issued to notify the user that the user is in the sick mode M22. More specifically, voice data expressing a disease state recorded at a predetermined address in the ROM 2 is read out, D / A converted, the pitch is converted by a pitch conversion circuit 5, passed through a voice amplification circuit 6, and passed through a speaker. 7 is output as audio. Thereafter, the process proceeds to a speech recognition process Pe described later.

【0091】ステップPd4およびステップPd6にお
いて信頼パラメータに係るモードが仮死モードM23お
よび病気モードM22でない、すなわち健康モードM2
1になっていることが確認された後、ステップPd8〜
Pd10において音声認識処理Pe、ランダム発言処理
Pbおよび自動音声登録処理Pcがランダムに選択され
て実行される。具体的には、ステップPd8において0
〜2の整数がランダムに生成されて、変数mに代入され
る。次いでステップPd9において整数0と変数mの一
致が判断され、一致した場合は後述する音声認識処理P
eに処理が移行され、一致しない場合はステップPd1
0に処理が移行される。ステップPd10においては整
数1と変数mの一致が判断されて、一致した場合は上述
したランダム発言処理Pbに処理が移行され、一致しな
い場合は上述した自動音声登録処理Pcに処理が移行さ
れる。したがって、音声認識処理Pe、ランダム発言処
理Pbおよび自動音声登録処理Pcのいずれか選択され
て実行される。
In steps Pd4 and Pd6, the modes related to the reliability parameters are not the asphyxia mode M23 and the sick mode M22, ie, the health mode M2.
After it is confirmed that the value is 1, Step Pd8-
In Pd10, a speech recognition process Pe, a random utterance process Pb, and an automatic speech registration process Pc are randomly selected and executed. Specifically, at step Pd8, 0
An integer of ~ 2 is randomly generated and assigned to a variable m. Next, in step Pd9, a match between the integer 0 and the variable m is determined.
e is transferred to step e.
The process is shifted to 0. In step Pd10, it is determined that the integer 1 matches the variable m. If the two match, the process proceeds to the above-described random utterance process Pb, and if they do not match, the process proceeds to the above-described automatic voice registration process Pc. Therefore, any one of the speech recognition processing Pe, the random speech processing Pb, and the automatic speech registration processing Pc is selected and executed.

【0092】音声認識処理Pe、ランダム発言処理Pb
および自動音声登録処理Pcが終了したところで、ステ
ップPd11に処理が移行される。ステップPd11に
おいてはアラームスイッチ10の状態が確認され、アラ
ームスイッチ10がONになっている場合は上述した遷
移I5によってアラームモードM13に処理が移行され
る。アラームスイッチ10がOFFになっていることが
確認された場合は、ステップPd12に処理が移行され
る。
Speech recognition processing Pe, random speech processing Pb
After the completion of the automatic voice registration process Pc, the process proceeds to Step Pd11. In step Pd11, the state of the alarm switch 10 is confirmed, and if the alarm switch 10 is ON, the process is shifted to the alarm mode M13 by the above-described transition I5. If it is confirmed that the alarm switch 10 is turned off, the process proceeds to Step Pd12.

【0093】ステップPd12では、コミュニケーショ
ンスイッチ9の状態が確認される。コミュニケーション
スイッチ9がONになっている場合は、ステップPd1
3において信頼パラメータに係るモードの状態が確認さ
れ、モードが仮死モードにない場合に、上述した遷移I
7によってコミュニケーションモードM14に処理が移
行される。信頼パラメータに係るモードが仮死モードに
なっている場合は、コミュニケーションモードM14に
処理は移行されず、次のステップPd14へ処理が移行
される。また、ステップPd12においてコミュニケー
ションスイッチ9がONになっていないことが確認され
た場合にも、ステップPd14へ処理が移行される。
At step Pd12, the state of the communication switch 9 is confirmed. If the communication switch 9 is turned on, step Pd1
3, the state of the mode relating to the reliability parameter is confirmed, and if the mode is not in the suspended
7, the processing shifts to the communication mode M14. When the mode related to the reliability parameter is the temporary death mode, the process does not shift to the communication mode M14, and the process shifts to the next step Pd14. Also, when it is confirmed in step Pd12 that the communication switch 9 has not been turned ON, the process proceeds to step Pd14.

【0094】ステップPd14において、就寝モードが
選択されているか否かが確認される。就寝モードが選択
されている場合は上述した遷移I3によって就寝モード
M12に処理が移行され、選択されていない場合は後述
するステップPd15に処理が移行される。
In step Pd14, it is confirmed whether or not the sleep mode has been selected. When the sleep mode is selected, the process is shifted to the sleep mode M12 by the above-described transition I3, and when not selected, the process is shifted to Step Pd15 described later.

【0095】就寝モードが選択されたか否かの判別は、
就寝モード選択フラグの状態を確認することによってな
される。頭部スイッチ8がONされると割り込み処理が
発生し、その処理において就寝モード選択フラグがセッ
トされる。具体的には、ランダム発言処理Pbや音声認
識処理Pe、コミュニケーションモードM14において
制御回路1から音声信号が出力されているときに頭部ス
イッチ8がONされて上記の割り込み処理が発生する
と、この割り込み処理において就寝モード選択フラグが
セットされる。そして、ステップPd14において就寝
モード選択フラグの状態が判定され、就寝モード選択フ
ラグがセットされていることが確認された場合は、遷移
I3で就寝モードM12に処理が移行され、就寝モード
選択フラグがセットされていないことが確認された場合
は、ステップPd15に処理が移行される。すなわち、
ランダム発言処理Pbや音声認識処理Pe、コミュニケ
ーションモードM14において玩具が音声を発している
ときに玩具の頭部をたたいて頭部スイッチ8をONさせ
ると、玩具の動作モードは就寝モードに移行される。ス
テップPd14において就寝モード選択フラグの状態が
確認されて次の処理に移行する際に、就寝モード選択フ
ラグはリセットされる。以上の処理によって、使用者は
玩具の発生する音声が耳障りになった場合に、玩具の頭
をたたくことによって玩具の発声を停止させることがで
きる。
Whether the sleep mode has been selected or not is determined by
This is done by checking the state of the sleep mode selection flag. When the head switch 8 is turned on, an interruption process occurs, and in that process, a sleep mode selection flag is set. Specifically, when the head switch 8 is turned on while the voice signal is being output from the control circuit 1 in the random speech processing Pb, the voice recognition processing Pe, and the communication mode M14, and the above-described interrupt processing occurs, this interrupt is generated. In the process, a sleep mode selection flag is set. Then, in step Pd14, the state of the sleep mode selection flag is determined, and if it is confirmed that the sleep mode selection flag is set, the process proceeds to the sleep mode M12 in transition I3, and the sleep mode selection flag is set. If it is confirmed that the process has not been performed, the process proceeds to Step Pd15. That is,
In the random speech processing Pb, the voice recognition processing Pe, and the communication mode M14, when the toy is hit and the head switch 8 is turned on while the toy is emitting sound, the operation mode of the toy is shifted to the sleeping mode. You. When the state of the sleep mode selection flag is confirmed in step Pd14 and the process proceeds to the next process, the sleep mode selection flag is reset. By the above processing, the user can stop the sound of the toy by hitting the head of the toy when the sound generated by the toy becomes harsh.

【0096】ステップPd15において、起床時間の延
長が選択されているか否かが確認される。起床時間の延
長が選択されている場合はステップPd16に処理が移
行され、上記の起床時間パラメータがリセットされた後
ステップPd17に処理が移行される。また、起床時間
の延長が選択されていない場合は、ステップPd17へ
そのまま処理が移行される。後述するステップPd17
によって起床時間パラメータの計測する時間が所定の時
間を超えたときに起床モードM11から就寝モードM1
2へ処理が移行されるが、ステップPd16により起床
時間パラメータがリセットされると、計測した時間がゼ
ロに戻されるため、動作モードが起床モードM11から
就寝モードM12へ処理が移行されるまでの時間が延長
される。
At step Pd15, it is confirmed whether or not the extension of the wake-up time is selected. If the extension of the wake-up time is selected, the process proceeds to step Pd16, and after the wake-up time parameter is reset, the process proceeds to step Pd17. If the extension of the wake-up time has not been selected, the process proceeds to Step Pd17. Step Pd17 to be described later
From the wake-up mode M11 to the sleep mode M1 when the time for measuring the wake-up time parameter exceeds a predetermined time.
The processing is shifted to 2, but when the wake-up time parameter is reset in step Pd16, the measured time is returned to zero. Is extended.

【0097】起床時間の延長が選択されているか否かの
判別は、起床時間延長フラグの状態を確認することによ
ってなされる。頭部スイッチ8がONされると、就寝モ
ード選択フラグの場合と同様に割り込み処理が発生し、
その処理において起床時間延長フラグがセットされる。
具体的には、就寝モード選択フラグをセットさせる上述
の条件(ランダム発言処理Pbや音声認識処理Peにお
いて制御回路1から音声信号が出力されているとき)以
外の期間における起床モードM11において、頭部スイ
ッチ8がONされて上記の割り込み処理が発生すると、
この割り込み処理において起床時間延長フラグがセット
される。そして、ステップPd15において就寝モード
選択フラグの状態が判定され、起床時間延長フラグがセ
ットされていることが確認された場合は、ステップPd
16において起床時間パラメータがリセットされ、起床
時間延長フラグがセットされていないことが確認された
場合は、ステップPd17に処理が移行される。すなわ
ち、ランダム発言処理Pbや音声認識処理Pe、コミュ
ニケーションモードM14において玩具が音声を発して
いるとき以外の期間における起床モードM11において
玩具の頭部をたたいて頭部スイッチ8をONさせると、
動作モードが就寝モードM12に移行されるまでの時間
を延長させることができる。ステップPd15において
起床時間延長フラグの状態が確認されて次の処理に移行
する際に、起床時間延長フラグはリセットされる。以上
の処理によって、使用者は好きなだけ起床モードM11
を延長させて玩具の動作を楽しむことができる。
Whether the extension of the wake-up time is selected or not is determined by checking the state of the wake-up time extension flag. When the head switch 8 is turned on, an interrupt process occurs as in the case of the sleep mode selection flag,
In the process, a wake-up time extension flag is set.
Specifically, in the wake-up mode M11 in a period other than the above-described conditions for setting the sleeping mode selection flag (when a voice signal is output from the control circuit 1 in the random speech processing Pb or the voice recognition processing Pe), When the switch 8 is turned on and the above interrupt processing occurs,
In this interrupt processing, the wake-up time extension flag is set. Then, in step Pd15, the state of the sleep mode selection flag is determined, and if it is confirmed that the wake-up time extension flag is set, the process proceeds to step Pd
If the wake-up time parameter is reset at 16 and it is confirmed that the wake-up time extension flag has not been set, the process proceeds to step Pd17. That is, when the toy head is hit in the wake-up mode M11 in a period other than when the toy is emitting a voice in the random speech processing Pb, the voice recognition processing Pe, and the communication mode M14 to turn on the head switch 8,
The time until the operation mode is shifted to the sleep mode M12 can be extended. When the state of the wake-up time extension flag is confirmed in step Pd15 and the process proceeds to the next process, the wake-up time extension flag is reset. By the above processing, the user can wake up mode M11 as much as desired.
Can be extended to enjoy the operation of the toy.

【0098】なお、頭部スイッチ8がONされたとき
に、所定の音声データを玩具に発声させる処理を設ける
ことができる。これにより、使用者が玩具の頭部に触れ
たことによって生ずる玩具の反応を楽しむことができ
る。また、頭部スイッチがONされている時間に応じて
異なる音声を発生させることもできる。例えば制御回路
1に適切な周期を有するパルスを設け、このパルスの数
を頭部スイッチがONされたときからOFFされたとき
までの期間制御回路1に計数させることにより、頭部ス
イッチがONされている時間を計測させ、このような方
法で計数したパルス数に応じて、玩具に発声させる音声
を変化させることができる。例えば頭部スイッチのON
時間が0.03秒以上0.4秒未満の間にあるときは頭
を叩かれたと見なして、怒りを表現した音声を玩具に発
声させ、頭部スイッチが0.4秒より長くONにされた
場合は頭をなでられたとみなして快楽を表現した音声を
玩具に発声させる処理を、頭部スイッチ8がONされ発
生する割り込み処理または分岐処理において実行させ
る。頭部スイッチに圧力を検出させるセンサーを内蔵さ
せて、圧力の大小に応じて音声を変化させることもでき
る。さらに、音声データの種類を後で述べる気分パラメ
ータによって変化させて、快や不快の気分を音声によっ
て表現させることもできる。以上のような処理により、
使用者の操作に対し玩具は多様な音声を発してこれに応
じることができるので、玩具の機械的な印象が薄らぎ、
擬似生物としての趣向性を高めることができる。
When the head switch 8 is turned on, a process for causing the toy to utter predetermined voice data can be provided. Thereby, the reaction of the toy caused by the user touching the head of the toy can be enjoyed. Also, different sounds can be generated according to the time during which the head switch is ON. For example, a pulse having an appropriate period is provided in the control circuit 1 and the number of pulses is counted by the control circuit 1 during the period from when the head switch is turned on to when the head switch is turned off. The sound to be uttered by the toy can be changed according to the number of pulses counted by such a method. For example, turning on the head switch
When the time is between 0.03 seconds and less than 0.4 seconds, it is considered that the head has been hit, and the voice expressing anger is uttered by the toy, and the head switch is turned ON for more than 0.4 seconds. In this case, the process of causing the toy to utter a voice expressing pleasure by regarding the head as stroking is executed in an interrupt process or a branch process that occurs when the head switch 8 is turned on. By incorporating a sensor for detecting pressure in the head switch, the sound can be changed according to the magnitude of the pressure. Further, the type of voice data can be changed by a mood parameter to be described later to express pleasant or unpleasant mood by voice. By the above processing,
Since the toy can respond to the operation of the user by emitting various sounds, the mechanical impression of the toy is weakened,
The taste as a simulated creature can be enhanced.

【0099】次に、上述した音声認識処理Peの動作を
説明する。図10は、音声認識処理Peにおける処理を
説明するフローチャート図である。図10においてPe
1〜Pe16およびPf、Pg、Phはステップを示し
ている。
Next, the operation of the speech recognition processing Pe will be described. FIG. 10 is a flowchart illustrating processing in the voice recognition processing Pe. In FIG.
1 to Pe16 and Pf, Pg, Ph indicate steps.

【0100】まず、音声認識処理Peの概要を説明す
る。音声認識処理Peでは、マイク4から入力された音
声データとFLASH ROM3に記録されている音声
データの特徴が比較され、特徴の一致する音声データが
FLASH ROM3に記録されている場合は会話処理
Phを実行させる。会話処理Phでは、マイク4から入
力された音声に対し、ROM2およびFLASH RO
M3に記録されている音声データがさまざまな組み合わ
せで音声に変換されて発声される。このため、使用者は
マイクに入力した音声に対して玩具の発する意外な音声
の応答を楽しむことができる。一方、マイク4から入力
された音声データと特徴の一致する音声データがFLA
SH ROM3に記録されていない場合は、後述する仮
登録処理Pfおよび登録延長処理Pgが実行される。こ
れにより、マイク4から入力された音声は制御回路1で
音声データに変換されてFLASH ROM3に記録さ
れる。仮登録処理Pfおよび登録延長処理Pgには、音
声データをFLASH ROM3に記録させるまでの過
程をランダムに変化させる処理が含まれており、玩具に
音声を覚えさせる行為に対して使用者に面白味を持たせ
ている。
First, the outline of the speech recognition processing Pe will be described. In the voice recognition processing Pe, the voice data input from the microphone 4 and the features of the voice data recorded in the FLASH ROM 3 are compared. If the voice data having the matching features is recorded in the FLASH ROM 3, the speech processing Ph is performed. Let it run. In the conversation processing Ph, the voice input from the microphone 4 is read from the ROM 2 and the FLASH RO.
The voice data recorded in M3 is converted into voice in various combinations and uttered. Therefore, the user can enjoy an unexpected voice response from the toy to the voice input to the microphone. On the other hand, audio data whose characteristics match the audio data input from the microphone 4 is FLA
If not recorded in the SH ROM 3, a temporary registration process Pf and a registration extension process Pg, which will be described later, are executed. As a result, the sound input from the microphone 4 is converted into sound data by the control circuit 1 and recorded on the FLASH ROM 3. The temporary registration process Pf and the registration extension process Pg include a process of randomly changing a process until voice data is recorded in the FLASH ROM 3, and provide a user with an interest in an action of causing a toy to remember a voice. I have it.

【0101】また、音声認識処理Peにおいてマイク4
に入力された音声が制御回路1によって音声データに変
換される度に、気分パラメータがインクリメントされ
る。気分パラメータは上述したランダム発言処理Pbに
おいて発声させる音声や、頭部スイッチ8をONさせた
時に発声させる音声の種類を変化させるパラメータであ
る。
In the speech recognition processing Pe, the microphone 4
The mood parameter is incremented each time the control circuit 1 converts the sound input into the mood parameter. The mood parameter is a parameter that changes the type of voice to be uttered in the above-described random utterance processing Pb or the type of voice to be uttered when the head switch 8 is turned on.

【0102】図18は、気分パラメータの値によって変
化する発言の例を示す図である。この図において、各気
分パラメータの値の範囲における玩具の発言内容が示さ
れている。ペットが発言していないときに頭部スイッチ
8をONさせた場合は、ONさせた時間によって使用者
が叩いたのか、なでたのかを判定し、それに応じて発言
内容を変え、さらに気分パラメータに応じて発言内容を
変化させている。また、上述したランダム発言処理Pb
においては、同じ気分パラメータでも確率に応じて2種
類の音声を出力できる。このようにして、常に移ろう生
き物の気分を、発言内容を変化させることによって表現
することができる。
FIG. 18 is a diagram showing an example of a statement changing according to the value of the mood parameter. In this figure, the contents of remarks of the toy in the range of the value of each mood parameter are shown. If the head switch 8 is turned on when the pet is not speaking, it is determined whether the user has hit or struck according to the ON time, and the speech content is changed accordingly, and the mood parameter is further changed. The content of the remark is changed according to. Also, the above-mentioned random comment processing Pb
In, two types of sounds can be output according to the probability even with the same mood parameter. In this way, the mood of a constantly moving creature can be expressed by changing the content of a statement.

【0103】気分パラメータは上述した信頼パラメータ
と関係しており、気分パラメータが所定の最大値まで高
められた場合に、信頼パラメータがインクリメントされ
る。すなわち、音声認識処理Peで音声を認識させる毎
に気分パラメータが大きくなり、気分パラメータに応じ
て信頼パラメータも大きくなる。一方、気分パラメータ
および信頼パラメータは時計動作機構12の出力する所
定周期のパルス信号S2の計数によって所定時間ごとに
発生される割り込み処理において、所定時間ごとにデク
リメントされるため、音声認識処理Peにおいて玩具に
音声を認識させる操作を使用者が怠ると、気分パラメー
タの低下によって玩具の発生する音声の種類が変化する
のみならず、信頼パラメータの低下によって一定期間の
後玩具の動作モードは自動的に病気モードM22や仮死
モードM23に移行して、通常の処理の一部が動作不能
になってしまう。以上のように、玩具に音声を認識させ
る処理と玩具の他の挙動を関連付けているため、玩具に
対して継続的に音声を与えて世話をする行為に対し、使
用者に面白味を持たせている。
The mood parameter is related to the above-mentioned confidence parameter, and when the mood parameter is raised to a predetermined maximum value, the confidence parameter is incremented. That is, each time a voice is recognized in the voice recognition processing Pe, the mood parameter increases, and the reliability parameter increases in accordance with the mood parameter. On the other hand, the mood parameter and the reliability parameter are decremented every predetermined time in the interrupt processing generated every predetermined time by counting the pulse signal S2 of the predetermined cycle output from the clock operation mechanism 12, so that the toy in the voice recognition processing Pe is performed. If the user neglects the operation of recognizing the voice, the type of voice generated by the toy changes due to the decrease in the mood parameter, and the operation mode of the toy automatically becomes ill after a certain period due to the reduction in the reliability parameter. The mode shifts to the mode M22 or the temporary death mode M23, and a part of the normal processing becomes inoperable. As described above, since the process of causing the toy to recognize the voice and the other behavior of the toy are associated with each other, the user is given an interest in the act of continuously giving a voice to the toy and taking care of the toy. I have.

【0104】以下に、音声認識処理Peの詳細な動作を
説明する。
Hereinafter, a detailed operation of the speech recognition processing Pe will be described.

【0105】音声認識処理Peは、ステップPe1より
開始される。まず、ステップPe2において音声認識時
間パラメータがリセットされ、その後ステップPe3に
おいて、時計動作機構12から所定の時間間隔、例えば
2秒ごとに入力されるパルス信号S2に応じて音声認識
時間パラメータをインクリメントする割り込み処理が開
始される。音声認識時間パラメータの値はステップPe
2においてリセットされているため、この値を参照する
ことにより、ステップPe3からの経過時間を計測する
ことができる。
The speech recognition processing Pe is started from step Pe1. First, the voice recognition time parameter is reset in step Pe2, and thereafter, in step Pe3, an interrupt for incrementing the voice recognition time parameter in response to a pulse signal S2 input from the clock operating mechanism 12 at predetermined time intervals, for example, every two seconds. Processing is started. The value of the speech recognition time parameter is determined by the step Pe.
2, the elapsed time from step Pe3 can be measured by referring to this value.

【0106】音声認識時間の計測が開始された後、ステ
ップPe4においてマイク4から入力される音声の有無
が制御回路1によって判断される。具体的には、マイク
4から入力された音声信号のレベルが所定のしきい値よ
り小さいとき音声信号が入力されていないと判断され、
所定のしきい値より大きいとき音声信号が入力されてい
ると判断される。制御回路1において音声信号が入力さ
れていないと判断された場合、ステップPe5に処理が
移行される。ステップPe5では、上述した音声認識時
間パラメータの値によって示されるステップPe3から
の経過時間と所定の時間、例えば30秒間とが比較され
て、経過時間が30秒間より短い場合、ステップPe4
に再び処理が戻されて、マイク4から入力される音声の
有無が検出される。30秒以内にステップPe4におい
て音声が検出された場合は、前記した音声認識時間パラ
メータをインクリメントする割り込み処理が停止されて
ステップPe4からステップPe6に処理が移行され
る。また、30秒以内にステップPe4において音声が
検出されなかった場合は、同様に音声認識時間パラメー
タをインクリメントする割り込み処理が停止された後、
ステップPe5からステップPe16に処理が移行さ
れ、音声認識処理が終了する。
After the start of the measurement of the voice recognition time, the control circuit 1 determines whether or not there is a voice input from the microphone 4 in step Pe4. Specifically, when the level of the audio signal input from the microphone 4 is smaller than a predetermined threshold, it is determined that the audio signal is not input,
When it is larger than the predetermined threshold value, it is determined that the audio signal is being input. If the control circuit 1 determines that no audio signal has been input, the process proceeds to step Pe5. In step Pe5, the elapsed time from step Pe3 indicated by the value of the above-described voice recognition time parameter is compared with a predetermined time, for example, 30 seconds.
The process is returned again to detect the presence or absence of the voice input from the microphone 4. If a voice is detected in step Pe4 within 30 seconds, the interrupt process for incrementing the voice recognition time parameter is stopped, and the process shifts from step Pe4 to step Pe6. If no voice is detected in step Pe4 within 30 seconds, the interrupt processing for incrementing the voice recognition time parameter is similarly stopped.
The process proceeds from step Pe5 to step Pe16, and the voice recognition process ends.

【0107】ステップPe6では、ステップPe4で検
出されたアナログの音声信号が、制御回路1でA/D変
換を施されてデジタル化された音声データに変換され
る。この際、例えば、音声の大きさが制御回路1におい
て定められている上限のしきい値より大きい場合や、下
限のしきい値より小さい場合、さらには音声の長さが定
められた上限のしきい値より長い場合には、ステップP
e7に処理が移行されて、入力された音声のレベルが不
適当であることを知らせる音声が発せられる。具体的に
は、例えば「ブ〜」という音のデータがROM2から読
み出されてD/A変換され、音程変換回路5、音声増幅
回路6を経てスピーカ7より音声として発せられる。そ
の後、ステップPe7に処理を戻して、再び音声の入力
を待つ処理が実行される。ステップPe6において、マ
イク4による音声信号が音声データへ正常に変換された
場合、取得された音声データは変数Vdに代入される。
In step Pe6, the analog audio signal detected in step Pe4 is subjected to A / D conversion by the control circuit 1 and converted into digitized audio data. At this time, for example, when the volume of the voice is larger than the upper threshold set in the control circuit 1, or smaller than the lower threshold, the voice length is set to the upper limit. If it is longer than the threshold, step P
The process proceeds to e7, and a sound is generated to notify that the level of the input sound is inappropriate. More specifically, for example, data of the sound “B” is read from the ROM 2, D / A-converted, and transmitted as a sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6. Thereafter, the process returns to step Pe7, and the process of waiting for the input of the voice is performed again. In step Pe6, when the audio signal from the microphone 4 is normally converted into audio data, the acquired audio data is substituted for the variable Vd.

【0108】音声データが変数Vdに代入された後、ス
テップPe9において上記した気分パラメータが例えば
1だけインクリメントされ、ステップPe10に処理が
移行される。その後、ステップPe10において玩具の
動作モードが病気モードM22になっているか否かが確
認され、病気モードM22になっている場合は、ステッ
プPe11で病気モードにあることを示す音声データが
ROM2から読み出されて音声信号に変換され、音程変
換回路5、音声増幅回路6を経てスピーカ7より音声と
して出力される。そして、ステップPe12で音声認識
回数をインクリメントした後、ステップPe4に処理が
戻されて、再び音声の入力を待つ処理が実行される。こ
のように、玩具が病気モードM22になっている場合
は、後述する音声の登録処理が実行されない。
After the voice data is substituted for the variable Vd, the above-mentioned mood parameter is incremented, for example, by 1 in step Pe9, and the process proceeds to step Pe10. Thereafter, in step Pe10, it is confirmed whether or not the operation mode of the toy is in the sick mode M22. When the toy mode is in the sick mode M22, voice data indicating that the toy is in the sick mode is read from the ROM 2 in step Pe11. The audio signal is converted into an audio signal, and is output as a sound from a speaker 7 through a pitch conversion circuit 5 and an audio amplification circuit 6. Then, after incrementing the number of times of voice recognition in step Pe12, the process is returned to step Pe4, and the process of waiting for the input of voice again is executed. As described above, when the toy is in the sick mode M22, a voice registration process described later is not executed.

【0109】ステップPe10において玩具が病気モー
ドM22になっていないことが確認された場合、ステッ
プPe13に処理が移行される。ステップPe13にお
いて、ステップPe8で変数Vdに代入されている音声
データと、FLASH ROM3に既に登録されている
音声データ(以下、登録ワードと呼ぶ)の特徴が比較さ
れる。そして、所定の判断手法により互いの音声データ
の特徴が一致していると判定される登録ワードが見つか
ると、その登録ワードの記憶場所を示す番号が登録ワー
ド番号として変数Jに代入される(ステップPe1
4)。次いで、取得された登録ワードが後述する仮登録
ワードであるか否かが判定され(ステップPe15)、
仮登録ワードでない場合は上述した会話処理Phが実行
された後、再びステップPe2に戻って、音声の入力を
待つ処理が実行される。
If it is determined in step Pe10 that the toy is not in the sick mode M22, the process proceeds to step Pe13. In step Pe13, the characteristics of the audio data substituted for the variable Vd in step Pe8 and the characteristics of the audio data already registered in the FLASH ROM 3 (hereinafter, referred to as registered words) are compared. Then, when a registered word that is determined to have the same voice data characteristics by a predetermined determination method is found, the number indicating the storage location of the registered word is substituted into the variable J as the registered word number (step Pe1
4). Next, it is determined whether or not the acquired registration word is a temporary registration word described later (step Pe15),
If the word is not a temporary registration word, after the above-described conversation processing Ph is executed, the process returns to step Pe2 again, and a process of waiting for a speech input is executed.

【0110】ステップPe13における検索において、
変数Vdに代入されている音声データに特徴が一致して
いる音声データがFLASH ROM3に見つからなか
った場合、入力された言葉を再度使用者に入力させて、
登録ワードとして玩具に記憶させるための仮登録処理P
fおよび登録延長処理Pgが実行される。これらの処理
の詳細については後で説明する。登録延長処理Pgが終
了すると、会話処理Phと同様に、ステップPe2へ処
理が戻されて再び音声の入力を待つ処理が実行される。
また、ステップPe14で検索された登録ワードが仮登
録された登録ワードであることがステップPe15にお
いて確認されたときは、会話処理Phが実行されるかわ
りに登録延長処理Pgが実行される。
In the search in step Pe13,
If no voice data whose characteristics match the voice data assigned to the variable Vd is found in the FLASH ROM 3, the input word is input again by the user.
Temporary registration process P for storing in a toy as a registration word
f and registration extension processing Pg are executed. Details of these processes will be described later. When the registration extension process Pg ends, the process returns to step Pe2, and the process of waiting for the input of a voice is executed again, similarly to the conversation process Ph.
When it is confirmed in step Pe15 that the registered word searched in step Pe14 is the temporarily registered word, the registration extension process Pg is executed instead of the conversation process Ph.

【0111】続いて、上述した仮登録処理Pfの動作を
説明する。図11および図12は、仮登録処理Pfにお
ける処理を説明するフローチャート図である。図11お
よび図12においてPf1〜Pf33はステップを示し
ている。また、図11のと図12のはステップの接
続関係を示している。
Next, the operation of the above-described temporary registration process Pf will be described. FIG. 11 and FIG. 12 are flowcharts for explaining processing in the temporary registration processing Pf. 11 and 12, Pf1 to Pf33 indicate steps. FIG. 11 and FIG. 12 show the connection relation of the steps.

【0112】仮登録処理Pfにおいては、マイク4から
入力された音声を、登録ワードとしてFLASH RO
M3に記録する処理が行なわれる。そのとき、使用者が
ステップPf5で入力させた音声を登録ワードとして玩
具に記憶させる意志を有しているか否かを確認するため
に、同一の音声を複数回入力させる処理を行い、これら
の処理で入力された音声データの特徴が一致していると
判断されたときに、その音声データを登録ワードとして
FLASH ROM3に記録させる。前記の処理を行な
うことによって、例えば誤った音声を玩具に入力してし
まった場合のように、登録させる意志がない音声が玩具
に登録される不都合が防止されるので、新規な音声を登
録させる場合に例えばボタンを押すなどの面倒な操作が
不要になる。
In the temporary registration process Pf, the voice input from the microphone 4 is used as a registration word in FLASH RO
The process of recording in M3 is performed. At this time, in order to confirm whether or not the user has the intention to store the voice input in step Pf5 as a registration word in the toy, a process of inputting the same voice a plurality of times is performed. When it is determined that the characteristics of the input audio data match, the audio data is recorded in the FLASH ROM 3 as a registered word. By performing the above-described processing, it is possible to prevent inconvenience in which a voice that has no intention to be registered is registered in the toy, such as when an erroneous voice is input to the toy, so that a new voice is registered. In such a case, a troublesome operation such as pressing a button becomes unnecessary.

【0113】ステップPf1において、仮登録処理Pf
1の処理が開始される。ステップPf2において、仮登
録処理Pf1の最初に玩具が音声を発する処理が実行さ
れる。具体的には、ROM2に記録されている音声、例
えば「ウン?」といった音声データがROM2から読み
出されてD/A変換、音程変換回路5で音程を変換され
た後に音声増幅回路6により増幅されてスピーカ7より
音声として出力される。このように、ステップPf2に
おいて玩具から所定の音声が発せられることにより、使
用者は入力した音声が玩具に登録されていない音声であ
ることを確認できる。
In step Pf1, a temporary registration process Pf
1 is started. In step Pf2, a process in which the toy emits sound is executed at the beginning of the temporary registration process Pf1. More specifically, audio data recorded in the ROM 2, for example, audio data such as "un?" The sound is output from the speaker 7 as sound. As described above, the predetermined sound is emitted from the toy in step Pf2, so that the user can confirm that the input sound is sound not registered in the toy.

【0114】ステップPf3において、待ち時間パラメ
ータがリセットされ、ステップPa4において、時計動
作機構12から所定の時間間隔、例えば2秒ごとに入力
されるパルス信号S2に応じて、待ち時間パラメータを
インクリメントする割り込み処理が開始される。待ち時
間パラメータの値はステップPf3においてリセットさ
れているため、この値を参照することにより、ステップ
Pf4からの経過時間を計ることができる。
At step Pf3, the waiting time parameter is reset, and at step Pa4, an interrupt for incrementing the waiting time parameter in response to a pulse signal S2 inputted from the clock operating mechanism 12 at predetermined time intervals, for example, every two seconds. Processing is started. Since the value of the waiting time parameter has been reset in step Pf3, the elapsed time from step Pf4 can be measured by referring to this value.

【0115】ステップPf5において、マイク4から入
力される音声の有無が制御回路1によって判断される。
具体的には、マイク4から入力された音声信号のレベル
が所定のしきい値より小さいとき音声信号が入力されて
いないと判断され、所定のしきい値より大きいとき音声
信号が入力されていると判断される。制御回路1におい
て音声信号が入力されていないと判断された場合、ステ
ップPf6に処理が移行される。ステップPf6では、
上述した待ち時間パラメータの値によって示されるステ
ップPf4からの経過時間と所定の時間、例えば10秒
間とが比較されて、経過時間が10秒間より短い場合、
ステップPf5に再び処理が戻されて、マイク4から入
力される音声の有無が検出される。10秒以内にステッ
プPf5において音声が検出された場合は、前記した待
ち時間パラメータをインクリメントする割り込み処理が
停止されてステップPf5からステップPf7に処理が
移行される。また、10秒以内にステップPf5におい
て音声が検出されなかった場合は、同様に待ち時間パラ
メータをインクリメントする割り込み処理が停止された
後、ステップPf6から上述した音声認識処理Peの冒
頭のステップに処理が移行される。
In step Pf5, the control circuit 1 determines whether or not there is a voice input from the microphone 4.
Specifically, when the level of the audio signal input from the microphone 4 is smaller than a predetermined threshold, it is determined that the audio signal is not input, and when the level is higher than the predetermined threshold, the audio signal is input. Is determined. If the control circuit 1 determines that no audio signal has been input, the processing shifts to step Pf6. In Step Pf6,
The elapsed time from step Pf4 indicated by the value of the waiting time parameter described above is compared with a predetermined time, for example, 10 seconds, and when the elapsed time is shorter than 10 seconds,
The process returns to step Pf5, and the presence or absence of the voice input from the microphone 4 is detected. If a voice is detected in Step Pf5 within 10 seconds, the interrupt process for incrementing the waiting time parameter is stopped, and the process shifts from Step Pf5 to Step Pf7. If no voice is detected in step Pf5 within 10 seconds, the interrupt process for incrementing the waiting time parameter is similarly stopped, and the process proceeds from step Pf6 to the first step of the above-described voice recognition process Pe. Will be migrated.

【0116】ステップPf7では、ステップPf5で検
出されたアナログの音声信号が、制御回路1でA/D変
換を施されてデジタル化された音声データに変換され
る。この際、例えば、音声の大きさが制御回路1におい
て定められている上限のしきい値より大きい場合や、下
限のしきい値より小さい場合、さらには音声の長さが定
められた上限のしきい値より長い場合には、ステップP
f8に処理が移行されて、入力された音声のレベルが不
適当であることを知らせる音声が発せられる。具体的に
は、例えば「ブ〜」という音のデータがROM2から読
み出されてD/A変換され、音程変換回路5、音声増幅
回路6を経てスピーカ7より音声として発せられる。こ
の後、上述した音声認識処理Peの冒頭のステップに処
理が戻される。ステップPf7において音声データが正
常に取得された場合は、次のステップPf9において、
音声データが認識されたことを使用者に通知する音声、
例えば「ウン?」という音声データがROM2から読み
出されてD/A変換され、音程変換回路5、音声増幅回
路6を経てスピーカ7より音声として発せられる。
In step Pf7, the analog audio signal detected in step Pf5 is subjected to A / D conversion by the control circuit 1 and converted into digitized audio data. At this time, for example, when the volume of the voice is larger than the upper threshold set in the control circuit 1, or smaller than the lower threshold, the voice length is set to the upper limit. If it is longer than the threshold, step P
The process shifts to f8, and a sound is generated to notify that the level of the input sound is inappropriate. More specifically, for example, data of the sound “B” is read from the ROM 2, D / A-converted, and transmitted as a sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6. Thereafter, the process returns to the first step of the above-described speech recognition processing Pe. If the audio data is normally acquired in Step Pf7, in the next Step Pf9,
Voice to notify the user that the voice data has been recognized,
For example, audio data "un?" Is read from the ROM 2 and D / A converted, and is emitted as sound from the speaker 7 via the pitch conversion circuit 5 and the audio amplification circuit 6.

【0117】ステップPf10において、上述した待ち
時間パラメータが再びリセットされ、ステップPf11
において、時計動作機構12から所定の時間間隔ごとに
入力されるパルス信号S2に応じて、待ち時間パラメー
タをインクリメントする割り込み処理が開始される。ス
テップPf12においては、後述するステップPf17
において使用される整数kの値がゼロにリセットされ
る。
In step Pf10, the above-mentioned waiting time parameter is reset again, and step Pf11
In, an interrupt process for incrementing the waiting time parameter is started according to the pulse signal S2 input from the clock operating mechanism 12 at predetermined time intervals. In step Pf12, step Pf17 described later
Is reset to zero.

【0118】ステップPf13において、マイク4から
入力される音声の有無が再び制御回路1によって判断さ
れ、音声信号が入力されていないと判断された場合、ス
テップPf14に処理が移行される。ステップPf14
では、上述した待ち時間パラメータの値によって示され
るステップPf11からの経過時間と所定の時間、例え
ば10秒間とが比較されて、経過時間が10秒間より短
い場合、ステップPf13に再び処理が戻されて、マイ
ク4から入力される音声の有無が検出される。10秒以
内にステップPf13において音声が検出された場合
は、前記した待ち時間パラメータをインクリメントする
割り込み処理が停止されてステップPf13からステッ
プPf15に処理が移行される。また、10秒以内にス
テップPf13において音声が検出されなかった場合
は、同様に待ち時間パラメータをインクリメントする割
り込み処理が停止された後、音声認識処理Peの冒頭の
ステップに処理が戻される。
In step Pf13, the control circuit 1 determines again whether or not there is a sound input from the microphone 4, and if it is determined that no sound signal has been input, the process proceeds to step Pf14. Step Pf14
Then, the elapsed time from step Pf11 indicated by the value of the waiting time parameter is compared with a predetermined time, for example, 10 seconds. If the elapsed time is shorter than 10 seconds, the process returns to step Pf13 again. , The presence or absence of a voice input from the microphone 4 is detected. If a voice is detected in Step Pf13 within 10 seconds, the interrupt process for incrementing the waiting time parameter is stopped, and the process shifts from Step Pf13 to Step Pf15. If no voice is detected in Step Pf13 within 10 seconds, the interrupt process for incrementing the waiting time parameter is similarly stopped, and the process returns to the first step of the voice recognition process Pe.

【0119】ステップPf15では、ステップPf13
で検出されたアナログの音声信号が、制御回路1でA/
D変換を施されてデジタル化された音声データに変換さ
れる。上述したステップPf7と同様の条件で入力され
た音声が不適当と判断された場合は、ステップPf16
に処理が移行されて、入力された音声のレベルが不適当
であることを知らせる音声、例えば「ブ〜」といった音
声データがROM2から読み出されてD/A変換され、
音程変換回路5、音声増幅回路6を経てスピーカ7より
音声として発せられる。次いで、ステップPf17にお
いて上述した整数kの値が1だけインクリメントされ、
ステップPf18でこの整数kと整数1の大小関係が判
断される。整数kが所定の整数、例えば1と等しいか、
または1より小さい場合は、ステップPf13に戻って
再び音声の入力を待つ処理が実行され、整数kが1より
大きい場合は、音声認識処理Peの冒頭のステップに処
理が戻される。このように、音声のレベルが不適当であ
った場合に所定の回数(上記の例では1回)だけ音声を
再入力させる機会を設けているので、誤った音声を入力
してしまったとき直ちに音声認識処理Peの冒頭のステ
ップに戻って初めから入力をやり直さなくても済み、同
じ操作を反復させられる不便さが軽減される。
At Step Pf15, Step Pf13
The analog audio signal detected by the control circuit 1
It is subjected to D conversion and converted to digitized audio data. If it is determined that the voice input under the same conditions as in step Pf7 described above is inappropriate, the process proceeds to step Pf16.
The sound is transmitted from the ROM 2 and is subjected to D / A conversion, for example, sound data indicating that the level of the inputted sound is inappropriate, for example, sound data such as "B".
The sound is emitted from a speaker 7 through a pitch conversion circuit 5 and a sound amplification circuit 6. Next, in step Pf17, the value of the above-described integer k is incremented by one,
In step Pf18, the magnitude relationship between the integer k and the integer 1 is determined. Whether the integer k is equal to a predetermined integer, for example, 1;
If it is smaller than 1, the process returns to step Pf13 to wait for the input of a voice again, and if the integer k is larger than 1, the process returns to the first step of the voice recognition process Pe. As described above, since an opportunity is provided to re-input a predetermined number of times (in the above example, once) when the level of the audio is inappropriate, when an erroneous audio is input, It is not necessary to return to the initial step of the voice recognition processing Pe and repeat the input from the beginning, and the inconvenience of repeating the same operation is reduced.

【0120】ステップPf15において音声データが正
常に取得された場合は、ステップPf19において取得
された音声データが変数Vdに代入される。変数Vd
は、後述する処理で入力される音声データとの一致を確
認するために使用される。
If the voice data is normally obtained in step Pf15, the voice data obtained in step Pf19 is substituted for the variable Vd. Variable Vd
Is used to confirm a match with audio data input in a process described later.

【0121】次いで、ステップPf20において、音声
データが認識されたことを通知する音声、例えば「ウー
ンモ」といった音声データがROM2から読み出されて
D/A変換され、音程変換回路5、音声増幅回路6を経
てスピーカ7より音声として発せられる。玩具が音声の
認識に応じて発する音声が変化(上記の例では「ウン
?」から「ウーンモ」に変化)するため、使用者は、玩
具が音声を認識していること、および音声の登録中の段
階を知ることができる。
Next, in step Pf20, a voice for notifying that the voice data has been recognized, for example, voice data such as "Woonmo" is read from the ROM 2 and D / A converted, and the pitch conversion circuit 5, the voice amplification circuit 6 , And is emitted as sound from the speaker 7. Since the sound emitted by the toy in response to the recognition of the sound changes (in the above example, “un?” Changes to “woonmo”), the user must confirm that the toy has recognized the sound and that the sound is being registered. You can know the stage.

【0122】ステップPf21において、上述した待ち
時間パラメータが再びリセットされ、ステップPf22
において、時計動作機構12から所定の時間間隔ごとに
入力されるパルス信号S2に応じて、待ち時間パラメー
タをインクリメントする割り込み処理が開始される。ス
テップPf23においては、後述するステップPf28
において使用される整数kの値がゼロにリセットされ
る。
In step Pf21, the above-mentioned waiting time parameter is reset again, and in step Pf22
In, an interrupt process for incrementing the waiting time parameter is started according to the pulse signal S2 input from the clock operating mechanism 12 at predetermined time intervals. In Step Pf23, Step Pf28 described later
Is reset to zero.

【0123】ステップPf24において、マイク4から
入力される音声の有無が再び制御回路1によって判断さ
れ、音声信号が入力されていないと判断された場合、ス
テップはステップPf25に移行される。ステップPf
25では、上述した待ち時間パラメータの値によって示
されるステップPf22からの経過時間と所定の時間、
例えば10秒間とが比較されて、経過時間が10秒間よ
り短い場合、ステップPf24に再び処理が戻されて、
マイク4から入力される音声の有無が検出される。10
秒以内にステップPf24において音声が検出された場
合は、前記した待ち時間パラメータをインクリメントす
る割り込み処理が停止されてステップPf24からステ
ップPf26に処理が移行される。また、10秒以内に
ステップPf24において音声が検出されなかった場合
は、同様に待ち時間パラメータをインクリメントする割
り込み処理が停止された後、音声認識処理Peの冒頭の
ステップに処理が戻される。
In step Pf24, the control circuit 1 determines again whether or not there is a voice input from the microphone 4, and if it is determined that no voice signal has been input, the process proceeds to step Pf25. Step Pf
In 25, the elapsed time from step Pf22 indicated by the value of the waiting time parameter and a predetermined time,
For example, the elapsed time is compared with 10 seconds, and if the elapsed time is shorter than 10 seconds, the process returns to Step Pf24 again.
The presence or absence of a voice input from the microphone 4 is detected. 10
If a voice is detected in step Pf24 within seconds, the interrupt processing for incrementing the waiting time parameter is stopped, and the processing shifts from step Pf24 to step Pf26. If no voice is detected in step Pf24 within 10 seconds, the interrupt process for incrementing the waiting time parameter is similarly stopped, and the process returns to the first step of the voice recognition process Pe.

【0124】ステップPf26では、ステップPf24
で検出されたアナログの音声信号が、制御回路1でA/
D変換を施されてデジタル化された音声データに変換さ
れる。上述したステップPf7と同様の条件で入力され
た音声が不適当と判断された場合は、ステップPf27
に処理が移行されて、入力された音声のレベルが不適当
であることを知らせる音声、例えば「ブ〜」といった音
声データがROM2から読み出されてD/A変換され、
音程変換回路5、音声増幅回路6を経てスピーカ7より
音声として発せられる。次いで、ステップPf28にお
いて上述した整数kの値が1だけインクリメントされ、
ステップPf29でこの整数kと整数1の大小関係が判
断される。整数kが所定の整数、例えば1と等しいか、
または1より小さい場合は、ステップPf24に戻って
再び音声の入力を待つ処理が実行され、整数kが1より
大きい場合は、音声認識処理Peの冒頭のステップに処
理が戻される。ステップPf12〜Pf18と同様に、
音声のレベルが不適当であった場合に所定の回数だけ音
声を再入力させる機会を設けているので、同じ操作を反
復させられる不便が軽減される。
In step Pf26, step Pf24
The analog audio signal detected by the control circuit 1
It is subjected to D conversion and converted to digitized audio data. If it is determined that the voice input under the same conditions as in step Pf7 described above is inappropriate, the process proceeds to step Pf27.
The sound is transmitted from the ROM 2 and is subjected to D / A conversion, for example, sound data indicating that the level of the inputted sound is inappropriate, for example, sound data such as "B".
The sound is emitted from a speaker 7 through a pitch conversion circuit 5 and a sound amplification circuit 6. Next, in step Pf28, the value of the above integer k is incremented by one,
In step Pf29, the magnitude relationship between the integer k and the integer 1 is determined. Whether the integer k is equal to a predetermined integer, for example, 1;
If it is smaller than 1, the process returns to step Pf24 and waits for the input of a voice again. If the integer k is larger than 1, the process returns to the first step of the voice recognition process Pe. Like steps Pf12 to Pf18,
Since the opportunity to re-enter the voice a predetermined number of times when the voice level is inappropriate is provided, the inconvenience of repeating the same operation is reduced.

【0125】ステップPf30では、ステップPf19
で変数Vdに代入され音声データと、ステップPf26
で取得された音声データの特徴が制御回路1において比
較される。音声データの特徴は、例えば音声データをフ
ーリエ変換して得られた周波数スペクトルの振幅などを
用いて抽出され、所定の比較手順で比較される。互いの
音声データの特徴が一致しないと判断された場合は、上
述したステップPf27に処理が移行されて、入力され
た音声のレベルが不適当であることを知らせる音声が発
せられ、ステップPf27を通過した回数に応じ、音声
の再入力を許可されるか、あるいは音声認識処理Peの
冒頭のステップに処理が戻される。
In step Pf30, step Pf19
And the voice data substituted for the variable Vd at step Pf26
Are compared in the control circuit 1. The features of the audio data are extracted using, for example, the amplitude of a frequency spectrum obtained by performing Fourier transform on the audio data, and are compared by a predetermined comparison procedure. If it is determined that the characteristics of the audio data do not match each other, the process proceeds to step Pf27 described above, a voice is issued to notify that the level of the input voice is inappropriate, and the process goes through step Pf27. Depending on the number of times, the re-input of the voice is permitted, or the process is returned to the first step of the voice recognition process Pe.

【0126】変数Vdの音声タとステップPf26で取
得された音声データの特徴が一致していると判断された
場合は、ステップPf26で取得された音声データをF
LASH ROM3に記録する処理が行なわれる。ま
ず、ステップPf31において、FLASH ROM3
にデータを格納させる場所に係る登録ワード番号が取得
されて変数Jにその番号が代入され、次いでステップP
f32において登録ワード番号がJ番であるFLASH
ROM3の格納エリアにステップPf26で取得され
た音声データが格納される。このとき、この音声データ
の情報とともに、仮登録状態にセットされている仮登録
フラグも記録される。仮登録フラグは図10のステップ
Pe15において参照されるフラグである。仮登録フラ
グがセットされている登録ワードは、このステップにお
いて仮登録ワードであると判断されて会話処理Phの実
行が許可されず、登録延長処理Pgが実行される。登録
延長処理において仮登録フラグがリセットされて正式に
登録された登録ワードだけが、会話処理Phの実行を許
可される仕組みになっている。
If it is determined that the voice data of the variable Vd and the characteristics of the voice data obtained in step Pf26 match, the voice data obtained in step Pf26 is
Processing for recording in the LASH ROM 3 is performed. First, in step Pf31, the FLASH ROM 3
The registered word number related to the location where data is to be stored in the variable J is obtained and the number is substituted for the variable J.
FLASH whose registered word number is J in f32.
The sound data acquired in step Pf26 is stored in the storage area of the ROM 3. At this time, the temporary registration flag set in the temporary registration state is also recorded together with the information of the audio data. The temporary registration flag is a flag referred to in step Pe15 of FIG. The registration word for which the temporary registration flag is set is determined to be a temporary registration word in this step, and the execution of the conversation process Ph is not permitted, and the registration extension process Pg is executed. In the registration extension process, only the registered word that is temporarily registered by resetting the temporary registration flag is permitted to execute the conversation process Ph.

【0127】引き続いて、登録延長処理Pgの動作を説
明する。図13および図14は、登録延長処理Pgにお
ける処理を説明するフローチャート図である。図13お
よび図14においてPg1〜Pg23はステップを示し
ている。また、図13のと図14のはステップの接
続関係を示している。
Subsequently, the operation of the registration extension process Pg will be described. FIGS. 13 and 14 are flowcharts for explaining the processing in the registration extension processing Pg. 13 and 14, Pg1 to Pg23 indicate steps. FIG. 13 and FIG. 14 show the connection relation of the steps.

【0128】上述したように、仮登録フラグがセットさ
れている登録ワードが認識された場合は、会話処理Ph
が実行されずに登録延長処理Pgが実行される。登録延
長処理Pgにおいては、仮登録フラグをリセットして登
録ワードを正式に登録させるまでに、音声を認識させる
処理を複数回反復させて、正式登録を延長させる処理が
行なわれる。音声を認識させる処理を反復させる回数
は、上述した信頼パラメータを加味した範囲でランダム
に決定される。
As described above, when the registered word in which the temporary registration flag is set is recognized, the conversation processing Ph
Is not executed, the registration extension process Pg is executed. In the registration extension process Pg, the process of recognizing the voice is repeated a plurality of times until the temporary registration flag is reset and the registration word is formally registered, and the process of extending the formal registration is performed. The number of repetitions of the process of recognizing the voice is randomly determined within a range in which the above-described reliability parameter is added.

【0129】会話処理Phは、使用者がマイク4に入力
した音声に応じて登録ワードや上述した自動音声登録処
理Pcをさまざまに組み合わせてランダムに発声させる
処理であり、使用者が玩具と音声のやり取りを交わす行
為を楽しむ上で欠かすことができない処理である。した
がって、登録延長処理Pgで会話処理Phの楽しみを先
延ばしさせることにより、玩具と会話することに対する
使用者の興味と期待感を掻き立てる効果を生み出すこと
ができる。また、規定の回数で言葉の登録が完了してし
まうと玩具が機械的に音声を記録している印象を使用者
に抱かせてしまい玩具の擬似生物としての趣向性を損な
ってしまうが、このように言葉の登録をランダムに延長
させる処理を設けることで生物が言葉を記憶する際の不
確定性を表現できるので、あたかも生物に言葉を覚えさ
せているような感覚を使用者に喚起させることができ
る。
The conversation process Ph is a process in which a registration word and the above-described automatic voice registration process Pc are variously combined in accordance with the voice input to the microphone 4 by the user to produce a random voice. This is a process that is indispensable for enjoying the act of exchanging exchanges. Therefore, by prolonging the enjoyment of the conversation process Ph by the registration extension process Pg, it is possible to produce an effect of inspiring the user's interest and expectation for talking with the toy. In addition, if the registration of words is completed in the specified number of times, the user will have the impression that the toy mechanically records the sound, and the taste of the toy as a simulated creature will be impaired. By providing a process to extend the registration of words at random like this, it is possible to express the uncertainty when the creature memorizes the words, so that the user is stimulated as if the creature is remembering the words Can be.

【0130】登録延長処理PgはステップPg1から処
理が開始される。まず、ステップPg2において上述し
た信頼パラメータの大きさが所定の整数値例えば整数4
5と大小関係を比較され、信頼パラメータが整数45よ
り小さい場合はステップPg3に処理が移行される。ス
テップPg3では例えば2〜4の整数がランダムに生成
されて変数mに代入される。また、信頼パラメータが整
数45より大きい場合はステップPg4に処理が移行さ
れる。ステップPg4でもステップPg2と同様に信頼
パラメータの大きさが所定の整数値例えば整数55と大
小関係を比較され、信頼パラメータが整数55より小さ
い場合はステップPg5に処理が移行される。ステップ
Pg5では、例えば1〜3の整数がランダムに生成され
て変数mに代入される。また、信頼パラメータが整数5
5より大きい場合はステップPg6に処理が移行され、
例えば0〜2の整数がランダムに生成されて変数mに代
入される。以上の処理によって、変数mには信頼パラメ
ータの大きさに応じた0から4の整数が代入される。
The registration extension process Pg is started from step Pg1. First, in step Pg2, the magnitude of the above-mentioned reliability parameter is a predetermined integer value,
If the confidence parameter is smaller than the integer 45, the process proceeds to step Pg3. In step Pg3, for example, integers of 2 to 4 are randomly generated and assigned to the variable m. If the confidence parameter is larger than the integer 45, the process proceeds to Step Pg4. Also at step Pg4, the magnitude of the reliability parameter is compared with a predetermined integer value, for example, an integer 55, in magnitude relation, as in step Pg2. If the reliability parameter is smaller than the integer 55, the process proceeds to step Pg5. In Step Pg5, for example, integers of 1 to 3 are randomly generated and assigned to the variable m. The trust parameter is an integer 5
If it is larger than 5, the process proceeds to Step Pg6,
For example, an integer of 0 to 2 is randomly generated and assigned to a variable m. Through the above processing, an integer from 0 to 4 according to the magnitude of the reliability parameter is substituted for the variable m.

【0131】変数mに整数が代入された後、ステップP
g7において整数mと整数0の一致が確認される。整数
mが整数0に等しい場合はステップPg21に処理が移
行され、登録ワード番号がJ番の登録ワードの仮登録フ
ラグがリセットされて正式登録される。また、整数mが
整数0に等しくない場合は、ステップPg8〜Pg18
の処理が実行される。このステップにより、作業者が正
式登録を完了させるためには、登録させたい音声を玩具
に認識させる作業を変数mに応じた回数だけ反復させな
くてはならない。
After an integer has been substituted for the variable m, step P
In g7, a match between the integer m and the integer 0 is confirmed. If the integer m is equal to the integer 0, the process proceeds to Step Pg21, where the provisional registration flag of the registered word having the registered word number J is reset and officially registered. On the other hand, when the integer m is not equal to the integer 0, steps Pg8 to Pg18
Is performed. In this step, in order for the operator to complete the formal registration, the operation of causing the toy to recognize the voice to be registered must be repeated a number of times according to the variable m.

【0132】ステップPg8において、後の処理で参照
する整数の変数kおよびiがゼロにリセットされる。次
いで、ステップPg9において待ち時間パラメータがリ
セットされ、ステップPg10において、時計動作機構
12から所定の時間間隔ごとに入力されるパルス信号S
2に応じて、待ち時間パラメータをインクリメントする
割り込み処理が開始される。待ち時間パラメータの値は
ステップPg9においてリセットされているため、この
値を参照することにより、ステップPg10からの経過
時間を計ることができる。
In step Pg8, integer variables k and i to be referred to in the subsequent processing are reset to zero. Next, in step Pg9, the waiting time parameter is reset, and in step Pg10, the pulse signal S input from the clock operating mechanism 12 at predetermined time intervals is set.
In response to 2, the interrupt processing for incrementing the waiting time parameter is started. Since the value of the waiting time parameter has been reset in step Pg9, the elapsed time from step Pg10 can be measured by referring to this value.

【0133】ステップPg11において、マイク4から
入力される音声の有無が制御回路1によって判断され
る。具体的には、マイク4から入力された音声信号のレ
ベルが所定のしきい値より小さいとき音声信号が入力さ
れていないと判断され、所定のしきい値より大きいとき
音声信号が入力されていると判断される。制御回路1に
おいて音声信号が入力されていないと判断された場合、
ステップPg12に処理が移行される。ステップPg1
2では、上述した待ち時間パラメータの値によって示さ
れるステップPg10からの経過時間と所定の時間、例
えば10秒間とが比較されて、経過時間が10秒間より
短い場合、ステップPg11に再び処理が戻されて、マ
イク4から入力される音声の有無が検出される。10秒
以内にステップPg11において音声が検出された場合
は、前記した待ち時間パラメータをインクリメントする
割り込み処理が停止されてステップPg11からステッ
プPg13に処理が移行される。また、10秒以内にス
テップPg11において音声が検出されなかった場合
は、同様に待ち時間パラメータをインクリメントする割
り込み処理が停止された後、ステップPg12から後述
するステップPg19に処理が移行される。
In step Pg11, the control circuit 1 determines whether or not there is a voice input from the microphone 4. Specifically, when the level of the audio signal input from the microphone 4 is smaller than a predetermined threshold, it is determined that the audio signal is not input, and when the level is higher than the predetermined threshold, the audio signal is input. Is determined. If the control circuit 1 determines that no audio signal is input,
The process is shifted to Step Pg12. Step Pg1
In 2, the elapsed time from step Pg10 indicated by the value of the waiting time parameter is compared with a predetermined time, for example, 10 seconds. If the elapsed time is shorter than 10 seconds, the process returns to step Pg11 again. Thus, the presence or absence of the voice input from the microphone 4 is detected. If a voice is detected in step Pg11 within 10 seconds, the interrupt processing for incrementing the waiting time parameter is stopped, and the processing shifts from step Pg11 to step Pg13. If no sound is detected in step Pg11 within 10 seconds, the interruption process for incrementing the waiting time parameter is similarly stopped, and the process proceeds from step Pg12 to step Pg19 described later.

【0134】ステップPg13では、ステップPg11
で検出されたアナログの音声信号が、制御回路1でA/
D変換を施されてデジタル化された音声データに変換さ
れる。この際、例えば、音声の大きさが制御回路1にお
いて定められている上限のしきい値より大きい場合や、
下限のしきい値より小さい場合、さらには音声の長さが
定められた上限のしきい値より長い場合には、ステップ
Pg14に処理が移行されて、入力された音声のレベル
が不適当であることを知らせる音声が発せられる。具体
的には、例えば「ブ〜」という音のデータがROM2か
ら読み出されてD/A変換され、音程変換回路5、音声
増幅回路6を経てスピーカ7より音声として発せられ
る。このあと、後述するステップPg19に処理が移行
される。
At step Pg13, at step Pg11
The analog audio signal detected by the control circuit 1
It is subjected to D conversion and converted to digitized audio data. At this time, for example, when the sound volume is larger than the upper limit threshold value determined in the control circuit 1,
If it is smaller than the lower threshold, or if the length of the voice is longer than the predetermined upper threshold, the process proceeds to step Pg14, and the level of the input voice is inappropriate. A voice is emitted to inform the user. More specifically, for example, data of the sound “B” is read from the ROM 2, D / A-converted, and transmitted as a sound from the speaker 7 through the pitch conversion circuit 5 and the sound amplification circuit 6. Thereafter, the process proceeds to Step Pg19 described later.

【0135】ステップPg13において音声データが正
常に取得された場合は、次のステップPg15におい
て、音声データが認識されたことを使用者に通知する音
声、例えば「ウーンニャ」という音声データがROM2
から読み出されてD/A変換され、音程変換回路5、音
声増幅回路6を経てスピーカ7より音声として発せられ
る。上述の例によれば、ステップPf2およびステップ
Pf9の「ウン?」からステップPf20の「ウーン
モ」、さらにステップPg15の「ウーンニャ」といっ
たように、音声を玩具に登録させる諸段階に玩具が発す
る音声が変化するので、使用者は玩具に対する音声の登
録段階を大まかに把握することができる。
If the voice data is normally obtained in step Pg13, in the next step Pg15, a voice for notifying the user that the voice data has been recognized, for example, voice data "Wunnya" is stored in the ROM 2.
, And D / A-converted, and is emitted as sound from a speaker 7 via a pitch conversion circuit 5 and a sound amplification circuit 6. According to the above-described example, the sound uttered by the toy at various stages of registering the sound to the toy, such as “Un?” In step Pf2 and “Un?” In step Pf9 to “Woonmo” in step Pf20, and further, “Wunnya” in step Pg15, Since it changes, the user can roughly grasp the registration stage of the sound for the toy.

【0136】次に、ステップPg16において上述した
変数iに整数1が加算され、ステップPg17において
変数mと変数iの一致が確認される。変数mと変数iが
一致していない場合はステップPg11に処理が戻され
て、再び音声の入力を待って音声データに変換する処理
が実行される。したがって、ステップPg2〜Pg6で
信頼パラメータを加味しながらランダムに決定された変
数mにより、ステップPg11からステップPg17の
処理を反復する回数が決定される。
Next, at step Pg16, the integer 1 is added to the above-mentioned variable i, and at step Pg17, it is confirmed that the variables m and i match. If the variable m and the variable i do not match, the process returns to step Pg11, and the process of waiting for the input of a voice again and performing conversion to voice data is executed. Therefore, the number of times of repeating the processing of steps Pg11 to Pg17 is determined by the variable m randomly determined in consideration of the reliability parameters in steps Pg2 to Pg6.

【0137】ステップPg17において変数mと変数i
が一致していることが確認された場合は、ステップPg
18において、登録ワード番号がJ番の音声データとス
テップPg13で取得された音声データの特徴が一致し
ているか否か判定される。一致している場合はステップ
Pg21に処理が移行され、登録ワード番号がJ番の登
録ワードの仮登録フラグがリセットされてFLASH
ROM3の所定のアドレスに格納される。これにより、
登録ワードJ番の音声データは正式登録される。登録ワ
ード番号Jの音声データとステップPg13で取得され
た音声データの特徴が一致していない場合は、後述する
ステップPg19に処理が移行される。
In Step Pg17, the variable m and the variable i
If it is confirmed that they match, the step Pg
At 18, it is determined whether or not the features of the voice data whose registered word number is J and the voice data acquired in step Pg13 match. If they match, the process moves to step Pg21, where the temporary registration flag of the registered word whose registered word number is J is reset to FLASH.
It is stored at a predetermined address in the ROM 3. This allows
The audio data of the registration word J is officially registered. If the voice data of the registered word number J does not match the voice data acquired in step Pg13, the process proceeds to step Pg19 described later.

【0138】ステップPg19およびPg20では、音
声入力の待ち時間が所定時間をオーバーしてしまったエ
ラー(ステップPg12)や、入力された音声にレベル
が大きすぎる等の不具合があるエラー(ステップPg1
3)、あるいは登録させたい音声データと仮登録されて
いる音声データの特徴が一致しないエラー(ステップP
g18)が発生した場合において、変数kの値に整数1
が加えられる。そしてステップPg20において変数k
と所定の整数たとえば整数3の大小関係が判断されて、
変数kが整数3と同じか小さい場合はステップPg11
に処理が戻されて、音声データを取得する処理が反復さ
れる。また、変数kが整数3より大きい場合は、音声認
識処理Peの冒頭に処理が戻される。このように、上記
のようなエラーが発生した場合に音声認識処理Peの冒
頭までいきなり処理を戻してしまうのではなく、前述の
エラーが発生した回数が3回以内である場合はステップ
Pg11からの音声を取得する処理に戻される。したが
って、例えば間違ったイントネーションで音声を入力し
てしまった場合などであっても再び音声を入力させる機
会が設けられているので初めから音声の入力をやり直さ
なくても済み、同じ操作を反復させられる不便さが軽減
される。
In steps Pg19 and Pg20, an error (step Pg12) in which the waiting time for the voice input exceeds a predetermined time or an error (step Pg1) in which the level of the input voice is too high.
3) or an error in which the characteristics of the audio data to be registered and the temporarily registered audio data do not match (step P
g18) occurs, the value of the variable k is set to the integer 1
Is added. Then, in step Pg20, the variable k
And the magnitude relationship of a predetermined integer, for example, the integer 3, is determined.
If the variable k is equal to or smaller than the integer 3, step Pg11
And the process of acquiring audio data is repeated. If the variable k is larger than the integer 3, the process returns to the beginning of the speech recognition process Pe. As described above, when the above-described error occurs, the process is not immediately returned to the beginning of the speech recognition process Pe. The process is returned to the process of acquiring audio. Therefore, for example, even when the voice is input with the wrong intonation, there is provided an opportunity to input the voice again, so that it is not necessary to re-input the voice from the beginning, and the same operation can be repeated. Inconvenience is reduced.

【0139】ステップPg21で仮登録フラグがリセッ
トされてFLASH ROM3に記録された後、ステッ
プPg22において音声が玩具に記憶されたことを表現
する音声が発せられる。たとえばステップP21で正式
登録させた音声データがD/A変換され、音程変換回路
5、音声増幅回路6を経てスピーカ7より音声として発
せられる。これにより、玩具が音声を記憶したことを使
用者に通知させることができる。
After the temporary registration flag is reset in step Pg21 and recorded in the FLASH ROM 3, in step Pg22, a sound expressing that the sound has been stored in the toy is emitted. For example, the audio data that has been officially registered in step P21 is D / A converted, and is output as a sound from the speaker 7 via the pitch conversion circuit 5 and the audio amplification circuit 6. This allows the user to be notified that the toy has memorized the sound.

【0140】以上説明した音声認識処理Peによれば、
仮登録処理が完了するまでに音声の入力を最低4回行わ
なくてはならない。このうち、ステップPf5による音
声の入力操作は、誤って音声が仮登録されてしまいFL
ASH ROM3の記憶領域を圧迫してしまう確率を減
らすための処理手順であり、この処理を省略させても仮
登録の動作は可能である。また、ステップPf13によ
る音声の入力は、ステップPf30で音声データの一致
を確認するための音声を入力させるための処理手順であ
るが、例えば前に述べたようにステップPf5の処理を
省略した場合において、もしステップPe8で変数Vd
に代入した音声データをステップPf30で参照できる
のであれば、ステップPf13による音声の入力操作も
省略できる。すなわち、図11および図12におけるス
テップPf1からステップPf20までの処理を省略さ
せること可能である。
According to the speech recognition processing Pe described above,
Until the temporary registration process is completed, voice input must be performed at least four times. Of these, in the voice input operation in step Pf5, the voice is tentatively registered by mistake and FL
This is a processing procedure for reducing the probability that the storage area of the ASH ROM 3 will be squeezed. Even if this processing is omitted, the operation of temporary registration is possible. The input of the voice in step Pf13 is a processing procedure for inputting a voice for confirming the match of the voice data in step Pf30. For example, as described above, when the process of step Pf5 is omitted, , If in step Pe8 the variable Vd
If the voice data substituted into the data can be referred to in step Pf30, the voice input operation in step Pf13 can also be omitted. That is, the processing from step Pf1 to step Pf20 in FIGS. 11 and 12 can be omitted.

【0141】また、仮登録処理の変形として、例えばス
テップPf9の処理の後にステップPf3からステップ
Pf8の処理を繰り返し、最後にステップPf31、P
f32を行うことも可能である。すなわち、使用者が繰
り返し同じ音声を入力させることによって使用者が音声
を登録しようとしている意志を確認し、音声を登録させ
る処理である。これによれば、各音声入力における音声
の一致が確認されないので、異なる音声を連続して入力
された場合、最後に入力された音声を登録してしまう可
能性もあるが、処理を単純にできるのでメモリの容量を
節約できる。
As a modification of the temporary registration process, for example, after the process of Step Pf9, the processes of Step Pf3 to Step Pf8 are repeated, and finally, Steps Pf31 and Pf31 are executed.
It is also possible to perform f32. That is, the user repeatedly inputs the same voice, confirms the intention of the user to register the voice, and registers the voice. According to this, since matching of voices in each voice input is not confirmed, when different voices are continuously input, there is a possibility that the last input voice is registered, but the processing can be simplified. Therefore, the memory capacity can be saved.

【0142】また、ステップPf19からステップPf
30までを複数回繰り返し、最後にステップPf31、
Pf32を行うことも可能である。すなわち、音声入力
を行なう前に前回の音声データを変数Vdに保存させて
から次の音声データを取得し、その後変数Vdと取得し
た音声データの一致を検出して、一致しない場合に処理
を初期のステップに元に戻す処理である。前回入力した
音声と今回入力した音声が異なっている場合を調べるこ
とができるので、この処理によっても、使用者が玩具に
音声を登録させる意志を確認することができる。
Further, from step Pf19 to step Pf
Step 30 is repeated a plurality of times, and finally, Step Pf31,
It is also possible to perform Pf32. That is, before performing voice input, the previous voice data is stored in a variable Vd, and then the next voice data is obtained. After that, a match between the variable Vd and the obtained voice data is detected. This is the process of returning to the step. Since it is possible to check the case where the voice input last time and the voice input this time are different, the user can confirm the intention to register the voice in the toy also by this processing.

【0143】また、ステップPf19からステップPf
30までを複数回繰り返す前述した変形例において、ス
テップPf30を、取得した音声データとFLASH
ROM3の登録ワードの一致を検索するステップに変更
させることもできる。この場合、取得した音声データと
一致するデータがFLASH ROM3に記憶されてい
る場合にステップPf27に処理を移行させる。この処
理によれば既に登録されている音声を使用者が入力した
ことが分かるので、これによっても使用者の意志を確認
することができる。
Further, from step Pf19 to step Pf
30 is repeated a plurality of times in the above-described modified example, the step Pf30 is performed by using the acquired audio data and the FLASH
The step may be changed to a step of searching for a match of the registered word in the ROM 3. In this case, if data matching the acquired audio data is stored in the FLASH ROM 3, the process proceeds to Step Pf27. According to this processing, since it is known that the user has input a voice that has already been registered, the user's intention can also be confirmed.

【0144】登録延長処理における処理も使用者に同じ
言葉を入力させて玩具に言葉を覚えさせることを目的と
している処理として仮登録処理と同じなので、以上説明
した仮登録処理の変形は、登録延長処理にも応用可能で
ある。また、これらを任意に組み合わせた処理も可能で
ある。
The processing in the registration extension processing is the same as the temporary registration processing as the processing for the purpose of allowing the user to input the same words and causing the toy to remember the words. It is also applicable to processing. Further, processing in which these are arbitrarily combined is also possible.

【0145】次に、会話処理Phの動作について説明す
る。
Next, the operation of the conversation processing Ph will be described.

【0146】会話処理Phにおいては、使用者の入力さ
せた音声に対して種々のパターンの音声を発する処理が
行われる。また、交互に連続して入力された登録済みの
音声を関連付けて対語として記憶させる処理も行われ
る。
In the conversation process Ph, a process of emitting various patterns of voice to the voice input by the user is performed. Further, a process of storing registered voices, which are alternately and continuously inputted, in association with each other, is also performed.

【0147】この会話処理Phにおいて処理される音声
は仮登録を経て正式に登録された音声に限ることは既に
述べたが、正式に登録された各音声には記憶度パラメー
タと対語関連度パラメータという2つのパラメータが付
加される。記憶度パラメータは、正式登録されてFLA
SH ROM3に記憶された音声の記憶を保持させる度
合いに関するパラメータであり、対語関連度パラメータ
は上述した対語関係の情報の記憶を保持させる度合いに
関するパラメータである。
Although the speech processed in the conversation processing Ph is limited to the speech officially registered through the temporary registration, each speech registered officially is referred to as a memory parameter and a word relevance parameter. Two parameters are added. The memory parameter is officially registered and FLA
The parameter relating to the degree to which the storage of the voice stored in the SH ROM 3 is stored, and the word relevance parameter is a parameter relating to the degree to which the storage of the above-described information on the word relation is held.

【0148】FLASH ROM3に記憶できる音声
は、メモリの容量によって制限される。したがって、記
憶された音声が増えて、定められた上限の個数に達した
場合、記憶されている音声の何れかを消去しなければ新
規の音声を記憶できない。記憶度パラメータは、このよ
うな場合に消去させる音声を決定するためのパラメータ
であり、このパラメータが最も小さいデータから順に消
去される。この記憶度パラメータは、この音声を入力し
て認識させる毎に呼び出した時点における信頼値に応じ
た値を加算される。また、例えば1日といった一定期間
毎に僅かに減少させる。これにより、あまり入力されな
い音声データは時間と共に自動的に減少し、新規の音声
データと置き換えられて消去される。また、記憶度パラ
メータに所定の下限値を設け、これを下回ったら、新規
の言葉と置き換えられるまでもなく自動的に音声データ
を消去させることもできる。このように、玩具が言葉を
忘却するさまは生き物を連想させるので、使用者が玩具
に抱く疑似生物としての趣向性を高めることができる。
The sound that can be stored in the FLASH ROM 3 is limited by the capacity of the memory. Therefore, when the number of stored voices increases and reaches a predetermined upper limit, new voices cannot be stored unless one of the stored voices is deleted. The storage parameter is a parameter for determining the voice to be deleted in such a case, and the parameter is deleted in order from the smallest data. Each time the voice is input and recognized, a value corresponding to the reliability value at the time of calling is added to the memory degree parameter. In addition, for example, it is slightly decreased every certain period such as one day. As a result, audio data that is not frequently input automatically decreases with time, and is replaced with new audio data and erased. Also, a predetermined lower limit value may be set in the memory parameter, and if the lower limit is exceeded, the voice data may be automatically deleted without being replaced with a new word. As described above, since a toy that forgets words reminds a creature, it is possible to enhance the interest of the user as a pseudo-creature held by the toy.

【0149】一つの音声データに記憶させることができ
る対語の数も所定数、例えば3つまでに制限されてお
り、例えば現在3つの対語を有している音声データに4
つ目の異なる音声データを対語として認識させる場合、
この対語を新規に設定するためには、3つのうちの何れ
かの対語の記憶を消去しなくてはならない。対語関連度
パラメータは、このような場合に消去させる対語を決定
するためのパラメータであり、このパラメータが最も小
さいデータから順に消去される。また、対語関連度パラ
メータは後に述べる対語の連続発声機能においても参照
され、対語関連度パラメータの値が大きい対語が選択さ
れて発声される。
The number of words that can be stored in one voice data is also limited to a predetermined number, for example, three. For example, four words are added to voice data that currently has three words.
If you want to recognize the second different voice data as the opposite word,
In order to newly set this word, it is necessary to erase the memory of any of the words. The word relevance parameter is a parameter for determining a word to be deleted in such a case, and this parameter is deleted in order from the smallest data. The logarithmic relevance parameter is also referred to in a logarithmic continuous utterance function described later, and a parallax having a large logarithmic relevance parameter is selected and uttered.

【0150】この対語関連度パラメータは、対語を発声
させる度に信頼値に応じた値を加算される。例えば、 音声データ:「こんにちは」 対語1:「こんばんは」 対語関連度パラメータ=20 という音声データと 音声データ:「こんばんは」 対語1:「こんにちは」 対語関連度パラメータ=15 という音声データが登録されている状態で、「こんにち
は」という音声を入力してこれが認識され、この対語で
ある「こんばんは」という音声が玩具から発声された場
合、それぞれの対語関連度パラメータ20および15に
信頼パラメータに応じたランダムな数値が加算される。
The value corresponding to the confidence value is added to this word relevance parameter each time a word is uttered. For example, audio data: "Hello" for-word 1: "Good evening" for-word relevance parameter = 20 that the audio data and audio data: "Good evening" for-word 1: voice saying "Hello" for-word relevance parameter = 15 data is registered state, recognized this by entering the voice saying "Hello", the-word is when the voice of "evening" is uttered from toys, random in accordance with the confidence parameter to each-word relevance parameters 20 and 15 The numerical value is added.

【0151】対語関連度パラメータも、記憶度パラメー
タと同様に、例えば1日といった一定期間毎に僅かに減
少させる。これにより、あまり認識されない対語関連度
パラメータは時間と共に自動的に減少し、新規の対語が
学習された場合にこれと置き換えられて消去される。
The word relevance parameter is also slightly reduced at regular intervals, for example, one day, similarly to the memory parameter. As a result, the less-recognized word relevance parameter automatically decreases with time, and when a new word is learned, it is replaced and deleted.

【0152】図15は、会話処理Phにおける処理を説
明するフローチャート図である。図15においてPh1
〜Ph13は処理の各ステップを示している。
FIG. 15 is a flowchart for explaining the processing in the conversation processing Ph. In FIG. 15, Ph1
To Ph13 indicate each step of the process.

【0153】ステップPh1から、会話処理が開始す
る。ステップPh2において、登録ワード番号Jの音声
データの記憶度パラメータに、信頼パラメータに応じた
所定の値が加算され、ステップPh3において、登録ワ
ード番号Jが対語を有するか否かが判別される。まず対
語を有しない場合について説明すると、この場合はステ
ップPh12に処理を移行させて登録ワード番号Jの音
声を出力させる。すなわち、対語となる音声がない場合
は、使用者が入力した音声と一致する登録ワードをその
ままオウム返しに出力させる処理を行う。次いで、後述
する対語処理Piに移行してこれを実行し、その後会話
処理を終了する。
The conversation process starts from step Ph1. In Step Ph2, a predetermined value corresponding to the reliability parameter is added to the storage parameter of the audio data of the registered word number J, and in Step Ph3, it is determined whether or not the registered word number J has an opposite word. First, the case where there is no opposite word will be described. In this case, the process shifts to step Ph12 to output the voice of the registered word number J. That is, when there is no voice to be used as a word, a process is performed in which a registered word that matches the voice input by the user is directly output as a parrot return. Next, the processing shifts to the later-described paring process Pi and is executed, and then the conversation process ends.

【0154】ステップPh3において、登録ワード番号
Jが対語を有することが判別された場合は、ステップP
h4において複数のステップのうちの1つを所定の確率
でランダムに選択し、選択したステップへ処理を移行さ
せる。例えば、ステップPh5へ60%、ステップPh
9へ10%、ステップPh10へ20%、ステップPh
11へ10%の確率で処理を移行させる。
If it is determined in step Ph3 that the registered word number J has a pair word,
At h4, one of the plurality of steps is randomly selected with a predetermined probability, and the process proceeds to the selected step. For example, 60% to Step Ph5, Step Ph5
9% to 10%, Step Ph10 to 20%, Step Ph
The process is shifted to 11 with a probability of 10%.

【0155】ステップPh5へ処理を移行させた場合
は、登録ワードJの有する対語を発声させる3つのステ
ップPh6〜Ph8のうちの1つを所定の確率でランダ
ムに選択し、選択したステップへ処理を移行させる処理
が行われる。この場合、移行する確率は例えば各対語の
有する上述の対語関連度パラメータに応じた大きさにな
る。すなわち対語1、対語2、対語3に対して対語関連
度パラメータをそれぞれr1、r2、r3とし、各対語
を発声させるステップへ処理を移行させる確率をそれぞ
れQ1、Q2、Q3とした場合、これらの比には以下の
関係がある。 Q1:Q2:Q3 = r1:r2:r3 したがって、例えば対語1、対語2、対語3に対して対
語関連度パラメータをそれぞれ25、10、15とした
場合、ステップPh4からステップステップPh6、ス
テップPh7、ステップPh8へ移行する確率はそれぞ
れ30%、12%、18%となる。なお選択されて発声
された対語の対語関連度パラメータは、発声させた時点
の信頼パラメータに応じたランダムな数値が加算され
る。また、選択されて発声された各対語の対語関連度パ
ラメータおよび記憶度パラメータには、それぞれ信頼パ
ラメータに応じたランダムな数値が加算される。このよ
うに、一つの入力音声に対して複数の対語を発声させる
ことができるのみならず、その対語を発声させる確率
を、対語の認識頻度に応じて重み付けを与えて変えてい
るので、使用者が所定の対語を反復して玩具に認識させ
る行為に意味付けがなされ、玩具を飽きのこないものに
することができる。
When the process has proceeded to step Ph5, one of the three steps Ph6 to Ph8 for uttering the opposite word of the registered word J is randomly selected with a predetermined probability, and the process proceeds to the selected step. The process of shifting is performed. In this case, the probability of the transition is, for example, a magnitude corresponding to the above-described word relevance parameter of each word. That is, assuming that the logarithmic relevance parameters are r1, r2, and r3 for the log1, log2, and log3, respectively, and the probabilities of shifting the processing to the step of uttering each log are Q1, Q2, and Q3, respectively. The ratio has the following relationship: Q1: Q2: Q3 = r1: r2: r3 Therefore, for example, when the word relevance parameters are 25, 10, and 15 for the words 1, 2, and 3, respectively, steps Ph4 to Ph6, Ph7, The probabilities of shifting to Step Ph8 are 30%, 12%, and 18%, respectively. Note that a random numerical value according to the confidence parameter at the time of the utterance is added to the utterance degree parameter of the selected utterance. In addition, a random numerical value according to the confidence parameter is added to each of the paired word relevance parameter and the memory degree parameter of each selected and uttered word. As described above, not only can a plurality of utterances be uttered for one input voice, but also the probability of uttering the utterance is changed by giving a weight according to the recognition frequency of the utterance. The meaning is given to the act of recognizing the toy by repeating the predetermined word, and the toy can be made tired.

【0156】ステップPh4においてステップPh9が
選択されて処理が移行すると、登録されている全ての音
声データのうちの1つがランダムに選択されて発声され
る。入力された音声と無縁の音声が発せられるため、使
用者に意外性を与え、玩具と会話することに興味を抱か
せる。
In step Ph4, when step Ph9 is selected and the process proceeds, one of all registered voice data is selected at random and uttered. Since the voice that is not related to the input voice is emitted, the user is surprised and is interested in talking with the toy.

【0157】ステップPh4においてステップPh10
が選択されて処理が移行すると、登録ワード番号Jの音
声データが発声されると共に、登録ワード番号Jの有す
る対語のうちの対語関連度が最も大きい音声データが発
声される。さらにその音声データが有する対語関連度パ
ラメータの最も大きい対語が発声され、この繰り返しに
より最大で例えば10語までの対語が連続的に発声され
る(対語の連続発声機能)。ただし、同一の音声が繰り
返されないよう処理される。また、連続的に発声された
各対語の対語関連度パラメータおよび記憶度パラメータ
には、それぞれ信頼パラメータに応じたランダムな数値
が加算される。このように対語が連続的に発声されるこ
とによって、あたかも玩具が歌を歌うような印象を与
え、使用者に面白味を与える。対語の連続発声処理が終
了した後は、後述する処理Piに移行してこれを実行
し、その後会話処理を終了する。
In step Ph4, step Ph10
Is selected, and the process shifts, the voice data of the registered word number J is uttered, and the voice data having the highest degree of parallax relevance of the pair words of the registered word number J is uttered. Further, a word with the largest word relevance parameter of the voice data is uttered, and by repeating this, words having a maximum of, for example, 10 words are continuously uttered (continuous utterance function of word). However, processing is performed so that the same sound is not repeated. In addition, a random numerical value according to the reliability parameter is added to the logarithmic relevance parameter and the memory parameter of each of the consecutively uttered logistics. By continuously uttering the words in this way, it gives the impression that the toy is singing a song and gives the user an interest. After the continuous utterance processing of the paired words is completed, the processing shifts to the processing Pi described later and is executed, and then the conversation processing is ended.

【0158】ステップPh4においてステップPh10
が選択されて処理が移行すると、自動音声登録処理Pc
で登録された音声が選択されて発声される。自動音声登
録処理Pcで登録された音声は、使用者の全く意図しな
い音声なので、他の発声処理にはない意外感を使用者に
与え、玩具を飽きのこないものにさせる。
In step Ph4, step Ph10
Is selected and the process shifts, the automatic voice registration process Pc
Is selected and uttered. Since the voice registered in the automatic voice registration process Pc is a voice that is not intended by the user at all, it gives the user an unexpected feeling that is not present in other voice generation processes, and makes the toy tireless.

【0159】引き続いて、対語処理Piの動作を説明す
る。対語処理Piの目的は、2つの音声が交互に連続し
て入力される回数を検出し、その回数が信頼パラメータ
に応じてランダムに選択された数に達したとき、その2
つの音声を対語として関連付けることにある。図16
は、対語処理Piにおける処理を説明するフローチャー
ト図である。図16においてPi1〜Pi22は処理の
各ステップを示している。
Subsequently, the operation of the word processing Pi will be described. The purpose of the word processing Pi is to detect the number of times two voices are successively and alternately input, and when the number reaches a number randomly selected according to the reliability parameter, the number of times is calculated.
To associate two voices as a pair. FIG.
FIG. 7 is a flowchart for explaining processing in the word processing Pi. In FIG. 16, Pi1 to Pi22 indicate each step of the processing.

【0160】対語処理PiはステップPi1において開
始する。次いでステップPi2およびステップPi3に
おいて、マイク4より入力されて認識された登録ワード
番号Jと、変数BOX1および変数BOX2に記憶され
た登録ワード番号の一致が判断される。ここで先に述べ
ておくと、この対語処理Piで用いられる各変数(BO
X1、BOX2、CNT1、CNT2、i、p)は、す
べて音声認識処理Peの初期においてリセットされてお
り、音声認識処理Peを終了するか、後に述べるステッ
プPi8、ステップPi18においてリセットされるま
で保持される。
The word processing Pi starts in step Pi1. Next, in steps Pi2 and Pi3, it is determined whether the registered word number J input and recognized from the microphone 4 matches the registered word numbers stored in the variables BOX1 and BOX2. Here, it is to be noted that each variable (BO) used in the word processing Pi is described.
X1, BOX2, CNT1, CNT2, i, and p) are all reset at the beginning of the voice recognition processing Pe, and are held until the voice recognition processing Pe is completed or reset in steps Pi8 and Pi18 described later. You.

【0161】ここで、変数BOX1および変数BOX2
には、交互に連続して入力された場合に2つの音声の登
録ワード番号が保持される。変数BOX1および変数B
OX2に保持された登録ワード番号が登録ワード番号J
と一致していないことが判断されると、ステップPi4
およびステップPi5において、変数BOX1および変
数BOX2とゼロの一致が検出されている。なおこの説
明では、登録ワード番号がゼロの音声記憶エリアが存在
しないこととしている。ステップPi4およびステップ
Pi5において、交互に連続して入力された音声が、対
語のとして認識される途中にあるか否かが検出される。
もし対語として認識させている途中なら、変数BOX1
および変数BOX2のいずれか一方のがゼロになる。
Here, the variable BOX1 and the variable BOX2
Holds registered word numbers of two voices when they are alternately and continuously input. Variable BOX1 and variable B
The registered word number held in OX2 is the registered word number J
If it is determined that they do not match, the step Pi4
In step Pi5, a match between the variables BOX1 and BOX2 and zero is detected. In this description, it is assumed that there is no voice storage area having a registered word number of zero. In step Pi4 and step Pi5, it is detected whether or not the voice that has been input alternately and continuously is in the middle of being recognized as the opposite word.
If it is in the process of being recognized as a word, the variable BOX1
And one of the variables BOX2 becomes zero.

【0162】変数BOX1および変数BOX2の何れも
ゼロでない場合はステップPi6に移行する。この場
合、前々回、前回、および今回入力した音声が何れも異
なっているので使用者は対語を認識させていないと考え
られるが、音声の入力を誤ってしまったケースも考えら
れるので、さらにもう一回猶予を与えるためにステップ
Pi6およびステップPi7でステップPi8による変
数のリセットを回避させている。ステップPi6を通過
する際に変数iがインクリメントされるので、次回もう
一度ステップPi6を通過して変数iがインクリメント
されて1より大きくなると、ステップPi7を経てステ
ップPi8で変数がリセットされる。ステップPi8で
は上記した各変数がリセットされてすべてゼロになる。
If neither the variable BOX1 nor the variable BOX2 is zero, the flow shifts to step Pi6. In this case, it is considered that the user did not recognize the opposite word because the voices input two times before, the previous time, and the current time are all different. Steps Pi6 and Pi7 avoid the resetting of the variables in step Pi8 in order to give a delay. Since the variable i is incremented when passing through the step Pi6, the variable i is incremented to be greater than 1 again after passing through the step Pi6 again, and the variable is reset at the step Pi8 via the step Pi7. In step Pi8, each of the above variables is reset to zero.

【0163】ステップPi4およびステップPi5にお
いて、変数BOX1および変数BOX2の何れかがゼロ
になっていると、ゼロになっている変数に現在入力した
音声の登録ワード番号Jが代入され、さらに、対語とな
る音声が入力された数を計数する変数CNT1または変
数CNT2がインクリメントされる。次にステップPi
11において変数BOX1および変数BOX2の何れの
変数も一回づつ入力されているか否かが判断される。つ
まり2つの音声が交互に1回づつ対語として入力された
ことを確認する。変数CNT1または変数CNT2の何
れかがゼロの場合は対語処理を終了する。
In step Pi4 and step Pi5, if either the variable BOX1 or the variable BOX2 is zero, the registered word number J of the currently input voice is substituted for the zero variable, The variable CNT1 or the variable CNT2 that counts the number of input voices is incremented. Then step Pi
At 11, it is determined whether each of the variables BOX1 and BOX2 has been input once. That is, it is confirmed that two voices are alternately input as a pair each time. If either the variable CNT1 or the variable CNT2 is zero, the word processing ends.

【0164】ステップPi11において対語の第1回目
の入力が確認されると、次にステップPi12におい
て、入力された2つの音声が既に対語として登録されて
いるか否かが判別される。対語として登録されている場
合は、ステップPi14において変数BOX1および変
数BOX2で登録ワード番号が示された2つの音声デー
タの各対語関連度パラメータに信頼パラメータに応じた
ランダムの数値を加算する。2つの音声データが対語で
なかった場合は変数pに信頼パラメータに応じたランダ
ムの数値を与える。変数pは、対語を登録させるまでに
使用者が繰り返さなければならない対語の入力回数を示
す。すなわち2つの音声を交互に1回ずつ入力させる操
作を繰り返す回数を示す。
When the first input of the opposite word is confirmed in step Pi11, it is next determined in step Pi12 whether or not the two input voices have already been registered as opposite words. If it is registered as a log word, a random numerical value according to the reliability parameter is added to each log word relevance parameter of the two voice data whose registration word numbers are indicated by the variables BOX1 and BOX2 in step Pi14. When the two voice data are not the opposite words, a random numerical value according to the reliability parameter is given to the variable p. The variable p indicates the number of times the user has to enter the word before the word is registered. In other words, it indicates the number of times that the operation of alternately inputting two voices once is repeated.

【0165】ステップPi2およびステップPi3にお
いて、マイク4から入力された音声が変数BOX1また
は変数BOX2の何れかに入力された音声と一致してい
ることが確認された場合は、一致していている変数BO
X1または変数BOX2に対応する変数CNT1または
変数CNT2がインクリメントされる(ステップPi1
5またはステップPi16)。そして、ステップPi1
7において変数CNT1と変数CNT2の差が検出さ
れ、両者の値の差が所定数、例えば3以上になっている
場合はPi18で変数をリセットして対語処理を終了さ
せる。すなわち、一方の音声のみが続けて入力される状
態を検出し、それが3回以上の場合には、使用者が対語
を学習させていないと認識して、対語の学習に関する変
数をリセットさせている。
In Steps Pi2 and Pi3, when it is confirmed that the voice input from the microphone 4 matches the voice input to either the variable BOX1 or the variable BOX2, BO
Variable CNT1 or variable CNT2 corresponding to X1 or variable BOX2 is incremented (step Pi1).
5 or step Pi16). Then, step Pi1
At 7, the difference between the variable CNT1 and the variable CNT2 is detected, and if the difference between the values is a predetermined number, for example, 3 or more, the variable is reset at Pi18 and the conversation processing is terminated. That is, a state in which only one of the voices is continuously input is detected. If the state is three or more times, the user recognizes that the user has not learned the language, and resets the variables related to the language learning. I have.

【0166】変数CNT1と変数CNT2の差が3未満
である場合は、ステップPi19において、上述した変
数pがセットされているか否かが判定される。セットさ
れていない場合は、まだ第1回目の対語の認識が成され
ていないと判断して、対語処理を終了させる。変数pが
セットされている場合は、ステップPi20において変
数CNT1または変数CNT2の何れか一方が変数pよ
り大きいか否かが判断され、小さい場合はさらに対語の
認識を反復させるためにそのまま対語処理を終了させ、
大きい場合は対語を認識させた回数が所定数に達したと
判断し、ステップPi21において、変数BOX1およ
び変数BOX2で登録ワード番号が示された2つの音声
データを対語として登録する。
If the difference between the variables CNT1 and CNT2 is less than 3, it is determined in step Pi19 whether the above-described variable p has been set. If it is not set, it is determined that the first recognition of the opposite word has not yet been performed, and the opposite word processing is terminated. If the variable p is set, it is determined in step Pi20 whether one of the variable CNT1 and the variable CNT2 is larger than the variable p. If smaller, the word processing is performed as it is to repeat the word recognition. To end,
If it is larger, it is determined that the number of times that the word has been recognized has reached the predetermined number, and in step Pi21, two voice data whose registration word numbers are indicated by the variables BOX1 and BOX2 are registered as words.

【0167】以上説明したように、会話処理Phにおい
ては様々なバリエーションで記憶されている音声を出力
させるので、その度に意外性を与え、使用者の楽しみを
持続させる。また、まるでインコに言葉を覚えさせると
きのように同じ音声を繰り返し語りかけることによって
対語を認識させることができるので、玩具の機械的な印
象が薄らぎ、本物の生き物を相手にしているような感覚
を使用者に起こさせるの。さらに、対語を認識させるた
めの回数がランダムに生成されるため、こうした面でも
本物らしさを損なうことがない。このようにして、疑似
生物としての趣向性の高い玩具を提供することができ
る。
As described above, in the conversation processing Ph, the voices stored in various variations are output, so that unexpectedness is given each time and the enjoyment of the user is maintained. In addition, since it is possible to recognize the opposite word by repeatedly speaking the same voice as when letting the parakeet remember the words, the mechanical impression of the toy is weakened, and the feeling as if you are dealing with a real creature Let the user wake up. Furthermore, since the number of times for recognizing the opposite word is randomly generated, the authenticity is not spoiled in such aspects. In this way, a highly interesting toy as a pseudo-creature can be provided.

【0168】なお本発明の実施形態は、図1の外観図に
示したような電子ペット玩具に限定されるものではな
く、たとえば音声出力装置を備えたコンピュータやゲー
ム機などにも広く適用することができる。また、本発明
の本実施形態の説明で使用した各図におけるフローチャ
ートをプログラムとして表現することにより、本願発明
を、プログラムを記録した記録媒体に適用することも可
能である。
The embodiment of the present invention is not limited to the electronic pet toy as shown in the external view of FIG. 1, but can be widely applied to, for example, a computer or a game machine having an audio output device. Can be. Further, by expressing the flowchart in each drawing used in the description of the present embodiment of the present invention as a program, the present invention can be applied to a recording medium on which the program is recorded.

【0169】[0169]

【発明の効果】本発明によれば、自動的に記憶させた音
声や使用者によって登録された音声など、記憶している
音声をさまざまなパターンでランダム発声することがで
きるので、使用者に意外性をもたらし、装置を飽きにく
くすることができる。また、自動的に音声を取り込む動
作状態とランダムに音声を発声させる動作状態、さらに
音声を認識して発生する動作状態などの種種の動作状態
をランダムに選択して実行させるので、機械的な印象が
低減されて生き物を相手している感覚が得られやすくな
る。
According to the present invention, the stored voice can be randomly uttered in various patterns, such as the voice automatically stored and the voice registered by the user. And can make the device less tiring. In addition, various operation states such as an operation state of automatically capturing sound, an operation state of randomly uttering sound, and an operation state of recognition and generation of sound are randomly selected and executed, so that a mechanical impression is obtained. Is reduced, and it becomes easier to obtain a sense of being opposed to a creature.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明の音声処理装置の実施形態に係
る玩具の外観を示す図である。
FIG. 1 is a diagram illustrating an appearance of a toy according to an embodiment of a voice processing device of the present invention.

【図2】図2は、本発明の音声処理装置の実施形態に係
る玩具の構成を示す図である。
FIG. 2 is a diagram illustrating a configuration of a toy according to an embodiment of the voice processing device of the present invention.

【図3】図3は、本発明の実施形態に係る玩具の初回起
動時の動作に係る動作モードを示す図である。
FIG. 3 is a diagram showing an operation mode related to an operation at the time of initial activation of the toy according to the embodiment of the present invention.

【図4】図4は、通常モードにおける動作モードの詳細
を示した図である。
FIG. 4 is a diagram showing details of an operation mode in a normal mode.

【図5】図5は、コミニュケーションモードにおける玩
具の配置を示す俯瞰図である。
FIG. 5 is an overhead view showing an arrangement of toys in a communication mode.

【図6】図6は、信頼パラメータに係る動作モードを示
す図である。
FIG. 6 is a diagram illustrating an operation mode according to a reliability parameter;

【図7】図7は、初起動モードにおける処理を説明する
第1のフローチャート図である。
FIG. 7 is a first flowchart illustrating a process in an initial startup mode;

【図8】図8は、初起動モードにおける処理を説明する
第2のフローチャート図である。
FIG. 8 is a second flowchart illustrating the processing in the first activation mode.

【図9】図9は、起床モードにおける処理を説明するフ
ローチャート図である。
FIG. 9 is a flowchart illustrating a process in a wake-up mode;

【図10】図10は、音声認識処理における処理を説明
するフローチャート図である。
FIG. 10 is a flowchart illustrating processing in voice recognition processing.

【図11】図11は、仮登録処理における処理を説明す
る第1のフローチャート図である。
FIG. 11 is a first flowchart illustrating a process in a temporary registration process;

【図12】図12は、仮登録処理における処理を説明す
る第2のフローチャート図である。
FIG. 12 is a second flowchart illustrating a process in a temporary registration process;

【図13】図13は、登録延長処理における処理を説明
する第1のフローチャート図である。
FIG. 13 is a first flowchart illustrating a process in a registration extension process;

【図14】図14は、登録延長処理における処理を説明
する第2のフローチャート図である。
FIG. 14 is a second flowchart illustrating the processing in the registration extension processing;

【図15】図15は、会話処理Phにおける処理を説明
するフローチャート図である。
FIG. 15 is a flowchart illustrating a process in a conversation process Ph.

【図16】図16は、対語処理Piにおける処理を説明
するフローチャート図である。
FIG. 16 is a flowchart illustrating a process in the word processing Pi.

【図17】図17は、ランダム発言処理Pbにおける処
理を説明するフローチャート図である。
FIG. 17 is a flowchart illustrating a process in a random utterance process Pb.

【図18】図18は、気分パラメータの値によって変化
する発言の例を示す図である。
FIG. 18 is a diagram illustrating an example of an utterance that changes according to a value of a mood parameter.

【符号の説明】[Explanation of symbols]

1…制御回路(制御手段)、2…ROM、3…FLAS
H ROM(記憶手段)、4…マイク(音入力手段)、
5…音程変換回路、6…音声増幅回路、7…スピーカ
(音声出力手段)、8…頭部スイッチ、9…コミュニケ
ーションスイッチ、10…アラームスイッチ、11…リ
セットスイッチ、12…時計動作機構。
DESCRIPTION OF SYMBOLS 1 ... Control circuit (control means), 2 ... ROM, 3 ... FLAS
H ROM (storage means), 4 ... microphone (sound input means),
5: pitch conversion circuit, 6: audio amplification circuit, 7: speaker (audio output means), 8: head switch, 9: communication switch, 10: alarm switch, 11: reset switch, 12: clock operation mechanism.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/04 G10L 3/00 521M 551H 5/02 J (72)発明者 星野 学 東京都墨田区錦糸1丁目2番1号 リズム 時計工業株式会社内 Fターム(参考) 2C150 BA06 BA11 CA01 CA02 DF02 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 FA42 5D015 AA03 BB01 GG04 HH16 KK01 KK04 LL03 LL10 5D045 AB11 5D108 CA02 CA07 CA15 CA25 9A001 BB06 EE02 GG03 HH15 HH17 JJ76 KK09 KK45 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 13/04 G10L 3/00 521M 551H 5/02 J (72) Inventor Manabu Hoshino 1 Kinshi, Sumida-ku, Tokyo Chome No.2-1 Rhythm Watch Industry Co., Ltd. F-term (reference) 2C150 BA06 BA11 CA01 CA02 DF02 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 FA42 5D015 AA03 BB01 GG04 HH16 KK01 KK04 LL03 LL10 5D045 BB11 CA5CA GG03 HH15 HH17 JJ76 KK09 KK45

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 音声出力手段と、 音声を記憶する記憶手段と、 第1の動作状態において、上記記憶手段に記憶された音
声のうちの少なくとも1つの音声をランダムに生成され
た信号に基づいて選択し、上記音声出力手段に出力させ
る制御手段とを有する音声処理装置。
1. A sound output means, a storage means for storing a sound, and in a first operating state, at least one of the sounds stored in the storage means is based on a signal generated at random. Control means for selecting and outputting to the sound output means.
【請求項2】 上記制御手段は、乱数生成手段を含み、
上記第1の動作状態において、上記記憶手段に記憶され
た音声のうちの少なくとも1つの音声を上記乱数生成手
段に生成された信号に基づいて選択し、上記音声出力手
段に出力させる請求項1に記載の音声処理装置。
2. The control means includes a random number generation means,
2. The method according to claim 1, wherein in the first operation state, at least one of the sounds stored in the storage means is selected based on a signal generated by the random number generation means, and is output to the sound output means. An audio processing device according to claim 1.
【請求項3】 上記制御手段は、 乱数生成手段と、 上記第1の動作状態において、上記記憶手段に記憶され
た音声のうちの所定数の音声を上記乱数生成手段の生成
する乱数に基づいてランダムに選択し、所定の順序で上
記音声出力手段に出力させる少なくとも1つの音声選択
手段とを含み、 上記第1の動作状態において、上記音声選択手段の1つ
を上記乱数に基づいてランダムに選択する請求項1に記
載の音声処理装置。
3. The random number generating means, in the first operating state, a predetermined number of voices stored in the storage means based on a random number generated by the random number generating means. At least one voice selecting means for randomly selecting and outputting to the voice output means in a predetermined order. In the first operating state, one of the voice selecting means is randomly selected based on the random number. The audio processing device according to claim 1.
【請求項4】 上記制御手段は、上記記憶手段に記憶さ
れた2つの音声の関連付け設定し、当該関連付けを上記
記憶手段に記憶し、 上記音声選択手段は、上記記憶手段に記憶されている関
連付けのうちの所定数を上記乱数に基づいてランダムに
選択し、選択された当該関連付けにおいて設定された音
声を、所定の順序で上記音声出力手段に出力させる音声
選択手段を含む請求項3に記載の音声処理装置。
4. The control means sets an association between the two sounds stored in the storage means, stores the association in the storage means, and the audio selection means stores the association stored in the storage means. 4. A voice selecting unit according to claim 3, further comprising a voice selecting unit that randomly selects a predetermined number of the voices based on the random number, and causes the voice output unit to output voices set in the selected association in a predetermined order. Voice processing device.
【請求項5】 上記音声選択手段は、上記記憶手段に名
称として記憶された音声のうちの1つと、上記記憶手段
に記憶された他の音声のうちの所定数の音声を上記乱数
に基づいてランダムに選択し、上記名称として記憶され
た音声を第1番目とする所定の順序で上記音声出力手段
に出力させる音声選択手段を含む請求項3または4に記
載の音声処理装置。
5. The voice selecting means determines one of the voices stored as a name in the storage means and a predetermined number of voices among other voices stored in the storage means based on the random number. 5. The voice processing device according to claim 3, further comprising a voice selection unit that randomly selects and outputs the voice stored in the name as the first voice to the voice output unit in a predetermined order.
【請求項6】 音入力手段を有し、 上記制御手段は、第2の動作状態において、上記音入力
手段から入力された音を所定の時間上記記憶手段に記憶
させ、 上記音声選択手段は、上記第2の動作状態において記憶
された音のうちの所定数の音を上記乱数に基づいてラン
ダムに選択し、所定の順序で上記音声出力手段に出力さ
せる音声選択手段とを含む請求項3から5の何れかに記
載の音声処理装置。
6. A sound input means, wherein the control means stores a sound input from the sound input means in the storage means for a predetermined time in a second operation state; 4. A voice selecting means for randomly selecting a predetermined number of sounds among the sounds stored in the second operating state based on the random numbers and outputting the selected sounds to the voice output means in a predetermined order. 6. The voice processing device according to any one of 5.
【請求項7】 上記制御手段は、第2の動作状態におい
て、上記音入力手段から入力された音を所定の時間上記
記憶手段に記憶させる処理を、所定の時間間隔で、上記
乱数に基づいたランダムな回数実行する請求項6に記載
の音声処理装置。
7. In the second operating state, the control means stores the sound input from the sound input means in the storage means for a predetermined time at a predetermined time interval based on the random number. The voice processing device according to claim 6, wherein the voice processing is executed at random times.
【請求項8】 上記制御手段は、上記音声選択手段で選
択した音声を上記音声出力手段に出力させる回数を、上
記乱数に基づいてランダムに設定する請求項3から7の
何れかに記載の音声処理装置。
8. The sound according to claim 3, wherein the control means randomly sets the number of times the sound selected by the sound selection means is output to the sound output means based on the random number. Processing equipment.
【請求項9】 音入力手段を有し、 上記制御手段は、第3の動作状態において、上記音入力
手段から入力された音に基づいて音声を認識し、当該音
声と上記記憶手段に記憶された音声を照合し、当該照合
の結果に基づいて、当該認識された音声を上記記憶手段
に記憶させ、上記記憶手段に記憶された音声を上記音声
出力手段に出力させる請求項1から8の何れかに記載の
音声処理装置。
9. A sound input unit, wherein the control unit recognizes a sound based on a sound input from the sound input unit in the third operation state, and stores the sound and the sound stored in the storage unit. 9. The method according to claim 1, further comprising: comparing the recognized voice, storing the recognized voice in the storage unit based on a result of the verification, and outputting the voice stored in the storage unit to the voice output unit. An audio processing device according to any one of the above.
【請求項10】 上記制御手段は、複数の動作状態を上
記乱数に基づいてランダムに選択する請求項6から9の
何れかに記載の音声処理装置。
10. The audio processing apparatus according to claim 6, wherein said control means randomly selects a plurality of operation states based on said random numbers.
【請求項11】 認識された音声と記憶された音声の所
定の特徴を照合する音声処理装置であって、 上記制御手段は、上記第3の動作状態において、前後に
行われた上記照合において上記認識された音声と上記記
憶された音声とが上記所定の特徴を共有し、かつ上記記
憶された音声が前後で異なる場合、前後の当該記憶され
た音声と上記所定の特徴を共有している音声をさらに交
互に所定時間内にm回(m:所定の自然数)認識するこ
とを条件として、前後の当該記憶された音声の関連付け
を上記記憶手段に記憶させる請求項10に記載の音声処
理装置。
11. A speech processing apparatus for collating a predetermined feature between a recognized speech and a stored speech, wherein the control means performs the collation performed before and after in the third operation state. If the recognized voice and the stored voice share the predetermined feature, and the stored voice is different before and after, the voice sharing the predetermined feature with the stored voice before and after 11. The audio processing apparatus according to claim 10, further comprising the step of storing the association between the stored audio data before and after the audio data stored in the storage unit on condition that the audio data is recognized m times (m: a predetermined natural number) alternately within a predetermined time.
【請求項12】 音声を出力する音声出力手段を有し、 上記制御手段は、上記照合において上記認識された音声
に対し上記所定の特徴を共有する上記記憶された音声が
有する関連付けの1つを選択して、当該関連付けに示さ
れた音声を上記出力手段に出力させた場合、当該記憶さ
れた音声と当該関連付けに示された音声との関連付けの
度合いを示すパラメータであって、当該記憶された音声
と当該関連付けに示された音声にそれぞれ付属する対語
関連度パラメータをそれぞれ増加させて上記記憶手段に
記憶させる請求項11に記載の音声処理装置。
12. A voice output means for outputting a voice, wherein the control means associates one of the stored voices sharing the predetermined feature with the voice recognized in the collation. When selecting and causing the output means to output the voice indicated by the association, the parameter is a parameter indicating the degree of association between the stored voice and the voice indicated by the association, and 12. The speech processing apparatus according to claim 11, wherein the speech relevance parameters attached to the speech and the speech indicated in the association are respectively increased and stored in the storage unit.
【請求項13】 上記制御手段は、乱数を生成する乱数
生成手段を含み、対語関連度パラメータの増加量および
上記自然数mを上記乱数生成手段の生成する乱数に基づ
いてランダムに変化させる請求項12に記載の音声処理
装置。
13. The controller according to claim 12, wherein the controller includes a random number generator for generating a random number, and randomly changes the increment of the parameter of the opposite word relevance parameter and the natural number m based on the random number generated by the random number generator. An audio processing device according to claim 1.
【請求項14】 上記制御手段は、上記制御手段は、所
定の時間を経過する毎に上記記憶度パラメータを所定量
だけ減少させる請求項11から13の何れかに記載の音
声処理装置。
14. The audio processing apparatus according to claim 11, wherein said control means decreases said storage parameter by a predetermined amount every time a predetermined time elapses.
【請求項15】 上記制御手段は、上記照合において上
記認識された音声と上記記憶された音声が上記所定の特
徴を共有し、かつ当該記憶された音声と他の記憶された
音声の関連付けが上記記憶手段に記憶されている場合、
当該他の記憶された音声を上記音声出力手段に出力させ
る請求項11から14の何れかに記載の音声処理装置。
15. The control means, wherein the voice recognized in the collation and the stored voice share the predetermined feature, and the association between the stored voice and another stored voice is determined by the association. If stored in the storage means,
15. The audio processing device according to claim 11, wherein said other stored audio is output to said audio output means.
【請求項16】 上記制御手段は、上記照合において上
記認識された音声と上記記憶された音声が上記所定の特
徴を共有し、かつ当該記憶された音声と他の記憶された
音声の関連付けが上記記憶手段に記憶されている場合、
当該記憶された音声および当該他の記憶された音声のう
ちの少なくとも1つを所定の確率でランダムに選択し、
選択した当該音声を所定の順序で上記音声出力手段に出
力させる請求項11から14の何れかに記載の音声処理
装置。
16. The control means, wherein the voice recognized in the collation and the stored voice share the predetermined feature, and the association between the stored voice and another stored voice is determined by the control unit. If stored in the storage means,
Randomly selecting at least one of the stored voice and the other stored voice with a predetermined probability;
15. The audio processing device according to claim 11, wherein the selected audio is output to the audio output unit in a predetermined order.
【請求項17】 上記制御手段は、上記所定の確率を上
記対語関連度パラメータの大きさに応じて設定する請求
項16に記載の音声処理装置。
17. The speech processing apparatus according to claim 16, wherein said control means sets said predetermined probability in accordance with the magnitude of said word relevance parameter.
【請求項18】 上記制御手段は、上記音声出力手段に
出力させた音声の関連付けが上記記憶手段に記憶されて
いる場合、当該音声に関連付けられた音声のうちの1つ
を選択して、上記音声出力手段に出力させる請求項16
または17に記載の音声処理装置。
18. The control means, when the association of the sound output by the sound output means is stored in the storage means, selects one of the sounds associated with the sound, and 17. Outputting the sound to an audio output means.
Or the speech processing device according to 17.
【請求項19】 上記制御手段は、上記音声出力手段に
出力させた音声の関連付けが上記記憶手段に記憶されて
いる場合、当該音声に関連付けられた音声のうち上記対
語関連度パラメータの最も大きい音声の1つを選択し
て、上記音声出力手段に出力させる請求項16から18
の何れかに記載の音声処理装置。
19. The control means, if the association of the sound output by the sound output means is stored in the storage means, the sound having the largest logarithmic relevance parameter among the sounds associated with the sound. 19. The method according to claim 16, further comprising the step of selecting one of the following to output to the audio output means.
The audio processing device according to any one of the above.
【請求項20】 上記制御手段は、上記音声出力手段に
連続して出力させた音声の数が所定数に達したとき、上
記音声出力手段の音声の出力を停止させる請求項16か
ら19の何れかに記載の音声処理装置。
20. The apparatus according to claim 16, wherein the control means stops the sound output from the sound output means when the number of sounds continuously output to the sound output means reaches a predetermined number. An audio processing device according to any one of the above.
【請求項21】 上記制御手段は、上記所定の確率に
は、上記記憶手段に記憶された全ての音声から少なくと
も1つの音声をランダムに選択する場合を含む請求項1
6から20の何れかに記載の音声処理装置。
21. The control device according to claim 1, wherein the predetermined probability includes a case where at least one voice is randomly selected from all voices stored in the storage device.
21. The audio processing device according to any one of 6 to 20.
【請求項22】 上記記憶手段は、所定数の音声が記憶
可能であり、 上記制御手段は、上記照合において上記認識された音声
と上記記憶された音声とが上記所定の特徴を共有してい
る場合に、当該記憶された音声の記憶保持に関する記憶
度パラメータを増加させ、当該記憶されている音声と当
該認識された音声を、上記記憶度パラメータの大きさに
応じて置き換えて上記記憶手段に記憶させる請求項11
から21の何れかに記載の音声処理装置。
22. The storage means is capable of storing a predetermined number of voices, and the control means is configured such that the voice recognized in the collation and the stored voice share the predetermined feature. In this case, the storage degree parameter related to the storage holding of the stored voice is increased, and the stored voice and the recognized voice are replaced in accordance with the magnitude of the storage degree parameter and stored in the storage unit. Claim 11
22. The audio processing device according to any one of claims 21 to 21.
【請求項23】 上記制御手段は、所定の時間を経過す
る毎に上記記憶度パラメータを所定量だけ減少させる請
求項22に記載の音声処理装置。
23. The audio processing apparatus according to claim 22, wherein said control means decreases said storage degree parameter by a predetermined amount each time a predetermined time elapses.
【請求項24】 上記制御手段は、上記記憶手段に記憶
された音声の数が上記所定数に達している場合に、上記
記憶手段に記憶された音声のうち上記記憶度パラメータ
が最小の音声と上記認識された音声を置き換えて上記記
憶手段に記憶させる請求項23に記載の音声処理装置。
24. When the number of voices stored in the storage unit has reached the predetermined number, the control unit determines that the voice with the smallest storage degree parameter among the voices stored in the storage unit. 24. The voice processing device according to claim 23, wherein the recognized voice is replaced and stored in the storage unit.
【請求項25】 上記制御手段は、上記の記憶度パラメ
ータの増加量を上記乱数生成手段の生成する乱数に基づ
いてランダムに変化させる請求項23または24に記載
の音声処理装置。
25. The audio processing apparatus according to claim 23, wherein the control means randomly changes the increment of the storage degree parameter based on a random number generated by the random number generation means.
【請求項26】 上記制御手段は、上記第3の状態にお
いて、上記音入力手段から入力された音に基づいて認識
された音声と上記記憶手段に記憶された音声の所定の特
徴を照合し、当該照合の結果に基づいて当該音声を上記
記憶手段に記憶または登録させ、当該記憶された音声の
うちの登録された音声を上記音声出力手段に出力させる
請求項9から25の何れかに記載の音声処理装置。
26. In the third state, the control unit collates a voice recognized based on the sound input from the sound input unit with a predetermined characteristic of the voice stored in the storage unit, 26. The sound processing apparatus according to claim 9, wherein the sound is stored or registered in the storage unit based on a result of the comparison, and a registered sound of the stored sound is output to the sound output unit. Voice processing device.
【請求項27】 上記制御手段は、上記認識された音声
と上記記憶手段に記憶され、かつ登録された音声とが上
記所定の特徴を共有していないことを条件に、当該認識
された音声を上記記憶手段に記憶させる請求項26に記
載の音声処理装置。
27. The control means, if the recognized voice is stored in the storage means and registered voice does not share the predetermined feature, the recognized voice 27. The sound processing device according to claim 26, wherein the sound processing device is stored in the storage unit.
【請求項28】 上記制御手段は、上記認識された音声
と上記記憶手段に記憶され、かつ登録された音声とが所
定の特徴を共有していない場合に、音声の上記認識を所
定の回数行うことを条件に、当該認識された音声を上記
記憶手段に記憶させる請求項26または27の何れかに
記載の音声処理装置。
28. The control unit performs the recognition of the voice a predetermined number of times when the recognized voice and the voice stored in the storage unit do not share a predetermined feature. 28. The speech processing device according to claim 26, wherein the recognized speech is stored in the storage means on a condition that the speech is recognized.
【請求項29】 上記制御手段は、上記認識された音声
と上記記憶手段に記憶され、かつ登録された音声とが所
定の特徴を共有していない場合に、上記認識された音声
と上記登録された音声の所定の特徴を所定の回数照合
し、かつ、当該照合において上記認識された音声と上記
登録された音声とが所定の特徴を共有していないことを
条件に、当該認識された音声を上記記憶手段に記憶させ
る請求項26から28の何れかに記載の音声処理装置。
29. The control means, if the recognized voice and the registered voice stored in the storage means do not share a predetermined characteristic, and the recognized voice and the registered voice are not shared. A predetermined feature of the voice is compared a predetermined number of times, and the recognized voice is not recognized on the condition that the recognized voice and the registered voice do not share a predetermined feature. 29. The sound processing device according to claim 26, wherein the sound processing device is stored in the storage unit.
【請求項30】 上記制御手段は、上記認識された音声
と上記記憶手段に記憶され、かつ登録された音声とが所
定の特徴を共有していない場合に、所定時間内に連続し
て認識された2つの音声の所定の特徴を所定の回数照合
し、かつ、当該照合において上記認識された音声が互い
に所定の特徴を共有していることを条件に、当該認識さ
れた音声を上記記憶手段に記憶させる請求項26から2
9の何れかに記載の音声処理装置。
30. The control means, if the recognized voice and the registered voice stored in the storage means do not share a predetermined characteristic, are continuously recognized within a predetermined time. The predetermined characteristics of the two voices are compared a predetermined number of times, and the recognized voices are stored in the storage unit on condition that the voices recognized in the verification share the predetermined characteristics with each other. Claims 26 to 2 for storing
The audio processing device according to any one of claims 9 to 10.
【請求項31】 上記制御手段は、上記認識された音声
と上記記憶手段に記憶され、かつ登録されていない音声
とが所定の特徴を共有している場合に、当該登録されて
いない音声を上記記憶手段に登録させる請求項26から
30の何れかに記載の音声処理装置。
31. When the recognized voice and the unregistered voice stored in the storage unit share a predetermined feature, the control unit converts the unregistered voice into the unregistered voice. 31. The voice processing device according to claim 26, wherein the voice processing device is registered in a storage unit.
【請求項32】 上記制御手段は、自然数の乱数nを生
成する乱数生成手段を含み、上記認識された音声と上記
記憶手段に記憶され、かつ登録されていない音声とが所
定の特徴を共有している場合に、音声の上記認識をn回
行うことを条件に、当該登録されていない音声を上記記
憶手段に登録させる請求項26から31の何れかに記載
の音声処理装置。
32. The control means includes a random number generation means for generating a natural number random number n, wherein the recognized voice and the voice stored in the storage means and not registered share a predetermined characteristic. 32. The speech processing device according to claim 26, wherein, when the recognition is performed, the unregistered speech is registered in the storage unit on condition that the recognition of the speech is performed n times.
【請求項33】 上記制御手段は、自然数の乱数nを生
成する乱数生成手段を含み、上記認識された音声と上記
記憶手段に記憶され、かつ登録されていない音声とが所
定の特徴を共有している場合に、上記認識された音声と
上記登録されていない音声の所定の特徴をn回(n:所
定の自然数)照合し、かつ、当該照合において上記認識
された音声と上記登録されていない音声とが所定の特徴
を共有していることを条件に、当該登録されていない音
声を上記記憶手段に登録する請求項26から32の何れ
かに記載の音声処理装置。
33. The control means includes a random number generation means for generating a natural number random number n, wherein the recognized voice and the voice stored in the storage means and not registered share a predetermined characteristic. In this case, predetermined characteristics of the recognized voice and the unregistered voice are compared n times (n: a predetermined natural number), and the recognized voice and the unregistered voice are not registered in the verification. 33. The audio processing device according to claim 26, wherein the unregistered audio is registered in the storage unit on condition that the audio and the audio share a predetermined feature.
【請求項34】 上記制御手段は、自然数の乱数nを生
成する乱数生成手段を含み、上記認識された音声と上記
記憶手段に記憶され、かつ登録されていない音声とが所
定の特徴を共有している場合に、所定時間内に連続して
認識された音声の所定の特徴を所定の回数照合し、か
つ、当該照合において上記認識された音声が互いに所定
の特徴を共有していることを条件に、当該登録されてい
ない音声を上記記憶手段に登録する請求項26から33
の何れかに記載の音声処理装置。
34. The control means includes random number generation means for generating a natural number random number n, wherein the recognized voice and the voice stored in the storage means and not registered share a predetermined characteristic. , A predetermined feature of voices continuously recognized within a predetermined time is collated a predetermined number of times, and in the collation, the recognized voices share a predetermined feature with each other. 34, the unregistered voice is registered in the storage means.
The audio processing device according to any one of the above.
【請求項35】 記憶の容易性を左右する装置コンディ
ションを示すパラメータとして信頼値を保持した信頼値
記憶手段を有し、 上記制御手段は、上記信頼値記憶手段内に保持された信
頼値に応じて、上記乱数生成手段が生成する乱数の範囲
を規制する請求項26から34の何れかに記載の音声処
理装置。
35. A trust value storage means for holding a trust value as a parameter indicating a device condition which affects the ease of storage, wherein the control means responds to the trust value held in the trust value storage means. 35. The voice processing device according to claim 26, wherein the range of the random number generated by said random number generation means is regulated.
【請求項36】 上記制御手段は、上記認識された音声
の上記記憶手段への登録を報知するために、当該認識さ
れた音声または当該認識された音声に所定の処理を施し
た音声を上記音声出力手段から出力させる請求項26か
ら35の何れかに記載の音声処理装置。
36. The control unit according to claim 36, wherein the control unit transmits the recognized voice or a voice obtained by performing a predetermined process on the recognized voice to notify registration of the recognized voice in the storage unit. The audio processing device according to any one of claims 26 to 35, wherein the audio processing device outputs the sound from an output unit.
【請求項37】 所定の音声を記憶する通知音記憶手段
とを有し、 上記照合の結果に応じて上記通知音記憶手段に記憶され
た音声を上記音声出力手段から出力させる請求項26か
ら36の何れかに記載の音声処理装置。
37. A notification sound storage means for storing a predetermined sound, and the sound output means outputs the sound stored in the notification sound storage means in accordance with the result of the collation. The audio processing device according to any one of the above.
【請求項38】 上記制御手段は、上記第3の動作状態
において、上記音入力手段から入力された音のレベルが
所定範囲にあることを条件に、当該音を音声として認識
する請求項26から37の何れかに記載の音声処理装
置。
38. The control device according to claim 26, wherein in the third operation state, the sound is recognized as a sound on condition that a level of the sound input from the sound input device is within a predetermined range. 37. The audio processing device according to any one of 37.
【請求項39】 上記制御手段は、上記第3の動作状態
において、上記音入力手段から入力された音のレベルが
所定範囲にあり、かつ当該所定範囲のレベルを所定時間
持続することを条件に、当該音を音声として認識する請
求項26から38の何れかに記載の音声処理装置。
39. The control means, on the condition that the level of the sound input from the sound input means is in a predetermined range in the third operation state and the level in the predetermined range is maintained for a predetermined time. The voice processing device according to any one of claims 26 to 38, wherein the sound is recognized as voice.
【請求項40】 上記制御手段は、所定時間内に音声が
認識されない場合、動作状態を上記音声認識状態を含む
他の動作状態へ移行させる請求項26から39の何れか
に記載の音声処理装置。
40. The voice processing apparatus according to claim 26, wherein the control unit shifts the operation state to another operation state including the voice recognition state when the voice is not recognized within a predetermined time. .
JP2000077864A 2000-03-15 2000-03-15 Sound processor Abandoned JP2001265364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000077864A JP2001265364A (en) 2000-03-15 2000-03-15 Sound processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000077864A JP2001265364A (en) 2000-03-15 2000-03-15 Sound processor

Publications (1)

Publication Number Publication Date
JP2001265364A true JP2001265364A (en) 2001-09-28

Family

ID=18595352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000077864A Abandoned JP2001265364A (en) 2000-03-15 2000-03-15 Sound processor

Country Status (1)

Country Link
JP (1) JP2001265364A (en)

Similar Documents

Publication Publication Date Title
US6375535B1 (en) Interactive talking dolls
US6110000A (en) Doll set with unidirectional infrared communication for simulating conversation
CN107077840B (en) Speech synthesis apparatus and method
JP3273550B2 (en) Automatic answering toy
JP2000254360A (en) Interactive toy
JP2003255991A (en) Interactive control system, interactive control method, and robot apparatus
JP2002189488A (en) Robot controller and robot control method, recording medium and program
JP2004101901A (en) Speech interaction system and speech interaction program
WO1999032203A1 (en) A standalone interactive toy
JP2001265377A (en) Voice processor
JP2001265381A (en) Voice processor
JP2001265364A (en) Sound processor
JP2001265380A (en) Voice processor
JP3485517B2 (en) Simulated biological toy
JP2001264466A (en) Voice processing device
JP3485516B2 (en) Voice output toys
JP2006212451A (en) Virtual pet device and control program recording medium for the same
JP2015231456A (en) Word-chain toy
JP2004024867A (en) Voice interaction toy
JPH0356000Y2 (en)
JP2001187276A (en) Dialogue type toy
JP2020148921A (en) Musical performance apparatus
TWM560933U (en) Voice device
JP2003076398A (en) Robot device, robot control method, recording medium, and program
JPH0582485U (en) Motion toys

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040727

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20040922