JP2003088686A - Nodding robot - Google Patents

Nodding robot

Info

Publication number
JP2003088686A
JP2003088686A JP2001283436A JP2001283436A JP2003088686A JP 2003088686 A JP2003088686 A JP 2003088686A JP 2001283436 A JP2001283436 A JP 2001283436A JP 2001283436 A JP2001283436 A JP 2001283436A JP 2003088686 A JP2003088686 A JP 2003088686A
Authority
JP
Japan
Prior art keywords
voice
unit
registration data
input
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001283436A
Other languages
Japanese (ja)
Inventor
Junji Tanaka
田中  淳司
Yoshishige Miwa
義重 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Original Assignee
Tokyo Sanyo Electric Co Ltd
Tottori Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Sanyo Electric Co Ltd, Tottori Sanyo Electric Co Ltd, Sanyo Electric Co Ltd filed Critical Tokyo Sanyo Electric Co Ltd
Priority to JP2001283436A priority Critical patent/JP2003088686A/en
Publication of JP2003088686A publication Critical patent/JP2003088686A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a nodding robot which emits sounds for nodding while emitting voices similar to those of relevant persons to users corresponding to the contents of the voices when emitted by the users. SOLUTION: There are provided a first input part, a receiving part 10, a voice recognition part 20, a memory part 26, and a control part 13. When the first input part is operated to get the voices of the users inputted into the receiving part 10, the voice recognition part 20 recognizes the voices and the control part 13 makes the memory part 26 store registration data of the voices recognized. A drive part 22 for driving the head part of the robot is provided and as nodding sounds are outputted, the control part 13 causes the drive part 22 to be driven, thereby making the head part perform nodding actions.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、相槌ロボットに関
する。
TECHNICAL FIELD The present invention relates to an Azuma robot.

【0002】[0002]

【従来の技術】従来、この種のロボットは、例えば特開
平8−187364号公報に示されている。この公報に
よると、検出部1により検出された利用者の可動部分の
相対位置に基づき、制御部2は、ロボットの駆動部分
を、前記相対位置に対応する所定の相対位置に移動させ
る様に、駆動部3に指令する。上記構成により、ロボッ
トは、利用者の可動部分の動作と同一の動作を行い、利
用者の物まねができる。
2. Description of the Related Art Conventionally, a robot of this type is disclosed in, for example, Japanese Patent Application Laid-Open No. 8-187364. According to this publication, based on the relative position of the movable part of the user detected by the detection part 1, the control part 2 moves the driving part of the robot to a predetermined relative position corresponding to the relative position, Instruct the drive unit 3. With the above configuration, the robot performs the same operation as the operation of the movable part of the user and can imitate the user.

【0003】[0003]

【発明が解決しようとする課題】上記ロボットでは、利
用者が音声を発した時、応答音声を発しない第1の欠点
が有る。特に、利用者が痴呆症の人の場合、同じ言葉を
繰り返してしゃべるが、上記ロボットは相槌を打たない
第2の欠点が有る。
The above-mentioned robot has the first drawback that it does not give a response voice when the user gives a voice. In particular, when the user is a person with dementia, the same word can be repeatedly spoken, but the robot has a second drawback in that it does not interfere.

【0004】上記欠点を解決するために、本発明者は、
ロボットに音声合成部を設け、利用者がしゃべった後
に、ロボットが相槌を打つ言葉を発する様に、試みた。
しかし利用者にとって、音声合成された相槌では、機械
による音そのままなので、十分に満足できない第3の欠
点が有る。
In order to solve the above drawbacks, the present inventor has
The robot was equipped with a voice synthesizer, and after the user spoke, the robot tried to make a word that hits a hammer.
However, for the user, the voice-synthesized Azuchi has a third drawback in that the sound produced by the machine is the same as the sound produced by the machine.

【0005】そこで、本発明はこの様な従来の欠点を考
慮して、利用者が音声を発すると、その内容に応じた相
槌の音声を発し、かつ、利用者の関係者(例えば息子)
の声に近い音声を発する相槌ロボットを提供する。
In view of the above-mentioned conventional drawbacks, the present invention, when the user utters a voice, emits a voice of a hammer corresponding to the content and a person concerned with the user (eg, son).
Provide a robot that produces a voice close to the voice of.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、請求項1の本発明では、第1入力部と、受話部と音
声認識部と、記憶部と、制御部とを備え、前記第1入力
部が操作され、利用者の音声が前記受話部に入力される
と、前記音声認識部は前記音声を音声認識し、前記制御
部は前記記憶部に対し、音声認識された登録データを記
憶させる。
In order to solve the above-mentioned problems, the present invention according to claim 1 comprises a first input section, a receiving section, a voice recognition section, a storage section, and a control section. When the first input unit is operated and the user's voice is input to the earpiece, the voice recognition unit recognizes the voice, and the control unit causes the storage unit to perform voice-recognized registration data. Memorize

【0007】請求項2の本発明では、第2入力部を設
け、前記第2入力部が操作され、前記利用者の関係者に
よる相槌音声が前記受話部に入力されると、前記制御部
は前記相槌音声を相槌登録データに変換し、前記記憶部
に対し、前記相槌登録データを記憶させる。
According to the second aspect of the present invention, when the second input section is provided and the second input section is operated, and the voice of the humming sound by the person related to the user is input to the earpiece, the control section is The azuchi voice is converted to azuchi registration data, and the azuchi registration data is stored in the storage unit.

【0008】請求項3の本発明では、前記記憶部は、音
声認識された各々の前記登録データに対応して、各々の
前記相槌登録データを一対一にて記憶する。
According to the third aspect of the present invention, the storage section stores each of the entropy registration data in a one-to-one correspondence with each of the registration data recognized by voice.

【0009】請求項4の本発明では、送話部を設け、前
記制御部は、前記受話部を介して入力された音声を音声
認識し、前記制御部は、該音声認識された結果が前記記
憶部に記憶された前記登録データと一致すると判定した
場合、前記制御部は、前記記憶部に記憶され、かつ前記
登録データに対応する前記相槌登録データを読出し、前
記相槌音声を出力する。
According to the present invention of claim 4, a transmitter is provided, the controller recognizes the voice input through the receiver, and the controller determines the result of the voice recognition. When it is determined that the registration data matches the registration data stored in the storage unit, the control unit reads the Azuchi registration data stored in the storage unit and corresponding to the registration data, and outputs the Aizuchi voice.

【0010】請求項5の本発明では、送話部と音声合成
部とを設け、前記制御部は、前記受話部を介して入力さ
れた音声を音声認識させ、前記登録データと一致しない
と判定し、かつ、該音声認識された結果が相槌を必要と
すると判定した場合、前記制御部は、前記記憶部に記憶
された相槌データを読出し、前記音声合成部と前記送話
部を介して、該データに基づく相槌音声を出力する。
According to the fifth aspect of the present invention, a voice transmitter and a voice synthesizer are provided, and the controller voice-recognizes the voice input through the receiver and determines that the voice does not match the registered data. And, and when it is determined that the result of the voice recognition requires a hammer, the control unit reads the hammer data stored in the storage unit, through the voice synthesis unit and the transmitter, The Azumi sound based on the data is output.

【0011】請求項6の本発明では、頭部を駆動する駆
動部を設け、前記相槌音声が出力されると共に、前記制
御部は前記駆動部を駆動させ、前記頭部をして、相槌動
作をさせる。
According to the sixth aspect of the present invention, a drive unit for driving the head is provided, and the control unit drives the drive unit to drive the drive unit, and the control unit drives the head to perform the control operation. Let

【0012】[0012]

【発明の実施の形態】以下、図1と図2に従い、本発明
の実施の形態に係る相槌ロボット1を説明する。図1
は、この相槌ロボット1のブロック図、図2は、この相
槌ロボット1の外観図である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a hammer robot 1 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. Figure 1
Is a block diagram of the Azuma robot 1, and FIG. 2 is an external view of the Azuma robot 1.

【0013】これらの図に於て、相槌ロボット1は例え
ば、頭部2と、耳部3、4と、胴体部5と、脚部6、
7、8、9(図2では脚部8、9は見えない)などを有
している。これらの部分2〜9は例えば、中空状のプラ
スチック等で構成されている。
In these figures, the hammer robot 1 has, for example, a head 2, ears 3, 4, a body 5, legs 6,
7, 8 and 9 (the legs 8 and 9 are not visible in FIG. 2) and the like. These parts 2 to 9 are made of, for example, hollow plastic or the like.

【0014】受話部10は例えばマイク等から成り、耳
部3、4の内部に配置されている。受話部10は入力さ
れた音声を電気信号に変換し、CODEC11へ出力す
る。
The earpiece 10 comprises, for example, a microphone and is arranged inside the ears 3 and 4. The receiver 10 converts the input voice into an electric signal and outputs it to the CODEC 11.

【0015】CODEC11は例えば、ベースバンド回
路と、A−D変換器と、AF回路(共に図示せず)から
構成されている。
The CODEC 11 comprises, for example, a baseband circuit, an AD converter, and an AF circuit (both not shown).

【0016】送話部12は例えばスピーカ等から成り、
CODEC11からの電気信号を音声に変換し、出力す
る。
The transmitter 12 is composed of, for example, a speaker,
The electrical signal from the CODEC 11 is converted into voice and output.

【0017】制御部13は例えばCPU等から成り、D
SP(ディジタル信号処理プロセッサ)14を内蔵して
いる。CODEC11は制御部13に接続されている。
The control unit 13 is composed of, for example, a CPU, and D
An SP (Digital Signal Processor) 14 is built in. The CODEC 11 is connected to the control unit 13.

【0018】表示部15は例えば液晶表示装置等から成
り、制御部13に接続されている。入力部16は例えば
第1入力部17と、第2入力部18と、電源ボタン19
等から構成され、制御部13に接続されている。
The display unit 15 is composed of, for example, a liquid crystal display device and is connected to the control unit 13. The input unit 16 includes, for example, a first input unit 17, a second input unit 18, and a power button 19.
Etc., and is connected to the control unit 13.

【0019】入力された音声は、受話部10により電気
信号に変換され、音声認識部20はCODEC11と制
御部13を介して、上記電気信号を音声認識する。
The input voice is converted into an electric signal by the receiving unit 10, and the voice recognition unit 20 voice-recognizes the electric signal via the CODEC 11 and the control unit 13.

【0020】音声合成部21は制御部13に接続され、
制御部13とCODEC11と送話部12を介して、音
声を出力する。
The voice synthesizer 21 is connected to the controller 13,
Audio is output via the control unit 13, the CODEC 11, and the transmitter unit 12.

【0021】駆動部22は例えば、首振り用モータであ
り、モータドライバ(駆動回路)23を介して、制御部
13に接続されている。
The drive unit 22 is, for example, a swinging motor, and is connected to the control unit 13 via a motor driver (drive circuit) 23.

【0022】頭部2はヒンジ等(図示せず)を介して胴
体部5に接続されており、例えば前後に移動可能(お辞
儀する)に構成されている。駆動部22は例えば、リン
ク機構を介して、頭部2に接続されている。駆動部22
に所定の電圧が印加されると駆動部22が回転し、リン
ク機構が動作し、頭部2が相槌する様に、前後に移動す
る。この様に、駆動部22は頭部2を駆動する。
The head portion 2 is connected to the body portion 5 via a hinge or the like (not shown), and is configured, for example, so that it can move back and forth (bow). The drive unit 22 is connected to the head 2 via, for example, a link mechanism. Drive unit 22
When a predetermined voltage is applied to the drive unit 22, the drive unit 22 rotates, the link mechanism operates, and the head 2 moves back and forth so that the heads 2 cooperate with each other. In this way, the drive unit 22 drives the head 2.

【0023】ROM24は、制御部13の制御プログラ
ムを記憶しており、制御部13に接続されている。RA
M25は、この相槌ロボット1の動作に必要なデータが
記憶され、制御部13に接続されている。
The ROM 24 stores the control program of the control unit 13 and is connected to the control unit 13. RA
The M25 stores data necessary for the operation of the Azuma robot 1, and is connected to the control unit 13.

【0024】記憶部26は例えば、ハードディスクドラ
イバであり、制御部13に接続されている。記憶部26
は後述する様に、相槌データと、登録データと、相槌登
録データ等を記憶するものである。
The storage unit 26 is, for example, a hard disk driver and is connected to the control unit 13. Storage unit 26
Stores, as will be described later, the Azuma data, the registration data, the Azumi registration data, and the like.

【0025】電源部27は例えば、2次電池等から成
り、制御部13やモータドライバ23等に、所定の電圧
を供給するものである。以上の部品により、この相槌ロ
ボット1は構成されている。
The power supply unit 27 is composed of, for example, a secondary battery, and supplies a predetermined voltage to the control unit 13, the motor driver 23, and the like. The above-mentioned components make up the Azuma robot 1.

【0026】次に、図1ないし図4に従い、この相槌ロ
ボット1の動作を説明する。図3は相槌ロボット1の主
要動作を説明するためのフローチャートである。図4
(a)は記憶部26に記憶された相槌テーブル28の一
例を示し、図4(b)は記憶部26に記憶された音声登
録テーブル29の一例および相槌登録テーブル30の一
例を示す。
Next, referring to FIGS. 1 to 4, the operation of the hammer robot 1 will be described. FIG. 3 is a flow chart for explaining the main operation of the Azuma robot 1. Figure 4
FIG. 4A shows an example of the matching table 28 stored in the storage unit 26, and FIG. 4B shows an example of the voice registration table 29 and the matching registration table 30 stored in the storage unit 26.

【0027】図4(a)に示す様に、記憶部26の相槌
テーブル28には例えば、そうだね28a、それで28
b、そうそう28c、それから28d、よかったね28
e等の相槌データ(デジタル値)が予め登録されてい
る。
As shown in FIG. 4 (a), the summation table 28 of the storage unit 26 has, for example, 28a and 28.
b, yeah so 28c, then 28d, good 28
The summation data (digital value) such as e is registered in advance.

【0028】最初に、利用者A(例えば、痴呆症の老
人)の関係者B(例えば、上記老人の息子)が相槌ロボ
ット1に設けられた第1入力部17を押し続けたとする
(図2参照)。この時、相槌ロボット1の制御部13
は、音声登録ボタン(第1入力部17)がONか否かの
判定を肯定する(図3のS1を参照)。
First, it is assumed that a person B (for example, an old man with dementia) and a person B (for example, the son of the old man) of the user A (for example, a demented old man) continue to press the first input unit 17 provided in the Aizuchi robot 1 (FIG. reference). At this time, the control unit 13 of the Aizuchi robot 1
Affirms the determination as to whether or not the voice registration button (first input unit 17) is ON (see S1 in FIG. 3).

【0029】次に、利用者Aは、受話部10に対して好
きな言葉(例えば「昔はよかったなあ」)をしゃべる。
そして、制御部13は、音声認識部20をして、利用者
Aの音声を音声認識する。制御部13のDSP14は音
声認識された電気信号を、圧縮し、デシタル化し、登録
データ29aとして(図4(b)参照)、記憶部26に
記憶させる(図3のS2を参照)。
Next, the user A speaks his / her favorite words (for example, "good old days") to the receiver 10.
Then, the control unit 13 causes the voice recognition unit 20 to recognize the voice of the user A by voice. The DSP 14 of the control unit 13 compresses the voice-recognized electric signal, digitizes it, and stores it in the storage unit 26 as registration data 29a (see FIG. 4B) (see S2 in FIG. 3).

【0030】上記動作を言い換えれば、第1入力部17
が操作され、利用者Aの音声が受話部10に入力される
と、音声認識部20は上記音声を音声認識する。そし
て、制御部13は記憶部26に対し、音声認識された登
録データ29aを記憶させる。
In other words, the above operation is performed by the first input section 17
When is operated and the voice of the user A is input to the earpiece 10, the voice recognition unit 20 recognizes the voice. Then, the control unit 13 causes the storage unit 26 to store the voice-recognized registration data 29a.

【0031】次に、例えば、関係者Bは、第1入力部1
7を押す事を停止し、第2入力部18を押し続けたとす
る(図2参照)。この時、制御部13は、相槌登録ボタ
ン(第2入力部18)がONか否かの判定を肯定する
(図3のS3を参照)。
Next, for example, the related person B is the first input unit 1
It is assumed that pressing 7 is stopped and the second input unit 18 is continuously pressed (see FIG. 2). At this time, the control unit 13 affirms the determination as to whether or not the sumobu registration button (second input unit 18) is ON (see S3 in FIG. 3).

【0032】次に、関係者Bは受話部10に向かって、
上記利用者Aの音声に対する相槌音声(例えば「そうだ
ね」)をしゃべる。そして、DSP14は、上記相槌音
声が送話部12等により変換された電気信号を、圧縮化
し、デジタル化し、相槌登録データ30a(図4(b)
参照)に変換する。制御部13は記憶部26に対し、相
槌登録データ30aを記憶させる(図3のS4を参
照)。
Next, the party B heads to the receiver 10.
Speaking the voice of Aizuchi for the voice of the user A (for example, "yes"). Then, the DSP 14 compresses and digitizes the electric signal obtained by converting the above-mentioned azure voice by the transmitter 12 or the like, and outputs the azuchi registration data 30a (FIG. 4 (b)).
Reference). The control unit 13 causes the storage unit 26 to store the Atsuuchi registration data 30a (see S4 in FIG. 3).

【0033】上記動作を言い換えれば、第2入力部18
が操作され、利用者Aの関係者Bによる相槌音声(そう
だね)が受話部10に入力される。制御部13は、上記
相槌音声を相槌登録データ30aに変換し、記憶部26
に対し、相槌登録データ30aを記憶させる。
In other words, the above operation is performed by the second input section 18
Is operated, and the voice of a hammer (that's right) by the person B related to the user A is input to the earpiece 10. The control unit 13 converts the azuchi voice into the azuchi registration data 30a, and the storage unit 26
On the other hand, the Atsuuchi registration data 30a is stored.

【0034】この様にして、上記S1〜S4の動作を所
定回数繰り返す事により、音声登録テーブル29と、相
槌登録テーブル30は完成される。
In this way, the voice registration table 29 and the Atsui registration table 30 are completed by repeating the operations of S1 to S4 a predetermined number of times.

【0035】この時、記憶部26は、音声認識された各
々の登録データ29a〜29cに対応して、各々の相槌
登録データ30a〜30cを一対一にて記憶する。即
ち、記憶部26は、登録データ29aに対応して、相槌
登録データ30aを記憶し、登録データ29bに対応し
て、相槌登録データ30bを記憶し、登録データ29c
に対応して、相槌登録データ30cを記憶する。
At this time, the storage unit 26 stores the corresponding entropy registration data 30a to 30c in a one-to-one correspondence with the respective speech-recognized registration data 29a to 29c. In other words, the storage unit 26 stores the Azuchi registration data 30a corresponding to the registration data 29a, stores the Azuchi registration data 30b corresponding to the registration data 29b, and registers the registration data 29c.
Corresponding to, the Atsuuchi registration data 30c is stored.

【0036】制御部13は入力音声が有るか否かを判定
する(図3のS5を参照)。仮に、利用者Aが何かをし
ゃべっていれば、制御部13はS5の判定を肯定する。
The control unit 13 determines whether or not there is an input voice (see S5 in FIG. 3). If the user A is speaking something, the control unit 13 affirms the determination in S5.

【0037】そして、制御部13は音声認識部20をし
て、上記入力された音声を音声認識する(図3のS6を
参照)。
Then, the control unit 13 causes the voice recognition unit 20 to voice-recognize the input voice (see S6 in FIG. 3).

【0038】次に、制御部13は、上記音声認識された
電気信号が、記憶部26に記憶されている登録データ2
9a〜29cのどれかと一致するか否かを判定する(図
3のS7を参照)。
Next, the control unit 13 controls the registration data 2 in which the voice-recognized electric signal is stored in the storage unit 26.
It is determined whether or not it matches any of 9a to 29c (see S7 of FIG. 3).

【0039】仮に、受話部10に対して入力された利用
者Aの音声が「昔はよかったなあ」ならば、制御部13
はS7の判定を肯定する。
If the voice of the user A input to the earpiece 10 is "I wish I used to be good", the controller 13
Affirms the determination at S7.

【0040】そして、制御部13は、記憶部26に於
て、上記登録データ29aに対応する相槌登録データ3
0aを読出す。そして、制御部13のDSP14は、上
記相槌登録データ30aを再生し、電気信号に変換さ
せ、CODEC11と送話部12を介して、相槌音声
「そうだね」を出力させる(図3のS8を参照)。
Then, the control unit 13 causes the storage unit 26 to execute the matching registration data 3 corresponding to the registration data 29a.
Read 0a. Then, the DSP 14 of the control unit 13 reproduces the Azuchi registration data 30a, converts it into an electric signal, and outputs the Aizuchi voice "Soudane" via the CODEC 11 and the transmitter 12 (see S8 in FIG. 3). ).

【0041】上記動作を言い換えれば、制御部13は受
話部10を介して入力された音声「昔はよかったなあ」
を音声認識する。制御部13は、上記音声認識された結
果が、記憶部26に記憶された登録データ29aと一致
すると判定した場合、制御部13は、記憶部26に記憶
され、かつ登録データ29aに対応する相槌登録データ
30aを読出す。そして、制御部13は、相槌登録デー
タ30aを変換し、相槌音声「そうだね」を出力させ
る。
In other words, the control section 13 puts the voice "I wish it was good" into the voice input through the earpiece section 10.
Voice recognition. When the control unit 13 determines that the result of the voice recognition matches the registration data 29a stored in the storage unit 26, the control unit 13 is stored in the storage unit 26 and corresponds to the registration data 29a. The registration data 30a is read. Then, the control unit 13 converts the Azuchi registration data 30a and outputs the Aizuchi voice "Yes, it is".

【0042】次に、制御部13は相槌動作を行わせる
(図3のS9を参照)。 即ち、制御部13は上記相槌
音声を出力させると共に、駆動部22を駆動させ、頭部
2をして相槌動作を行わせる(例えば、頭部2を上下に
動かす等)。
Next, the control unit 13 causes the summing operation (see S9 in FIG. 3). That is, the control unit 13 outputs the above-mentioned hammer sound, drives the driving unit 22, and causes the head 2 to perform the hammer motion (for example, move the head 2 up and down).

【0043】また、図3のS7に、関連して、仮に、受
話部10に対して入力された利用者Aの音声が、登録デ
ータ29a〜29cと異なるものであれば、制御部13
はS7を否定する。
Further, in relation to S7 of FIG. 3, if the voice of the user A input to the receiving section 10 is different from the registered data 29a to 29c, the control section 13 will be described.
Denies S7.

【0044】次に、制御部13は、上記入力された利用
者Aの音声が、相槌音声を必要とするか否かを判定する
(図3のS10を参照)。即ち、制御部13は、利用者
Aによる入力音声が、相手の同意を求める言葉か、又
は、語尾が…してね等か否かを判定する。
Next, the control unit 13 determines whether or not the input voice of the user A requires the Azumi voice (see S10 in FIG. 3). That is, the control unit 13 determines whether or not the input voice of the user A is a word that asks for the consent of the other party, or the ending of the word ...

【0045】仮に、上記入力音声が相手の同意を求める
言葉等ならば、制御部13はS10を肯定する。そし
て、制御部13は、記憶部26に記憶された相槌テーブ
ル28内の相槌データ28a〜28eを求める。
If the input voice is a word requesting the consent of the other party, the control unit 13 affirms S10. Then, the control unit 13 obtains the interaction data 28a to 28e in the interaction table 28 stored in the storage unit 26.

【0046】例えば、乱数表を設け、記憶部26は相槌
データ28a〜28eをランダムに選択しても良い。例
えば、相槌データ28eを選択したとする。
For example, a random number table may be provided, and the storage unit 26 may randomly select the ensemble data 28a to 28e. For example, it is assumed that the auction data 28e is selected.

【0047】そして、制御部13は、音声合成部21と
CODEC11と送話部12を介して、上記相槌データ
28eに基づく相槌音声「よかったね」を出力する(図
3のS11を参照)。
Then, the control unit 13 outputs the voice of "Waitane" which is based on the voice data 28e through the voice synthesizer 21, the CODEC 11 and the transmitter 12 (see S11 of FIG. 3).

【0048】上記動作を言い換えるならば、制御部13
は、受話部10を介して入力された音声を音声認識させ
る。制御部13は、上記音声認識された結果が登録デー
タ29a〜29cと一致しないと判定し、かつ上記結果
が相槌を必要とすると判定した場合、制御部13は記憶
部26に記憶された相槌データ(例えば、28e)を読
出す。そして、制御部13は、音声合成部21とCOD
EC11と送話部12を介して、上記相槌データ28e
に基づく相槌音声を出力させる。
In other words, the control unit 13
Causes the voice input through the receiver 10 to be recognized. When the control unit 13 determines that the result of the voice recognition does not match the registration data 29a to 29c, and determines that the result requires a match, the control unit 13 stores the match data stored in the storage unit 26. (Eg, 28e) is read. Then, the control unit 13 controls the voice synthesis unit 21 and the COD.
Via the EC 11 and the transmitter 12, the above-mentioned summation data 28e
The Aizuchi sound based on is output.

【0049】次に、制御部13は相槌動作を行わせ(図
3のS9を参照)、一連の動作を終了する。なお、制御
部13はS10の判定を否定すれば、動作を終了する。
Next, the control unit 13 performs the summing operation (see S9 in FIG. 3) and ends the series of operations. In addition, the control part 13 will complete | finish operation | movement, if the determination of S10 is denied.

【0050】[0050]

【発明の効果】請求項1の本発明では、第1入力部と、
受話部と、音声認識部と、記憶部と、制御部とを備え、
前記第1入力部が操作され、利用者の音声が前記受話部
に入力されると、前記音声認識部は前記音声を音声認識
し、前記制御部は前記記憶部に対し、音声認識された登
録データを記憶させる構成とする。この様に、第1入力
部が操作された時に、音声認識された登録データを記憶
するので、利用者の音声のみを正確に登録できる。更
に、音声認識しているので、利用者の音声が多少あいま
いで有っても、正しい登録データを記憶する事ができ
る。
According to the present invention of claim 1, a first input section,
A receiver section, a voice recognition section, a storage section, and a control section,
When the first input unit is operated and the voice of the user is input to the earpiece, the voice recognition unit recognizes the voice, and the control unit registers the voice-recognized registration in the storage unit. It is configured to store data. Thus, when the first input section is operated, the voice-recognized registration data is stored, so that only the voice of the user can be accurately registered. Furthermore, since voice recognition is performed, correct registration data can be stored even if the user's voice is somewhat vague.

【0051】請求項2の本発明では、第2入力部を設
け、前記第2入力部が操作され、前記利用者の関係者に
よる相槌音声が前記受話部に入力されると、前記制御部
は前記相槌音声を相槌登録データに変換し、前記記憶部
に対し、前記相槌登録データを記憶させる構成とする。
この様に、第2入力部が操作された時、相槌登録データ
を記憶するので、関係者の相槌音声のみを正確に登録で
きる。また、音声認識せずに記憶しているので、関係者
の生の声に基づいた相槌登録データを記憶する事ができ
る。
According to the present invention of claim 2, when the second input section is provided and the second input section is operated and the competing voice by the person concerned of the user is inputted to the earpiece section, the control section is It is configured such that the azuchi voice is converted into azuchi registration data and the azuchi registration data is stored in the storage unit.
In this way, when the second input unit is operated, the Atsuuchi registration data is stored, so that only the Atsuuchi voice of the person concerned can be accurately registered. In addition, since the data is stored without voice recognition, it is possible to store the enrollment registration data based on the live voice of the person concerned.

【0052】請求項3の本発明では、前記記憶部は、音
声認識された各々の前記登録データに対応して、各々の
前記相槌登録データを一対一にて記憶する構成とする。
この様に、登録データと相槌登録データを一対一で記憶
させているので、特定の登録データに対し最も適した相
槌登録データを記憶する事により、最も適した(利用者
が発した内容に応じた)相槌を打つ事ができる。
According to the third aspect of the present invention, the storage section is configured to store each of the entropy registration data in a one-to-one correspondence with each of the registration data recognized by voice.
In this way, since the registration data and the Azuma registration data are stored in a one-to-one correspondence, by storing the Atsuuchi registration data that is most suitable for the specific registration data, the most suitable (according to the content issued by the user You can hit a hammer.

【0053】請求項4の本発明では、送話部を設け、前
記制御部は、前記受話部を介して入力された音声を音声
認識し、前記制御部は、該音声認識された結果が前記記
憶部に記憶された前記登録データと一致すると判定した
場合、前記制御部は、前記記憶部に記憶され、かつ前記
登録データに対応する前記相槌登録データを読出し、前
記相槌音声を出力する構成とする。上記構成により、利
用者が音声を発すると利用者の関係者(例えば息子等)
の生の声に近い、相槌音声が返ってくるので、利用者の
満足度は高まる。
According to the present invention of claim 4, a transmitter is provided, the controller recognizes the voice input through the receiver, and the controller determines the result of the voice recognition. When it is determined that the registration data matches the registration data stored in the storage unit, the control unit reads the Azuchi registration data stored in the storage unit and corresponding to the registration data, and outputs the Aizuchi voice. To do. With the above configuration, when the user utters a voice, a person concerned with the user (eg son)
The return of the Azuma sound, which is similar to the real voice, will increase user satisfaction.

【0054】請求項5の本発明では、送話部と音声合成
部とを設け、前記制御部は、前記受話部を介して入力さ
れた音声を音声認識させ、前記登録データと一致しない
と判定し、かつ、該音声認識された結果が相槌を必要と
すると判定した場合、前記制御部は、前記記憶部に記憶
された相槌データを読出し、前記音声合成部と前記送話
部を介して、該データに基づく相槌音声を出力する構成
とする。この様に、利用者の音声が登録されていなくて
も、利用者の音声の様子により、自動的に相槌が返って
くるので、利用者の満足度は更に高まる。
According to the fifth aspect of the present invention, a voice transmitter and a voice synthesizer are provided, and the controller voice-recognizes the voice input via the receiver, and determines that the voice does not match the registered data. And, and when it is determined that the result of the voice recognition requires a hammer, the control unit reads the hammer data stored in the storage unit, through the voice synthesis unit and the transmitter, The configuration is such that the Azumi sound based on the data is output. In this way, even if the voice of the user is not registered, the response is automatically returned depending on the state of the voice of the user, so that the satisfaction of the user is further enhanced.

【0055】請求項6の本発明では、頭部を駆動する駆
動部を設け、前記相槌音声が出力されると共に、前記制
御部は前記駆動部を駆動させ、前記頭部をして、相槌動
作をさせる構成とする。この様に、相槌ロボットは、相
槌音声を出力すると共に、相槌動作を行うので、利用者
にとって、この相槌ロボットは、あたかも知人である雰
囲気および親近感を与える。
According to the sixth aspect of the present invention, a drive unit for driving the head is provided, and while the sound of the hammer is output, the control unit drives the driver to move the head to move the hammer. It is configured so that In this way, the Aizu robot outputs the Aizu sound and performs the Aizu operation, so that the user gives the user an atmosphere and familiarity as if he were an acquaintance.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係る相槌ロボット1のブ
ロック図である。
FIG. 1 is a block diagram of a hammering robot 1 according to an embodiment of the present invention.

【図2】上記相槌ロボット1の外観図である。FIG. 2 is an external view of the Atsuuchi robot 1.

【図3】上記相槌ロボット1の主要動作を示すフローチ
ャートである。
FIG. 3 is a flow chart showing the main operation of the above-mentioned Atsuuchi robot 1.

【図4】図4(a)は上記相槌ロボット1に用いられる
記憶部26の相槌テーブルを示し、図4(b)は上記記
憶部26に記憶された音声登録テーブルと相槌登録テー
ブルである。
FIG. 4 (a) shows a play table in a storage unit 26 used in the play robot 1, and FIG. 4 (b) shows a voice registration table and a play registration table stored in the storage unit 26.

【符号の説明】[Explanation of symbols]

10 受話部 13 制御部 20 音声認識部 26 記憶部 10 Earpiece 13 Control unit 20 Speech recognition unit 26 Memory

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/22 G10L 3/00 521C (72)発明者 三輪 義重 鳥取県鳥取市南吉方3丁目201番地 鳥取 三洋電機株式会社内 Fターム(参考) 2C150 BA11 CA01 CA02 CA04 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF16 EF17 EF23 EF29 EF33 EF36 5D015 KK02 KK04 LL06 5D045 AB11 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI Theme Coat (reference) G10L 15/22 G10L 3/00 521C (72) Inventor Miwa Yoshishige 3-201 Minamiyoshikata, Tottori City, Tottori Prefecture Tottori Sanyo Electric Co., Ltd. F term (reference) 2C150 BA11 CA01 CA02 CA04 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF16 EF17 EF23 EF29 EF33 EF36 5D015 KK02 KK04 LL06 5D045 AB11

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 第1入力部と、受話部と、音声認識部
と、記憶部と、制御部とを備え、前記第1入力部が操作
され、利用者の音声が前記受話部に入力されると、前記
音声認識部は前記音声を音声認識し、前記制御部は前記
記憶部に対し、音声認識された登録データを記憶させる
事を特徴とする相槌ロボット。
1. A first input unit, a receiving unit, a voice recognition unit, a storage unit, and a control unit, wherein the first input unit is operated and the voice of the user is input to the receiving unit. Then, the voice recognition unit voice-recognizes the voice, and the control unit causes the storage unit to store the voice-recognized registration data.
【請求項2】 第2入力部を設け、前記第2入力部が操
作され、前記利用者の関係者による相槌音声が前記受話
部に入力されると、前記制御部は前記相槌音声を相槌登
録データに変換し、前記記憶部に対し、前記相槌登録デ
ータを記憶させる事を特徴とする請求項1の相槌ロボッ
ト。
2. A second input unit is provided, and when the second input unit is operated and an auction voice by a person related to the user is input to the earpiece unit, the control unit registers the auction voice in the auction. The auspices robot according to claim 1, wherein the auspices registration data is converted into data and stored in the storage unit.
【請求項3】 前記記憶部は、音声認識された各々の前
記登録データに対応して、各々の前記相槌登録データを
一対一にて記憶する事を特徴とする請求項2の相槌ロボ
ット。
3. The summing robot according to claim 2, wherein the storage unit stores the respective engraving registration data on a one-to-one basis corresponding to each of the registration data recognized by voice.
【請求項4】 送話部を設け、前記制御部は、前記受話
部を介して入力された音声を音声認識し、前記制御部
は、該音声認識された結果が前記記憶部に記憶された前
記登録データと一致すると判定した場合、前記制御部
は、前記記憶部に記憶され、かつ前記登録データに対応
する前記相槌登録データを読出し、前記相槌音声を出力
する事を特徴とする請求項3の相槌ロボット。
4. A voice transmitter is provided, the controller recognizes voice input through the receiver, and the controller stores the result of the voice recognition in the storage. 4. The control unit, when determining that the registration data matches the registration data, reads the Azuchi registration data stored in the storage unit and corresponding to the registration data, and outputs the Aizuchi voice. Robot of Azuma.
【請求項5】 送話部と音声合成部とを設け、前記制御
部は、前記受話部を介して入力された音声を音声認識さ
せ、前記登録データと一致しないと判定し、かつ、該音
声認識された結果が相槌を必要とすると判定した場合、
前記制御部は前記記憶部に記憶された相槌データを読出
し、前記音声合成部と前記送話部を介して、該データに
基づく相槌音声を出力する事を特徴とする請求項1の相
槌ロボット。
5. A voice transmitting unit and a voice synthesizing unit are provided, and the control unit causes the voice input through the voice receiving unit to be voice-recognized, determines that the voice does not match the registered data, and outputs the voice. If you determine that the recognized result requires a hammer,
2. The robot according to claim 1, wherein the control unit reads the read data stored in the storage unit, and outputs a read voice based on the read data via the voice synthesis unit and the transmission unit.
【請求項6】 頭部を駆動する駆動部を設け、前記相槌
音声が出力されると共に、前記制御部は前記駆動部を駆
動させ、前記頭部をして、相槌動作をさせる事を特徴と
する請求項4又は請求項5の相槌ロボット。
6. A drive unit for driving a head is provided, and the control unit drives the drive unit so that the head is driven to perform the reciprocating motion while the drive sound is output. The Atsuchi robot according to claim 4 or claim 5.
JP2001283436A 2001-09-18 2001-09-18 Nodding robot Pending JP2003088686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001283436A JP2003088686A (en) 2001-09-18 2001-09-18 Nodding robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001283436A JP2003088686A (en) 2001-09-18 2001-09-18 Nodding robot

Publications (1)

Publication Number Publication Date
JP2003088686A true JP2003088686A (en) 2003-03-25

Family

ID=19106919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001283436A Pending JP2003088686A (en) 2001-09-18 2001-09-18 Nodding robot

Country Status (1)

Country Link
JP (1) JP2003088686A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061464A (en) * 2011-09-13 2013-04-04 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for inducing utterance
US11449672B2 (en) 2017-07-18 2022-09-20 Samsung Electronics Co., Ltd. Method for operating speech recognition service and electronic device and server for supporting the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061464A (en) * 2011-09-13 2013-04-04 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for inducing utterance
US11449672B2 (en) 2017-07-18 2022-09-20 Samsung Electronics Co., Ltd. Method for operating speech recognition service and electronic device and server for supporting the same

Similar Documents

Publication Publication Date Title
US7068941B2 (en) Interactive talking dolls
JP3968133B2 (en) Speech recognition dialogue processing method and speech recognition dialogue apparatus
US7750223B2 (en) Musical interaction assisting apparatus
US20120253823A1 (en) Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing
TW200813980A (en) Voice recognition system and method thereof
JP2003255991A (en) Interactive control system, interactive control method, and robot apparatus
JP2000254360A (en) Interactive toy
JP3000999B1 (en) Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program
WO2004019197A1 (en) Control system, method, and program using rhythm pattern
JP2000181897A (en) Character display controller, charcter display control system and recording medium
JP2003088686A (en) Nodding robot
JPH10328421A (en) Automatically responding toy
WO2005038776A1 (en) Voice controlled toy
JP2000089780A (en) Speech recognition method and device therefor
JP6700531B1 (en) Authentication method, authentication system, smart speaker and program
JP3050232B2 (en) Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program
JP2019087798A (en) Voice input device
JP2003069732A (en) Robot
JP2004258502A (en) Effect sound generating mechanism of karaoke playing apparatus and method of use
JP4184227B2 (en) A karaoke remote control transmitter that transmits the range classification code along with the song number
JPH09106260A (en) Voice output device
JP2005148764A (en) Method and device for speech recognition interaction
JP2019028252A (en) Artificial larynx unit
JPH0518588U (en) Human form
JPH1023109A (en) Controller for sound generated by telephone set

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040909

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20051227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061024