JP2002311984A - Conversation device - Google Patents

Conversation device

Info

Publication number
JP2002311984A
JP2002311984A JP2001115554A JP2001115554A JP2002311984A JP 2002311984 A JP2002311984 A JP 2002311984A JP 2001115554 A JP2001115554 A JP 2001115554A JP 2001115554 A JP2001115554 A JP 2001115554A JP 2002311984 A JP2002311984 A JP 2002311984A
Authority
JP
Japan
Prior art keywords
information
conversation
output device
input
encoded information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001115554A
Other languages
Japanese (ja)
Other versions
JP4646170B2 (en
Inventor
Masayuki Oe
雅之 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2001115554A priority Critical patent/JP4646170B2/en
Publication of JP2002311984A publication Critical patent/JP2002311984A/en
Application granted granted Critical
Publication of JP4646170B2 publication Critical patent/JP4646170B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a conversation device which enables a person to have a talk with an electronic stuffed animal, a pet robot, or the like by once translating their words which the person cannot understand by means of a translation device. SOLUTION: The conversation device is provided with an output device 3 and a translation device 5. The output device 3 recognizes an inputted sound, reads and encodes response information corresponding to the recognized sound from a ROM21, and then generates the encoded information. The translation device 5 receives and decodes the encoded information, and then displays decoded contents on a liquid crystal display 67.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本願発明は、出力装置が人に
理解できない符号化情報を出力すると、この符号化情報
を翻訳装置で翻訳することにより、これを理解したユー
ザーと出力装置との間で会話をすることのできる会話装
置に関するものである。
BACKGROUND OF THE INVENTION The present invention relates to an apparatus for outputting encoded information that cannot be understood by a human output device, by translating the encoded information by a translating device, thereby allowing a user who understands the encoded information to communicate with the output device. The present invention relates to a conversation device capable of having a conversation.

【0002】[0002]

【従来の技術】近年、対話型のロボット装置が種々提案
されている。実開昭59−169681号公報に示され
る従来の音声会話装置は、応答文データを記憶した記憶
装置を有し、外部からの音声入力を検出すると、この入
力した音声を認識して対応する応答文データを記憶装置
から読み出して、応答文データに応じた音声を出力する
ようにしている。
2. Description of the Related Art In recent years, various interactive robot apparatuses have been proposed. A conventional voice conversation device disclosed in Japanese Utility Model Laid-Open No. 59-169681 has a storage device for storing response sentence data. When an external voice input is detected, the input voice is recognized and a corresponding response is recognized. The sentence data is read from the storage device, and a sound corresponding to the response sentence data is output.

【0003】[0003]

【発明が解決しようとする課題】通常、自国以外の人や
異国の人と会話したい場合は、異国の人等が話す言葉を
自国語に翻訳する必要が生じる。このため、異国の人等
が話す言葉を翻訳人が自国語に翻訳し、その翻訳した内
容に基づいて再度質問等することにより、異国の人等と
のあいだで会話を続けることができる。しかしながら、
従来の会話装置は入力した音声を認識して対応する応答
文データに応じた音声を直接出力するものである。この
ように、従来のぬいぐるみやロボット装置などの会話装
置は、自国の人が理解できる音声を出力するので、直接
的に会話が成立してしまい、異国の人とのあいだで会話
をしているという面白さに欠けるという問題点を有して
いた。
Normally, when it is desired to have a conversation with a person other than the home country or a foreign person, it is necessary to translate the words spoken by the foreign person or the like into the native language. For this reason, the translator can translate the language spoken by a foreign person or the like into his / her own language, and can ask questions again based on the translated content, so that the conversation with the foreign person or the like can be continued. However,
A conventional conversation device recognizes an input voice and directly outputs a voice corresponding to corresponding response sentence data. As described above, conventional talking devices such as stuffed animals and robot devices output voices that can be understood by a person in their own country, so that a conversation is directly established, and a conversation is made with a foreign person. There was a problem that lacked the fun.

【0004】本願発明は、上記問題点に鑑みて案出され
たもので、電子ぬいぐるみやペットロボット等の出力装
置と直接的に会話するのではなく、電子ぬいぐるみやペ
ットロボット等からの人が理解できない言葉を一旦、翻
訳装置で翻訳することにより、電子ぬいぐるみやペット
ロボット等と会話することのできる会話装置を提供する
ことを目的とする。
The present invention has been devised in view of the above problems, and does not directly communicate with an output device such as an electronic stuffed animal or a pet robot, but is understood by a person from the electronic stuffed animal or a pet robot. It is an object of the present invention to provide a conversation device capable of conversing with an electronic stuffed animal, a pet robot, or the like by temporarily translating an impossible word by a translation device.

【0005】[0005]

【課題を解決するための手段】本発明が提供する請求項
1に係る発明は、上記目的を達成するために、下記の要
件を備えたことを特徴とする。すなわち、 (イ)符号化情報を出力する出力装置と、前記符号化情
報を翻訳する翻訳装置とを有すること。 (ロ)前記出力装置は、外部から入力した音声を認識す
る認識手段を有すること。 (ハ)前記出力装置は、外部からの入力を予定する複数
種類の音声と、それぞれの音声に対応する会話情報を記
憶した記憶手段を有すること。 (ニ)前記出力装置は、前記認識した音声と対応する会
話情報を前記記憶手段から読み取って符号化する符号化
手段を有すること。 (ホ)前記出力装置は、前記符号化された符号化情報を
発生する発生手段を有すること。 (ヘ)前記翻訳装置は、前記符号化情報を受信して当該
符号化情報を復号化する復号化手段を有すること。 (ト)前記翻訳装置は、前記復号化した内容を提示する
提示手段を有すること。
Means for Solving the Problems The invention according to claim 1 provided by the present invention is characterized by having the following requirements in order to achieve the above object. That is, (a) an output device that outputs encoded information, and a translation device that translates the encoded information. (B) The output device has a recognizing means for recognizing an externally input voice. (C) The output device includes storage means for storing a plurality of types of sounds scheduled to be input from the outside and conversation information corresponding to each of the sounds. (D) The output device includes encoding means for reading the conversation information corresponding to the recognized voice from the storage means and encoding the conversation information. (E) The output device has a generating means for generating the encoded information. (F) The translation device has decoding means for receiving the encoded information and decoding the encoded information. (G) The translation device has presentation means for presenting the decrypted content.

【0006】また、請求項2に係る発明は、請求項1に
記載の会話装置について、下記の要件を付加したことを
特徴とする。すなわち、符号化情報は音声の断続で成る
ことを特徴とする。
The invention according to claim 2 is characterized in that the following requirements are added to the conversation device according to claim 1. That is, the coded information is characterized by intermittent speech.

【0007】また、請求項3に係る発明は、請求項1に
記載の会話装置について、下記の要件を付加したことを
特徴とする。すなわち、符号化情報は電磁波、光、超音
波等を用いた無線情報であることを特徴とする。
The invention according to claim 3 is characterized in that the following requirements are added to the conversation apparatus according to claim 1. That is, the coded information is wireless information using electromagnetic waves, light, ultrasonic waves, and the like.

【0008】また、請求項4に係る発明は、請求項1乃
至3のいずれかに記載の会話装置について、下記の要件
を付加したことを特徴とする。すなわち、提示手段に提
示される内容が文字情報であることを特徴とする。
According to a fourth aspect of the present invention, the following requirements are added to the conversation apparatus according to any one of the first to third aspects. That is, the content presented to the presentation means is character information.

【0009】また、請求項5に係る発明は、請求項1乃
至請求項4のいづれかに記載の会話装置について、下記
の要件を付加したことを特徴とする。すなわち、 (イ)前記出力装置は、育成に係る処置の入力を受ける
入力手段を有すること。 (ロ)前記出力装置は、育成に係る制御データを記憶し
た制御データ記憶部を有すること。 (ハ)前記出力装置は、入力手段から育成に係る処置が
入力されたときに、これと対応する制御データを前記制
御データ記憶部から読み取り、当該読み取った制御デー
タに基づいて育成に係る制御を行う育成制御部を有する
こと。
The invention according to claim 5 is characterized in that the following requirements are added to the conversation apparatus according to any one of claims 1 to 4. That is, (a) the output device has an input means for receiving an input of a treatment relating to the raising. (B) The output device has a control data storage unit that stores control data related to the breeding. (C) When a measure related to the growth is input from the input means, the output device reads control data corresponding to the measure from the control data storage unit, and performs control related to the growth based on the read control data. Have a training control unit to perform.

【0010】[0010]

【発明の実施の形態】本願発明に係る会話装置を図面に
基づいて説明する。図1は本発明に係る会話装置の外観
図、図2は出力装置のブロック図、図3は翻訳装置のブ
ロック図、図4は出力装置の回路図、図5は翻訳装置の
回路図、図6は会話装置の作用を示した説明図、図7は
出力装置のフローチャート、図8は翻訳装置のフローチ
ャート、図9は会話の分岐を示した説明図、図10は他
の実施例を示した説明図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A conversation device according to the present invention will be described with reference to the drawings. 1 is an external view of a conversation device according to the present invention, FIG. 2 is a block diagram of an output device, FIG. 3 is a block diagram of a translation device, FIG. 4 is a circuit diagram of an output device, FIG. 6 is an explanatory diagram showing the operation of the conversation device, FIG. 7 is a flowchart of the output device, FIG. 8 is a flowchart of the translation device, FIG. 9 is an explanatory diagram showing a branch of the conversation, and FIG. 10 shows another embodiment. FIG.

【0011】本願発明に係る会話装置1は、符号化情報
を出力する出力装置3と、符号化情報を翻訳する翻訳装
置5とで構成されている。出力装置3は、ロボット、人
形、ぬいぐるみ、怪獣、仮想生命体等の適宜の形状に形
成され、その内部には入力した音声を認識する認識手段
と、認識した音声と対応する会話情報を記憶した記憶手
段を有する。出力装置3は、入力した音声と対応する会
話情報を記憶手段から読み取って符号化し、例えば、断
続した音声で成る符号化情報を、入力した音声に対する
応答として発生するものである。すなわち、出力装置3
は、ユーザーが入力した音声を認識すると、これに対す
る応答として人が認識できない言葉を出力する。翻訳装
置5は、出力装置3からの符号化情報を受信して当該符
号化情報を復号化する復号化手段を有し、復号化した内
容を可視的に文字表示するものである。すなわち、翻訳
装置5は、人が理解できない言葉を翻訳し、その翻訳し
た内容を人が理解できる文字情報として提示する。
The conversation device 1 according to the present invention comprises an output device 3 for outputting encoded information and a translation device 5 for translating the encoded information. The output device 3 is formed in an appropriate shape such as a robot, a doll, a stuffed toy, a monster, a virtual creature, and the like, and internally stores recognition means for recognizing the input voice and conversation information corresponding to the recognized voice. It has storage means. The output device 3 reads the conversation information corresponding to the input voice from the storage means and encodes it, and generates, for example, coded information composed of intermittent voice as a response to the input voice. That is, the output device 3
When a user recognizes a voice input by a user, a word that cannot be recognized by a person is output as a response to the voice. The translation device 5 has a decoding unit that receives the encoded information from the output device 3 and decodes the encoded information, and visually displays the decoded content as characters. That is, the translation device 5 translates a word that cannot be understood by a person, and presents the translated content as character information that can be understood by a person.

【0012】次に、図1及び図2を参照して出力装置3
を説明する。出力装置3は制御装置11と、制御装置1
1に接続されるマイク13、操作部15、提示装置17
を有する。制御装置11は、ROM21、CPU23、
RAM25、EEPROM27を有する。提示装置17
は、モータ31、スピーカ33、LED35、液晶表示
装置37、光通信装置39を有する。
Next, referring to FIG. 1 and FIG.
Will be described. The output device 3 includes the control device 11 and the control device 1
Microphone 13, operation unit 15, presentation device 17 connected to 1
Having. The control device 11 includes a ROM 21, a CPU 23,
It has a RAM 25 and an EEPROM 27. Presentation device 17
Has a motor 31, a speaker 33, an LED 35, a liquid crystal display device 37, and an optical communication device 39.

【0013】出力装置3の上面にはマイク13と、スピ
ーカ33が配置され、出力装置3の正面には液晶表示装
置37が配置されている。液晶表示装置37の下側には
LED等を用いた電源ランプ7と、制御装置11が設け
られている。制御装置11の下側にはLED35a,3
5b,35cが配置されている。出力装置3の下部には
電源オンオフ用のスイッチ15a、音オンオフ用のスイ
ッチ15b、スイッチ15c、15d、15eと、電源
供給用のコネクター19が設けられている。
The microphone 13 and the speaker 33 are arranged on the upper surface of the output device 3, and the liquid crystal display device 37 is arranged on the front of the output device 3. The power supply lamp 7 using an LED or the like and the control device 11 are provided below the liquid crystal display device 37. The LEDs 35a, 3 are provided below the control device 11.
5b and 35c are arranged. A power supply on / off switch 15a, a sound on / off switch 15b, switches 15c, 15d, 15e, and a power supply connector 19 are provided below the output device 3.

【0014】ROM21は、会話を継続させるための複
数の単語又は複数種類の文章等から成る会話情報と分岐
情報とを記憶している。この会話情報及び分岐情報を具
体的に説明すると、図9に示すように、会話情報101
として、例えば「動物は好きですか?」という文章が記
憶され、これに対する分岐情報103が記憶されてい
る。例えば、「YES」や「ハイ」等の肯定的な音声の
入力を認識した場合は、次に出力する応答情報として会
話情報105が対応付けられ、「NO」や「イイエ」等
の否定的な音声の入力を認識した場合は、次に出力する
応答情報として会話情報107が対応付けられている。
ここで、会話情報105として、例えば、「犬は好きで
すか?」が記憶され、会話情報107として、例えば、
「花は好きですか?」が記憶されている。更に、会話情
報105に対する分岐情報109が記憶されている。こ
の分岐情報109は、例えば、「YES」等の肯定的な
音声の入力を認識した場合は、次に出力する応答情報と
して会話情報111が対応付けられ、「NO」等の否定
的な音声の入力を認識した場合は、次に出力する応答情
報として会話情報113が対応付けられている。以下同
様に、複数の会話情報117,119,121,12
5,127,131,133…と、それぞれの会話情報
に対する分岐情報115,123,129…が記憶され
ている。
The ROM 21 stores conversation information including a plurality of words or a plurality of types of sentences for continuing the conversation, and branch information. The conversation information and the branch information will be specifically described. As shown in FIG.
For example, a sentence "Do you like animals?" Is stored, and branch information 103 corresponding to the sentence is stored. For example, when a positive voice input such as “YES” or “high” is recognized, the conversation information 105 is associated as response information to be output next, and a negative input such as “NO” or “no” is performed. When the input of the voice is recognized, the conversation information 107 is associated with the response information to be output next.
Here, as the conversation information 105, for example, “Do you like dogs?” Is stored. As the conversation information 107, for example,
"Do you like flowers?" Further, branch information 109 for the conversation information 105 is stored. For example, when the input of a positive voice such as “YES” is recognized, the branch information 109 is associated with the conversation information 111 as response information to be output next, and the negative voice such as “NO” is output. When the input is recognized, conversation information 113 is associated as response information to be output next. Similarly, a plurality of conversation information 117, 119, 121, 12
., And branch information 115, 123, 129,... For each piece of conversation information.

【0015】また、ROM21は、外部から入力する音
声を認識するための対象となる複数の単語の音声パター
ン(標準音声パターン)が記憶されると共に、この標準
音声パターンと実際に入力した音声の音声パターンとを
比較してパターンマッチングを行うためのプログラムを
記憶している。また、ROM21には、前記パターンマ
ッチングにより認識した音声に対して応答するための会
話情報が記憶されている。更に、ROM21には、前記
会話情報を符号化するためのプログラム、例えば、断続
する音の組合せ、又は音を断続するオフ時間の長さの組
合せ、又はこれらの組合せとして符号化するためのプロ
グラムが記憶されている。また、ROM21には、各種
効果音情報や表示制御に関するプログラム等が記憶され
ている。また、ROM21は、出力装置3又は適宜の仮
想生命体の育成に係る制御データを記憶している。さら
に、ROM21には、前記制御データに基づいて育成に
係る制御を行うためのプログラムが記憶されている。
The ROM 21 stores voice patterns (standard voice patterns) of a plurality of words to be used for recognizing voices input from the outside, and stores the voice patterns of the standard voice patterns and the voices actually input. A program for comparing a pattern and performing pattern matching is stored. Further, the ROM 21 stores conversation information for responding to the voice recognized by the pattern matching. Further, the ROM 21 stores a program for encoding the conversation information, for example, a combination of intermittent sounds, a combination of off-time lengths of intermittent sounds, or a program for encoding as a combination of these. It is remembered. The ROM 21 stores various sound effect information, programs related to display control, and the like. Further, the ROM 21 stores control data relating to the growth of the output device 3 or an appropriate virtual creature. Further, the ROM 21 stores a program for performing control relating to the breeding based on the control data.

【0016】CPU23は、全体的な制御を行うもので
あり、ROM21に記憶された各種プログラムに基づい
て制御処理を行う。例えば、CPU23は、入力した音
声を認識するために、標準音声パターンと入力した音声
の音声パターンとを比較してパターンマッチングを行
う。また、CPU23は、会話情報または応答情報を符
号化するための制御、例えば断続する音の組合せ、又は
音を断続するオフ時間の長さの組合せ、又はこれらの組
合せで成る情報に符号化するための制御を行う。また、
CPU23は、各種効果音情報や表示制御に関する制御
を行う。また、CPU23は、前記制御データに基づい
て育成に係る制御を行う。RAM25は、いわゆるワー
ク用のメモリであり、各種制御処理用のデータを一時的
に記憶する。EEPROM27は、不揮発性のメモリで
あり、認識した音声や、これに対する応答情報等を履歴
情報として記憶する。
The CPU 23 performs overall control, and performs control processing based on various programs stored in the ROM 21. For example, the CPU 23 performs pattern matching by comparing the standard voice pattern with the voice pattern of the input voice in order to recognize the input voice. Further, the CPU 23 performs control for encoding the conversation information or the response information, for example, a combination of intermittent sounds, a combination of off-time lengths of intermittent sounds, or an information composed of these combinations. Control. Also,
The CPU 23 controls various kinds of sound effect information and display control. Further, the CPU 23 performs control relating to the breeding based on the control data. The RAM 25 is a so-called work memory, and temporarily stores data for various control processes. The EEPROM 27 is a non-volatile memory, and stores the recognized voice, response information to the voice, and the like as history information.

【0017】制御装置11は、前述したようにCPU2
3がROM21に記憶された各種プログラムに基づいて
制御処理を行うことにより、入力した音声を認識する認
識手段を有し、入力した音声と対応する会話情報を記憶
手段であるROM21から読み取って符号化する符号化
手段を有する。また、制御装置11は、入力した音声に
対して前記符号化された符号化情報を生成する生成回路
を有する。この生成回路は、符号化情報を音の断続で成
る音情報を生成する回路、又は符号化情報を光の断続で
成る光情報を生成する回路、又は符号化情報を電磁波の
断続で成る無線信号を生成する回路、又は符号化情報を
超音波の断続で成る超音波信号を生成する回路等の適宜
の回路が用いられる。また、制御装置11は、入力手段
から育成に係る処置が入力されたときに、これと対応す
る制御データを制御データ記憶部であるROM21から
読み取り、当該読み取った制御データに基づいて育成に
係る制御を行う育成制御部を有する。
As described above, the control device 11 controls the CPU 2
3 has a recognition unit for recognizing the input voice by performing control processing based on various programs stored in the ROM 21, and reads conversation information corresponding to the input voice from the ROM 21 which is a storage unit and encodes the conversation information. Encoding means. Further, the control device 11 has a generation circuit that generates the encoded information for the input voice. The generation circuit may be a circuit that generates sound information that consists of intermittent sounds of encoded information, or a circuit that generates optical information that consists of intermittent lights of light, or a radio signal that generates encoded information by intermittent transmission of electromagnetic waves. Or an appropriate circuit such as a circuit that generates an ultrasonic signal in which encoded information is generated by intermittent ultrasonic waves. Further, when a treatment related to the growth is input from the input means, the control device 11 reads the corresponding control data from the ROM 21 which is the control data storage unit, and performs the control related to the growth based on the read control data. And a breeding control unit for performing.

【0018】操作部15には、前述のスイッチ15a、
15b、15c、15d、15eが設けられている。こ
の操作部15は、育成に係る処置の入力を受ける入力手
段である。モータ31には、歯車機構部等のアクチュエ
ータが接続され、出力装置3の一部または全体が動作す
るようになっている。スピーカ33は、各種効果音情報
や、前述の符号化された符号化情報、例えば断続する音
を発生させるものである。このスピーカ33として圧電
ブザー等を用いて構成してもよい。LED35は、LE
D35a,35b,35cを有し、制御装置11からの
指令に基づいて明滅する。液晶表示装置37は、LCD
等を用いて構成され、制御装置11からの制御に基づい
て各種情報を提示する。光通信装置39は、光受信部と
光送信部を有し、制御装置11からの制御に基づいて、
前述の符号化された符号化情報、例えば断続する光信号
を発生させるものである。また、光通信装置39は、図
示しない他の光通信装置と通信することができ、他の光
通信装置から育成に係る処置の入力を受ける入力手段と
して機能する。
The operation unit 15 includes the above-described switch 15a,
15b, 15c, 15d, and 15e are provided. The operation unit 15 is an input unit that receives an input of a treatment for raising. An actuator such as a gear mechanism is connected to the motor 31 so that a part or the whole of the output device 3 operates. The speaker 33 generates various types of sound effect information and the above-described encoded information, for example, intermittent sounds. The speaker 33 may be configured using a piezoelectric buzzer or the like. LED35 is LE
D35a, 35b, and 35c, which blink based on a command from the control device 11. The liquid crystal display device 37 is an LCD
Etc., and presents various types of information based on control from the control device 11. The optical communication device 39 has an optical receiving unit and an optical transmitting unit, and based on control from the control device 11,
The above-described encoded information is generated, for example, an intermittent optical signal. In addition, the optical communication device 39 can communicate with another optical communication device (not shown), and functions as an input unit that receives an input of a treatment related to growth from the other optical communication device.

【0019】次に、図1及び図3を参照して翻訳装置5
を説明する。翻訳装置5は制御装置41と、制御装置4
1に接続されるマイク43、操作部45、提示装置47
を有する。制御装置41は、ROM51、CPU53、
RAM55、EEPROM57を有する。提示装置47
は復号化した内容を提示する提示手段であり、モータ6
1、LED65、液晶表示装置67、光通信装置69を
有する。
Next, referring to FIG. 1 and FIG.
Will be described. The translation device 5 includes a control device 41 and a control device 4
Microphone 43, operation unit 45, and presentation device 47 connected to 1
Having. The control device 41 includes a ROM 51, a CPU 53,
It has a RAM 55 and an EEPROM 57. Presentation device 47
Is a presentation means for presenting the decrypted content.
1, an LED 65, a liquid crystal display device 67, and an optical communication device 69.

【0020】翻訳装置5の上面にはマイク43が配置さ
れ、翻訳装置5の正面には液晶表示装置67が配置され
ている。液晶表示装置67の下側には電源ランプ9と、
制御装置41が設けられている。制御装置41の下側に
はLED65a,65b,65cが配置されている。翻
訳装置5の下部には電源オンオフ用のスイッチ45a、
音オンオフ用のスイッチ45b、スイッチ45c、45
d、45eと、電源供給用のコネクター49が設けられ
ている。
A microphone 43 is arranged on the upper surface of the translator 5, and a liquid crystal display 67 is arranged in front of the translator 5. A power lamp 9 is provided below the liquid crystal display device 67,
A control device 41 is provided. LEDs 65a, 65b, and 65c are arranged below the control device 41. A power supply on / off switch 45a is provided below the translation device 5.
Switch 45b, switch 45c, 45 for sound on / off
d and 45e, and a power supply connector 49 are provided.

【0021】ROM51には、出力装置3からの符号化
情報を受信したときに、この符号化情報を元の情報に復
号化するためのプログラムを記憶している。すなわち、
出力装置3から出力される会話情報が予め設定されてお
り、これらの会話情報がROM51に記憶されると共
に、それぞれの会話情報に対応してこれらの符号化情報
がROM51に記憶されている。そして、ROM51に
は、出力装置3から受信した符号化情報と、予め記憶さ
れた符号化情報とを比較し、該当する符号化情報を抽出
すると共に、この抽出した符号化情報と対応する元の会
話情報を選択するためのプログラムを記憶している。ま
た、ROM51は、復号化した内容を可視的に表示させ
るための表示制御プログラムを記憶している。また、R
OM51には、各種効果音情報や表示制御に関するプロ
グラム等が記憶されている。
The ROM 51 stores a program for decoding the encoded information into the original information when the encoded information is received from the output device 3. That is,
The conversation information output from the output device 3 is set in advance, and the conversation information is stored in the ROM 51, and the encoded information is stored in the ROM 51 corresponding to each conversation information. Then, the ROM 51 compares the encoded information received from the output device 3 with the encoded information stored in advance, extracts the corresponding encoded information, and extracts the original information corresponding to the extracted encoded information. A program for selecting conversation information is stored. The ROM 51 stores a display control program for visually displaying the decrypted content. Also, R
The OM 51 stores various sound effect information, programs related to display control, and the like.

【0022】CPU53は、全体的な制御を行うもので
あり、ROM51に記憶された各種プログラムに基づい
て制御処理を行う。例えば、CPU53は、出力装置3
からの符号化情報を受信したときに、この符号化情報を
元の情報に復号化するための制御を行う。また、CPU
53は、復号化した内容を可視的に表示させるための表
示制御を行う。RAM55は、いわゆるワーク用のメモ
リであり、各種制御処理用のデータを一時的に記憶す
る。EEPROM57は、不揮発性のメモリであり、断
続する各音声の持続時間と、次の音声が入力するまでの
間隔時間(オフ時間)とで成る配列データや復号化した
情報等を履歴情報として記憶する。
The CPU 53 performs overall control, and performs control processing based on various programs stored in the ROM 51. For example, the CPU 53 controls the output device 3
When the coded information is received, the control for decoding the coded information into the original information is performed. Also, CPU
Reference numeral 53 performs display control for visually displaying the decrypted content. The RAM 55 is a so-called work memory, and temporarily stores various control processing data. The EEPROM 57 is a non-volatile memory, and stores, as history information, array data composed of the duration of each intermittent voice and the interval time (off time) until the next voice is input, decoded information, and the like. .

【0023】制御装置41は、前述したようにCPU5
3がROM51に記憶された各種プログラムに基づいて
制御処理を行うことにより、符号化情報を復号化するた
めの復号化手段を有する。
As described above, the control device 41 controls the CPU 5
3 has decoding means for decoding encoded information by performing control processing based on various programs stored in the ROM 51.

【0024】操作部45には、前述のスイッチ45a、
45b、45c、45d、45eが設けられている。モ
ータ61には、歯車機構部等のアクチュエータが接続さ
れ、翻訳装置5の一部が動作するようになっている。L
ED65は、LED65a,65b,65cを有し、制
御装置41からの制御に基づいて明滅する。液晶表示装
置67は、復号化した内容を提示する提示手段であり、
LCD等を用いて構成される。液晶表示装置67は、制
御装置41からの制御に基づいて各種情報、例えば、復
号化した内容を可視的に文字表示する。尚、液晶表示装
置67に表示される情報は、文字には限定されず、復号
化した内容に応じたキャラクターの画像、ロボットの画
像、絵、記号、模様等の適宜の情報を表示させることが
できる。また、復号化した内容を提示する提示手段とし
ては、上記液晶表示装置には限定されず、復号化した内
容を人が理解できる音声で出力するスピーカや、復号化
した内容を翻訳装置5の一部を動作させることにより示
すようにした適宜のアクチュエータや復号化した内容に
応じたキャラクターの画像、ロボットの画像、絵、記
号、模様等の適宜の情報をLEDを用いて提示するよう
に構成してもよい。光通信装置69は、光受信部と光送
信部を有し、制御装置41からの制御に基づいて、前述
の符号化された符号化情報、例えば断続する光信号を受
信するものである。また、光通信装置69は、図示しな
い他の光通信装置との間で光による通信を行うことがで
きる。
The operation unit 45 includes the switch 45a,
45b, 45c, 45d, and 45e are provided. An actuator such as a gear mechanism is connected to the motor 61 so that a part of the translation device 5 operates. L
The ED 65 has LEDs 65a, 65b, and 65c, and blinks based on control from the control device 41. The liquid crystal display device 67 is a presentation unit that presents the decrypted content,
It is configured using an LCD or the like. The liquid crystal display device 67 visually displays various types of information, for example, decoded contents, based on the control from the control device 41. Note that the information displayed on the liquid crystal display device 67 is not limited to characters, and appropriate information such as a character image, a robot image, a picture, a symbol, and a pattern according to the decoded content may be displayed. it can. The means for presenting the decrypted content is not limited to the liquid crystal display device, but may be a speaker that outputs the decrypted content in a sound that can be understood by a human, or a speaker that outputs the decrypted content to the translator 5. The apparatus is configured to present appropriate information such as an image of a character, an image of a robot, a picture, a symbol, and a pattern according to the decoded content by using an appropriate actuator that is indicated by operating the unit and the decoded content using the LED. You may. The optical communication device 69 includes an optical receiving unit and an optical transmitting unit, and receives the above-described encoded information, for example, an intermittent optical signal, under the control of the control device 41. Further, the optical communication device 69 can perform optical communication with another optical communication device (not shown).

【0025】次に、図4を参照して出力装置3の具体的
な回路構成を説明する。制御装置11の端子PN1に
は、抵抗R1とリセット用のスイッチSW1が接続され
ている。端子PN11には電源が供給され、端子PN1
2はアースに接続されている。端子PN13、PN14
には発振器OC1が接続され、発振器OC1にはコンデ
ンサC3、C4が接続されている。端子PN15には、
演算増幅器IC1と、抵抗R2、R3、R4、R5、R
6、R7と、コンデンサC1、C2と、トランジスタQ
1と、可変抵抗器R8と、マイク13とで成るマイク回
路部が接続されている。端子PN27には、抵抗R9
と、トランジスタQ2と、スイッチSW2と、圧電ブザ
ー33aと、コイルL1とで成るスピーカ回路部が接続
されている。端子PN28〜PN30及び端子PN33
〜PN40には液晶表示装置37が接続されている。ま
た、バッテリBT1と、スイッチ15aと、定電圧回路
VR1と、コンデンサC5、C6と、抵抗R10と、ラ
ンプ7とで成る電源回路が設けられ、この電源回路から
の電源が各回路部に供給される。
Next, a specific circuit configuration of the output device 3 will be described with reference to FIG. A resistor R1 and a reset switch SW1 are connected to a terminal PN1 of the control device 11. Power is supplied to the terminal PN11 and the terminal PN1
2 is connected to ground. Terminals PN13, PN14
Is connected to the oscillator OC1, and capacitors C3 and C4 are connected to the oscillator OC1. Terminal PN15 has
An operational amplifier IC1 and resistors R2, R3, R4, R5, R
6, R7, capacitors C1 and C2, and transistor Q
1, a variable resistor R8, and a microphone circuit unit including a microphone 13 are connected. Terminal PN27 has a resistor R9
, A transistor Q2, a switch SW2, a piezoelectric buzzer 33a, and a speaker circuit unit including a coil L1 are connected. Terminals PN28 to PN30 and terminal PN33
The liquid crystal display device 37 is connected to .about.PN40. A power supply circuit including a battery BT1, a switch 15a, a constant voltage circuit VR1, capacitors C5 and C6, a resistor R10, and a lamp 7 is provided, and power from the power supply circuit is supplied to each circuit unit. You.

【0026】次に、図5を参照して翻訳装置5の具体的
な回路構成を説明する。制御装置41の端子P1には、
抵抗R21とリセット用のスイッチSW11が接続され
ている。端子P11には電源が供給され、端子P12は
アースに接続されている。端子P13、P14には発振
器OC11が接続され、発振器OC11にはコンデンサ
C13、C14が接続されている。端子P15には、演
算増幅器IC11と、抵抗R22、R23、R24、R
25、R26、R27と、コンデンサC11、C12
と、トランジスタQ11と、可変抵抗器R28と、マイ
ク43とで成るマイク回路部が接続されている。端子P
28〜PN30及び端子PN33〜PN40には液晶表
示装置67が接続されている。また、バッテリBT11
と、スイッチ45aと、定電圧回路VR11と、コンデ
ンサC15、C16と、抵抗R30と、ランプ9とで成
る電源回路が設けられ、この電源回路からの電源が各回
路部に供給される。
Next, a specific circuit configuration of the translation device 5 will be described with reference to FIG. The terminal P1 of the control device 41 includes:
The resistor R21 and the reset switch SW11 are connected. Power is supplied to the terminal P11, and the terminal P12 is connected to the ground. An oscillator OC11 is connected to the terminals P13 and P14, and capacitors C13 and C14 are connected to the oscillator OC11. The terminal P15 has an operational amplifier IC11 and resistors R22, R23, R24, R
25, R26, R27 and capacitors C11, C12
, A transistor Q11, a variable resistor R28, and a microphone circuit unit including a microphone 43 are connected. Terminal P
A liquid crystal display device 67 is connected to the terminals 28 to PN30 and the terminals PN33 to PN40. Also, the battery BT11
, A switch 45a, a constant voltage circuit VR11, capacitors C15 and C16, a resistor R30, and a lamp 9, and a power supply from the power supply circuit is supplied to each circuit section.

【0027】次に、図6乃至図8を参照して作用を説明
する。図7のステップS1では、出力装置3のROM2
1に記憶された複数の会話情報の中から適宜の音声情
報、例えばユーザー71に問い掛けるための会話情報1
01を選択し、これを符号化して例えば、「ピ、ピ、ピ
ー、ピー、ピ」のごとくに断続する音声の符号化情報を
スピーカ33から出力する。図8のステップSP1、S
P3では、翻訳装置5が出力装置3からの符号化された
音声情報の入力を判断しており、出力装置3からの符号
化された音声情報をマイク43より入力した場合は、ス
テップSP3からステップSP5へ進む。
Next, the operation will be described with reference to FIGS. In step S1 of FIG.
1, a plurality of pieces of conversation information stored in the first conversation information, for example, conversation information 1 for asking the user 71.
01 is encoded, and the encoded information of the intermittent sound such as “Pi, Pi, Pi, Pi, Pi” is output from the speaker 33. Steps SP1 and S in FIG.
In P3, the translation device 5 determines the input of the encoded audio information from the output device 3, and when the encoded audio information from the output device 3 is input from the microphone 43, the process proceeds from step SP3 to step SP3. Proceed to SP5.

【0028】ここで、「ピ、ピ、ピー、ピー、ピ」のご
とくに断続する音声で成る音声情報が入力されると、ス
テップSP5、SP7では、各音声の持続時間と、次の
音声が入力するまでの間隔時間(オフ時間)とで成る配
列データをEEPROM57に記憶する。ステップSP
9では断続する音声で成る符号化情報が入力してから一
定時間が経過したか否かを判断し、一定時間が経過した
場合はステップSP11に進む。ステップSP11、S
P13では、EEPROM57に記憶された配列データ
と、ROM51に記憶された複数の符号化情報とを比較
する。ここで、EEPROM57に記憶された配列デー
タと一致する符号化情報がROM51に存在する場合
は、ステップSP13からステップSP15へ進む。ス
テップSP15では一致する符号化情報と対応する元の
会話情報をROM51から読み出して、液晶表示装置6
7に表示させる。続いて、ステップSP19を介して再
びステップSP1に戻る。このように、出力装置3から
人が理解できない符号化情報が出力されると、あたかも
翻訳装置5がこれを翻訳して液晶表示装置67に文字表
示するので、ユーザー71は液晶表示装置67に表示さ
れた文字情報を視認することにより、出力装置3から出
力される言葉を理解することができる。そして、出力装
置3から人が理解できない符号化情報が出力されると、
翻訳装置5がこれを翻訳して液晶表示装置67に文字表
示するので、ユーザー71はこのような符号化情報と、
これを翻訳した内容を何度か視認することにより、出力
装置3から出力される符号化情報を直接的に、且つ、自
然に理解することができるようになり、新たな面白さが
生じ、興趣性が向上する。
Here, when speech information composed of intermittent speech such as "Pi, Pi, Pi, Pi, Pi" is input, in steps SP5 and SP7, the duration of each sound and the next sound are output. Array data consisting of an interval time (off time) until input is stored in the EEPROM 57. Step SP
In step 9, it is determined whether or not a fixed time has elapsed since the input of the coded information composed of the intermittent speech. If the fixed time has elapsed, the process proceeds to step SP11. Step SP11, S
At P13, the array data stored in the EEPROM 57 is compared with a plurality of pieces of encoded information stored in the ROM 51. Here, if the encoded information that matches the array data stored in the EEPROM 57 exists in the ROM 51, the process proceeds from step SP13 to step SP15. At step SP15, the original conversation information corresponding to the corresponding encoded information is read out from the ROM 51, and
7 is displayed. Subsequently, the process returns to step SP1 via step SP19. In this way, when the coded information that cannot be understood by a person is output from the output device 3, the translation device 5 translates the coded information and displays the characters on the liquid crystal display device 67. The word output from the output device 3 can be understood by visually recognizing the displayed character information. When encoded information that cannot be understood by a person is output from the output device 3,
The translation device 5 translates this and displays the characters on the liquid crystal display device 67.
By visually recognizing the translated content several times, the encoded information output from the output device 3 can be understood directly and naturally, and a new interestingness is generated. The performance is improved.

【0029】次に、図7のステップS3では、前述のご
とく、ユーザー71は液晶表示装置67に表示された文
字情報を視認することにより、出力装置3から出力され
る言葉を理解することができたので、これに対する返
答、例えば「YES」等の肯定的な音声を出力装置3の
マイク13へ入力する。ステップS5では、ユーザー7
1から返答された音声の音声パターンと、ROM21に
記憶された複数の標準音声パターンとを比較して、いわ
ゆるパターンマッチングを行う。
Next, in step S3 in FIG. 7, as described above, the user 71 can understand the words output from the output device 3 by visually recognizing the character information displayed on the liquid crystal display device 67. Therefore, a response to this, for example, a positive voice such as “YES” is input to the microphone 13 of the output device 3. In step S5, the user 7
The so-called pattern matching is performed by comparing the voice pattern of the voice returned from 1 with a plurality of standard voice patterns stored in the ROM 21.

【0030】ステップS7では、ユーザー71から返答
された音声の音声パターンと、ROM21に記憶された
複数の標準音声パターンとを比較し、一致した標準音声
パターンの単語を選択する。すなわち、ステップS7で
は、ユーザー71から返答された音声をパターンマッチ
ングにより認識すると共に、この認識した音声が肯定的
な返答、例えば「YES」であるか、または否定的な返
答、例えば「NO」のいずれであるかを判断する。ステ
ップS7において、認識した音声が肯定的な返答、例え
ば「YES」であることを判断するとステップS9へ進
む。ステップS9では、最初に選択された音声出力(会
話情報101)に対して肯定的な返答があった場合に、
これと対応する応答情報(会話情報105)をROM2
1から読み取って出力する。この場合も、対応する応答
情報(会話情報105)を符号化して、例えば、「ピ
ー、ピ、ピー、ピー、ピ」のごとくに断続する音声で成
る符号化情報をスピーカ33から出力する。また、ステ
ップS7において、認識した音声が否定的な返答、例え
ば「NO」であることを判断するとステップS11へ進
む。ステップS11では、最初に選択された音声出力
(会話情報101)に対して否定的な返答があった場合
に、これと対応する応答情報(会話情報107)をRO
M21から読み取って出力する。この場合も、対応する
応答情報(会話情報107)を符号化して、例えば、
「ピー、ピ、ピー、ピー、ピー」のごとくに断続する音
声で成る符号化情報をスピーカ33から出力する。
In step S7, the voice pattern of the voice returned from the user 71 is compared with a plurality of standard voice patterns stored in the ROM 21, and a word having a matching standard voice pattern is selected. That is, in step S7, the voice returned from the user 71 is recognized by pattern matching, and the recognized voice is a positive response, for example, “YES”, or a negative response, for example, “NO”. Determine which one. If it is determined in step S7 that the recognized voice is a positive response, for example, “YES”, the process proceeds to step S9. In step S9, when there is a positive response to the first selected audio output (conversation information 101),
Response information (conversation information 105) corresponding to this is stored in ROM2.
Read from 1 and output. In this case as well, the corresponding response information (conversation information 105) is encoded, and encoded information composed of intermittent voices such as “Pe, p, p, p, p” is output from the speaker 33. If it is determined in step S7 that the recognized voice is a negative response, for example, “NO”, the process proceeds to step S11. In step S11, if there is a negative response to the first selected audio output (conversation information 101), the response information (conversation information 107) corresponding to this is returned to the RO.
Read and output from M21. Also in this case, the corresponding response information (conversation information 107) is encoded, and for example,
Encoded information consisting of intermittent voices such as “p, p, p, p, p” is output from the speaker 33.

【0031】次に、図10を参照して本発明に係る他の
実施例を説明する。図10に示す実施例は、ペットロボ
ットや電子ぬいぐるみ等で成る出力装置73と、出力装
置73から出力される符号化情報を翻訳する翻訳装置7
5とで構成される。出力装置73の回路部の構成は図2
に示したと同様であり、翻訳装置75の回路部の構成は
図3に示したと同様であり、同一の番号を用いて説明す
る。出力装置73は、ロボット、動物、人形、ぬいぐる
み、怪獣、仮想生命体等の適宜の形状に形成され、その
内部には入力した音声を認識する認識手段と、認識した
音声と対応する応答情報を記憶した記憶手段を有する。
出力装置73は、入力した音声と対応する応答情報を記
憶手段から読み取って符号化し、例えば、断続した音信
号で成る符号化情報を、入力した音声に対する応答とし
て発生するものである。すなわち、出力装置73は、ユ
ーザー71が入力した音声を認識すると、これに対する
応答として人が理解できない言葉を出力する。翻訳装置
75は、出力装置73からの符号化情報を受信して当該
符号化情報を復号化する復号化手段を有し、復号化した
内容を液晶表示装置67に可視的に文字表示するもので
ある。すなわち、翻訳装置75は、人が理解できない言
葉を翻訳し、その内容を人が認識できる文字情報として
提示するものである。これにより、ユーザー71は、出
力装置73の感情や気持を理解することができる。
Next, another embodiment according to the present invention will be described with reference to FIG. The embodiment shown in FIG. 10 includes an output device 73 including a pet robot, an electronic stuffed animal, and the like, and a translation device 7 for translating the encoded information output from the output device 73.
And 5. The configuration of the circuit section of the output device 73 is shown in FIG.
And the configuration of the circuit section of the translation device 75 is the same as that shown in FIG. 3, and the description will be made using the same reference numerals. The output device 73 is formed in an appropriate shape such as a robot, an animal, a doll, a stuffed animal, a monster, a virtual creature, and the like, and internally includes a recognition unit that recognizes the input voice, and response information corresponding to the recognized voice. It has storage means for storing.
The output device 73 reads response information corresponding to the input voice from the storage unit and encodes the same, and generates, for example, coded information including an intermittent sound signal as a response to the input voice. That is, when recognizing the voice input by the user 71, the output device 73 outputs a word that cannot be understood by a person as a response to the voice. The translation device 75 has decoding means for receiving the encoded information from the output device 73 and decoding the encoded information, and visually displays the decoded content on the liquid crystal display device 67 as characters. is there. That is, the translation device 75 translates words that cannot be understood by a person and presents the contents as character information that can be recognized by a person. Thus, the user 71 can understand the emotion and feeling of the output device 73.

【0032】また、出力装置73のROM21には、出
力装置73又は適宜の仮想生命体の育成に係る制御デー
タと、この制御データに基づいて育成に係る制御を行う
ためのプログラムが記憶されており、操作部15を操作
することにより、出力装置73又は適宜の仮想生命体を
育成することができる。すなわち、制御装置11は、入
力手段から育成に係る処置が入力されたときに、これと
対応する制御データを制御データ記憶部であるROM2
1から読み取り、当該読み取った制御データに基づいて
育成に係る制御を行う。このように、ユーザー71が操
作部15を操作して世話することにより、出力装置73
を進化、成長させることができ、世話の程度に応じて出
力装置73の性格を変化させることができる。また、翻
訳装置5の光通信装置69から仮想生命体の育成に係る
処置の入力情報を送信し、これを光通信装置39で受信
することにより、これと対応する制御データを制御デー
タ記憶部であるROM21から読み取り、当該読み取っ
た制御データに基づいて育成に係る制御を行うように構
成しても良い。
The ROM 21 of the output device 73 stores control data relating to the growth of the output device 73 or an appropriate virtual creature, and a program for performing control relating to the growth based on the control data. By operating the operation unit 15, the output device 73 or an appropriate virtual creature can be grown. That is, when a treatment related to the growth is input from the input means, the control device 11 stores the control data corresponding thereto in the ROM 2 serving as the control data storage unit.
1 and control related to breeding is performed based on the read control data. As described above, the user 71 operates and operates the operation unit 15 to take care of the output device 73.
Can be evolved and grown, and the character of the output device 73 can be changed according to the degree of care. Also, by transmitting the input information of the treatment related to the growth of the virtual creature from the optical communication device 69 of the translation device 5 and receiving the input information by the optical communication device 39, the control data corresponding thereto is stored in the control data storage unit. It may be configured to read from a certain ROM 21 and to perform control relating to breeding based on the read control data.

【0033】[0033]

【発明の効果】以上説明してきたように請求項1に係る
発明は、符号化情報を出力する出力装置と、前記符号化
情報を翻訳する翻訳装置とを有し、出力装置は外部から
入力した音声を認識する認識手段と、外部からの入力を
予定する複数種類の音声とそれぞれの音声に対応する会
話情報を記憶した記憶手段と、認識した音声と対応する
会話情報を記憶手段から読み取って符号化する符号化手
段と、符号化された符号化情報を発生する発生手段を有
する。翻訳装置は符号化情報を受信して当該符号化情報
を復号化する復号化手段と、復号化した内容を提示する
提示手段を有して構成したので、電子ぬいぐるみやペッ
トロボット等の出力装置と直接的に会話するのではな
く、電子ぬいぐるみやペットロボット等からの人が理解
できない言葉を一旦、翻訳装置で翻訳することにより、
あたかも異国の人とのあいだで会話をしているかのよう
な様相を設定することができ、興趣性の高い会話装置を
提供することができるという効果を有する。
As described above, the invention according to claim 1 has an output device for outputting encoded information, and a translation device for translating the encoded information, and the output device is externally input. Recognition means for recognizing voice, storage means for storing a plurality of types of voices scheduled to be input from the outside and conversation information corresponding to each voice, and reading the recognized speech and corresponding conversation information from the storage means for encoding And encoding means for generating encoded information. Since the translation device is configured to include a decoding unit that receives the encoded information and decodes the encoded information, and a presentation unit that presents the decoded content, an output device such as an electronic stuffed animal or a pet robot is provided. Rather than having to talk directly, by translating words that humans cannot understand from electronic stuffed animals or pet robots, etc.
It is possible to set the appearance as if a conversation is being held between foreign people, and it is possible to provide a highly interesting conversation device.

【0034】また、本願の請求項2に係る発明は、符号
化情報を音声の断続で形成したので、遊戯者は符号化情
報を理解することができず、あたかも異国の人とのあい
だで会話をしているかのような様相を設定することがで
き、興趣性の高い会話装置を提供することができるとい
う効果を有する。
Further, in the invention according to claim 2 of the present application, since the encoded information is formed by intermittent speech, the player cannot understand the encoded information, and it is as if a player talks with a foreigner. This makes it possible to set an aspect as if the user is performing a conversation, and to provide an interesting conversation device.

【0035】また、本願の請求項3に係る発明は、符号
化情報を電磁波、光、超音波等を用いた無線情報で形成
したので、遊戯者は符号化情報を理解することができ
ず、あたかも異星の人とのあいだで会話をしているかの
ような様相を設定することができ、興趣性の高い会話装
置を提供することができるという効果を有する。
In the invention according to claim 3 of the present application, the encoded information is formed by wireless information using electromagnetic waves, light, ultrasonic waves, etc., so that the player cannot understand the encoded information. It is possible to set the appearance as if a conversation is being held between the aliens, and it is possible to provide a highly interesting conversation device.

【0036】また、本願の請求項4に係る発明は、文字
情報を提示手段に提示して構成したので、翻訳装置で翻
訳した内容を容易に理解することができ、あたかも異国
の人とのあいだで会話をしているかのごとく様相を設定
することができ、興趣性の高い会話装置を提供すること
ができるという効果を有する。
Further, since the invention according to claim 4 of the present application is constructed by presenting the character information to the presentation means, the contents translated by the translation device can be easily understood, and it is as if a foreign person. Thus, it is possible to set an aspect as if the user is having a conversation, and to provide an interesting conversation device.

【0037】また、本願の請求項5に係る発明は、出力
装置は育成に係る処置の入力を受ける入力手段と、育成
に係る制御データを記憶した制御データ記憶部と、入力
手段から育成に係る処置が入力されたときに、これと対
応する制御データを制御データ記憶部から読み取り、当
該読み取った制御データに基づいて育成に係る制御を行
う育成制御部を有して構成したので、電子ぬいぐるみや
ペットロボット等の出力装置を進化させ、成長させるこ
とができ、世話の程度に応じて電子ぬいぐるみやペット
ロボット等の性格を変化させることができるので、興趣
性の高い会話装置を提供することができるという効果を
有する。
According to a fifth aspect of the present invention, the output device includes an input means for receiving an input of a treatment relating to the breeding, a control data storage section storing control data relating to the breeding, and When the treatment is input, the control data corresponding to the read control data is read from the control data storage unit, and the control unit performs the control related to the growth based on the read control data. The output device such as a pet robot can be evolved and grown, and the character of the electronic stuffed animal or the pet robot can be changed according to the degree of care, so that a highly interesting conversation device can be provided. It has the effect of.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る会話装置の外観図である。FIG. 1 is an external view of a conversation device according to the present invention.

【図2】出力装置のブロック図である。FIG. 2 is a block diagram of an output device.

【図3】翻訳装置のブロック図である。FIG. 3 is a block diagram of a translation device.

【図4】出力装置の回路図である。FIG. 4 is a circuit diagram of an output device.

【図5】翻訳装置の回路図である。FIG. 5 is a circuit diagram of a translation device.

【図6】会話装置の作用を示した説明図である。FIG. 6 is an explanatory diagram showing the operation of the conversation device.

【図7】出力装置のフローチャートである。FIG. 7 is a flowchart of the output device.

【図8】翻訳装置のフローチャートである。FIG. 8 is a flowchart of the translation apparatus.

【図9】会話の分岐を示した説明図である。FIG. 9 is an explanatory diagram showing a branch of a conversation.

【図10】他の実施例を示した説明図である。FIG. 10 is an explanatory diagram showing another embodiment.

【符号の説明】[Explanation of symbols]

1 会話装置 3 出力装置 5 翻訳装置 11 制御装置 13 マイク 15 操作部 17 提示装置 21 ROM 23 CPU 25 RAM 27 EEPROM 31 モータ 33 スピーカ 35 LED 37 液晶表示装置 39 光通信装置 41 制御装置 43 マイク 45 操作部 47 提示装置 51 ROM 53 CPU 55 RAM 57 EEPROM 61 モータ 65 LED 67 液晶表示装置 69 光通信装置 Reference Signs List 1 conversation device 3 output device 5 translation device 11 control device 13 microphone 15 operation unit 17 presentation device 21 ROM 23 CPU 25 RAM 27 EEPROM 31 motor 33 motor 33 speaker 35 LED 37 liquid crystal display device 39 optical communication device 41 control device 43 microphone 45 operation unit 47 presentation device 51 ROM 53 CPU 55 RAM 57 EEPROM 61 motor 65 LED 67 liquid crystal display device 69 optical communication device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G10L 3/00 551C 15/22 R 571T Fターム(参考) 2C150 BA11 BC06 CA01 CA02 CA04 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EE02 EF16 EF17 EF29 EF33 EF36 5D015 KK01 KK02 5D045 AB11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 13/00 G10L 3/00 551C 15/22 R 571T F term (Reference) 2C150 BA11 BC06 CA01 CA02 CA04 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EE02 EF16 EF17 EF29 EF33 EF36 5D015 KK01 KK02 5D045 AB11

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 下記の要件を備えたことを特徴とする会
話装置。 (イ)符号化情報を出力する出力装置と、前記符号化情
報を翻訳する翻訳装置とを有すること。 (ロ)前記出力装置は、外部から入力した音声を認識す
る認識手段を有すること。 (ハ)前記出力装置は、外部からの入力を予定する複数
種類の音声と、それぞれの音声に対応する会話情報を記
憶した記憶手段を有すること。 (ニ)前記出力装置は、前記認識した音声と対応する会
話情報を前記記憶手段から読み取って符号化する符号化
手段を有すること。 (ホ)前記出力装置は、前記符号化された符号化情報を
発生する発生手段を有すること。 (ヘ)前記翻訳装置は、前記符号化情報を受信して当該
符号化情報を復号化する復号化手段を有すること。 (ト)前記翻訳装置は、前記復号化した内容を提示する
提示手段を有すること。
1. A conversation device having the following requirements. (A) An output device that outputs encoded information, and a translation device that translates the encoded information. (B) The output device has a recognizing means for recognizing an externally input voice. (C) The output device includes storage means for storing a plurality of types of sounds scheduled to be input from the outside and conversation information corresponding to each of the sounds. (D) The output device includes encoding means for reading the conversation information corresponding to the recognized voice from the storage means and encoding the conversation information. (E) The output device has a generating means for generating the encoded information. (F) The translation device has decoding means for receiving the encoded information and decoding the encoded information. (G) The translation device has presentation means for presenting the decrypted content.
【請求項2】 前記符号化情報は、音声の断続で成るこ
とを特徴とする請求項1に記載の会話装置。
2. The conversation apparatus according to claim 1, wherein the coded information includes intermittent speech.
【請求項3】 前記符号化情報は、電磁波、光、超音波
等を用いた無線情報であることを特徴とする請求項1に
記載の会話装置。
3. The conversation apparatus according to claim 1, wherein the encoded information is wireless information using electromagnetic waves, light, ultrasonic waves, or the like.
【請求項4】 前記提示手段に提示される内容が文字情
報であることを特徴とする請求項1乃至請求項3のいず
れかに記載の会話装置。
4. The conversation device according to claim 1, wherein the content presented to said presentation means is character information.
【請求項5】 下記の要件を備えたことを特徴とする請
求項1乃至請求項4のいずれかに記載の会話装置。 (イ)前記出力装置は、育成に係る処置の入力を受ける
入力手段を有すること。 (ロ)前記出力装置は、育成に係る制御データを記憶し
た制御データ記憶部を有すること。 (ハ)前記出力装置は、入力手段から育成に係る処置が
入力されたときに、これと対応する制御データを前記制
御データ記憶部から読み取り、当該読み取った制御デー
タに基づいて育成に係る制御を行う育成制御部を有する
こと。
5. The conversation device according to claim 1, wherein the conversation device has the following requirements. (B) The output device has input means for receiving an input of a treatment related to the raising. (B) The output device has a control data storage unit that stores control data related to the breeding. (C) When a measure related to the growth is input from the input means, the output device reads control data corresponding to the measure from the control data storage unit, and performs control related to the growth based on the read control data. Have a training control unit to perform.
JP2001115554A 2001-04-13 2001-04-13 Conversation device Expired - Fee Related JP4646170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001115554A JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001115554A JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Publications (2)

Publication Number Publication Date
JP2002311984A true JP2002311984A (en) 2002-10-25
JP4646170B2 JP4646170B2 (en) 2011-03-09

Family

ID=18966430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001115554A Expired - Fee Related JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Country Status (1)

Country Link
JP (1) JP4646170B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011093525A1 (en) 2010-01-29 2011-08-04 株式会社セガトイズ Toy set, game control program, and game device and toy communication system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000207170A (en) * 1999-01-14 2000-07-28 Sony Corp Device and method for processing information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000207170A (en) * 1999-01-14 2000-07-28 Sony Corp Device and method for processing information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011093525A1 (en) 2010-01-29 2011-08-04 株式会社セガトイズ Toy set, game control program, and game device and toy communication system

Also Published As

Publication number Publication date
JP4646170B2 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
KR100751957B1 (en) Electronic pet device, information processor and information processing method
US20050154594A1 (en) Method and apparatus of simulating and stimulating human speech and teaching humans how to talk
TWI420433B (en) Speech interactive system and method
WO2016080553A1 (en) Learning robot, learning robot system, and learning robot program
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
US20060047362A1 (en) Dialogue control device and method, and robot device
JP2008279165A (en) Toy system and computer program
JPH10328422A (en) Automatically responding toy
WO2004084183A1 (en) Audio conversation device, method, and robot device
CN112182194A (en) Method, system and readable storage medium for expressing emotional actions of television avatar
CN112182173A (en) Human-computer interaction method and device based on virtual life and electronic equipment
CN112558911A (en) Voice interaction method and device for massage chair
JP2002311984A (en) Conversation device
WO2002086861A1 (en) Language processor
JP2003022086A (en) Language learning system
KR20010007842A (en) The system and method of a dialogue form voice and multi-sense recognition for a toy
CN113168826A (en) Robot, speech synthesis program, and speech output method
JP2009151314A (en) Information processing device and information processing method
JPH10328421A (en) Automatically responding toy
JP4250635B2 (en) Virtual pet device and control program recording medium thereof
US20070072511A1 (en) USB desktop toy
JP2002328693A (en) Robot system, robot apparatus and its control method
US6934685B1 (en) Voice recognition device for toys
JP2000210472A (en) Electronic game device, and electronic game system
CN204926792U (en) Steerable audio playback machine that turns over page or leaf

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees