JP4646170B2 - Conversation device - Google Patents

Conversation device Download PDF

Info

Publication number
JP4646170B2
JP4646170B2 JP2001115554A JP2001115554A JP4646170B2 JP 4646170 B2 JP4646170 B2 JP 4646170B2 JP 2001115554 A JP2001115554 A JP 2001115554A JP 2001115554 A JP2001115554 A JP 2001115554A JP 4646170 B2 JP4646170 B2 JP 4646170B2
Authority
JP
Japan
Prior art keywords
information
conversation
output device
voice
understood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001115554A
Other languages
Japanese (ja)
Other versions
JP2002311984A (en
Inventor
雅之 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2001115554A priority Critical patent/JP4646170B2/en
Publication of JP2002311984A publication Critical patent/JP2002311984A/en
Application granted granted Critical
Publication of JP4646170B2 publication Critical patent/JP4646170B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本願発明は、出力装置が人に理解できない符号化情報を出力すると、この符号化情報を翻訳装置で翻訳することにより、これを理解したユーザーと出力装置との間で会話をすることのできる会話装置に関するものである。
【0002】
【従来の技術】
近年、対話型のロボット装置が種々提案されている。実開昭59−169681号公報に示される従来の音声会話装置は、応答文データを記憶した記憶装置を有し、外部からの音声入力を検出すると、この入力した音声を認識して対応する応答文データを記憶装置から読み出して、応答文データに応じた音声を出力するようにしている。
【0003】
【発明が解決しようとする課題】
上記従来の音声会話装置は、公報に記載されているように、人形玩具に適用され、入力した音声を認識して対応する応答文データに応じた音声を直接出力するものである。このように、従来のぬいぐるみやロボット装置などの会話装置は、が理解できる音声を出力するので、直接的に会話が成立してしまい、ぬいぐるみやロボット装置等と人とのあいだで翻訳装置を介して会話をしているという面白さに欠けるという問題点を有していた。
【0004】
本願発明は、上記問題点に鑑みて案出されたもので、電子ぬいぐるみやペットロボット等の出力装置と直接的に会話するのではなく、電子ぬいぐるみやペットロボット等からの人が理解できない言葉を一旦、翻訳装置で翻訳することにより、電子ぬいぐるみやペットロボット等と会話することのできる会話装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
本発明が提供する請求項1に係る発明は、上記目的を達成するために、下記の要件を備えたことを特徴とする。すなわち、
(イ)ロボット、動物、人形、ぬいぐるみ、怪獣又は仮想生命体の形状に形成され、人が理解できない符号化情報を出力する出力装置と、前記符号化情報を翻訳する翻訳装置とを有すること。
(ロ)前記出力装置は、外部から入力した人が理解できる音声を認識する認識手段を有すること。
(ハ)前記出力装置は、外部からの入力を予定する複数種類の人が理解できる音声に対応する会話情報を記憶した記憶手段を有すること。
(ニ)前記出力装置は、前記認識手段が認識した人が理解できる音声と対応する会話情報を前記記憶手段から読み取って人が理解できない情報に符号化する符号化手段を有すること。
(ホ)前記出力装置は、前記符号化された符号化情報を発生する発生手段を有すること。
(ヘ)前記翻訳装置は、前記符号化情報を受信して当該符号化情報を人が理解できる情報に復号化する復号化手段を有すること。
(ト)前記翻訳装置は、前記復号化した内容を提示する提示手段を有すること。
【0006】
また、請求項2に係る発明は、請求項1に記載の会話装置について、下記の要件を付加したことを特徴とする。すなわち、符号化情報は、断続する人が理解できない音声で成ることを特徴とする。
【0007】
また、請求項3に係る発明は、請求項1に記載の会話装置について、下記の要件を付加したことを特徴とする。すなわち、符号化情報は、電磁波、光又は超音波を用いた無線情報であることを特徴とする。
【0008】
また、請求項4に係る発明は、請求項1乃至3のいずれかに記載の会話装置について、下記の要件を付加したことを特徴とする。すなわち、提示手段に提示される内容が文字情報であることを特徴とする。
【0010】
【発明の実施の形態】
本願発明に係る会話装置を図面に基づいて説明する。
図1は本発明に係る会話装置の外観図、図2は出力装置のブロック図、図3は翻訳装置のブロック図、図4は出力装置の回路図、図5は翻訳装置の回路図、図6は会話装置の作用を示した説明図、図7は出力装置のフローチャート、図8は翻訳装置のフローチャート、図9は会話の分岐を示した説明図、図10は他の実施例を示した説明図である。
【0011】
本願発明に係る会話装置1は、符号化情報を出力する出力装置3と、符号化情報を翻訳する翻訳装置5とで構成されている。
出力装置3は、ロボット、人形、ぬいぐるみ、怪獣、仮想生命体等の適宜の形状に形成され、その内部には入力した音声を認識する認識手段と、認識した音声と対応する会話情報を記憶した記憶手段を有する。出力装置3は、入力した音声と対応する会話情報を記憶手段から読み取って符号化し、例えば、断続した音声で成る符号化情報を、入力した音声に対する応答として発生するものである。すなわち、出力装置3は、ユーザーが入力した音声を認識すると、これに対する応答として人が認識できない言葉を出力する。
翻訳装置5は、出力装置3からの符号化情報を受信して当該符号化情報を復号化する復号化手段を有し、復号化した内容を可視的に文字表示するものである。
すなわち、翻訳装置5は、人が理解できない言葉を翻訳し、その翻訳した内容を人が理解できる文字情報として提示する。
【0012】
次に、図1及び図2を参照して出力装置3を説明する。出力装置3は制御装置11と、制御装置11に接続されるマイク13、操作部15、提示装置17を有する。
制御装置11は、ROM21、CPU23、RAM25、EEPROM27を有する。提示装置17は、モータ31、スピーカ33、LED35、液晶表示装置37、光通信装置39を有する。
【0013】
出力装置3の上面にはマイク13と、スピーカ33が配置され、出力装置3の正面には液晶表示装置37が配置されている。液晶表示装置37の下側にはLED等を用いた電源ランプ7と、制御装置11が設けられている。制御装置11の下側にはLED35a,35b,35cが配置されている。出力装置3の下部には電源オンオフ用のスイッチ15a、音オンオフ用のスイッチ15b、スイッチ15c、15d、15eと、電源供給用のコネクター19が設けられている。
【0014】
ROM21は、会話を継続させるための複数の単語又は複数種類の文章等から成る会話情報と分岐情報とを記憶している。この会話情報及び分岐情報を具体的に説明すると、図9に示すように、会話情報101として、例えば「動物は好きですか?」という文章が記憶され、これに対する分岐情報103が記憶されている。例えば、「YES」や「ハイ」等の肯定的な音声の入力を認識した場合は、次に出力する応答情報として会話情報105が対応付けられ、「NO」や「イイエ」等の否定的な音声の入力を認識した場合は、次に出力する応答情報として会話情報107が対応付けられている。ここで、会話情報105として、例えば、「犬は好きですか?」が記憶され、会話情報107として、例えば、「花は好きですか?」が記憶されている。
更に、会話情報105に対する分岐情報109が記憶されている。この分岐情報109は、例えば、「YES」等の肯定的な音声の入力を認識した場合は、次に出力する応答情報として会話情報111が対応付けられ、「NO」等の否定的な音声の入力を認識した場合は、次に出力する応答情報として会話情報113が対応付けられている。
以下同様に、複数の会話情報117,119,121,125,127,131,133…と、それぞれの会話情報に対する分岐情報115,123,129…が記憶されている。
【0015】
また、ROM21は、外部から入力する音声を認識するための対象となる複数の単語の音声パターン(標準音声パターン)が記憶されると共に、この標準音声パターンと実際に入力した音声の音声パターンとを比較してパターンマッチングを行うためのプログラムを記憶している。また、ROM21には、前記パターンマッチングにより認識した音声に対して応答するための会話情報が記憶されている。更に、ROM21には、前記会話情報を符号化するためのプログラム、例えば、断続する音の組合せ、又は音を断続するオフ時間の長さの組合せ、又はこれらの組合せとして符号化するためのプログラムが記憶されている。また、ROM21には、各種効果音情報や表示制御に関するプログラム等が記憶されている。
また、ROM21は、出力装置3又は適宜の仮想生命体の育成に係る制御データを記憶している。さらに、ROM21には、前記制御データに基づいて育成に係る制御を行うためのプログラムが記憶されている。
【0016】
CPU23は、全体的な制御を行うものであり、ROM21に記憶された各種プログラムに基づいて制御処理を行う。例えば、CPU23は、入力した音声を認識するために、標準音声パターンと入力した音声の音声パターンとを比較してパターンマッチングを行う。また、CPU23は、会話情報または応答情報を符号化するための制御、例えば断続する音の組合せ、又は音を断続するオフ時間の長さの組合せ、又はこれらの組合せで成る情報に符号化するための制御を行う。
また、CPU23は、各種効果音情報や表示制御に関する制御を行う。また、CPU23は、前記制御データに基づいて育成に係る制御を行う。
RAM25は、いわゆるワーク用のメモリであり、各種制御処理用のデータを一時的に記憶する。
EEPROM27は、不揮発性のメモリであり、認識した音声や、これに対する応答情報等を履歴情報として記憶する。
【0017】
制御装置11は、前述したようにCPU23がROM21に記憶された各種プログラムに基づいて制御処理を行うことにより、入力した音声を認識する認識手段を有し、入力した音声と対応する会話情報を記憶手段であるROM21から読み取って符号化する符号化手段を有する。また、制御装置11は、入力した音声に対して前記符号化された符号化情報を生成する生成回路を有する。この生成回路は、符号化情報を音の断続で成る音情報を生成する回路、又は符号化情報を光の断続で成る光情報を生成する回路、又は符号化情報を電磁波の断続で成る無線信号を生成する回路、又は符号化情報を超音波の断続で成る超音波信号を生成する回路等の適宜の回路が用いられる。また、制御装置11は、入力手段から育成に係る処置が入力されたときに、これと対応する制御データを制御データ記憶部であるROM21から読み取り、当該読み取った制御データに基づいて育成に係る制御を行う育成制御部を有する。
【0018】
操作部15には、前述のスイッチ15a、15b、15c、15d、15eが設けられている。この操作部15は、育成に係る処置の入力を受ける入力手段である。
モータ31には、歯車機構部等のアクチュエータが接続され、出力装置3の一部または全体が動作するようになっている。
スピーカ33は、各種効果音情報や、前述の符号化された符号化情報、例えば断続する音を発生させるものである。このスピーカ33として圧電ブザー等を用いて構成してもよい。
LED35は、LED35a,35b,35cを有し、制御装置11からの指令に基づいて明滅する。
液晶表示装置37は、LCD等を用いて構成され、制御装置11からの制御に基づいて各種情報を提示する。
光通信装置39は、光受信部と光送信部を有し、制御装置11からの制御に基づいて、前述の符号化された符号化情報、例えば断続する光信号を発生させるものである。また、光通信装置39は、図示しない他の光通信装置と通信することができ、他の光通信装置から育成に係る処置の入力を受ける入力手段として機能する。
【0019】
次に、図1及び図3を参照して翻訳装置5を説明する。翻訳装置5は制御装置41と、制御装置41に接続されるマイク43、操作部45、提示装置47を有する。
制御装置41は、ROM51、CPU53、RAM55、EEPROM57を有する。提示装置47は復号化した内容を提示する提示手段であり、モータ61、LED65、液晶表示装置67、光通信装置69を有する。
【0020】
翻訳装置5の上面にはマイク43が配置され、翻訳装置5の正面には液晶表示装置67が配置されている。液晶表示装置67の下側には電源ランプ9と、制御装置41が設けられている。制御装置41の下側にはLED65a,65b,65cが配置されている。翻訳装置5の下部には電源オンオフ用のスイッチ45a、音オンオフ用のスイッチ45b、スイッチ45c、45d、45eと、電源供給用のコネクター49が設けられている。
【0021】
ROM51には、出力装置3からの符号化情報を受信したときに、この符号化情報を元の情報に復号化するためのプログラムを記憶している。すなわち、出力装置3から出力される会話情報が予め設定されており、これらの会話情報がROM51に記憶されると共に、それぞれの会話情報に対応してこれらの符号化情報がROM51に記憶されている。そして、ROM51には、出力装置3から受信した符号化情報と、予め記憶された符号化情報とを比較し、該当する符号化情報を抽出すると共に、この抽出した符号化情報と対応する元の会話情報を選択するためのプログラムを記憶している。
また、ROM51は、復号化した内容を可視的に表示させるための表示制御プログラムを記憶している。また、ROM51には、各種効果音情報や表示制御に関するプログラム等が記憶されている。
【0022】
CPU53は、全体的な制御を行うものであり、ROM51に記憶された各種プログラムに基づいて制御処理を行う。例えば、CPU53は、出力装置3からの符号化情報を受信したときに、この符号化情報を元の情報に復号化するための制御を行う。また、CPU53は、復号化した内容を可視的に表示させるための表示制御を行う。
RAM55は、いわゆるワーク用のメモリであり、各種制御処理用のデータを一時的に記憶する。
EEPROM57は、不揮発性のメモリであり、断続する各音声の持続時間と、次の音声が入力するまでの間隔時間(オフ時間)とで成る配列データや復号化した情報等を履歴情報として記憶する。
【0023】
制御装置41は、前述したようにCPU53がROM51に記憶された各種プログラムに基づいて制御処理を行うことにより、符号化情報を復号化するための復号化手段を有する。
【0024】
操作部45には、前述のスイッチ45a、45b、45c、45d、45eが設けられている。
モータ61には、歯車機構部等のアクチュエータが接続され、翻訳装置5の一部が動作するようになっている。
LED65は、LED65a,65b,65cを有し、制御装置41からの制御に基づいて明滅する。
液晶表示装置67は、復号化した内容を提示する提示手段であり、LCD等を用いて構成される。液晶表示装置67は、制御装置41からの制御に基づいて各種情報、例えば、復号化した内容を可視的に文字表示する。
尚、液晶表示装置67に表示される情報は、文字には限定されず、復号化した内容に応じたキャラクターの画像、ロボットの画像、絵、記号、模様等の適宜の情報を表示させることができる。また、復号化した内容を提示する提示手段としては、上記液晶表示装置には限定されず、復号化した内容を人が理解できる音声で出力するスピーカや、復号化した内容を翻訳装置5の一部を動作させることにより示すようにした適宜のアクチュエータや復号化した内容に応じたキャラクターの画像、ロボットの画像、絵、記号、模様等の適宜の情報をLEDを用いて提示するように構成してもよい。
光通信装置69は、光受信部と光送信部を有し、制御装置41からの制御に基づいて、前述の符号化された符号化情報、例えば断続する光信号を受信するものである。また、光通信装置69は、図示しない他の光通信装置との間で光による通信を行うことができる。
【0025】
次に、図4を参照して出力装置3の具体的な回路構成を説明する。
制御装置11の端子PN1には、抵抗R1とリセット用のスイッチSW1が接続されている。端子PN11には電源が供給され、端子PN12はアースに接続されている。端子PN13、PN14には発振器OC1が接続され、発振器OC1にはコンデンサC3、C4が接続されている。
端子PN15には、演算増幅器IC1と、抵抗R2、R3、R4、R5、R6、R7と、コンデンサC1、C2と、トランジスタQ1と、可変抵抗器R8と、マイク13とで成るマイク回路部が接続されている。
端子PN27には、抵抗R9と、トランジスタQ2と、スイッチSW2と、圧電ブザー33aと、コイルL1とで成るスピーカ回路部が接続されている。
端子PN28〜PN30及び端子PN33〜PN40には液晶表示装置37が接続されている。また、バッテリBT1と、スイッチ15aと、定電圧回路VR1と、コンデンサC5、C6と、抵抗R10と、ランプ7とで成る電源回路が設けられ、この電源回路からの電源が各回路部に供給される。
【0026】
次に、図5を参照して翻訳装置5の具体的な回路構成を説明する。
制御装置41の端子P1には、抵抗R21とリセット用のスイッチSW11が接続されている。端子P11には電源が供給され、端子P12はアースに接続されている。端子P13、P14には発振器OC11が接続され、発振器OC11にはコンデンサC13、C14が接続されている。
端子P15には、演算増幅器IC11と、抵抗R22、R23、R24、R25、R26、R27と、コンデンサC11、C12と、トランジスタQ11と、可変抵抗器R28と、マイク43とで成るマイク回路部が接続されている。
端子P28〜PN30及び端子PN33〜PN40には液晶表示装置67が接続されている。
また、バッテリBT11と、スイッチ45aと、定電圧回路VR11と、コンデンサC15、C16と、抵抗R30と、ランプ9とで成る電源回路が設けられ、この電源回路からの電源が各回路部に供給される。
【0027】
次に、図6乃至図8を参照して作用を説明する。
図6は会話装置の作用を示した説明図であり、図7は出力装置のフローチャート、図8は翻訳装置のフローチャートである。
最初に出力装置3が、図7のステップS1において、出力装置3のROM21に記憶された複数の会話情報の中から適宜の音声情報、例えばユーザー71に問い掛けるための会話情報101を選択し、これを人が理解できない情報に符号化して、断続する人が理解できない音声の符号化情報をスピーカ33から出力する。例えば、出力装置3のROM21に記憶された複数の会話情報の中から適宜の音声情報、「動物は好きですか?」という会話情報101を選択し、これを人が理解できない情報に符号化して例えば、「ピ、ピ、ピー、ピー、ピ」のごとくに断続する人が理解できない音声の符号化情報をスピーカ33から出力する。
翻訳装置5は、最初に図8のステップSP1において音声の入力待機状態にあり、SP3において、出力装置3からの符号化された音声情報の入力を判断しており、出力装置3からの符号化された音声情報をマイク43より入力した場合は、ステップSP3からステップSP5へ進む。
【0028】
翻訳装置5が、ステップ3において、「ピ、ピ、ピー、ピー、ピ」のごとくに断続する人が理解できない音声で成る音声情報が入力されると、ステップSP5において、音声の入力時間を測定し、SP7において、各音声の持続時間と、次の音声が入力するまでの間隔時間(オフ時間)とで成る配列データをEEPROM57に記憶する。ステップSP9において、断続する音声で成る符号化情報が入力してから一定時間が経過したか否かを判断し、一定時間が経過した場合はステップSP11に進む。ステップSP11において、EEPROM57に記憶された配列データと、ROM51に記憶された複数の符号化情報とを比較する。ステップSP13において、ステップ11で比較した、EEPROM57に記憶された配列データと一致する符号化情報がROM51に存在する場合は、ステップSP13からステップSP15へ進む。ステップSP15では一致する符号化情報と対応する元の会話情報をROM51から読み出して、液晶表示装置67に表示させる。ここで表示される元の会話情報は、前記した例で言うならば「動物は好きですか?」となる。翻訳装置5は、この表示後、続いて、ステップSP19を介して再びステップSP1に戻る。 このように、出力装置3から人が理解できない符号化情報が出力されると、あたかも翻訳装置5がこれを翻訳して液晶表示装置67に文字表示するので、ユーザー71は液晶表示装置67に表示された文字情報を視認することにより、出力装置3から出力される言葉を理解することができる。
そして、出力装置3から人が理解できない符号化情報が出力されると、翻訳装置5がこれを翻訳して液晶表示装置67に文字表示するので、ユーザー71はこのような符号化情報と、これを翻訳した内容を何度か視認することにより、出力装置3から出力される符号化情報を直接的に、且つ、自然に理解することができるようになり、新たな面白さが生じ、興趣性が向上する。
なお、ステップSP13において、ステップ11で比較した、EEPROM57に記憶された配列データと一致する符号化情報がROM51に存在しない場合は、ステップSP13からステップSP17へ進む。ステップSP17では、エラー内容を液晶表示装置67に表示させる。翻訳装置5は、この表示後、続いて、ステップSP19を介して再びステップSP1に戻る。
【0029】
次に、ユーザー71は翻訳装置5のステップSP15において液晶表示装置67に表示された文字情報を視認することにより、出力装置3から出力された人が理解できない音声情報を理解することができたので、これに対する返答、例えば「YES」「NO」等の肯定的又は否定的な音声を出力装置3のマイク13へ入力する。
出力装置3は、図7のステップS3において、ユーザーの返答をマイクから入力すると、ステップS5において、ユーザー71から返答された音声の音声パターンと、ROM21に記憶された複数の標準音声パターンとを比較して、いわゆるパターンマッチングを行う。
【0030】
出力装置3は、ステップS7において、ステップ5で比較した、ユーザー71から返答された音声の音声パターンと、ROM21に記憶された複数の標準音声パターンとを比較し、一致した標準音声パターンの単語を選択する。すなわち、ステップS7では、ユーザー71から返答された音声をパターンマッチングにより認識すると共に、この認識した音声が肯定的な返答、例えば「YES」であるか、または否定的な返答、例えば「NO」のいずれであるかを判断する。
出力装置3は、ステップS7において、認識した音声が肯定的な返答、例えば「YES」であることを判断するとステップS9へ進む。ステップS9では、最初に選択された音声出力(会話情報101)に対して肯定的な返答があった場合に、これと対応する応答情報(会話情報105)をROM21から読み取って出力する。この場合も、対応する応答情報(会話情報105)を符号化して、例えば、「ピー、ピ、ピー、ピー、ピ」のごとくに断続する音声で成る符号化情報をスピーカ33から出力する。前の例で説明すると、出力装置3が翻訳装置5を介して「動物が好きですか?」と問い掛けてきたので、ユーザー71が「YES」と返答し、この肯定的な返答に対し、出力装置3のROM21に記憶された複数の会話情報の中から適宜の音声情報、「犬は好きですか?」という会話情報105を選択し、これを人が理解できない情報に符号化して例えば、「ピ、ピ、ピー、ピー、ピ」のごとくに断続する人が理解できない音声の符号化情報をスピーカ33から出力する。
また、出力装置3は、ステップS7において、認識した音声が否定的な返答、例えば「NO」であることを判断するとステップS11へ進む。ステップS11では、最初に選択された音声出力(会話情報101)に対して否定的な返答があった場合に、これと対応する応答情報(会話情報107)をROM21から読み取って出力する。この場合も、対応する応答情報(会話情報107)を符号化して、例えば、「ピー、ピ、ピー、ピー、ピー」のごとくに断続する音声で成る符号化情報をスピーカ33から出力する。前の例で説明すると、出力装置3が翻訳装置5を介して「動物が好きですか?」と問い掛けてきたので、ユーザー71が「NO」と返答し、この否定的な返答に対し、出力装置3のROM21に記憶された複数の会話情報の中から適宜の音声情報、「花は好きですか?」という会話情報107を選択し、これを人が理解できない情報に符号化して例えば、「ピ、ピ、ピー、ピー、ピ」のごとくに断続する人が理解できない音声の符号化情報をスピーカ33から出力する。出力装置3は、このスピーカ33からの出力後、スタート状態に戻る。
【0031】
次に、図10を参照して本発明に係る他の実施例を説明する。
図10に示す実施例は、ペットロボットや電子ぬいぐるみ等で成る出力装置73と、出力装置73から出力される人が理解できない音声の符号化情報を翻訳する翻訳装置75とで構成される。
出力装置73の回路部の構成は図2に示したものと同様であり、翻訳装置75の回路部の構成は図3に示したものと同様であり、同一の番号を用いて説明する。
出力装置73は、ロボット、動物、人形、ぬいぐるみ、怪獣、仮想生命体等の適宜の形状に形成され、その内部には入力した音声を認識する認識手段と、認識した音声と対応する応答情報を記憶した記憶手段を有する。出力装置73は、入力した音声と対応する応答情報を記憶手段から読み取って人が理解できない情報に符号化し、例えば、断続する人が理解できない音信号で成る符号化情報を、入力した音声に対する応答として発生するものである。すなわち、出力装置73は、ユーザー71が入力した音声を認識すると、これに対する応答として人が理解できない言葉を出力する。
翻訳装置75は、出力装置73からの符号化情報を受信して当該符号化情報を復号化する復号化手段を有し、復号化した内容を液晶表示装置67に可視的に文字表示するものである。すなわち、翻訳装置75は、人が理解できない言葉を翻訳し、その内容を人が認識できる文字情報として提示するものである。例えば、出力装置73が犬型ロボット形状であれば「ワンワンワン」と出力し、翻訳装置75がその内容を翻訳して、液晶表示装置67に「あそんでほしい」と文字表示する。これにより、ユーザー71は、出力装置73の感情や気持を理解することができる。
【0032】
また、出力装置73のROM21には、出力装置73又は適宜の仮想生命体の育成に係る制御データと、この制御データに基づいて育成に係る制御を行うためのプログラムが記憶されており、操作部15を操作することにより、出力装置73又は適宜の仮想生命体を育成することができる。すなわち、制御装置11は、入力手段から育成に係る処置が入力されたときに、これと対応する制御データを制御データ記憶部であるROM21から読み取り、当該読み取った制御データに基づいて育成に係る制御を行う。
このように、ユーザー71が操作部15を操作して世話することにより、出力装置73を進化、成長させることができ、世話の程度に応じて出力装置73の性格を変化させることができる。
また、翻訳装置5の光通信装置69から仮想生命体の育成に係る処置の入力情報を送信し、これを光通信装置39で受信することにより、これと対応する制御データを制御データ記憶部であるROM21から読み取り、当該読み取った制御データに基づいて育成に係る制御を行うように構成しても良い。
【0033】
【発明の効果】
以上説明してきたように請求項1に係る発明は、ロボット、動物、人形、ぬいぐるみ、怪獣又は仮想生命体の形状に形成され、人が理解できない符号化情報を出力する出力装置と、前記符号化情報を翻訳する翻訳装置とを有し、出力装置は、外部から入力した人が理解できる音声を認識する認識手段と、外部からの入力を予定する複数種類の人が理解できる音声に対応する会話情報を記憶した記憶手段と、認識手段が認識した人が理解できる音声と対応する会話情報を前記記憶手段から読み取って人が理解できない情報に符号化する符号化手段と、符号化された符号化情報を発生する発生手段を有する。翻訳装置は符号化情報を受信して当該符号化情報を人が理解できる情報に復号化する復号化手段と、復号化した内容を提示する提示手段を有して構成したので、電子ぬいぐるみやペットロボット等の出力装置と直接的に会話するのではなく、電子ぬいぐるみやペットロボット等からの人が理解できない言葉を一旦、翻訳装置で翻訳することにより、あたかも電子ぬいぐるみやペットロボット等と人とのあいだで翻訳装置を介して会話をしているかのような様相を設定することができ、興趣性の高い会話装置を提供することができるという効果を有する。
【0034】
また、本願の請求項2に係る発明は、人が理解できない符号化情報を音声の断続で形成したので、遊戯者は符号化情報を理解することができず、あたかも人が理解できない言葉を話す電子ぬいぐるみやペットロボット等と人とのあいだで翻訳装置を介して会話をしているかのような様相を設定することができ、興趣性の高い会話装置を提供することができるという効果を有する。
【0035】
また、本願の請求項3に係る発明は、符号化情報を電磁波、光又は超音波を用いた無線情報で形成したので、遊戯者は符号化情報を理解することができず、あたかも異星の人とのあいだで会話をしているかのような様相を設定することができ、興趣性の高い会話装置を提供することができるという効果を有する。
【0036】
また、本願の請求項4に係る発明は、文字情報を提示手段に提示して構成したので、翻訳装置で翻訳した内容を容易に理解することができ、あたかも人が理解できない言葉を話す電子ぬいぐるみやペットロボット等と人とのあいだで会話をしているかのごとく様相を設定することができ、興趣性の高い会話装置を提供することができるという効果を有する。
【図面の簡単な説明】
【図1】本発明に係る会話装置の外観図である。
【図2】出力装置のブロック図である。
【図3】翻訳装置のブロック図である。
【図4】出力装置の回路図である。
【図5】翻訳装置の回路図である。
【図6】会話装置の作用を示した説明図である。
【図7】出力装置のフローチャートである。
【図8】翻訳装置のフローチャートである。
【図9】会話の分岐を示した説明図である。
【図10】他の実施例を示した説明図である。
【符号の説明】
1 会話装置
3 出力装置
5 翻訳装置
11 制御装置
13 マイク
15 操作部
17 提示装置
21 ROM
23 CPU
25 RAM
27 EEPROM
31 モータ
33 スピーカ
35 LED
37 液晶表示装置
39 光通信装置
41 制御装置
43 マイク
45 操作部
47 提示装置
51 ROM
53 CPU
55 RAM
57 EEPROM
61 モータ
65 LED
67 液晶表示装置
69 光通信装置
[0001]
BACKGROUND OF THE INVENTION
In the present invention, when the output device outputs encoded information that cannot be understood by a human, the user can understand the conversation by translating the encoded information with the translation device. It relates to the device.
[0002]
[Prior art]
In recent years, various interactive robot apparatuses have been proposed. A conventional voice conversation apparatus disclosed in Japanese Utility Model Publication No. 59-169681 has a storage device that stores response sentence data. When an external voice input is detected, the input voice is recognized and a corresponding response is received. The sentence data is read from the storage device, and the sound corresponding to the response sentence data is output.
[0003]
[Problems to be solved by the invention]
  The conventional voice conversation device is applied to a doll toy as described in the publication,It recognizes the input voice and directly outputs the voice corresponding to the corresponding response sentence data. Thus, conversation devices such as conventional stuffed animals and robot devices areManOutput a voice that can be understood byWith stuffed animals and robotic devicesBetween peopleThrough the translation deviceIt had the problem of lacking the fun of having a conversation.
[0004]
The present invention was devised in view of the above problems, and does not directly communicate with an output device such as an electronic stuffed toy or a pet robot, but a word that a person from an electronic stuffed toy or a pet robot cannot understand. It is an object of the present invention to provide a conversation device capable of having a conversation with an electronic stuffed animal, a pet robot, or the like once translated by a translation device.
[0005]
[Means for Solving the Problems]
  The invention according to claim 1 provided by the present invention is characterized by having the following requirements in order to achieve the above object. That is,
(I)It is formed in the shape of a robot, animal, doll, stuffed animal, monster, or virtual creature, and cannot be understood by humansAn output device that outputs encoded information; and a translation device that translates the encoded information.
(B) The output device is input from the outsideHuman understandingHaving a recognition means for recognizing speech.
(C) The output device has a plurality of types of inputs scheduled from the outside.Human understandingHaving storage means for storing conversation information corresponding to voice.
(D) the output deviceRecognition meansRecognizedHuman understandingRead the conversation information corresponding to the voice from the storage meansInformation that people cannot understandHaving an encoding means for encoding.
(E) The output device has generating means for generating the encoded encoded information.
(F) The translation device receives the encoded information and receives the encoded information.Information that people can understandIt has a decoding means for decoding.
(G) The translation apparatus has a presenting means for presenting the decrypted content.
[0006]
  The invention according to claim 2 is characterized in that the following requirements are added to the conversation device according to claim 1. That is, the encoded information is intermittentVoice that people who do not understandIt is characterized by comprising.
[0007]
  The invention according to claim 3 is characterized in that the following requirements are added to the conversation device according to claim 1. That is, the encoded information includes electromagnetic waves, lightOrSuper soundWaveIt is the wireless information used.
[0008]
The invention according to claim 4 is characterized in that the following requirements are added to the conversation device according to any one of claims 1 to 3. That is, the content presented to the presenting means is character information.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
A conversation device according to the present invention will be described with reference to the drawings.
1 is an external view of a conversation device according to the present invention, FIG. 2 is a block diagram of an output device, FIG. 3 is a block diagram of a translation device, FIG. 4 is a circuit diagram of the output device, FIG. 6 is an explanatory diagram showing the operation of the conversation device, FIG. 7 is a flowchart of the output device, FIG. 8 is a flowchart of the translation device, FIG. 9 is an explanatory diagram showing the branch of the conversation, and FIG. 10 shows another embodiment. It is explanatory drawing.
[0011]
The conversation device 1 according to the present invention includes an output device 3 that outputs encoded information and a translation device 5 that translates the encoded information.
The output device 3 is formed in an appropriate shape such as a robot, a doll, a stuffed animal, a monster, or a virtual life form, and stores therein a recognition means for recognizing the input voice and conversation information corresponding to the recognized voice. Having storage means; The output device 3 reads and encodes conversation information corresponding to the input voice from the storage means, and generates, for example, encoded information composed of intermittent voice as a response to the input voice. That is, when the output device 3 recognizes the voice input by the user, the output device 3 outputs a word that cannot be recognized by a person as a response to the voice.
The translation device 5 has decoding means for receiving the encoded information from the output device 3 and decoding the encoded information, and visually displays the decoded contents.
That is, the translation device 5 translates a word that cannot be understood by a person and presents the translated content as character information that can be understood by the person.
[0012]
Next, the output device 3 will be described with reference to FIGS. 1 and 2. The output device 3 includes a control device 11, a microphone 13 connected to the control device 11, an operation unit 15, and a presentation device 17.
The control device 11 includes a ROM 21, a CPU 23, a RAM 25, and an EEPROM 27. The presentation device 17 includes a motor 31, a speaker 33, an LED 35, a liquid crystal display device 37, and an optical communication device 39.
[0013]
A microphone 13 and a speaker 33 are disposed on the upper surface of the output device 3, and a liquid crystal display device 37 is disposed on the front surface of the output device 3. On the lower side of the liquid crystal display device 37, a power lamp 7 using an LED or the like and a control device 11 are provided. LEDs 35a, 35b, and 35c are arranged below the control device 11. At the bottom of the output device 3, a power on / off switch 15a, a sound on / off switch 15b, switches 15c, 15d and 15e, and a power supply connector 19 are provided.
[0014]
The ROM 21 stores conversation information and branch information composed of a plurality of words or a plurality of types of sentences for continuing the conversation. The conversation information and the branch information will be specifically described. As shown in FIG. 9, for example, a sentence “Do you like animals?” Is stored as the conversation information 101, and branch information 103 for the sentence is stored. . For example, when a positive voice input such as “YES” or “high” is recognized, the conversation information 105 is associated as response information to be output next, and negative such as “NO” or “No”. When voice input is recognized, conversation information 107 is associated as response information to be output next. Here, for example, “Do you like dogs?” Is stored as the conversation information 105, and “Do you like flowers?”, For example, is stored as the conversation information 107.
Further, branch information 109 for the conversation information 105 is stored. For example, when the branch information 109 recognizes an input of a positive voice such as “YES”, the conversation information 111 is associated as response information to be output next, and a negative voice such as “NO” is displayed. When the input is recognized, the conversation information 113 is associated as response information to be output next.
Similarly, a plurality of pieces of conversation information 117, 119, 121, 125, 127, 131, 133... And branch information 115, 123, 129.
[0015]
The ROM 21 stores voice patterns (standard voice patterns) of a plurality of words that are targets for recognizing voices input from the outside, and stores the standard voice patterns and voice patterns of voices that are actually input. A program for performing pattern matching by comparison is stored. Further, the ROM 21 stores conversation information for responding to the voice recognized by the pattern matching. Further, the ROM 21 has a program for encoding the conversation information, for example, a combination of intermittent sounds, a combination of lengths of off time for intermittent sounds, or a program for encoding these combinations. It is remembered. The ROM 21 stores various sound effect information, programs related to display control, and the like.
Further, the ROM 21 stores control data related to the growth of the output device 3 or an appropriate virtual creature. Further, the ROM 21 stores a program for performing control related to the growth based on the control data.
[0016]
The CPU 23 performs overall control, and performs control processing based on various programs stored in the ROM 21. For example, the CPU 23 performs pattern matching by comparing the standard voice pattern with the voice pattern of the input voice in order to recognize the input voice. Further, the CPU 23 performs control for encoding the conversation information or the response information, for example, for encoding the combination of intermittent sounds, the combination of the length of the off time during which the sounds are intermittent, or the information composed of these combinations. Control.
Further, the CPU 23 performs control related to various sound effect information and display control. Further, the CPU 23 performs control related to breeding based on the control data.
The RAM 25 is a so-called work memory, and temporarily stores data for various control processes.
The EEPROM 27 is a non-volatile memory, and stores the recognized voice, response information for the voice, and the like as history information.
[0017]
As described above, the control device 11 has recognition means for recognizing the input voice by the CPU 23 performing control processing based on various programs stored in the ROM 21, and stores the conversation information corresponding to the input voice. It has an encoding means which reads from ROM21 which is means and encodes. In addition, the control device 11 includes a generation circuit that generates the encoded information for the input speech. This generation circuit is a circuit for generating sound information consisting of intermittent sound as encoded information, or a circuit for generating optical information consisting of intermittent light as encoded information, or a radio signal consisting of intermittent information as electromagnetic information. An appropriate circuit such as a circuit that generates an ultrasonic signal in which encoded information is formed by intermittent ultrasonic waves is used. In addition, when a treatment related to growth is input from the input unit, the control device 11 reads control data corresponding to the treatment from the ROM 21 that is a control data storage unit, and controls the growth based on the read control data. Has a breeding control unit.
[0018]
The operation unit 15 is provided with the aforementioned switches 15a, 15b, 15c, 15d, and 15e. The operation unit 15 is an input unit that receives an input of treatment related to the breeding.
An actuator such as a gear mechanism is connected to the motor 31 so that a part or the whole of the output device 3 operates.
The speaker 33 generates various types of sound effect information and the encoded information described above, for example, intermittent sound. The speaker 33 may be configured using a piezoelectric buzzer or the like.
The LED 35 has LEDs 35 a, 35 b, and 35 c and blinks based on a command from the control device 11.
The liquid crystal display device 37 is configured using an LCD or the like, and presents various information based on control from the control device 11.
The optical communication device 39 includes an optical reception unit and an optical transmission unit, and generates the encoded information described above, for example, an intermittent optical signal, based on control from the control device 11. In addition, the optical communication device 39 can communicate with another optical communication device (not shown), and functions as an input unit that receives an input of treatment related to growth from the other optical communication device.
[0019]
Next, the translation apparatus 5 will be described with reference to FIGS. The translation device 5 includes a control device 41, a microphone 43 connected to the control device 41, an operation unit 45, and a presentation device 47.
The control device 41 includes a ROM 51, a CPU 53, a RAM 55, and an EEPROM 57. The presentation device 47 is presentation means for presenting the decrypted content, and includes a motor 61, an LED 65, a liquid crystal display device 67, and an optical communication device 69.
[0020]
A microphone 43 is disposed on the upper surface of the translation device 5, and a liquid crystal display device 67 is disposed on the front surface of the translation device 5. A power lamp 9 and a control device 41 are provided below the liquid crystal display device 67. LEDs 65a, 65b, and 65c are disposed below the control device 41. Below the translation device 5, a power on / off switch 45a, a sound on / off switch 45b, switches 45c, 45d and 45e, and a power supply connector 49 are provided.
[0021]
The ROM 51 stores a program for decoding the encoded information into the original information when the encoded information is received from the output device 3. That is, conversation information output from the output device 3 is set in advance, the conversation information is stored in the ROM 51, and the encoded information is stored in the ROM 51 corresponding to each conversation information. . The ROM 51 compares the encoded information received from the output device 3 with the previously stored encoded information, extracts the corresponding encoded information, and the original corresponding to the extracted encoded information. A program for selecting conversation information is stored.
The ROM 51 stores a display control program for visually displaying the decrypted contents. The ROM 51 stores various sound effect information, programs related to display control, and the like.
[0022]
The CPU 53 performs overall control, and performs control processing based on various programs stored in the ROM 51. For example, when receiving encoded information from the output device 3, the CPU 53 performs control for decoding the encoded information into the original information. The CPU 53 performs display control for visually displaying the decrypted content.
The RAM 55 is a so-called work memory, and temporarily stores data for various control processes.
The EEPROM 57 is a non-volatile memory, and stores, as history information, array data including the duration of each intermittent voice and an interval time (off time) until the next voice is input, decoded information, and the like. .
[0023]
As described above, the control device 41 includes decoding means for decoding encoded information by the CPU 53 performing control processing based on various programs stored in the ROM 51.
[0024]
The operation unit 45 is provided with the switches 45a, 45b, 45c, 45d, and 45e.
An actuator such as a gear mechanism unit is connected to the motor 61 so that a part of the translation device 5 operates.
The LED 65 includes LEDs 65 a, 65 b and 65 c and blinks based on control from the control device 41.
The liquid crystal display device 67 is a presentation unit that presents the decrypted content, and is configured using an LCD or the like. The liquid crystal display device 67 visually displays various information, for example, decrypted contents, based on the control from the control device 41.
The information displayed on the liquid crystal display device 67 is not limited to characters, and may display appropriate information such as character images, robot images, pictures, symbols, and patterns according to the decrypted contents. it can. The presenting means for presenting the decrypted content is not limited to the liquid crystal display device described above, and a speaker that outputs the decrypted content in a voice that can be understood by a person, or the decrypted content as one of the translation devices 5. Appropriate information such as an image of a character, a robot image, a picture, a symbol, a pattern, etc. according to the decoded actuator and the appropriate actuator shown by operating the unit is configured to be presented using the LED. May be.
The optical communication device 69 includes an optical receiver and an optical transmitter, and receives the above-described encoded information, for example, an intermittent optical signal, based on control from the control device 41. Further, the optical communication device 69 can perform light communication with another optical communication device (not shown).
[0025]
Next, a specific circuit configuration of the output device 3 will be described with reference to FIG.
A resistor R1 and a reset switch SW1 are connected to the terminal PN1 of the control device 11. The terminal PN11 is supplied with power, and the terminal PN12 is connected to the ground. An oscillator OC1 is connected to the terminals PN13 and PN14, and capacitors C3 and C4 are connected to the oscillator OC1.
Connected to the terminal PN15 is a microphone circuit unit including an operational amplifier IC1, resistors R2, R3, R4, R5, R6, and R7, capacitors C1 and C2, a transistor Q1, a variable resistor R8, and a microphone 13. Has been.
The terminal PN27 is connected to a speaker circuit unit including a resistor R9, a transistor Q2, a switch SW2, a piezoelectric buzzer 33a, and a coil L1.
A liquid crystal display device 37 is connected to the terminals PN28 to PN30 and the terminals PN33 to PN40. In addition, a power supply circuit including a battery BT1, a switch 15a, a constant voltage circuit VR1, capacitors C5 and C6, a resistor R10, and a lamp 7 is provided, and power from the power supply circuit is supplied to each circuit unit. The
[0026]
Next, a specific circuit configuration of the translation apparatus 5 will be described with reference to FIG.
A resistor R21 and a reset switch SW11 are connected to the terminal P1 of the control device 41. The terminal P11 is supplied with power, and the terminal P12 is connected to the ground. An oscillator OC11 is connected to the terminals P13 and P14, and capacitors C13 and C14 are connected to the oscillator OC11.
Connected to the terminal P15 is a microphone circuit unit comprising an operational amplifier IC11, resistors R22, R23, R24, R25, R26, R27, capacitors C11, C12, a transistor Q11, a variable resistor R28, and a microphone 43. Has been.
A liquid crystal display device 67 is connected to the terminals P28 to PN30 and the terminals PN33 to PN40.
In addition, a power supply circuit including a battery BT11, a switch 45a, a constant voltage circuit VR11, capacitors C15 and C16, a resistor R30, and a lamp 9 is provided, and power from the power supply circuit is supplied to each circuit unit. The
[0027]
  Next, the operation will be described with reference to FIGS.
  6 is an explanatory diagram showing the operation of the conversation device, FIG. 7 is a flowchart of the output device, and FIG. 8 is a flowchart of the translation device.
  First, the output device 3Step S1 in FIG.InFrom the plurality of pieces of conversation information stored in the ROM 21 of the output device 3, appropriate audio information, for example, conversation information 101 for interrogating the user 71 is selected, and this is selected.Information that people cannot understandEncode and intermittentPeople can not understandAudio encoding information is output from the speaker 33.For example, appropriate voice information, conversation information 101 “Do you like animals?” Is selected from a plurality of conversation information stored in the ROM 21 of the output device 3, and this is encoded into information that cannot be understood by humans. For example, the encoded information of speech that cannot be understood by the intermittent person such as “pi, pi, pi, pi, pi” is output from the speaker 33.
Translation device 5 firstStep SP1 in FIG.Is in a voice input standby state atSP3InWhen the input of the encoded voice information from the output device 3 is determined and the encoded voice information from the output device 3 is input from the microphone 43, the process proceeds from step SP3 to step SP5.
[0028]
  In step 3, the translation device 5Intermittent like “Pi, Pi, Pea, Pea, Pi”People can not understandWhen voice information consisting of voice is input, step SP5., Measure the voice input time,SP7InThe array data including the duration of each voice and the interval time (off time) until the next voice is input is stored in the EEPROM 57. Step SP9InIt is determined whether or not a certain period of time has elapsed since the input of encoded information consisting of intermittent speech. If the certain period of time has elapsed, the process proceeds to step SP11. Step SP11InThe array data stored in the EEPROM 57 is compared with a plurality of encoded information stored in the ROM 51.In step SP13, the comparison was made in step 11.If the encoded information matching the array data stored in the EEPROM 57 exists in the ROM 51, the process proceeds from step SP13 to step SP15. In step SP15, the original conversation information corresponding to the matching encoded information is read from the ROM 51 and displayed on the liquid crystal display device 67.The original conversation information displayed here is “Do you like animals?” In the above example. After this display, the translation device 5Subsequently, the process returns to step SP1 again via step SP19. Thus, when encoded information that cannot be understood by a person is output from the output device 3, the translation device 5 translates it and displays it on the liquid crystal display device 67, so that the user 71 displays it on the liquid crystal display device 67. The words output from the output device 3 can be understood by visually recognizing the written character information.
  When encoded information that cannot be understood by a person is output from the output device 3, the translation device 5 translates it and displays it on the liquid crystal display device 67. By visually recognizing the translated content several times, it becomes possible to directly and naturally understand the encoded information output from the output device 3, resulting in new fun and interest. Will improve.
In step SP13, if there is no encoded information in the ROM 51 that matches the arrangement data stored in the EEPROM 57 compared in step 11, the process proceeds from step SP13 to step SP17. In step SP17, the error content is displayed on the liquid crystal display device 67. After this display, the translation apparatus 5 returns to step SP1 again via step SP19.
[0029]
  next,User 71 isIn step SP15 of translation apparatus 5By visually recognizing the character information displayed on the liquid crystal display device 67, it is output from the output device 3.Voice information that cannot be understoodBecause I was able to understand, the answer to this, for example "YES""NO"Positive etc.Or negativeSound is input to the microphone 13 of the output device 3.
  In step S3 of FIG. 7, the output device 3 inputs the user's response from the microphone.Step S5InA so-called pattern matching is performed by comparing the voice pattern of the voice returned from the user 71 with a plurality of standard voice patterns stored in the ROM 21.
[0030]
  The output device 3Step S7Compared in step 5The voice pattern returned from the user 71 is compared with a plurality of standard voice patterns stored in the ROM 21, and a word having a matched standard voice pattern is selected. That is, in step S7, the voice returned from the user 71 is recognized by pattern matching, and the recognized voice is a positive reply, for example “YES”, or a negative reply, for example “NO”. Judge which one it is.
  The output device 3If it is determined in step S7 that the recognized voice is a positive response, for example, “YES”, the process proceeds to step S9. In step S9, when there is a positive response to the initially selected voice output (conversation information 101), the corresponding response information (conversation information 105) is read from the ROM 21 and output. Also in this case, the corresponding response information (conversation information 105) is encoded, and for example, encoded information consisting of intermittent sounds such as “P, P, P, P, P, P” is output from the speaker 33.In the previous example, since the output device 3 asks “Do you like animals?” Via the translation device 5, the user 71 responds “YES”, and outputs this positive response in response to this positive response. Appropriate audio information, conversation information 105 “Do you like a dog?” Is selected from a plurality of conversation information stored in the ROM 21 of the apparatus 3 and is encoded into information that cannot be understood by a person. The speaker 33 outputs encoded information of speech that cannot be understood by an intermittent person such as “pi, pi, pi, pi, pi”.
  Also,The output device 3If it is determined in step S7 that the recognized voice is a negative response, such as “NO”, the process proceeds to step S11. In step S11, when there is a negative response to the initially selected voice output (conversation information 101), the response information (conversation information 107) corresponding thereto is read from the ROM 21 and output. Also in this case, the corresponding response information (conversation information 107) is encoded, and for example, encoded information composed of intermittent sounds such as “pea, pi, pea, pea, pea” is output from the speaker 33.As explained in the previous example, since the output device 3 asks “Do you like animals” via the translation device 5, the user 71 responds “NO” and outputs this negative response in response to this negative response. Appropriate audio information, conversation information 107 "Do you like flowers?" Is selected from a plurality of conversation information stored in the ROM 21 of the apparatus 3, and this is encoded into information that cannot be understood by a person. The speaker 33 outputs encoded information of speech that cannot be understood by an intermittent person such as “pi, pi, pi, pi, pi”. The output device 3 returns to the start state after the output from the speaker 33.
[0031]
  Next, another embodiment of the present invention will be described with reference to FIG.
  The embodiment shown in FIG. 10 is output from an output device 73 composed of a pet robot, an electronic stuffed animal, and the like, and the output device 73.Of speech that humans cannot understandIt is comprised with the translation apparatus 75 which translates encoding information.
  The circuit configuration of the output device 73 is shown in FIG.thingThe circuit configuration of the translation device 75 is the same as that shown in FIG.thingThe same reference numerals are used for the explanation.
  The output device 73 is formed in an appropriate shape such as a robot, an animal, a doll, a stuffed animal, a monster, a virtual life form, and the like, and has a recognition means for recognizing the input voice and response information corresponding to the recognized voice. It has memorized storage means. The output device 73 reads response information corresponding to the input voice from the storage means.Information that people cannot understandEncoding, for example, intermittentCannot understandCoded information consisting of a sound signal is generated as a response to the input voice. That is, when the output device 73 recognizes the voice input by the user 71, the output device 73 outputs a word that cannot be understood by a person as a response to the voice.
  The translation device 75 has decoding means for receiving the encoded information from the output device 73 and decoding the encoded information, and visually displays the decoded contents on the liquid crystal display device 67. is there. That is, the translation device 75 translates words that cannot be understood by a person and presents the contents as character information that can be recognized by the person.For example, if the output device 73 has a dog-shaped robot shape, “One-One-One” is output, and the translation device 75 translates the content and displays “I want you to play” on the liquid crystal display device 67.Thereby, the user 71 can understand the feeling and feeling of the output device 73.
[0032]
The ROM 21 of the output device 73 stores control data related to the growth of the output device 73 or an appropriate virtual creature, and a program for performing control related to the growth based on the control data. By operating 15, the output device 73 or an appropriate virtual creature can be nurtured. That is, the control device 11 reads the control data corresponding to this from the ROM 21 that is the control data storage unit when the treatment related to the growth is input from the input means, and controls the growth based on the read control data. I do.
In this way, the user 71 operates the operation unit 15 and takes care of it, so that the output device 73 can be evolved and grown, and the character of the output device 73 can be changed according to the degree of care.
In addition, by transmitting the input information of the treatment relating to the growth of the virtual creature from the optical communication device 69 of the translation device 5 and receiving it by the optical communication device 39, the control data corresponding thereto is stored in the control data storage unit. You may comprise so that it may read from a certain ROM21 and the control which concerns on cultivation may be performed based on the read said control data.
[0033]
【The invention's effect】
  As described above, the invention according to claim 1It is formed in the shape of a robot, animal, doll, stuffed animal, monster, or virtual creature, and cannot be understood by humansAn output device that outputs encoded information; and a translation device that translates the encoded information. The output device is input from the outside.Human understandingRecognizing means for recognizing speech and multiple types of input scheduled from outsideHuman understandingStorage means for storing conversation information corresponding to voice;Recognition meansRecognizedHuman understandingRead the conversation information corresponding to the voice from the storage meansInformation that people cannot understandIt has an encoding means for encoding, and a generating means for generating encoded information. The translation device receives the encoded information and converts the encoded information intoInformation that people can understandSince it has a decoding means for decoding and a presentation means for presenting the decrypted contents, it does not directly talk with an output device such as an electronic stuffed animal or a pet robot, but an electronic stuffed animal or a pet robot, etc. By translating words that cannot be understood by people fromWith electronic stuffed animals and pet robotsBetween peopleThrough the translation deviceIt is possible to set an aspect as if having a conversation and to provide a highly interesting conversation device.
[0034]
  The invention according to claim 2 of the present application isPeople can not understandSince the encoded information is formed by intermittent sound, the player cannot understand the encoded information, as ifWith electronic stuffed animals and pet robots that speak words that humans cannot understandBetween peopleThrough the translation deviceIt is possible to set an aspect as if having a conversation and to provide a highly interesting conversation device.
[0035]
  In the invention according to claim 3 of the present application, the encoded information is converted into electromagnetic waves, light, and the like.OrSuper soundWaveBecause it was formed with the wireless information used, the player could not understand the encoded information, and it was possible to set the appearance as if it was talking with an alien person, It is possible to provide a conversation device with high performance.
[0036]
  In addition, since the invention according to claim 4 of the present application is configured by presenting the character information to the presenting means, the contents translated by the translation device can be easily understood, as ifWith electronic stuffed animals and pet robots that speak words that humans cannot understandThe aspect can be set as if a conversation was made with a person, and a highly interesting conversation apparatus can be provided.
[Brief description of the drawings]
FIG. 1 is an external view of a conversation apparatus according to the present invention.
FIG. 2 is a block diagram of an output device.
FIG. 3 is a block diagram of a translation apparatus.
FIG. 4 is a circuit diagram of an output device.
FIG. 5 is a circuit diagram of a translation apparatus.
FIG. 6 is an explanatory diagram showing the operation of the conversation device.
FIG. 7 is a flowchart of the output device.
FIG. 8 is a flowchart of the translation apparatus.
FIG. 9 is an explanatory diagram showing a branch of conversation.
FIG. 10 is an explanatory view showing another embodiment.
[Explanation of symbols]
1 Conversation device
3 Output device
5 Translation device
11 Control device
13 Microphone
15 Operation unit
17 Presentation device
21 ROM
23 CPU
25 RAM
27 EEPROM
31 motor
33 Speaker
35 LED
37 Liquid crystal display
39 Optical communication equipment
41 Control device
43 Microphone
45 Operation unit
47 Presentation device
51 ROM
53 CPU
55 RAM
57 EEPROM
61 motor
65 LED
67 Liquid crystal display
69 Optical communication equipment

Claims (4)

下記の要件を備えたことを特徴とする会話装置。
(イ)ロボット、動物、人形、ぬいぐるみ、怪獣又は仮想生命体の形状に形成され、人が理解できない符号化情報を出力する出力装置と、前記符号化情報を翻訳する翻訳装置とを有すること。
(ロ)前記出力装置は、外部から入力した人が理解できる音声を認識する認識手段を有すること。
(ハ)前記出力装置は、外部からの入力を予定する複数種類の人が理解できる音声に対応する会話情報を記憶した記憶手段を有すること。
(ニ)前記出力装置は、前記認識手段が認識した人が理解できる音声と対応する会話情報を前記記憶手段から読み取って人が理解できない情報に符号化する符号化手段を有すること。
(ホ)前記出力装置は、前記符号化された符号化情報を発生する発生手段を有すること。
(ヘ)前記翻訳装置は、前記符号化情報を受信して当該符号化情報を人が理解できる情報に復号化する復号化手段を有すること。
(ト)前記翻訳装置は、前記復号化した内容を提示する提示手段を有すること。
A conversation device characterized by having the following requirements.
(B) It has an output device that outputs encoded information that is formed in the shape of a robot, an animal, a doll, a stuffed animal, a monster, or a virtual creature, and that cannot be understood by a person, and a translation device that translates the encoded information.
(B) The output device has recognition means for recognizing a voice that can be understood by a person who is input from the outside.
(C) The output device includes a storage unit that stores conversation information corresponding to speech that can be understood by a plurality of types of people who plan to input from outside.
(D) The output device has an encoding unit that reads the conversation information corresponding to the speech that can be understood by the person recognized by the recognition unit from the storage unit and encodes the information into information that cannot be understood by the person .
(E) The output device has generating means for generating the encoded encoded information.
(F) The translation apparatus has decoding means for receiving the encoded information and decoding the encoded information into information that can be understood by a person.
(G) The translation apparatus has a presenting means for presenting the decrypted content.
前記符号化情報は、断続する人が理解できない音声で成ることを特徴とする請求項1に記載の会話装置。The conversation apparatus according to claim 1, wherein the encoded information is voice that cannot be understood by an intermittent person . 前記符号化情報は、電磁波、光又は超音波を用いた無線情報であることを特徴とする請求項1に記載の会話装置。The encoding information, the electromagnetic wave, the conversation device according to claim 1, characterized in that a wireless information using light or ultrasonic wave. 前記提示手段に提示される内容が文字情報であることを特徴とする請求項1乃至請求項3のいずれかに記載の会話装置。 The conversation device according to any one of claims 1 to 3, wherein the content presented to the presenting means is character information.
JP2001115554A 2001-04-13 2001-04-13 Conversation device Expired - Fee Related JP4646170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001115554A JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001115554A JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Publications (2)

Publication Number Publication Date
JP2002311984A JP2002311984A (en) 2002-10-25
JP4646170B2 true JP4646170B2 (en) 2011-03-09

Family

ID=18966430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001115554A Expired - Fee Related JP4646170B2 (en) 2001-04-13 2001-04-13 Conversation device

Country Status (1)

Country Link
JP (1) JP4646170B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5574865B2 (en) 2010-01-29 2014-08-20 株式会社セガ トイズ Toy set, game control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000207170A (en) * 1999-01-14 2000-07-28 Sony Corp Device and method for processing information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000207170A (en) * 1999-01-14 2000-07-28 Sony Corp Device and method for processing information

Also Published As

Publication number Publication date
JP2002311984A (en) 2002-10-25

Similar Documents

Publication Publication Date Title
US6551165B2 (en) Interacting toys
US6641454B2 (en) Interactive talking dolls
US6394872B1 (en) Embodied voice responsive toy
US5795213A (en) Reading toy
US8157611B2 (en) Interactive toy system
JP3494567B2 (en) Portable communication toy and information storage medium
US20020081937A1 (en) Electronic toy
KR20040054600A (en) Robot system and robot apparatus control method
WO2011093525A1 (en) Toy set, game control program, and game device and toy communication system
US20090275408A1 (en) Programmable interactive talking device
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP4646170B2 (en) Conversation device
AU2006230693A1 (en) Interactive toy system
JP2000334163A (en) Electronic equipment with communication function
JP2002153666A (en) Toy with removable central processing unit and method for operating the toy
JP4250635B2 (en) Virtual pet device and control program recording medium thereof
JP4666194B2 (en) Robot system, robot apparatus and control method thereof
US20070072511A1 (en) USB desktop toy
JPH10328421A (en) Automatically responding toy
US20140011423A1 (en) Communication system, method and device for toys
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2002000963A (en) Stuffed toy having communication means
CN108806354A (en) One kind listening barrier children's pronunciation training toy, system and method
JP2004066418A (en) Autonomous robot
JP2000218059A (en) Electronic toy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees