JP2006068489A - Interactive pet robot - Google Patents

Interactive pet robot Download PDF

Info

Publication number
JP2006068489A
JP2006068489A JP2005073636A JP2005073636A JP2006068489A JP 2006068489 A JP2006068489 A JP 2006068489A JP 2005073636 A JP2005073636 A JP 2005073636A JP 2005073636 A JP2005073636 A JP 2005073636A JP 2006068489 A JP2006068489 A JP 2006068489A
Authority
JP
Japan
Prior art keywords
user
question
display
options
pet robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005073636A
Other languages
Japanese (ja)
Inventor
Takeshi Omae
健 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Priority to JP2005073636A priority Critical patent/JP2006068489A/en
Priority to TW094125154A priority patent/TW200611745A/en
Priority to KR1020050070674A priority patent/KR20060049041A/en
Publication of JP2006068489A publication Critical patent/JP2006068489A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a novel interactive pet robot capable of proceeding conversation even if there is restriction on the number of utterance phrases and the number of response phrases. <P>SOLUTION: The interactive pet robot has a control part 9 for performing processing according to description of a program read out from a storage part. The program defines proceeding procedures of the conversation with a user using branches, in which a content of a question, a plurality of choices of answers to the question, and an action corresponding to each of the choices are associated. If the content of the question is outputted by sound, a plurality of choices associated with the question are displayed on a display 3 as propositions for the answer to the question. If a whole sentence of one of the choices displayed on the display 3 is uttered by the user, speech recognition is performed so as to identify one choice corresponding to utterance by the user, and to decide the action corresponding to the choice as the next reaction performed by the interactive pet robot corresponding to the answer. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対話型ペットロボットに係り、特に、語学学習に適したペットロボットに関する。   The present invention relates to an interactive pet robot, and more particularly to a pet robot suitable for language learning.

従来より、ユーザとの間でコミュニケーションを行う対話型ペットロボットが知られているが、その一種として、英会話といった語学学習の用途で用いられるものも知られている。また、特許文献1には、音声認識エンジンを備え、話しかけられた母国語を外国語に翻訳して発声する語学研修用ロボットが開示されている。このロボットは、アヒルまたはペンギンの形態を模した外観形状を有し、その頭部には表示画面が設けられている。この表示画面には、顔の表情(目・鼻・口)が表示され、翻訳した言語の発声に応じて、表示された顔の表情が喋っているように変化する。
特開2002−351305号公報
Conventionally, an interactive pet robot that communicates with a user is known. As one type, an interactive pet robot that is used for language learning such as English conversation is also known. Patent Document 1 discloses a language training robot that includes a voice recognition engine and translates a spoken native language into a foreign language and speaks. This robot has an external shape imitating the form of a duck or penguin, and a display screen is provided on its head. On this display screen, facial expressions (eyes, nose, mouth) are displayed, and the displayed facial expression changes according to the utterance of the translated language.
JP 2002-351305 A

ところで、このような対話型ペットロボットでは、ユーザとの会話を滞らせることなく如何に促進するかということが、商品訴求力の向上を図る上で重要なポイントとなる。そのためには、ロボットが発話する発話フレーズ数と、ロボットが聞き取り可能な待受けフレーズ数とを増やして、会話の自由度を高めることが考えられる。しかしながら、この場合には、ユーザの発話を認識するのに高速なマイコンが必要となるほか、プログラムの記述も膨大になるので、低価格帯での製品化が極めて困難になる。一方、従来の比較的安価な製品では、上述したフレーズ数の制約から、ユーザの発話が認識されないケースが多く、会話が滞りがちになる。その結果、対話型ペットロボットとユーザとの間におけるコミュニケーションの演出という点で問題があった。   By the way, in such an interactive pet robot, how to promote the conversation with the user without delaying is an important point in improving the product appeal. To that end, it is conceivable to increase the degree of freedom of conversation by increasing the number of utterance phrases uttered by the robot and the number of standby phrases that can be heard by the robot. However, in this case, a high-speed microcomputer is required to recognize the user's utterance, and the description of the program becomes enormous, which makes it extremely difficult to commercialize at a low price range. On the other hand, in the conventional relatively inexpensive product, the user's utterance is often not recognized due to the restriction on the number of phrases described above, and the conversation tends to be delayed. As a result, there was a problem in the direction of communication between the interactive pet robot and the user.

本発明は、かかる事情に鑑みてなされたものであり、その目的は、発話フレーズ数や待受けフレーズ数の制約があっても、会話を促進可能な新規な対話型ペットロボットを提供することである。   The present invention has been made in view of such circumstances, and an object thereof is to provide a novel interactive pet robot that can promote conversation even if there are restrictions on the number of utterance phrases and the number of standby phrases. .

また、本発明の別の目的は、対話型ペットロボットとのコミュニケーション感を高めて、ユーザの学習意欲を持続させることである。   Another object of the present invention is to enhance the sense of communication with the interactive pet robot and maintain the user's willingness to learn.

かかる課題を解決するために、第1の発明は、キャラクタ型のロボット本体と、ロボット本体に装着されたマイクロホンと、ロボット本体に装着されたスピーカと、ロボット本体に装着されたディスプレイと、プログラムを格納している記憶部と、ロボット本体に内蔵され、記憶部より読み出されたプログラムの記述にしたがった処理を行う制御部とを有する対話型ペットロボットを提供する。ここで、プログラムは、ユーザとの会話の進行手順をユーザの選択による分岐付で規定している。このプログラムには、ある質問の内容と、質問に対する全文の返答となる複数の選択肢と、選択肢のそれぞれに対するアクションとが対応付けて記述されている。また、制御部は、質問の内容をスピーカより音声で出力した場合、質問に対する返答の候補として、質問に対応付けられた複数の選択肢を全文でディスプレイに表示させる第1の処理を行う。この制御部は、ディスプレイに表示された複数の選択肢のうちのいずれかがユーザによって全文が発話された場合、マイクロホンより得られるユーザの全文の発話を入力とした音声認識を行って、ユーザの発話に対応する一の選択肢を特定するとともに、この一の選択肢に対応するアクションを、返答に対して対話型ペットロボットが次にとるべき反応として決定する第2の処理を行う。   In order to solve such a problem, a first invention includes a character-type robot body, a microphone attached to the robot body, a speaker attached to the robot body, a display attached to the robot body, and a program. Provided is an interactive pet robot having a storage unit stored therein and a control unit that is built in the robot body and performs processing according to the description of a program read from the storage unit. Here, the program defines the procedure for the conversation with the user with branching by the user's selection. In this program, the contents of a certain question, a plurality of options that are responses to the full text of the question, and actions for each of the options are described in association with each other. In addition, when the content of the question is output by voice from the speaker, the control unit performs a first process of displaying a plurality of options associated with the question on the display as a candidate for a response to the question. The control unit performs speech recognition using the user's full-text utterance obtained from the microphone as an input when any of a plurality of options displayed on the display is uttered by the user. A second process is performed in which an option corresponding to the option is specified, and an action corresponding to the option is determined as a response to be taken next by the interactive pet robot in response to the response.

ここで、第1の発明における第1の処理で、制御部は、質問の内容とともに、複数の選択肢の全文を列挙してディスプレイに表示させることが好ましい。また、この第1の処理において、制御部は、複数の選択肢の全文のうち、抑揚のストレス部分を強調してディスプレイに表示させてもよい。   Here, in the first processing in the first invention, it is preferable that the control unit enumerates and displays the full text of a plurality of options together with the contents of the question. Further, in the first process, the control unit may emphasize and display the stress portion of inflection among the full text of the plurality of options.

第1の発明において、アクションは、返答に対する反応としての発話をスピーカより音声で出力することであることが好ましい。   In the first invention, it is preferable that the action is to output an utterance as a response to the reply from the speaker.

第1の発明において、制御部は、ロボット本体において最も大きな内部空間が確保されたロボット本体の胴部内に収納されており、ディスプレイは、ロボット本体の胴部正面に装着されていることが望ましい。   In the first invention, the control unit is preferably housed in the body of the robot body where the largest internal space is secured in the robot body, and the display is preferably mounted on the front of the body of the robot body.

第1の発明において、制御部は、ディスプレイに複数の単語の綴りとイラストを一定の間隔で順番に表示させるとともに、順番に表示された単語の発音をスピーカより音声で出力する第3の処理を行ってもよい。   In the first invention, the control unit causes the display to display a plurality of words spelled and illustrations in order at regular intervals, and performs a third process of outputting the pronunciation of the words displayed in order from the speaker. You may go.

第1の発明において、アクションは、返答に対する反応としての発話の内容をディスプレイに表示することさらに有してもよい。   In the first invention, the action may further include displaying the content of the utterance as a response to the response on the display.

第1の発明における第1の処理で、制御部は、マイクロホンより得られるユーザの全文の発話を入力とした音声認識、または、制御部に接続されたスイッチの操作を行うことによって、複数の選択肢の全文のうち、少なくとも一つをお手本音声として、スピーカより音声で出力する第4の処理を行ってもよい。   In the first process according to the first aspect of the invention, the control unit performs a plurality of options by performing voice recognition using a user's full-text utterance obtained from a microphone as input or operating a switch connected to the control unit. The fourth process of outputting at least one of the full texts as a model voice from the speaker may be performed.

第1の発明における第4の処理で、制御部は、複数の選択肢の全文のうち、お手本音声を強調してディスプレイに表示させてもよい。   In the fourth process according to the first aspect, the control unit may emphasize the model voice and display it on the display among the full text of the plurality of options.

一方、第2の発明は、キャラクタ型のロボット本体と、ロボット本体に装着されたマイクロホンと、ロボット本体に装着され、ユーザに情報を提示する提示手段と、プログラムを格納している記憶部と、ロボット本体に内蔵され、記憶部より読み出されたプログラムの記述にしたがった処理を行う制御部とを有する対話型ペットロボットを提供する。ここで、プログラムは、ユーザとの会話の進行手順をユーザの選択による分岐付で規定している。このプログラムには、ある質問の内容と、質問に対する全文の返答となる複数の選択肢と、選択肢のそれぞれに対するアクションとが対応付けて記述されている。また、制御部は、質問の内容を提示手段を介してユーザに提示した場合、質問に対する返答の候補として、質問に対応付けられた複数の選択肢を全文で提示手段を介してユーザに提示する第1の処理を行う。この制御部は、ディスプレイに表示された複数の選択肢のうちのいずれかがユーザによって全文が発話された場合、マイクロホンより得られるユーザの全文の発話を入力とした音声認識を行って、ユーザの発話に対応する一の選択肢を特定するとともに、この一の選択肢に対応するアクションを、返答に対して対話型ペットロボットが次にとるべき反応として決定する第2の処理を行う。   On the other hand, the second invention is a character-type robot body, a microphone attached to the robot body, a presentation means attached to the robot body and presenting information to the user, a storage unit storing a program, Provided is an interactive pet robot having a control unit that is built in a robot body and performs processing according to a description of a program read from a storage unit. Here, the program defines the procedure for the conversation with the user with branching by the user's selection. In this program, the contents of a certain question, a plurality of options that are responses to the full text of the question, and actions for each of the options are described in association with each other. In addition, when the content of the question is presented to the user via the presenting means, the control unit presents a plurality of options associated with the question to the user via the presenting means in full text as a candidate for a response to the question. Process 1 is performed. The control unit performs speech recognition using the user's full-text utterance obtained from the microphone as an input when any of a plurality of options displayed on the display is uttered by the user. A second process is performed in which an option corresponding to the option is specified, and an action corresponding to the option is determined as a response to be taken next by the interactive pet robot in response to the response.

ここで、第2の発明において、提示手段は、スピーカおよびディスプレイの少なくとも一方であることが好ましい。   Here, in the second invention, the presenting means is preferably at least one of a speaker and a display.

本発明によれば、対話型ペットロボットの質問に対する返答の候補となる複数の選択肢が全文でユーザに提示される。ユーザは、全文で提示された複数の選択肢の中から適宜のものを選択して、その全文をそのまま発話すればよい。一方、音声認識を行うシステムにとっては、ユーザが発話するバリエーションは選択肢の数だけなので、高速なマイコンを必要とすることなく、その認識を容易に行うことができる。その結果、発話フレーズ数や待受けフレーズ数に制約を設けざるを得ない比較的安価な製品であっても、ユーザにストレスを感じさせることなく会話の促進を図ることができる。また、質問に対する返答に必要な情報はペットロボットより提示されるので、ユーザは、ペットロボットと向き合った状態のままで会話を進めることができる。これにより、ペットロボットとのコミュニケーション感を高めて、ユーザの学習意欲を有効に持続させることが可能になる。   According to the present invention, a plurality of options that are candidates for responses to questions of the interactive pet robot are presented to the user in full text. The user may select an appropriate one from a plurality of options presented in the full text and speak the full text as it is. On the other hand, for a system that performs speech recognition, since the user utters only the number of choices, the recognition can be easily performed without requiring a high-speed microcomputer. As a result, conversation can be promoted without causing the user to feel stress even with a relatively inexpensive product that has to be constrained in the number of utterance phrases and standby phrases. In addition, since information necessary for answering the question is presented by the pet robot, the user can proceed with the conversation while facing the pet robot. Thereby, a feeling of communication with a pet robot can be improved and a user's willingness to learn can be maintained effectively.

図1は、本実施形態にかかる対話型ペットロボットの正面図であり、図2は、その側面図である。この対話型ペットロボット1は、キャラクタ型のロボット本体2と、このロボット本体2に装着されたディスプレイ3とを有する。プラスチック製のロボット本体2は、キャラクタの一例であるクマをかわいらしくデフォルメした外観形状を有する。このロボット本体2は、頭部、胴部および手足を主体に構成されており、その内部には、電子機器を収納するための空間が設けられている。ロボット本体2の胴部2aには、後述する制御部を収納すべく、ロボット本体2の中で最も大きな内部空間が確保されている。ディスプレイ3は、例えば液晶または有機ELといった周知の小型ディスプレイであり、ロボット本体2における胴部2aの正面に装着されている。ディスプレイ3を正面に配置する理由は、ユーザがキャラクタと向き合った状態における視認性を確保するためであり、これを胴部2aに配置する理由は、胴部2aの内部に収納された制御部との結線距離を極力短くするためである。   FIG. 1 is a front view of an interactive pet robot according to the present embodiment, and FIG. 2 is a side view thereof. The interactive pet robot 1 includes a character-type robot body 2 and a display 3 attached to the robot body 2. The robot body 2 made of plastic has an appearance shape that is cute and deformed as an example of a character. The robot body 2 is mainly composed of a head, a torso and limbs, and a space for storing an electronic device is provided therein. The body 2a of the robot body 2 has a largest internal space in the robot body 2 so as to accommodate a control unit described later. The display 3 is a well-known small display such as a liquid crystal or an organic EL, for example, and is attached to the front surface of the body 2 a in the robot body 2. The reason why the display 3 is arranged in front is to ensure visibility in a state where the user faces the character, and the reason why this is arranged in the trunk 2a is that the control unit housed in the trunk 2a This is to shorten the connection distance of.

図3は、対話型ペットロボット1の制御ブロック図である。対話型ペットロボット1の制御系は、上述したディスプレイ3、各種のセンサ4〜7、スピーカ8、制御部9および各種の記憶部12〜14で構成されている。マイクロホン4は、ロボット本体2の適宜の部位に装着されており、ユーザの発話を検知する。対人センサ5は、ロボット本体2の適宜の部位に装着されており、対話型ペットロボット1の周囲に人がいるか否かを検知する。額タッチセンサ6は、ロボット本体2の頭部の額に装着されており、ユーザが額に触れたか否かを検知する。4つのスイッチ7は、ロボット本体2の右手、左手、右足および左足の4カ所に装着されており、ユーザがこれらの部位に触れたか否かを検知する。これらのセンサ4〜7によって、ユーザが行ったコミュニケーションとしての行為(例えば、額に触る、手足を握る等)をシステム側が認識することができる。   FIG. 3 is a control block diagram of the interactive pet robot 1. The control system of the interactive pet robot 1 includes the display 3, the various sensors 4 to 7, the speaker 8, the control unit 9, and the various storage units 12 to 14. The microphone 4 is attached to an appropriate part of the robot body 2 and detects the user's utterance. The interpersonal sensor 5 is attached to an appropriate part of the robot body 2 and detects whether or not there is a person around the interactive pet robot 1. The forehead touch sensor 6 is attached to the forehead of the head of the robot body 2 and detects whether or not the user has touched the forehead. The four switches 7 are mounted at four positions of the right hand, the left hand, the right foot, and the left foot of the robot body 2, and detect whether or not the user has touched these parts. These sensors 4 to 7 enable the system side to recognize an action (for example, touching the forehead, grasping a limb) as a communication performed by the user.

制御部9は、音声認識ユニット10およびメイン制御ユニット11で構成されている。音声認識ユニット10は、マイクロホン4より得られるユーザの発話を入力とした音声認識を行うとともに、その認識結果をメイン制御ユニット11に出力する。ユーザの発話を入力とした音声認識処理については、周知であるからここでの説明を省略する。メイン制御ユニット11は、音声認識ユニット10からの認識結果を主体とし、これにセンサ5〜7からの検知信号を適宜加味した上で、ディスプレイ3とスピーカ8とを制御する。メイン制御ユニット11に接続されたマスクROM12には、ユーザとの会話の進行手順を規定したプログラム(メインプログラム)が格納されている。メイン制御ユニット11に接続されたSRAMは、メイン制御ユニット11の作業用のメモリである。また、音声認識ユニット10およびメイン制御ユニット11の双方に接続された外付ROMは、ロボット本体2に着脱可能な追加カートリッジ内の記憶部である。外付ROMには、上述したメインプログラムの拡張機能を提供するプログラム(拡張プログラム)が格納されている。   The controller 9 includes a voice recognition unit 10 and a main control unit 11. The voice recognition unit 10 performs voice recognition using the user's utterance obtained from the microphone 4 as an input, and outputs the recognition result to the main control unit 11. Since the voice recognition process using the user's utterance as an input is well known, the description thereof is omitted here. The main control unit 11 mainly controls the recognition result from the voice recognition unit 10 and controls the display 3 and the speaker 8 after appropriately adding detection signals from the sensors 5 to 7 to this. A mask ROM 12 connected to the main control unit 11 stores a program (main program) that defines a procedure for a conversation with the user. The SRAM connected to the main control unit 11 is a working memory for the main control unit 11. The external ROM connected to both the voice recognition unit 10 and the main control unit 11 is a storage unit in an additional cartridge that can be attached to and detached from the robot body 2. The external ROM stores a program (extended program) that provides an extended function of the main program described above.

図4は、プログラムによって規定される会話の進行手順の一例を示すフローチャートである。このプログラムは、ユーザとの会話の進行手順をユーザの選択による分岐付で規定している。メイン制御ユニット11は、マスクROM12より読み出されたプログラムの記述にしたがい、以下のような手順で処理を行う。   FIG. 4 is a flowchart showing an example of a procedure for progressing conversation defined by the program. This program defines the procedure of conversation with the user with branching by the user's selection. The main control unit 11 performs processing according to the following procedure in accordance with the description of the program read from the mask ROM 12.

まず、ステップ1の待ち受け状態では、”Let's talk.”、”Wake up.”および”Play.”という3つの選択肢がディスプレイ3に表示される。ユーザは、これらの選択肢の中から任意のものを選択して、その全文を発話する。音声認識ユニット10は、マイクロホン4より得られるユーザの全文の発話を入力とした音声認識を行って、認識結果をメイン制御ユニット11に出力する。メイン制御ユニット11は、音声認識ユニット10からの認識結果に基づいて、ユーザの発話に対応する一の選択肢(”Let's talk.”、”Wake up.”または”Play.”)を特定する。そして、メイン制御ユニット11は、特定された選択肢に対応するアクションを、ペットロボット1が次にとるべき反応として決定する。例えば、特定された選択肢が”Let's talk.”または”Wake up.”の場合には、ステップ2の発話がスピーカ8より音声出力され、”Play.”の場合には、ステップ10の発話が音声出力されるといった如くである。   First, in the standby state of Step 1, three options “Let's talk.”, “Wake up.” And “Play.” Are displayed on the display 3. The user selects an arbitrary one from these options and utters the full text. The voice recognition unit 10 performs voice recognition using the user's full-text utterance obtained from the microphone 4 as input, and outputs the recognition result to the main control unit 11. The main control unit 11 specifies one option (“Let's talk.”, “Wake up.” Or “Play.”) Corresponding to the user's utterance based on the recognition result from the speech recognition unit 10. Then, the main control unit 11 determines an action corresponding to the specified option as a reaction that the pet robot 1 should take next. For example, if the specified option is “Let's talk.” Or “Wake up.”, The utterance in step 2 is output from the speaker 8, and if “Play.”, The utterance in step 10 is audio. It seems to be output.

続くステップ2〜5は、ペットロボット1からの質問、ユーザの返答、これに対するペットロボット1の反応といった一連の流れを形成しており、会話(コミュニケーション)の中核をなす部分である。この点に関して、プログラムには、ある質問の内容と、この質問に対する全文の返答となる複数の選択肢と、選択肢のそれぞれに対するアクションという一連の行為が対応付けて記述されている。具体的には、”Hi. How are you? My friend.”という質問について、”I'm fine.”、”Great!”および”Not so good.”という3つの選択肢(全文)が対応付けられている。また、”I'm fine.”および”Great!”という選択肢には、”That's great!”および”That's good, but I have a headache.”という音声出力によるランダム・アクションが対応付けられているとともに、”Not so good.”という選択肢には、”Oh, really? I'm sorry to hear that. I hope you will feel better soon.”という音声出力によるアクションが対応付けられている。   The subsequent steps 2 to 5 form a series of flows such as a question from the pet robot 1, a response from the user, and a reaction of the pet robot 1 to this, and are the core parts of conversation (communication). In this regard, the program describes the contents of a certain question, a plurality of options that are responses to the full text of the question, and a series of actions that are actions for each of the options in association with each other. Specifically, for the question “Hi. How are you? My friend.”, Three options (full text) “I'm fine.”, “Great!” And “Not so good.” ing. In addition, the choices “I'm fine.” And “Great!” Are associated with random actions by voice output “That's great!” And “That's good, but I have a headache.” The option “Not so good.” Is associated with an action by voice output “Oh, really? I'm sorry to hear that. I hope you will feel better soon.”.

このようなプログラムの記述にしたがい、ステップ2において、メイン制御ユニット11がスピーカ8を制御することによって、”Hi. How are you? My friend.”という質問がスピーカ8から音声で出力される。続くステップ3において、メイン制御ユニット11がディスプレイ3を制御することによって、質問に対する返答の候補として、この質問に対応付けられた3つの選択肢の全文がディスプレイ3に表示される。   In accordance with the description of such a program, in step 2, the main control unit 11 controls the speaker 8, whereby a question “Hi. How are you? My friend.” Is output from the speaker 8 by voice. In the subsequent step 3, the main control unit 11 controls the display 3, so that the full text of the three options associated with the question is displayed on the display 3 as a candidate for a response to the question.

図5は、質問に対する返答の候補である選択肢の表示例を示す図である。この表示例では、音声出力された質問の内容、すなわち”Hi. How are you? My friend.”が上段に表示されているとともに、その下に”I'm fine.”、”Great!”および”Not so good.”という3つの選択肢が全文で列挙して表示されている。これにより、ユーザにとっては、質問の内容と選択肢の内容との対応関係を一目で把握できるので、特に、語学学習の場合には学習効率を高めることができる。また、この表示例では、ユーザに注目を促して学習効率を一層高めるべく、選択肢の全文における抑揚のストレス部分について、フォントの色やサイズを変えることなどによって強調して表示されている。ユーザは、これらの選択肢の中から任意のものを選択して、その全文を発話する。   FIG. 5 is a diagram illustrating a display example of options that are candidates for a response to a question. In this display example, the content of the question that was output as voice, that is, “Hi. How are you? My friend.” Is displayed at the top, and “I'm fine.”, “Great!” Three options “Not so good.” Are listed and displayed in full text. Thereby, since the user can grasp at a glance the correspondence between the contents of the questions and the contents of the options, the learning efficiency can be improved particularly in the case of language learning. Further, in this display example, the stress portion of the inflection in the full text of the options is highlighted and displayed by changing the font color and size, etc., in order to attract the user's attention and further improve the learning efficiency. The user selects an arbitrary one from these options and utters the full text.

このとき、ペットロボット1が、ユーザが発話する選択肢のそれぞれを、お手本音声として発音させてもよい。例えば、図5に示す状態において、ユーザがスイッチ7に対して所定の操作を行う。すると、この操作に対応して、メイン制御ユニット11がスピーカ8を制御し、選択肢の全文のうち、少なくとも一つの選択肢がお手本音声としてスピーカ8から出力される。お手本音声の出力が全て完了すると、再び、同図に示す状態に戻る。   At this time, the pet robot 1 may cause each of the options spoken by the user to be pronounced as a model voice. For example, in the state shown in FIG. 5, the user performs a predetermined operation on the switch 7. Then, in response to this operation, the main control unit 11 controls the speaker 8, and at least one of the options is output from the speaker 8 as a model voice. When all the output of the model voice is completed, the state returns to the state shown in FIG.

なお、お手本音声の開始は、スイッチ11の操作以外にも、例えば、ユーザからの”お手本!”という言葉をマイクロホン4から音声認識でもよい。さらに、この”お手本!”の後に、”1番”という、選択肢を示す番号をマイクロホン4から音声認識させることで、選択肢中の3番目のみがお手本音声としてスピーカ8から音声出力される。   In addition to the operation of the switch 11, the start of the model voice may be, for example, voice recognition from the microphone 4 for the word “model!” From the user. Further, after the “example!”, A number “1” indicating a choice is recognized by the microphone 4 so that only the third of the choices is outputted as an example voice from the speaker 8.

さらに、ペットロボット1が、このお手本音声を発音する際に、どの選択肢のをお手本音声として発音しているのかを、ディスプレイ3に強調して表示させてもよい。例えば、今現在ディスプレイ3に表示されている一の選択肢(例えば”I'm fine.”)が、スピーカ8からお手本音声として発音されている。このとき、メイン制御ユニット11が、ディスプレイ3を制御し、この一の選択肢に対応する文字(または選択肢)を強調表示させる。なお、強調表示の方法としては、文字(または選択肢)に対して、フォントの色やサイズを変えたりするほか、下線を引く、字体を変える、太文字にすることなどが挙げられる。   Furthermore, when the pet robot 1 generates this model voice, it may be displayed on the display 3 to highlight which option is pronounced as the model voice. For example, one option (for example, “I'm fine.”) Currently displayed on the display 3 is pronounced as a model voice from the speaker 8. At this time, the main control unit 11 controls the display 3 to highlight the character (or option) corresponding to this one option. Note that highlighting methods include changing the font color and size of characters (or options), underlining, changing the font, and changing to bold characters.

音声認識ユニット10は、マイクロホン4より得られるユーザの全文の発話を入力とした音声認識を行うとともに、その認識結果をメイン制御ユニット11に出力する。メイン制御ユニット11は、音声認識ユニット10からの認識結果に基づいて、ユーザの発話に対応する一の選択肢(”I'm fine.”、”Great!”または”Not so good.”)を特定する。そして、メイン制御ユニット11は、特定された選択肢に対応するアクションを、ペットロボット1が次にとるべき反応として決定する。そして、特定された選択肢が”I'm fine.”または”Great!”の場合には、ステップ4に進んで、”That's great”および”That's good, but I have a headache.”のいずれかがランダムで選択され、これがスピーカ8より音声出力される。また、特定された選択肢が”Not so good.”の場合には、ステップ5に進んで、”Oh, really? I'm sorry to hear that. I hope you will feel better soon.”という発話が音声出力される。   The voice recognition unit 10 performs voice recognition using the user's full-text utterance obtained from the microphone 4 as an input, and outputs the recognition result to the main control unit 11. The main control unit 11 identifies one option (“I'm fine.”, “Great!” Or “Not so good.”) Corresponding to the user's utterance based on the recognition result from the speech recognition unit 10. To do. Then, the main control unit 11 determines an action corresponding to the specified option as a reaction that the pet robot 1 should take next. If the specified option is “I'm fine.” Or “Great!”, Go to Step 4 and select either “That's great” or “That's good, but I have a headache.” This is selected at random, and this is output as audio from the speaker 8. If the specified option is “Not so good.”, Go to step 5 and hear the speech “Oh, really? I'm sorry to hear that. I hope you will feel better soon.” Is output.

ステップ4で”That's greatと音声出力された場合には、ステップ10に進んで、”What do you want to do?”という質問が音声出力される。一方、ステップ4で”That's good, but I have a headache.”と音声出力された場合には、ステップ6で”Please touch my head gently.”と音声出力された後に、ユーザからのアクション待ちの状態になる(ステップ7)。このアクション待ちの状態において、ユーザがペットロボット1の額に触れた場合には、このアクションが額タッチセンサ6によって検知される。これにより、ステップ8において、対話型ペットロボット1の反応として、”Thank you my friend. I feel much better now.”と音声出力された後に、上述したステップ10に進む。これに対して、ユーザが額以外に触れて、額タッチセンサ6以外のセンサがこれを検知した場合には、ステップ9において、対話型ペットロボット1の反応として、”Please touch my head. Try again.”と音声出力されて、ステップ7の待ち状態へと戻る。その結果、ユーザが額に触れるまで、ステップ7,9のループが繰り返されることになる。   If “That's great” is output as a voice in step 4, the process proceeds to step 10 and the question “What do you want to do?” Is output as a voice, while “That's good, but I have” in step 4. If "a headache." is output as a voice, in step 6, "Please touch my head gently." is output as a voice, and then the user waits for an action (step 7). When the user touches the forehead of the pet robot 1, this action is detected by the forehead touch sensor 6. Accordingly, in Step 8, as a reaction of the interactive pet robot 1, “Thank you my friend. “I feel much better now.” Is output, and then the process proceeds to step 10 described above. On the other hand, if the user touches other than the forehead and a sensor other than the forehead touch sensor 6 detects this, In step 9, the voice of “Please touch my head. Try again.” Is output as a response of the interactive pet robot 1 and the process returns to the waiting state of step 7. As a result, the user touches the forehead. Until then, the loop of steps 7 and 9 is repeated.

ステップ10において”What do you want do?”と音声出力されると、ステップ11に進んで、各セクションの選択肢となる。例えば、好きな果物セクシ
ョンを選択すると、対話型ペットロボット1およびユーザーの好きな食べ物に関しての会話となる。
If "What do you want do?" Is output as a voice in step 10, the process proceeds to step 11 to be an option for each section. For example, when a favorite fruit section is selected, the conversation is related to the interactive pet robot 1 and the user's favorite food.

なお、以上のような会話の進行手順において、ユーザが”See you later.”と発話した場合には、ステップ1の待ち受け状態に強制的に戻るように設定されている。また、ユーザが”Go back.”と発話した場合には、ステップ10に強制的に戻るように設定されている。   In the above-described conversation progress procedure, when the user utters “See you later.”, It is set to forcibly return to the standby state in Step 1. Further, when the user utters “Go back.”, It is set to return to step 10 forcibly.

また、以上のような会話の進行手順において、ペットロボット1が、質問または返答の反応を音声出力している際に、その発話内容をディスプレイ3に発話内容を表示させてもよい。例えば、ステップ2において、”Hi How are you? My friend.”という、内容がスピーカ8から音声出力されている際に、メイン制御ユニット11がディスプレイ3を制御することによって、発話内容である”Hi How are you? My friend.”という質問がディスプレイ3に表示される。   Further, in the conversation proceeding procedure as described above, when the pet robot 1 outputs a question or a response of a response by voice, the utterance content may be displayed on the display 3. For example, in step 2, when the content “Hi How are you? My friend.” Is output from the speaker 8 as audio, the main control unit 11 controls the display 3 so that “Hi How are you? My friend.” The question "How are you? My friend."

また、外付ROM14が内蔵された追加カートリッジには、上記以外に、英語学習能力をさらに高めるためロボットを面接官と想定し、問題カードをデイスプレーに映し出す「英検3級程度の面接」の場を仮想したものがある。また、「フラッシュカードゲーム」で単語の発音およびその綴り(スペル)の学習を行えるものもある。後者の場合、メイン制御ユニット11は、ディスプレー3に単語の綴りとイラスト(例えば、Bookの綴りと本のイラスト)を一定の間隔で順番に表示させるとともに、表示された単語の発音をスピーカ8より音声出力させる。ロボットは、ユーザーが正しい発音をした場合には”Good.”、しなかった場合には”Try again.”等の返事をする。さらに「海外でのお買い物」を想定した実用会話に即したもの等、各種のシリーズが用意されている。   In addition to the above, the additional cartridge with built-in external ROM 14 assumes that the robot is an interviewer in order to further improve the English learning ability, and the “Interview of Eiken Level 3” that displays the question card on the display. There is a virtual place. There is also a “flash card game” that can learn the pronunciation and spelling of words. In the latter case, the main control unit 11 causes the display 3 to display the spelling of the word and the illustration (for example, the spelling of the book and the illustration of the book) in order at regular intervals, and also displays the pronunciation of the displayed word from the speaker 8. Output audio. The robot responds with “Good.” If the user pronounces correctly, “Try again” if not. In addition, various series are available, such as those based on practical conversations assuming “shopping abroad”.

このように、本実施形態によれば、対話型ペットロボット1の質問に対する返答の候補となる複数の選択肢が全文でユーザに提示される。ユーザは、提示された複数の選択肢の中から適宜のものを選択して、その全文をそのまま発話すればよい。一方、音声認識ユニット10にとっては、ユーザが発話するバリエーションは選択肢の数に制限されているので、高速なマイコンを必要とすることなく、その認識を容易かつ高速に行うことができる。その結果、発話フレーズ数や待受けフレーズ数に制約を設けざるを得ない比較的安価な製品であっても、選択肢の全文提示により、ユーザにストレスを感じさせることなく会話の促進を図ることができる。   As described above, according to the present embodiment, a plurality of options that are candidates for a response to the question of the interactive pet robot 1 are presented to the user in full text. The user may select an appropriate one from the plurality of presented options and utter the full text as it is. On the other hand, for the voice recognition unit 10, since the number of variations that the user utters is limited to the number of options, the recognition can be performed easily and at high speed without requiring a high-speed microcomputer. As a result, even if it is a relatively inexpensive product that must place restrictions on the number of spoken phrases and standby phrases, it is possible to promote conversation without making the user feel stressed by presenting the full text of the options. .

また、本実施形態によれば、質問に対する返答に必要な情報が対話型ペットロボット1より提示されるので、ユーザは、このペットロボット1と向き合った状態のままで、他の情報を参照することなく会話を進めることができる。これにより、ペットロボット1とのコミュニケーション感を高めることができ、ユーザの学習意欲を有効に持続させることが可能になる。   Further, according to the present embodiment, information necessary for answering a question is presented from the interactive pet robot 1, so that the user can refer to other information while facing the pet robot 1. You can have a conversation without it. Thereby, a feeling of communication with the pet robot 1 can be enhanced, and the user's willingness to learn can be effectively maintained.

なお、上述した実施形態では、英会話の学習を例に対話型ペットロボット1の動作について説明したが、本発明はこれに限定されるものではなく、各国言語の会話学習に対して広く適用可能である。   In the above-described embodiment, the operation of the interactive pet robot 1 has been described by taking English conversation as an example. However, the present invention is not limited to this, and can be widely applied to conversation learning in each language. is there.

また、対話型ペットロボット1がとるべきアクションは、スピーカ8からの音声出力に限定されるものではない。例えば、対話型ペットロボット1の手足が可動式であれば、アクションとしてこれらを稼働させてもよく、発光体が装着されている場合には、これを点滅等させてもよい。   Further, the action to be taken by the interactive pet robot 1 is not limited to the sound output from the speaker 8. For example, if the limbs of the interactive pet robot 1 are movable, they may be operated as actions, and if a light emitter is attached, they may be flashed.

さらに、上述した実施形態では、質問に対する返答の候補である選択肢をディスプレイ3に全文表示しているが、これをスピーカ8による全文の音声出力によって、ユーザに提示することも可能である。ただし、会話の促進という観点でいえば、対話型ペットロボット1が質問に対する選択肢をその都度発話するするよりも、発話の時間を必要としないディスプレイ3への表示の方が好ましい。   Further, in the above-described embodiment, options that are candidates for answering the question are displayed in full text on the display 3, but this can also be presented to the user by voice output of the full text from the speaker 8. However, from the viewpoint of promoting conversation, it is preferable to display on the display 3 that does not require time for speaking, rather than the interactive pet robot 1 speaking the choices for the question each time.

対話型ペットロボットの外観正面図Appearance front view of interactive pet robot 対話型ペットロボットの外観側面図Appearance side view of interactive pet robot 対話型ペットロボットの制御ブロック図Control block diagram of interactive pet robot 会話の進行手順を示すフローチャートFlow chart showing the progress of conversation 質問に対する返答の候補である選択肢の表示例を示す図The figure which shows the example of a display of the choice which is the candidate of the reply to a question

符号の説明Explanation of symbols

1 対話型ペットロボット
2 ロボット本体
2a 胴部
3 ディスプレイ
4 マイクロホン
5 対人センサ
6 額タッチセンサ
7 スイッチ
8 スピーカ
9 制御部
10 音声認識ユニット
11 メイン制御ユニット
12 マスクROM
13 SRAM
14 外付ROM
1 Interactive Pet Robot 2 Robot Body 2a Body 3 Display 4 Microphone 5 Human Sensor 6 Forehead Touch Sensor 7 Switch 8 Speaker 9 Control Unit 10 Voice Recognition Unit 11 Main Control Unit 12 Mask ROM
13 SRAM
14 External ROM

Claims (11)

対話型ペットロボットにおいて、
キャラクタ型のロボット本体と、
前記ロボット本体に装着されたマイクロホンと、
前記ロボット本体に装着されたスピーカと、
前記ロボット本体に装着されたディスプレイと、
ユーザとの会話の進行手順をユーザの選択による分岐付で規定しており、ある質問の内容と、前記質問に対する全文の返答となる複数の選択肢と、前記選択肢のそれぞれに対するアクションとが対応付けて記述されたプログラムを格納している記憶部と、
前記ロボット本体に内蔵され、前記記憶部より読み出された前記プログラムの記述にしたがった処理を行う制御部とを有し、
前記制御部は、
前記質問の内容を前記スピーカより音声で出力した場合、前記質問に対する返答の候補として、前記質問に対応付けられた前記複数の選択肢を全文で前記ディスプレイに表示させる第1の処理を行い、
前記ディスプレイに表示された前記複数の選択肢のうちのいずれかがユーザによって全文が発話された場合、前記マイクロホンより得られるユーザの全文の発話を入力とした音声認識を行って、ユーザの発話に対応する一の選択肢を特定するとともに、当該一の選択肢に対応する前記アクションを、前記返答に対して前記対話型ペットロボットが次にとるべき反応として決定する第2の処理を行うことを特徴とする対話型ペットロボット。
In interactive pet robot,
A character-type robot body,
A microphone attached to the robot body;
A speaker attached to the robot body;
A display attached to the robot body;
The procedure of the conversation with the user is defined with a branch by the user's selection, and the contents of a question, a plurality of options that are responses to the full text of the question, and actions for each of the options are associated with each other A storage unit storing the described program;
A control unit built in the robot body and performing processing according to the description of the program read from the storage unit;
The controller is
When the content of the question is output by voice from the speaker, as a candidate for a response to the question, a first process is performed to display the plurality of options associated with the question on the display in full text,
When any of the plurality of options displayed on the display is uttered by the user, the user's utterance is input by performing speech recognition using the user's full-text utterance obtained from the microphone as an input. And a second process of determining the action corresponding to the one option as the next response to be taken by the interactive pet robot with respect to the response. Interactive pet robot.
前記第1の処理において、前記制御部は、前記質問の内容とともに、前記複数の選択肢の全文を列挙して前記ディスプレイに表示させることを特徴とする請求項1に記載された対話型ペットロボット。   2. The interactive pet robot according to claim 1, wherein in the first process, the control unit enumerates and displays the full text of the plurality of options together with the contents of the question on the display. 前記第1の処理において、前記制御部は、前記複数の選択肢の全文のうち、抑揚のストレス部分を強調して前記ディスプレイに表示させることを特徴とする請求項1に記載された対話型ペットロボット。   2. The interactive pet robot according to claim 1, wherein, in the first process, the control unit emphasizes a stress portion of inflection among all the texts of the plurality of options and displays the stress on the display. 3. . 前記アクションは、前記返答に対する反応としての発話を前記スピーカより音声で出力することであることを特徴とする請求項1に記載された対話型ペットロボット。   2. The interactive pet robot according to claim 1, wherein the action is to output an utterance as a response to the response by voice from the speaker. 前記制御部は、前記ロボット本体において最も大きな内部空間が確保された前記ロボット本体の胴部内に収納されており、
前記ディスプレイは、前記ロボット本体の胴部正面に装着されていることを特徴とする請求項1に記載された対話型ペットロボット。
The control unit is housed in the body of the robot body in which the largest internal space is secured in the robot body,
The interactive pet robot according to claim 1, wherein the display is mounted on a front surface of a body portion of the robot body.
前記制御部は、前記ディスプレイに複数の単語の綴りとイラストを一定の間隔で順番に表示させるとともに、前記順番に表示された単語の発音を前記スピーカより音声で出力する第3の処理を行うことを特徴とする請求項1に記載された対話型ペットロボット。   The control unit displays a spelling and illustrations of a plurality of words on the display in order at regular intervals, and performs a third process of outputting the pronunciation of the words displayed in order by voice from the speaker. The interactive pet robot according to claim 1. 前記アクションは、前記返答に対する反応としての発話の内容を前記ディスプレイに表示させることをさらに有することを特徴とする請求項4に記載された対話型ペットロボット。   The interactive pet robot according to claim 4, wherein the action further includes causing the display to display a content of an utterance as a response to the response. 前記第1の処理において、前記制御部は、前記マイクロホンより得られるユーザの全文の発話を入力とした音声認識、または、前記制御部に接続されたスイッチの操作を行うことによって、前記複数の選択肢の全文のうち、少なくとも一つをお手本音声として、前記スピーカより音声で出力することを特徴とする請求項1に記載された対話型ペットロボット。   In the first process, the control unit performs voice recognition using a user's full-text utterance obtained from the microphone as an input, or operates a switch connected to the control unit, thereby the plurality of options. 2. The interactive pet robot according to claim 1, wherein at least one of the full texts is output as voice from the speaker as a model voice. 前記第1の処理において、前記制御部は、前記複数の選択肢の全文のうち、前記お手本音声を強調して前記ディスプレイに表示させることを特徴とする請求項8に記載された対話型ペットロボット。   9. The interactive pet robot according to claim 8, wherein in the first process, the control unit highlights the model voice among the whole sentences of the plurality of options and displays the emphasized voice on the display. 対話型ペットロボットにおいて、
キャラクタ型のロボット本体と、
前記ロボット本体に装着されたマイクロホンと、
前記ロボット本体に装着され、ユーザに情報を提示する提示手段と、
ユーザとの会話の進行手順をユーザの選択による分岐付で規定しており、ある質問の内容と、前記質問に対する全文の返答となる複数の選択肢と、前記選択肢のそれぞれに対するアクションとが対応付けて記述されたプログラムを格納している記憶部と、
前記ロボット本体に内蔵され、前記記憶部より読み出された前記プログラムの記述にしたがった処理を行う制御部とを有し、
前記制御部は、
前記質問の内容を前記提示手段を介してユーザに提示した場合、前記質問に対する返答の候補として、前記質問に対応付けられた前記複数の選択肢を全文で前記提示手段を介してユーザに提示する第1の処理を行い、
前記ディスプレイに表示された前記複数の選択肢のうちのいずれかがユーザによって全文が発話された場合、前記マイクロホンより得られるユーザの全文の発話を入力とした音声認識を行って、ユーザの発話に対応する一の選択肢を特定するとともに、当該一の選択肢に対応する前記アクションを、前記返答に対して前記対話型ペットロボットが次にとるべき反応として決定する第2の処理を行うことを特徴とする対話型ペットロボット。
In interactive pet robot,
A character-type robot body,
A microphone attached to the robot body;
Presenting means mounted on the robot body and presenting information to a user;
The procedure of the conversation with the user is defined with a branch by the user's selection, and the contents of a question, a plurality of options that are responses to the full text of the question, and actions for each of the options are associated with each other A storage unit storing the described program;
A control unit built in the robot body and performing processing according to the description of the program read from the storage unit;
The controller is
When the content of the question is presented to the user via the presenting means, the plurality of options associated with the question are presented to the user via the presenting means in full text as candidates for a response to the question. 1 process,
When any of the plurality of options displayed on the display is uttered by the user, the user's utterance is input by performing speech recognition using the user's full-text utterance obtained from the microphone as an input. And a second process of determining the action corresponding to the one option as the next response to be taken by the interactive pet robot with respect to the response. Interactive pet robot.
前記提示手段は、スピーカおよびディスプレイの少なくとも一方であることを特徴とする請求項10に記載された対話型ペットロボット。   The interactive pet robot according to claim 10, wherein the presenting means is at least one of a speaker and a display.
JP2005073636A 2004-08-02 2005-03-15 Interactive pet robot Withdrawn JP2006068489A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005073636A JP2006068489A (en) 2004-08-02 2005-03-15 Interactive pet robot
TW094125154A TW200611745A (en) 2004-08-02 2005-07-25 Interactive pet robot
KR1020050070674A KR20060049041A (en) 2004-08-02 2005-08-02 Interactive robot pet

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004225134 2004-08-02
JP2005073636A JP2006068489A (en) 2004-08-02 2005-03-15 Interactive pet robot

Publications (1)

Publication Number Publication Date
JP2006068489A true JP2006068489A (en) 2006-03-16

Family

ID=36149685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005073636A Withdrawn JP2006068489A (en) 2004-08-02 2005-03-15 Interactive pet robot

Country Status (3)

Country Link
JP (1) JP2006068489A (en)
KR (1) KR20060049041A (en)
TW (1) TW200611745A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386403B1 (en) * 2012-07-25 2014-04-29 진삼순 doll and the manufacturing method
JP2014145976A (en) * 2013-01-30 2014-08-14 Mie Univ Foreign language-learning system based on direct method
WO2016068262A1 (en) * 2014-10-29 2016-05-06 京セラ株式会社 Communication robot
WO2018025467A1 (en) * 2016-08-04 2018-02-08 ソニー株式会社 Information processing device, information processing method, and information medium
WO2019056700A1 (en) * 2017-09-22 2019-03-28 深圳壹账通智能科技有限公司 Voice dialogue robot control method, device, terminal apparatus, and medium
CN110014432A (en) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 Interactive device, exchange method, interactive program and robot

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI406202B (en) * 2009-09-18 2013-08-21 Univ Nat Central Leadership Robotics System, its control methods, computer program products and computer-readable recording media
KR101381006B1 (en) * 2012-05-10 2014-04-04 얄리주식회사 Question answering doll using speech recognition
KR101418709B1 (en) * 2012-06-14 2014-07-16 진삼순 Question answering doll using speech recognition and the manufacturing method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386403B1 (en) * 2012-07-25 2014-04-29 진삼순 doll and the manufacturing method
JP2014145976A (en) * 2013-01-30 2014-08-14 Mie Univ Foreign language-learning system based on direct method
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JPWO2016068262A1 (en) * 2014-10-29 2017-08-10 京セラ株式会社 Communication robot
WO2016068262A1 (en) * 2014-10-29 2016-05-06 京セラ株式会社 Communication robot
WO2018025467A1 (en) * 2016-08-04 2018-02-08 ソニー株式会社 Information processing device, information processing method, and information medium
JPWO2018025467A1 (en) * 2016-08-04 2019-03-22 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing method, toy system, toy, and information medium
CN109803735A (en) * 2016-08-04 2019-05-24 索尼互动娱乐股份有限公司 Information processing unit, information processing method and information medium
CN109803735B (en) * 2016-08-04 2021-10-08 索尼互动娱乐股份有限公司 Information processing apparatus, information processing method, and information medium
JP6995754B2 (en) 2016-08-04 2022-01-17 株式会社ソニー・インタラクティブエンタテインメント Information processing equipment, information processing methods, toy systems, toys, and information media
US11567499B2 (en) 2016-08-04 2023-01-31 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and information medium
WO2019056700A1 (en) * 2017-09-22 2019-03-28 深圳壹账通智能科技有限公司 Voice dialogue robot control method, device, terminal apparatus, and medium
CN110014432A (en) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 Interactive device, exchange method, interactive program and robot

Also Published As

Publication number Publication date
TW200611745A (en) 2006-04-16
KR20060049041A (en) 2006-05-18

Similar Documents

Publication Publication Date Title
JP2006068489A (en) Interactive pet robot
US11854431B2 (en) Interactive education system and method
CN107680585B (en) Chinese word segmentation method, Chinese word segmentation device and terminal
JP6654691B2 (en) Information processing device
JP4729902B2 (en) Spoken dialogue system
US20180011687A1 (en) Head-mounted display system and operating method for head-mounted display device
JP2017173546A (en) Learning support device, robot, learning support system, learning support method, and program
Fellbaum et al. Principles of electronic speech processing with applications for people with disabilities
JP7166580B2 (en) language learning methods
JP6466391B2 (en) Language learning device
CN1734521A (en) Conversation type robot pet
JPH11237971A (en) Voice responding device
TWI575483B (en) A system, a method and a computer programming product for learning? foreign language speaking
US20090291419A1 (en) System of sound representaion and pronunciation techniques for english and other european languages
CN111638783A (en) Man-machine interaction method and electronic equipment
JP2007148170A (en) Foreign language learning support system
JP2014501940A (en) Language training system
KR20190041890A (en) Device and Server System for Learning Foreign Language
Cutler Native listeners
JP3621624B2 (en) Foreign language learning apparatus, foreign language learning method and medium
Böhlen Robots with bad accents: Living with synthetic speech
WO2013086575A1 (en) Speech visualisation tool
US20080145824A1 (en) Computerized speech and communication training
WO2013085863A1 (en) Methods and systems for teaching a non-native language
JP7172168B2 (en) Dialogue device, dialogue device control method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603