KR20060049041A - Interactive robot pet - Google Patents

Interactive robot pet Download PDF

Info

Publication number
KR20060049041A
KR20060049041A KR1020050070674A KR20050070674A KR20060049041A KR 20060049041 A KR20060049041 A KR 20060049041A KR 1020050070674 A KR1020050070674 A KR 1020050070674A KR 20050070674 A KR20050070674 A KR 20050070674A KR 20060049041 A KR20060049041 A KR 20060049041A
Authority
KR
South Korea
Prior art keywords
user
display
question
options
robot
Prior art date
Application number
KR1020050070674A
Other languages
Korean (ko)
Inventor
다케시 오마에
Original Assignee
가부시키가이샤 토미
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 토미 filed Critical 가부시키가이샤 토미
Publication of KR20060049041A publication Critical patent/KR20060049041A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화를 촉진 가능한 새로운 대화형 애완 로봇을 제공하는 대화형 애완 로봇은 기억부로부터 읽혀진 프로그램의 기술에 따른 처리를 행하는 제어부(9)를 가진다. 프로그램은 사용자와의 회화의 진행 순서를 분기부로 규정하고 있어, 어떠한 질문의 내용과, 질문에 대한 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 질문의 내용이 음성 출력된 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 디스플레이(3)에 표시한다. 디스플레이(3)에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정한다.Even if there are limitations on the number of phonetic phrases or the number of waiting phrases, the interactive pet robot that provides a new interactive pet robot capable of facilitating conversation has a control unit 9 which performs processing according to the description of the program read out from the storage unit. The program defines the progression of conversation with the user as a branch, and describes the contents of a question, a plurality of options to answer the questions, and an action for each of the options. When the content of the question is output in voice, a plurality of choices corresponding to the question are displayed on the display 3 as candidates for the answer to the question. When one of the plurality of options displayed on the display 3 is pronounced by the user, voice recognition is performed to specify one option corresponding to the user's pronunciation, and to perform an action corresponding to the one option. Respond to the answer as an interactive pet robot's next reaction.

대화형 애완 로봇, 회화, 음성 출력, 디스플레이, 음성인식 Interactive Pet Robot, Conversation, Voice Output, Display, Voice Recognition

Description

대화형 애완 로봇 {INTERACTIVE ROBOT PET}Interactive Pet Robot {INTERACTIVE ROBOT PET}

도 1은 대화형 애완 로봇의 외관정면도이다.1 is an external front view of an interactive pet robot.

도 2는 대화형 애완 로봇의 외관측면도이다.2 is an external side view of an interactive pet robot.

도 3은 대화형 애완 로봇의 제어블럭도이다.3 is a control block diagram of an interactive pet robot.

도 4는 회화의 진행 순서를 나타내는 플로차트이다.4 is a flowchart showing the flow of painting.

도 5는 질문에 대한 대답의 후보인 선택지의 표시예를 나타내는 도면이다.5 is a diagram illustrating a display example of an option that is a candidate for an answer to a question.

[주요 부분에 대한 부호의 설명][Description of Codes for Main Parts]

1 대화형 애완 로봇 2 로봇 본체1 Interactive Pet Robot 2 Robot Body

2a 몸통부 3 디스플레이2a torso 3 display

4 마이크로폰 5 대인 센서4 microphone 5 person sensor

6 이마 터치 센서 7 스위치6 forehead touch sensor 7 switch

8 스피커 9 제어부8 Speakers 9 Controls

10 음성인식 유닛 11 메인 제어 유닛10 Voice recognition unit 11 Main control unit

12 마스크 ROM 13 SRAM12 masks ROM 13 SRAM

14 외부 장착 ROM14 Externally Mounted ROM

특허문헌1: 일본 특개2002-351305호 공보Patent Document 1: Japanese Patent Application Laid-Open No. 2002-351305

본 발명은 대화형 애완 로봇에 관한 것으로, 특히 어학 학습에 알맞은 애완 로봇에 관한 것이다.The present invention relates to an interactive pet robot, and more particularly to a pet robot suitable for language learning.

종래에, 사용자와의 사이에서 커뮤니케이션을 행하는 대화형 애완 로봇이 알려져 있으며, 그 일종으로서, 영어회화 어학 학습의 용도로 사용되는 것도 알려져 있다. 또, 하기 특허문헌1에는 음성인식 엔진을 구비하고, 청취한 모국어를 외국어로 번역하여 발성하는 어학연수용 로봇이 개시되어 있다. 이 로봇은 집오리 또는 펭귄의 형태를 모방한 외관 형상을 가지고, 그 두부에는 표시화면이 설치되어 있다. 이 표시화면에는 얼굴의 표정(눈·코·입)이 표시되어, 번역한 언어의 발성에 따라서, 표시된 얼굴의 표정이 재잘거리는 것처럼 변화된다.Background Art Conventionally, an interactive pet robot that communicates with a user is known, and as one kind thereof, it is also known to be used for learning English conversational language. In addition, Patent Literature 1 below discloses a language training robot that includes a speech recognition engine and translates a spoken native language into a foreign language. The robot has an exterior shape that mimics the shape of a duck or penguin, and its head is provided with a display screen. The facial expressions (eyes, noses and mouths) of the face are displayed on the display screen, and the displayed facial expressions change as if the translated facial expressions are shuffled in accordance with the speech of the translated language.

그런데, 이러한 대화형 애완 로봇에서는, 사용자와의 대화를 정체시키지 않고 어떻게 촉진할까 하는 것이 상품 구매력의 향상을 도모하는 데에 있어서 중요한 포인트가 된다. 이를 위해서는 로봇이 발음하는 발음 어구(phrase) 수와 로봇이 청취 가능한 대기 어구 수를 증가시켜, 회화의 자유도를 높이는 것이 고려된다. 그러나, 이 경우에는 사용자의 발음을 인식하는 데 고속인 마이크로컴퓨터가 필요하게 되는 것 외에 프로그램의 크기도 방대하게 되기 때문에, 저가격대의 제품화가 매우 곤란해진다. 한편, 종래의 비교적 저가인 제품에서는, 상술한 어구 수의 제약 때문에, 사용자의 발음이 인식되지 않는 경우가 많아, 회화가 정체되기 쉬워진 다. 그 결과, 대화형 애완 로봇과 사용자 사이에서의 커뮤니케이션의 연출이라는 점에서 문제가 있었다.By the way, in such an interactive pet robot, how to promote without congestion with a user becomes an important point in improving product purchasing power. To this end, it is considered that the number of pronunciation phrases pronounced by the robot and the number of atmospheric phrases that the robot can hear increase the degree of freedom of conversation. In this case, however, in addition to the need for a high speed microcomputer to recognize the user's pronunciation, the size of the program is enormous, which makes it very difficult to produce a low-cost band. On the other hand, in the conventional relatively low-cost product, the pronunciation of the user is often not recognized because of the above-mentioned limitation of the number of phrases, and the conversation is easily stagnated. As a result, there has been a problem in that the communication between the interactive pet robot and the user is directed.

본 발명은 이러한 사정을 감안하여 이루어진 것으로, 그 목적은 발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화의 촉진이 가능한 새로운 대화형 애완 로봇을 제공하는 것이다.This invention is made | formed in view of such a situation, The objective is to provide the new interactive pet robot which can promote a conversation, even if there is a restriction of the number of phonetic phrases and a waiting phrase.

또, 본 발명의 다른 목적은 대화형 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 지속시키는 것이다.In addition, another object of the present invention is to increase the communication feeling with the interactive pet robot, and to maintain the user's desire to learn.

이러한 과제를 해결하기 위하여, 본 발명의 제1 측면에 의하면, 이 대화형 애완 로봇은 캐릭터형의 로봇 본체와, 로봇 본체에 장착된 마이크로폰과, 로봇 본체에 장착된 스피커와, 로봇 본체에 장착된 디스플레이와, 프로그램을 격납하고 있는 기억부와, 로봇 본체에 내장되어 기억부로부터 읽혀진 프로그램의 기술(記述)에 따른 처리를 행하는 제어부를 가진다.In order to solve this problem, according to the first aspect of the present invention, the interactive pet robot is a character robot body, a microphone mounted on the robot body, a speaker mounted on the robot body, and a robot mounted on the robot body. It has a display, a storage unit that stores a program, and a control unit that performs processing in accordance with the description of a program built into the robot body and read from the storage unit.

여기에서, 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 이 프로그램에는 어떠한 질문의 내용과, 질문에 대한 전문(全文)의 대답이 되는 복수의 선택지(選擇肢)와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 또, 제어부는 질문의 내용을 스피커로부터 음성으로 출력한 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 전문으로 디스플레이에 표시하는 제1 처리를 행한다. 이 제어부는 디스플레이에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행한다.Here, the program stipulates the progression of conversation with the user as the branching part by the user's selection. This program describes the contents of a question, a plurality of options for answering the full text of the question, and an action for each of the options. In addition, when the content of the question is output from the speaker as a voice, as a candidate for answering the question, the control unit performs a first process of displaying on the display a plurality of choices corresponding to the question. When one of the plurality of options displayed on the display is pronounced by the user, the controller performs voice recognition using the pronunciation of the user's full text obtained from the microphone, thereby identifying one option corresponding to the user's pronunciation. At the same time, a second process is performed in which the action corresponding to this one option is determined as the response the interactive pet robot should take next to the answer.

여기에서, 본 발명의 제1 측면에 의한 대화형 애완 로봇에서의 제1 처리에서, 제어부는 질문의 내용과 함께 복수의 선택지의 전문을 열거하여 디스플레이에 표시하는 것이 바람직하다. 또, 이 제1 처리에 있어서, 제어부는 복수의 선택지의 전문 중, 억양의 스트레스 부분을 강조하여 디스플레이에 표시할 수도 있다.Here, in the first processing in the interactive pet robot according to the first aspect of the present invention, it is preferable that the controller enumerates the full text of the plurality of options together with the contents of the question and displays them on the display. In addition, in this first process, the control unit may highlight and display the stress portion of the accent in the full text of the plurality of options on the display.

본 발명의 제1 측면에 있어서, 액션은 대답에 대한 반응으로서의 발음을 스피커로부터 음성으로 출력하는 것인 것이 바람직하다.In the first aspect of the present invention, it is preferable that the action outputs the pronunciation from the speaker as a voice in response to the answer.

본 발명의 제1 측면에 있어서, 제어부는 로봇 본체에 있어서 가장 큰 내부 공간이 확보된 로봇 본체의 몸통부 내에 수납되어 있고, 디스플레이는 로봇 본체의 몸통부 정면에 장착되어 있는 것이 바람직하다.In the first aspect of the present invention, it is preferable that the control unit is housed in the trunk portion of the robot body in which the largest internal space is secured in the robot body, and the display is mounted in front of the trunk portion of the robot body.

본 발명의 제1 측면에 있어서, 제어부는 디스플레이에 복수의 단어의 철자와 보기를 일정한 간격으로 순서대로 표시시키는 동시에, 순서대로 표시된 단어의 발음을 스피커로부터 음성으로 출력하는 제3 처리를 행할 수도 있다.In the first aspect of the present invention, the controller may perform a third process of displaying the spelling and the example of a plurality of words on the display in order at regular intervals, and at the same time outputting the pronunciation of the words displayed in sequence from the speaker. .

본 발명의 제1 측면에 있어서, 액션은 대답에 대한 반응으로서의 발음의 내용을 디스플레이에 표시하는 것을 추가로 가질 수도 있다.In a first aspect of the invention, the action may further comprise displaying the content of the pronunciation on the display as a response to the answer.

본 발명의 제1 측면에서의 제1 처리에서, 제어부는 마이크로폰으로부터 얻어 지는 사용자의 전문의 발음을 입력으로 한 음성인식, 또는 제어부에 접속된 스위치의 조작을 행함으로써, 복수의 선택지의 전문 중, 최소한 하나를 본보기 음성으로 하여, 스피커로부터 음성으로 출력하는 제4 처리를 행할 수도 있다.In the first process according to the first aspect of the present invention, the control unit performs voice recognition using the user's full pronunciation obtained from the microphone or operates a switch connected to the control unit. A fourth process of outputting audio from the speaker as at least one example audio can also be performed.

본 발명의 제1 측면에서의 제4 처리에서, 제어부는 복수의 선택지의 전문 중, 본보기 음성을 강조하여 디스플레이에 표시할 수도 있다.In the fourth process in the first aspect of the present invention, the control unit may highlight and display an example voice among the full text of the plurality of options on the display.

한편, 본 발명의 제2 측면에 의하면, 이 대화형 애완 로봇은 캐릭터형의 로봇 본체와, 로봇 본체에 장착된 마이크로폰과, 로봇 본체에 장착되어 사용자에게 정보를 제시하는 제시 수단과, 프로그램을 격납하고 있는 기억부와, 로봇 본체에 내장되어 기억부로부터 읽혀진 프로그램의 기술에 따른 처리를 행하는 제어부를 가진다. 여기에서, 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 이 프로그램에는 어떠한 질문의 내용과, 질문에 대한 전문의 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 또, 제어부는 질문의 내용을 제시 수단을 통하여 사용자에게 제시한 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 전문으로, 제시 수단을 통하여 사용자에게 제시하는 제1 처리를 행한다. 이 제어부는 디스플레이에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을, 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행한다.On the other hand, according to the second aspect of the present invention, the interactive pet robot includes a character robot body, a microphone mounted on the robot body, presentation means mounted on the robot body to present information to the user, and a program. And a control unit for processing according to the description of the program read in from the storage unit. Here, the program stipulates the progression of conversation with the user as the branching part by the user's selection. This program describes the contents of a question, a plurality of options that provide a full answer to the question, and an action for each of the options. In addition, when the content of the question is presented to the user through the presentation means, as a candidate for answering the question, the controller performs a first process of presenting to the user through the presentation means a plurality of options corresponding to the question. . When one of the plurality of options displayed on the display is pronounced by the user, the controller performs voice recognition using the pronunciation of the user's full text obtained from the microphone, thereby identifying one option corresponding to the user's pronunciation. At the same time, a second process is performed in which the action corresponding to this one option is determined as the response that the interactive pet robot should take next to the answer.

여기에서, 본 발명의 제2 측면에 있어서, 제시 수단은 스피커 및 디스플레이의 적어도 한쪽인 것이 바람직하다.Here, in the second aspect of the present invention, the presentation means is preferably at least one of a speaker and a display.

본 발명에 의하면, 대화형 애완 로봇의 질문에 대한 대답의 후보가 되는 복수의 선택지가 전문으로 사용자에 제시된다. 사용자는 전문으로 제시된 복수의 선택지의 중에서 적절한 것을 선택하여, 그 전문을 그대로 발음하면 된다. 한편, 음성인식을 행하는 시스템에 있어서는 사용자가 발음하는 변형은 선택지의 수만큼이기 때문에, 고속인 마이크로컴퓨터를 필요로 하지 않고, 그 인식을 용이하게 행할 수 있다. 그 결과, 발음 어구 수나 대기 어구 수에 제약을 둘 수밖에 없는 비교적 저가인 제품이더라도, 사용자에 스트레스를 느끼게 하는 일없이 회화의 촉진을 도모할 수 있다. 또, 질문에 대한 대답에 필요한 정보는 애완 로봇에 의해 제시되기 때문에, 사용자는 애완 로봇과 마주 본 상태로 회화를 진행시킬 수 있다. 이에 따라, 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 유효하게 지속시킬 수 있게 된다.According to the present invention, a plurality of options that are candidates for answers to the questions of the interactive pet robot are presented to the user in a specialized manner. The user may select an appropriate one from a plurality of options presented as a full text and pronounce the full text as it is. On the other hand, in the system for performing voice recognition, since the number of variations spoken by the user is as many as the number of choices, the recognition can be easily performed without requiring a high speed microcomputer. As a result, even if the product is relatively inexpensive, which has a limitation on the number of pronunciation phrases and waiting phrases, conversation can be promoted without causing the user to feel stress. In addition, since the information required for answering the question is presented by the pet robot, the user can proceed with the conversation while facing the pet robot. Accordingly, it is possible to increase the communication feeling with the pet robot and effectively maintain the user's motivation to learn.

도 1은 본 실시예에 관한 대화형 애완 로봇의 정면도이며, 도 2는 그 측면도이다. 이 대화형 애완 로봇(1)은 캐릭터형의 로봇 본체(2)와, 이 로봇 본체(2)에 장착된 디스플레이(3)를 가진다. 플라스틱제의 로봇 본체(2)는 캐릭터의 일례인 곰을 귀엽게 변형시킨 외관 형상을 가진다. 이 로봇 본체(2)는 두부, 몸통부 및 손발을 주체로 구성되어 있고, 그 내부에는 전자 기기를 수납하기 위한 공간이 설치되어 있다. 로봇 본체(2)의 몸통부(2a)에는 후술하는 제어부를 수납하기 위해, 로봇 본체(2)에서 가장 큰 내부 공간이 확보되어 있다. 디스플레이(3)는 예를 들 면 액정 또는 유기 EL과 같은 주지의 소형 디스플레이이며, 로봇 본체(2) 몸통부(2a)의 정면에 장착되어 있다. 디스플레이(3)를 정면에 배치하는 이유는 사용자가 캐릭터와 마주 본 상태에서 육안으로의 확인성을 확보하기 위해서이며, 이것을 몸통부(2a)에 배치하는 이유는 몸통부(2a)의 내부에 수납된 제어부와의 결선 거리를 가능한 짧게 하기 위해서이다.1 is a front view of an interactive pet robot according to the present embodiment, and FIG. 2 is a side view thereof. The interactive pet robot 1 has a character robot body 2 and a display 3 mounted on the robot body 2. The robot body 2 made of plastic has an external shape in which a bear, which is an example of a character, is deformed cutely. The robot body 2 mainly consists of a head, a trunk and a limb, and a space for accommodating an electronic device is provided therein. In the trunk | drum 2a of the robot main body 2, the largest internal space is secured in the robot main body 2, in order to accommodate the control part mentioned later. The display 3 is a well-known small display such as, for example, liquid crystal or organic EL, and is mounted on the front of the robot body 2 body portion 2a. The reason for arranging the display 3 in front is to ensure the visual confirmation of the user while facing the character, and the reason for arranging it on the trunk portion 2a is to store it inside the trunk portion 2a. This is to shorten the connection distance with the controlled control unit as much as possible.

도 3은 대화형 애완 로봇(1)의 제어블럭도이다. 대화형 애완 로봇(1)의 제어시스템은 상술한 디스플레이(3), 각종 센서(4∼7), 스피커(8), 제어부(9) 및 각종 기억부(12∼14)로 구성되어 있다. 마이크로폰(4)은 로봇 본체(2)의 적절한 부위에 장착되어 있고, 사용자의 발음을 검지하는 대인 센서(5)는 로봇 본체(2)의 적절한 부위에 장착되어 있어서, 대화형 애완 로봇(1)의 주위에 사람이 있는지 여부를 검지한다. 이마 터치 센서(6)는 로봇 본체(2)의 두부의 이마에 장착되어 있고, 사용자가 이마에 접촉했는지 여부를 검지한다. 4개의 스위치(7)는 로봇 본체(2)의 오른손, 왼손, 오른발 및 왼발의 4군데 장착되어 있고, 사용자가 이들 부위에 접촉했는지 여부를 검지한다. 이들 센서(4∼7)에 의해 사용자가 행한 커뮤니케이션으로서의 행위(예를 들면, 이마에 접촉, 손발을 쥐는 등)를 시스템 측이 인식할 수 있다.3 is a control block diagram of the interactive pet robot 1. The control system of the interactive pet robot 1 is comprised of the display 3 mentioned above, the various sensors 4-7, the speaker 8, the control part 9, and the various storage parts 12-14. The microphone 4 is mounted at an appropriate part of the robot body 2, and the interpersonal sensor 5 for detecting a user's pronunciation is mounted at an appropriate part of the robot body 2, so that the interactive pet robot 1 Detect whether there is anyone around. The forehead touch sensor 6 is mounted on the forehead of the head of the robot body 2, and detects whether the user touched the forehead. The four switches 7 are mounted in four positions of the right hand, left hand, right foot and left foot of the robot body 2, and detect whether or not the user has touched these parts. By these sensors 4-7, the system side can recognize the act as a communication (for example, touching a forehead, grasping hands and the like) performed by the user.

제어부(9)는 음성인식 유닛(10) 및 메인 제어 유닛(11)으로 구성되어 있다. 음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 발음을 입력으로 한 음성인식을 행하는 동시에, 그 인식결과를 메인 제어 유닛(11)에 출력한다. 사용자의 발음을 입력으로 한 음성인식처리는 공지된 것이므로 여기서는 설명을 생략 한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과를 주체로 하고, 이것에 센서(5∼7)로부터의 검지신호를 적절하게 가미한 뒤에, 디스플레이(3)와 스피커(8)를 제어한다. 메인 제어 유닛(11)에 접속된 마스크 ROM(12)에는 사용자와의 회화의 진행 순서를 규정한 프로그램(메인 프로그램)이 격납되어 있다. 메인 제어 유닛(11)에 접속된 SRAM은 메인 제어 유닛(11)의 작업용 메모리이다. 또, 음성인식 유닛(10) 및 메인 제어 유닛(11)의 쌍방에 접속된 외부 장착 ROM은 로봇 본체(2)에 착탈 가능한 추가 카트리지 내의 기억부이다. 외부 장착 ROM에는 상술한 메인 프로그램의 확장 기능을 제공하는 프로그램(확장 프로그램)이 격납되어 있다.The control unit 9 is composed of a voice recognition unit 10 and a main control unit 11. The voice recognition unit 10 performs voice recognition using the pronunciation of the user obtained from the microphone 4 as an input, and outputs the recognition result to the main control unit 11. The speech recognition process using the user's pronunciation as an input is well known and thus description thereof is omitted here. The main control unit 11 mainly uses the recognition result from the voice recognition unit 10, and adds the detection signals from the sensors 5 to 7 to the display unit 3 and the speaker 8, as appropriate. To control. In the mask ROM 12 connected to the main control unit 11, a program (main program) that defines a procedure for communicating with a user is stored. The SRAM connected to the main control unit 11 is a working memory of the main control unit 11. In addition, the externally mounted ROM connected to both the voice recognition unit 10 and the main control unit 11 is a storage unit in an additional cartridge detachable to the robot body 2. The externally mounted ROM stores a program (extension program) that provides the above-described extension function of the main program.

도 4는 프로그램에 의해 규정되는 회화의 진행 순서의 일례를 나타내는 플로차트이다. 이 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 메인 제어 유닛(11)은 마스크 ROM(12)으로부터 읽혀진 프로그램의 기술에 따라, 다음과 같은 순서로 처리를 행한다.4 is a flowchart showing an example of a procedure of conversation performed by the program. This program stipulates the progression of conversation with the user by branching by the user's choice. The main control unit 11 performs processing in the following order according to the description of the program read from the mask ROM 12.

먼저, 스텝1의 대기 상태에는 "Let's talk.", "Wake up." 또는 "Play."라는 3개의 선택지가 디스플레이(3)에 표시된다. 사용자는 이들 선택지 중에서 임의의 것을 선택하여, 그 전문을 발음한다. 음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 인식결과를 메인 제어 유닛(11)에 출력한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과에 따라, 사용자의 발음에 대응하는 하나의 선택지("Let's talk.", "Wake up." 또는 "Play.")를 특정한다. 그리고, 메인 제어 유닛(11)은 특정된 선 택지에 대응하는 액션을 애완 로봇(1)이 다음에 취해야 하는 반응으로서 결정한다. 예를 들면, 특정된 선택지가 "Let's talk." 또는 "Wake up."인 경우에는 스텝(2)의 발음이 스피커(8)로부터 음성 출력되고, "Play."인 경우에는 스텝(10)의 발음이 음성 출력된다.First, the standby state of step 1 includes "Let's talk." And "Wake up." Or three choices of " Play. &Quot; The user selects any of these options and pronounces the full text. The voice recognition unit 10 performs voice recognition with input of the user's full pronunciation obtained from the microphone 4 and outputs the recognition result to the main control unit 11. The main control unit 11 specifies one option ("Let's talk.", "Wake up." Or "Play.") Corresponding to the user's pronunciation in accordance with the recognition result from the speech recognition unit 10. . The main control unit 11 then determines the action corresponding to the specified choice as a reaction that the pet robot 1 should take next. For example, the specified option is "Let's talk." Or, in the case of "Wake up.", The pronunciation of step 2 is spoken out from the speaker 8, and in the case of "Play.", The pronunciation of step 10 is spoken out.

계속하여 스텝2∼5는 애완 로봇(1)으로부터의 질문, 사용자의 대답, 이것에 대한 애완 로봇(1)의 반응이라는 일련의 흐름을 형성하고 있고, 회화(커뮤니케이션)의 핵심을 이루는 부분이다. 이 점에 관해서, 프로그램에는 어떠한 질문의 내용과, 이 질문에 대한 전문의 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이라는 일련의 행위가 대응되어 기술되어 있다. 구체적으로는 "Hi. How are you? My friend."라는 질문에 대해, "I'm fine.", "Great!" 및 "Not so good."라는 3개의 선택지(전문)가 대응되어 있다. 또, "I'm fine." 및 Great!"라는 선택지에는 "That's great!" 및 That's good, but I have a headache."라는 음성 출력에 의한 랜덤·액션이 대응되어 있고, "Not so good."라는 선택지에는 "Oh, really? I'm sorry to hear that. I hope you will feel better soon."이라는 음성 출력에 의한 액션이 대응되어 있다.Subsequently, Steps 2 to 5 form a series of flows of questions from the pet robot 1, the user's answer, and the pet robot 1's response to the pet robot 1, which forms the core of conversation (communication). In this regard, the program describes the contents of a question, a plurality of options that provide a full answer to the question, and a series of actions, each of which is an action for each option. Specifically for the question "Hi. How are you? My friend.", "I'm fine.", "Great!" And three options (full text) corresponding to "Not so good." Again, "I'm fine." And Great! "Options correspond to random actions by voice output" That's great! "And That's good, but I have a headache." I'm sorry to hear that.I hope you will feel better soon. "

이러한 프로그램의 기술에 따라, 스텝2에서, 메인 제어 유닛(11)이 스피커(8)를 제어함으로써, "Hi. How are you? My friend."라는 질문이 스피커(8)로부터 음성으로 출력된다. 계속하여 스텝3에서, 메인 제어 유닛(11)이 디스플레이(3)를 제어함으로써, 질문에 대한 대답의 후보로서, 이 질문에 대응된 3개의 선택지의 전문이 디스플레이(3)에 표시된다.According to the description of this program, in step 2, the main control unit 11 controls the speaker 8, so that the question "Hi. How are you? My friend." Is output from the speaker 8 as voice. Subsequently, in step 3, the main control unit 11 controls the display 3 so that the full text of the three options corresponding to the question is displayed on the display 3 as candidates for answers to the question.

도 5는 질문에 대한 대답의 후보인 선택지의 표시예를 나타내는 도면이다. 이 표시예에서는 음성 출력된 질문의 내용, 즉 "Hi. How are you? My friend."가 상단에 표시되어 있는 동시에, 그 아래에 "I'm fine.", "Great! 및 "Not so good."라는 3개의 선택지가 전문으로 열거되어 표시되어 있다. 이에 따라, 사용자에 있어서는 질문의 내용과 선택지의 내용의 대응 관계를 한눈에 파악할 수 있기 때문에, 특히, 어학 학습의 경우에는 학습효율을 높일 수 있다. 또, 이 표시예에서는 사용자에 주목을 촉진하여 학습효율을 한층 높이도록 하고, 선택지의 전문에서의 억양의 스트레스 부분에 대해, 폰트의 색상이나 크기를 바꾸는 것 등에 의해 강조하여 표시되어 있다. 사용자는 이들 선택지 중에서 임의의 것을 선택하여, 그 전문을 발음한다.5 is a diagram illustrating a display example of an option that is a candidate for an answer to a question. In this display example, the content of the voiced question, that is, "Hi. How are you? My friend." Is displayed at the top, and "I'm fine.", "Great! And" Not so good below it. 3 options are listed and displayed in full text. As a result, the user can grasp the correspondence between the contents of the question and the contents of the option at a glance. In this display example, the user's attention is promoted and the learning efficiency is further enhanced, and the stress portion of the accent in the text of the option is highlighted by changing the color or size of the font. The user selects any of these options and pronounces the full text.

이때, 애완 로봇(1)은 사용자가 발음하는 선택지의 각각을 본보기 음성으로서 발음하도록 할 수도 있다. 예를 들면, 도 5에 나타내는 상태에 있어서, 사용자가 스위치(7)에 대하여 소정의 조작을 행한다. 이렇게 하면 이 조작에 대응하여, 메인 제어 유닛(11)이 스피커(8)를 제어하고, 선택지의 전문 중, 적어도 하나의 선택지가 본보기 음성으로서 스피커(8)로부터 출력된다. 본보기 음성의 출력이 모두 완료되면, 다시, 도 5에 나타낸 상태로 되돌아간다.In this case, the pet robot 1 may be configured to pronounce each of the choices spoken by the user as an example voice. For example, in the state shown in FIG. 5, a user performs predetermined operation with respect to the switch 7. In this way, in response to this operation, the main control unit 11 controls the speaker 8, and at least one option among the full text of the option is output from the speaker 8 as an exemplary voice. When all of the example audio outputs are completed, the process returns to the state shown in FIG.

또, 본보기음성의 개시는 스위치(11)의 조작 이외에도, 예를 들면, 사용자로부터의 "본보기!"라는 말을 마이크로폰(4)으로부터 음성인식할 수도 있다. 또한, 이 "본보기!"의 후에, "1번"이라는 선택지를 나타내는 번호를 마이크로폰(4)으로부터 음성인식시킴으로써 선택지 중의 3번째만이 본보기 음성으로서 스피커(8)로부터 음성 출력된다.Moreover, in addition to the operation of the switch 11, the start of example voice can also recognize the words "example!" From the microphone 4 from the microphone 4, for example. In addition, after this "example!", The voice number is recognized from the microphone 4 by the number 4 indicating the option "1", and only the third of the options is output as the example voice from the speaker 8.

또한, 애완 로봇(1)이, 이 본보기음성을 발음할 때에, 어떤 선택지를 본보기 음성으로서 발음하고 있는 지를 디스플레이(3)에 강조하여 표시할 수도 있다. 예를 들면, 지금 현재 디스플레이(3)에 표시되어 있는 하나의 선택지(예를 들면 "I'm fine.")가 스피커(8)로부터 본보기 음성으로서 발음되고 있다. 이 때, 메인 제어 유닛(11)이 디스플레이(3)를 제어하고, 이 하나의 선택지에 대응하는 문자(또는 선택지)를 강조하여 표시한다. 또한, 강조 표시 방법으로는 문자(또는 선택지)에 대하여, 폰트의 색상이나 크기를 바꾸는 것 외에, 밑줄을 긋거나, 글자체를 바꾸거나, 굵은 문자로 하는 것 등을 들 수 있다.In addition, when the pet robot 1 pronounces this example voice, it is also possible to highlight and display on the display 3 which option is pronounced as the example voice. For example, one option (for example "I'm fine.") Currently being displayed on the display 3 is pronounced as an exemplary voice from the speaker 8. At this time, the main control unit 11 controls the display 3 and highlights and displays the letter (or option) corresponding to this one option. In addition, the highlighting method includes not only changing the color and size of the font with respect to the character (or option), but also underlining, changing the font, or making the text bold.

음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하는 동시에, 그 인식결과를 메인 제어 유닛(11)에 출력한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과에 따라, 사용자의 발음에 대응하는 하나의 선택지("I'm fine.", "Great!" 또는 "Not so good.")를 특정한다. 그리고, 메인 제어 유닛(11)은 특정된 선택지에 대응하는 액션을 애완 로봇(1)이 다음에 취해야 하는 반응으로서 결정한다. 그리고, 특정된 선택지가 "I'm fine." 또는 "Great!"인 경우에는 스텝4로 진행하여, "That's great" 및 That's good, but I have a headache." 중 어느 하나가 무작위로 선택되어, 이것이 스피커(8)로부터 음성 출력된다. 또, 특정된 선택지가 "Not so good."인 경우에는 스텝5로 진행하여, "Oh, really? I'm sorry to hear that. I hope you will feel better soon."이라는 발음이 음성 출력된다.The voice recognition unit 10 performs voice recognition using the user's full pronunciation obtained from the microphone 4 and outputs the recognition result to the main control unit 11. The main control unit 11 according to the recognition result from the speech recognition unit 10, one option corresponding to the user's pronunciation ("I'm fine.", "Great!" Or "Not so good.") Specifies. The main control unit 11 then determines the action corresponding to the specified option as the reaction that the pet robot 1 should take next. The specified option is "I'm fine." Or " Great! &Quot;, the process proceeds to step 4, in which one of " That's great " and That's good, but I have a headache. &Quot; is randomly selected, and this is output from the speaker 8. If the specified option is "Not so good." Proceed to Step 5, select "Oh, really? I'm sorry to hear that. I hope you will feel better soon. ”

스텝4에서, "That's great."으로 음성 출력된 경우에는 스텝10으로 진행하여, "What do you want to do?"라는 질문이 음성 출력된다. 한편, 스텝4에서 That's good, but I have a headache."로 음성 출력된 경우에는 스텝6에서 "Please touch my head gently."로 음성 출력된 후에, 사용자로부터의 액션 대기의 상태로 된다(스텝7). 이 액션 대기의 상태에 있어서, 사용자가 애완 로봇(1)의 이마에 접촉한 경우에는 이 액션이 이마 터치 센서(6)에 의해서 검지된다. 이에 따라, 스텝8에서, 대화형 애완 로봇(1)의 반응으로서, "Thank you my friend. I feel much better now."와 음성 출력된 후에, 상술한 스텝10으로 진행된다. 이것에 대하여, 사용자가 이마 이외에 접촉하여, 이마 터치 센서(6) 이외의 센서가 이것을 검지한 경우에는, 스텝9에서, 대화형 애완 로봇(1)의 반응으로서, "Please touch my head. Try again."으로 음성 출력되어, 스텝7의 대기 상태로 되돌아간다. 그 결과, 사용자가 이마에 접촉할 때까지, 스텝7, 9의 루프가 반복되게 된다.In step 4, when the voice is output as "That's great.", The flow advances to step 10, where the question "What do you want to do?" On the other hand, if the voice is outputted in Step 4 as "that's good, but I have a headache.", The voice is outputted as "Please touch my head gently." In step 6, and the user waits for action (step 7 In the state of waiting for this action, when the user touches the forehead of the pet robot 1, this action is detected by the forehead touch sensor 6. Accordingly, in step 8, the interactive pet robot ( In response to 1), "Thank you my friend. After the voice is outputted, the process proceeds to step 10. In response to this, when the user touches other than the forehead and a sensor other than the forehead touch sensor 6 detects this, step 9 In response to the interactive pet robot 1, "Please touch my head. Try again. "And return to the standby state of step 7. As a result, the loops of steps 7 and 9 are repeated until the user touches the forehead.

스텝(10)에서 "What do you want do?"로 음성 출력되면, 스텝11로 진행하여, 각 섹션의 선택지가 된다. 예를 들면, 좋아하는 과일 섹션을 선택하면, 대화형 애완 로봇(1) 및 사용자가 좋아하는 음식물에 관한 회화가 된다.If the voice is output in step 10 as " What do you want do? &Quot; For example, selecting a favorite fruit section results in a conversation about the interactive pet robot 1 and the foods that the user likes.

또, 이상과 같은 회화의 진행 순서에 있어서, 사용자가 "See you later."로 발음한 경우에는 스텝1의 대기 상태로 강제적으로 되돌아가도록 설정되어 있다. 또, 사용자가 "Go back."으로 발음한 경우에는 스텝10으로 강제적으로 되돌아가도록 설정되어 있다.In the above-described conversational procedure, when the user pronounces "See you later.", It is set to forcibly return to the waiting state of Step 1. In addition, when the user pronounces "Go back.", It is set to forcibly return to Step 10.

또, 이상과 같은 회화의 진행 순서에 있어서, 애완 로봇(1)이 질문 또는 대 답의 반응을 음성 출력하고 있을 때에, 그 발음 내용을 디스플레이(3)에 표시할 수도 있다. 예를 들면, 스텝2에 있어서, "Hi How are you? My friend."라는 내용이 스피커(8)로부터 음성 출력되고 있을 때에, 메인 제어 유닛(11)이 디스플레이(3)를 제어함으로써, 발음 내용인 "Hi How are you? My friend."라는 질문이 디스플레이(3)에 표시된다.In addition, in the above procedure of conversation, when the pet robot 1 outputs a response of a question or an answer, the pronunciation content can be displayed on the display 3. For example, in step 2, when the content " Hi How are you? My friend. &Quot; is output from the speaker 8, the main control unit 11 controls the display 3, whereby the pronunciation content is pronounced. The question "Hi How are you? My friend." Is shown on the display 3.

또, 외부 장착 ROM(14)이 내장된 추가 카트리지에는 상기 이외에, 영어학습능력을 더 높이기 위해서 로봇을 면접관으로 상정하여, 문제 카드를 디스플레이에 표시하는 「영어능력시험 3급 정도의 면접」의 장을 가상한 것이 있다. 또, 「플래시카드게임」으로 단어의 발음 및 그 철자(스펠링)의 학습을 행할 수 있는 것도 있다. 후자의 경우, 메인 제어 유닛(11)은 디스플레이(3)에 단어의 철자와 보기(예를 들면, Book의 철자와 책의 보기)를 일정한 간격으로 순서대로 표시하는 동시에, 표시된 단어의 발음을 스피커(8)로부터 음성 출력시킨다. 로봇은 사용자가 올바른 발음을 한 경우에는 "Good.", 그렇지 않은 경우에는 "Try again." 등의 대답을 한다. 또「해외에서의 쇼핑」을 상정한 실용회화에 의거한 것 등, 각종 시리즈가 준비되어 있다.In addition to the above, an additional cartridge having an externally mounted ROM 14 may be used as an interviewer for an English proficiency test class 3, which assumes that the robot is an interviewer and displays a problem card on the display in order to further improve English learning ability. There is something virtual. In addition, a "flash card game" may be used to learn pronunciation of words and spelling thereof. In the latter case, the main control unit 11 displays the spelling and the view of the words on the display 3 (for example, the spelling of the Book and the view of the book) in order at regular intervals, and simultaneously reproduces the pronunciation of the displayed words. Audio is output from (8). The robot will say "Good." If the user pronounces it correctly, or "Try again." Answer the back. In addition, various series are available, such as those based on practical paintings assuming "shopping abroad."

이와 같이 본 실시예에 의하면, 대화형 애완 로봇(1)의 질문에 대한 대답의 후보가 되는 복수의 선택지가 전문으로 사용자에 제시된다. 사용자는 제시된 복수의 선택지 중에서 적절한 것을 선택하여, 그 전문을 그대로 발음하면 된다. 한편, 음성인식 유닛(10)에 있어서는 사용자가 발음하는 변형은 선택지의 수에 제한되어 있기 때문에, 고속인 마이크로컴퓨터를 필요로 하지 않고, 그 인식을 용이하고 또 한 고속으로 행할 수 있다. 그 결과, 발음 어구 수나 대기 어구 수에 제약을 둘 수밖에 없는 비교적 저가인 제품이더라도, 선택지의 전문 제시에 의해, 사용자에 스트레스를 느끼게 하는 일없이 회화의 촉진을 도모할 수 있다.As described above, according to the present embodiment, a plurality of options that are candidates for answers to the questions of the interactive pet robot 1 are presented to the user in a specialized manner. The user may select an appropriate one from among a plurality of presented options and pronounce the full text as it is. On the other hand, in the speech recognition unit 10, since the user's pronunciation is limited to the number of choices, the recognition can be performed easily and at high speed without requiring a high speed microcomputer. As a result, even if the product is relatively inexpensive, which has a limitation on the number of pronunciation phrases and waiting phrases, it is possible to promote conversation without causing the user to feel stress by presenting a specialized option.

또, 본 실시예에 의하면, 질문에 대한 대답에 필요한 정보가 대화형 애완 로봇(1)으로부터 제시되기 때문에, 사용자는 이 애완 로봇(1)과 마주 본 상태에서, 다른 정보를 참조하지 않고 회화를 진행시킬 수 있다. 이에 따라, 애완 로봇(1)과의 커뮤니케이션감을 높일 수 있어, 사용자의 학습의욕을 유효하게 지속시킬 수 있게 된다.In addition, according to the present embodiment, since the information required for answering the question is presented from the interactive pet robot 1, the user can converse without referring to other information while facing the pet robot 1. You can proceed. Thereby, the communication feeling with the pet robot 1 can be improved, and the user's willingness to learn can be effectively maintained.

또, 상술한 실시예에서는 영어회화의 학습을 예로 대화형 애완 로봇(1)의 동작에 대하여 설명했지만, 본 발명은 이것에 한정되는 것이 아니라, 각국 언어의 회화학습에 대하여 넓게 적용 가능하다.In addition, in the above-described embodiment, the operation of the interactive pet robot 1 has been described as an example of learning English conversation, but the present invention is not limited to this, but can be widely applied to conversational learning of languages of each country.

또, 대화형 애완 로봇(1)이 취해야 하는 액션은 스피커(8)로부터의 음성 출력에 한정되지 않는다. 예를 들면, 대화형 애완 로봇(1)의 손발이 가동식이면, 액션으로서 이들을 가동시키더라도 되고, 발광체가 장착되어 있는 경우에는 이것을 점멸시킬 수도 있다.In addition, the action which the interactive pet robot 1 should take is not limited to the audio output from the speaker 8. For example, if the limbs of the interactive pet robot 1 are movable, they may be operated as an action, or when the luminous body is mounted, it may be flickered.

또한, 상술한 실시예에서는 질문에 대한 대답의 후보인 선택지를 디스플레이(3)에 전문 표시하고 있지만, 이것을 스피커(8)에 의한 전문의 음성 출력에 의해 사용자에게 제시하는 것도 가능하다. 단, 회화의 촉진이라는 관점에서 말하면, 대화형 애완 로봇(1)이 질문에 대한 선택지를 그 때마다 발음하는 것보다도, 발음의 시간을 필요로 하지 않는 디스플레이(3)로의 표시 쪽이 바람직하다.In addition, in the above-mentioned embodiment, although the option which is a candidate for answering a question is displayed in full on the display 3, it is also possible to present this to a user by the full audio output by the speaker 8. In terms of promoting conversation, however, it is preferable to display on the display 3 that does not require time for pronunciation than when the interactive pet robot 1 pronounces a choice for a question each time.

본 발명에 의해, 발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화를 촉진 가능한 신규한 대화형 애완 로봇이 제공된다. 또한, 대화형 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 지속시키는 것이 가능하다.The present invention provides a novel interactive pet robot capable of facilitating conversation even if there are restrictions on the number of phonetic phrases and waiting phrases. In addition, it is possible to maintain a sense of communication with the interactive pet robot and keep the user's motivation to learn.

Claims (11)

대화형 애완 로봇에 있어서,In the interactive pet robot, 캐릭터형의 로봇 본체,Character type robot body, 상기 로봇 본체에 장착된 마이크로폰,A microphone mounted to the robot body, 상기 로봇 본체에 장착된 스피커,A speaker mounted on the robot body, 상기 로봇 본체에 장착된 디스플레이,A display mounted to the robot body, 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있어서, 어떠한 질문의 내용과, 상기 질문에 대한 전문(全文)의 대답이 되는 복수의 선택지(選擇肢)와, 상기 선택지의 각각에 대한 액션이 대응되어 기술된 프로그램을 격납하고 있는 기억부, 및The order of the conversation with the user is defined by the branching part by the user's selection, and the contents of a certain question, a plurality of options for answering the full text of the question, and each of the options A storage unit for storing the described program corresponding to the action of 상기 로봇 본체에 내장되어, 상기 기억부로부터 읽혀진 상기 프로그램의 기술(記述)에 따른 처리를 행하는 제어부A control unit which is built in the robot body and performs processing according to the description of the program read from the storage unit; 를 포함하고,Including, 상기 제어부는The control unit 상기 질문의 내용을 상기 스피커로부터 음성으로 출력한 경우, 상기 질문에 대한 대답의 후보로서, 상기 질문에 대응된 상기 복수의 선택지를 전문으로 상기 디스플레이에 표시하는 제1 처리를 행하고,When the content of the question is output from the speaker as a voice, as a candidate for the answer to the question, a first process of displaying the plurality of options corresponding to the question on the display in full, 상기 디스플레이에 표시된 상기 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 상기 마이크로폰으로부터 얻어지는 사용자의 전문의 발 음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 상기 하나의 선택지에 대응하는 상기 액션을 상기 대답에 대하여 상기 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행하는When any one of the plurality of options displayed on the display is pronounced by the user, voice recognition is performed by inputting the user's full voice obtained from the microphone, and one option corresponding to the user's pronunciation is input. At the same time, performing a second process of determining the action corresponding to the one option as the response the interactive pet robot should take next to the answer. 대화형 애완 로봇.Interactive pet robot. 제1항에 있어서,The method of claim 1, 상기 제1 처리에서, 상기 제어부는 상기 질문의 내용과 동시에, 상기 복수의 선택지의 전문을 열거하여 상기 디스플레이에 표시하는 것을 특징으로 하는 대화형 애완 로봇.In the first processing, the controller enumerates and displays on the display the full text of the plurality of options simultaneously with the content of the question. 제1항에 있어서,The method of claim 1, 상기 제1 처리에서, 상기 제어부는 상기 복수의 선택지의 전문 중, 억양의 스트레스 부분을 강조하여 상기 디스플레이에 표시하는 것을 특징으로 하는 대화형 애완 로봇.In the first processing, the controller is characterized by highlighting the stress portion of the intonation among the full text of the plurality of options to display on the display. 제1항에 있어서,The method of claim 1, 상기 액션은 상기 대답에 대한 반응으로서의 발음을 상기 스피커로부터 음성으로 출력하는 것임을 특징으로 하는 대화형 애완 로봇.And wherein said action outputs a voice from said speaker as a response to said answer. 제1항에 있어서,The method of claim 1, 상기 제어부는 상기 로봇 본체에서 가장 큰 내부 공간이 확보된 상기 로봇 본체의 몸통부 내에 수납되어 있고,The controller is accommodated in the body portion of the robot body is secured the largest internal space in the robot body, 상기 디스플레이는 상기 로봇 본체의 몸통부 정면에 장착되어 있는 것을 특징으로 하는 대화형 애완 로봇.The display is an interactive pet robot, characterized in that mounted on the front of the body portion of the robot body. 제1항에 있어서,The method of claim 1, 상기 제어부는 상기 디스플레이에 복수의 단어의 철자와 보기를 일정한 간격으로 순서대로 표시시키는 동시에, 상기 순서대로 표시된 단어의 발음을 상기 스피커로부터 음성으로 출력하는 제3 처리를 행하는 것을 특징으로 하는 대화형 애완 로봇.And the control unit displays a spelling and a view of the plurality of words on the display in order at regular intervals, and performs a third process of outputting the pronunciation of the words displayed in the order from the speaker as voice. robot. 제4항에 있어서,The method of claim 4, wherein 상기 액션은 상기 대답에 대한 반응으로서의 발음의 내용을 상기 디스플레이에 표시하는 것을 더 포함하는 것을 특징으로 하는 대화형 애완 로봇.And the action further comprises displaying on the display the contents of the pronunciation as a response to the answer. 제1항에 있어서,The method of claim 1, 상기 제1 처리에서, 상기 제어부는 상기 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식, 또는 상기 제어부에 접속된 스위치의 조작을 행하는 것에 의해, 상기 복수의 선택지의 전문 중, 하나 이상을 본보기 음 성으로 하여, 상기 스피커로부터 음성으로 출력하는 것을 특징으로 하는 대화형 애완 로봇.In the first processing, the control unit performs one or more of the full texts of the plurality of options by performing voice recognition using the pronunciation of the full text of the user obtained from the microphone or operating a switch connected to the control unit. An interactive pet robot characterized by outputting sound from the speaker as an exemplary voice. 제8항에 있어서,The method of claim 8, 상기 제1 처리에서, 상기 제어부는 상기 복수의 선택지의 전문 중, 상기 본보기 음성을 강조하여 상기 디스플레이에 표시하는 것을 특징으로 하는 대화형 애완 로봇.In the first processing, the controller is characterized by highlighting the example voice among the full text of the plurality of options to display on the display. 대화형 애완 로봇에 있어서,In the interactive pet robot, 캐릭터형의 로봇 본체,Character type robot body, 상기 로봇 본체에 장착된 마이크로폰,A microphone mounted to the robot body, 상기 로봇 본체에 장착되어 사용자에게 정보를 제시하는 제시 수단,Presentation means mounted on the robot body for presenting information to the user, 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있어서, 어떠한 질문의 내용과, 상기 질문에 대한 전문의 대답이 되는 복수의 선택지와, 상기 선택지의 각각에 대한 액션이 대응되어 기술된 프로그램을 격납하고 있는 기억부, 및The order of conversation with the user is defined in the branching section by the user's selection, and the content of a question, a plurality of options for the full answer to the question, and actions for each of the options are described. A storage unit containing a stored program, and 상기 로봇 본체에 내장되어, 상기 기억부로부터 읽혀진 상기 프로그램의 기술에 따른 처리를 행하는 제어부A control unit which is built in the robot body and performs processing according to the description of the program read from the storage unit 를 포함하고,Including, 상기 제어부는The control unit 상기 질문의 내용을 상기 제시 수단을 통하여 사용자에 제시한 경우, 상기 질문에 대한 대답의 후보로서, 상기 질문에 대응된 상기 복수의 선택지를 전문으로 상기 제시 수단을 통하여 사용자에 제시하는 제1 처리를 행하고,When the content of the question is presented to the user through the presentation means, as a candidate for the answer to the question, a first process of presenting the plurality of options corresponding to the question to the user through the presentation means in full; Do it, 상기 디스플레이에 표시된 상기 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 상기 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 상기 하나의 선택지에 대응하는 상기 액션을 상기 대답에 대하여 상기 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행하는When any one of the plurality of options displayed on the display is pronounced by the user, voice recognition is performed by inputting the user's full pronunciation obtained from the microphone to identify one option corresponding to the user's pronunciation. And at the same time, performing a second process of determining the action corresponding to the one option as the response the interactive pet robot should take next to the answer. 대화형 애완 로봇.Interactive pet robot. 제10항에 있어서,The method of claim 10, 상기 제시 수단은 스피커 및 디스플레이 중 적어도 하나인 것을 특징으로 하는 대화형 애완 로봇.And said presenting means is at least one of a speaker and a display.
KR1020050070674A 2004-08-02 2005-08-02 Interactive robot pet KR20060049041A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004225134 2004-08-02
JPJP-P-2004-00225134 2004-08-02
JPJP-P-2005-00073636 2005-03-15
JP2005073636A JP2006068489A (en) 2004-08-02 2005-03-15 Interactive pet robot

Publications (1)

Publication Number Publication Date
KR20060049041A true KR20060049041A (en) 2006-05-18

Family

ID=36149685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050070674A KR20060049041A (en) 2004-08-02 2005-08-02 Interactive robot pet

Country Status (3)

Country Link
JP (1) JP2006068489A (en)
KR (1) KR20060049041A (en)
TW (1) TW200611745A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381006B1 (en) * 2012-05-10 2014-04-04 얄리주식회사 Question answering doll using speech recognition
KR101418709B1 (en) * 2012-06-14 2014-07-16 진삼순 Question answering doll using speech recognition and the manufacturing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI406202B (en) * 2009-09-18 2013-08-21 Univ Nat Central Leadership Robotics System, its control methods, computer program products and computer-readable recording media
KR101386403B1 (en) * 2012-07-25 2014-04-29 진삼순 doll and the manufacturing method
JP6308608B2 (en) * 2013-01-30 2018-04-11 国立大学法人三重大学 Foreign language conversation learning system based on direct method
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
BR112019001591A2 (en) * 2016-08-04 2019-05-07 Sony Interactive Entertainment Inc. apparatus and method of information processing, and information media
CN107756412B (en) * 2017-09-22 2019-09-17 深圳壹账通智能科技有限公司 The control method and terminal device of voice dialogue robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381006B1 (en) * 2012-05-10 2014-04-04 얄리주식회사 Question answering doll using speech recognition
KR101418709B1 (en) * 2012-06-14 2014-07-16 진삼순 Question answering doll using speech recognition and the manufacturing method

Also Published As

Publication number Publication date
TW200611745A (en) 2006-04-16
JP2006068489A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
CN108962217B (en) Speech synthesis method and related equipment
KR20060049041A (en) Interactive robot pet
CN108431883B (en) Language learning system and language learning program
JP6654691B2 (en) Information processing device
KR20010013236A (en) Reading and pronunciation tutor
JP4729902B2 (en) Spoken dialogue system
CN106991094A (en) Foreigh-language oral-speech is spoken learning system, method and computer program
JP2017173546A (en) Learning support device, robot, learning support system, learning support method, and program
JP2015036788A (en) Pronunciation learning device for foreign language
Fellbaum et al. Principles of electronic speech processing with applications for people with disabilities
KR20150126176A (en) A word study system using infinity mnemotechniques and method of the same
KR100238451B1 (en) A computer aided education system and control techniques for korean
JP7166580B2 (en) language learning methods
JP6466391B2 (en) Language learning device
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
KR102292477B1 (en) Server and method for automatic assessment of oral language proficiency
JPH11237971A (en) Voice responding device
JP2007148170A (en) Foreign language learning support system
CN1734521A (en) Conversation type robot pet
JP6641680B2 (en) Audio output device, audio output program, and audio output method
WO2007016509A1 (en) A system of sound representation and pronunciation techniques for english and other european languages
KR20090054951A (en) Method for studying word and word studying apparatus thereof
KR101250897B1 (en) Apparatus for word entry searching in a portable electronic dictionary and method thereof
KR20150136309A (en) Language learning tool and learning method of using it
KR101487007B1 (en) Learning method and learning apparatus of correction of pronunciation by pronunciation analysis

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination