KR20060049041A - Interactive robot pet - Google Patents
Interactive robot pet Download PDFInfo
- Publication number
- KR20060049041A KR20060049041A KR1020050070674A KR20050070674A KR20060049041A KR 20060049041 A KR20060049041 A KR 20060049041A KR 1020050070674 A KR1020050070674 A KR 1020050070674A KR 20050070674 A KR20050070674 A KR 20050070674A KR 20060049041 A KR20060049041 A KR 20060049041A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- display
- question
- options
- robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/061—Safety devices with audible signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Toys (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Abstract
발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화를 촉진 가능한 새로운 대화형 애완 로봇을 제공하는 대화형 애완 로봇은 기억부로부터 읽혀진 프로그램의 기술에 따른 처리를 행하는 제어부(9)를 가진다. 프로그램은 사용자와의 회화의 진행 순서를 분기부로 규정하고 있어, 어떠한 질문의 내용과, 질문에 대한 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 질문의 내용이 음성 출력된 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 디스플레이(3)에 표시한다. 디스플레이(3)에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정한다.Even if there are limitations on the number of phonetic phrases or the number of waiting phrases, the interactive pet robot that provides a new interactive pet robot capable of facilitating conversation has a control unit 9 which performs processing according to the description of the program read out from the storage unit. The program defines the progression of conversation with the user as a branch, and describes the contents of a question, a plurality of options to answer the questions, and an action for each of the options. When the content of the question is output in voice, a plurality of choices corresponding to the question are displayed on the display 3 as candidates for the answer to the question. When one of the plurality of options displayed on the display 3 is pronounced by the user, voice recognition is performed to specify one option corresponding to the user's pronunciation, and to perform an action corresponding to the one option. Respond to the answer as an interactive pet robot's next reaction.
대화형 애완 로봇, 회화, 음성 출력, 디스플레이, 음성인식 Interactive Pet Robot, Conversation, Voice Output, Display, Voice Recognition
Description
도 1은 대화형 애완 로봇의 외관정면도이다.1 is an external front view of an interactive pet robot.
도 2는 대화형 애완 로봇의 외관측면도이다.2 is an external side view of an interactive pet robot.
도 3은 대화형 애완 로봇의 제어블럭도이다.3 is a control block diagram of an interactive pet robot.
도 4는 회화의 진행 순서를 나타내는 플로차트이다.4 is a flowchart showing the flow of painting.
도 5는 질문에 대한 대답의 후보인 선택지의 표시예를 나타내는 도면이다.5 is a diagram illustrating a display example of an option that is a candidate for an answer to a question.
[주요 부분에 대한 부호의 설명][Description of Codes for Main Parts]
1 대화형 애완 로봇 2 로봇 본체1 Interactive Pet
2a 몸통부 3 디스플레이
4 마이크로폰 5 대인 센서4
6 이마 터치 센서 7 스위치6
8 스피커 9 제어부8
10 음성인식 유닛 11 메인 제어 유닛10
12 마스크 ROM 13 SRAM12
14 외부 장착 ROM14 Externally Mounted ROM
특허문헌1: 일본 특개2002-351305호 공보Patent Document 1: Japanese Patent Application Laid-Open No. 2002-351305
본 발명은 대화형 애완 로봇에 관한 것으로, 특히 어학 학습에 알맞은 애완 로봇에 관한 것이다.The present invention relates to an interactive pet robot, and more particularly to a pet robot suitable for language learning.
종래에, 사용자와의 사이에서 커뮤니케이션을 행하는 대화형 애완 로봇이 알려져 있으며, 그 일종으로서, 영어회화 어학 학습의 용도로 사용되는 것도 알려져 있다. 또, 하기 특허문헌1에는 음성인식 엔진을 구비하고, 청취한 모국어를 외국어로 번역하여 발성하는 어학연수용 로봇이 개시되어 있다. 이 로봇은 집오리 또는 펭귄의 형태를 모방한 외관 형상을 가지고, 그 두부에는 표시화면이 설치되어 있다. 이 표시화면에는 얼굴의 표정(눈·코·입)이 표시되어, 번역한 언어의 발성에 따라서, 표시된 얼굴의 표정이 재잘거리는 것처럼 변화된다.Background Art Conventionally, an interactive pet robot that communicates with a user is known, and as one kind thereof, it is also known to be used for learning English conversational language. In addition,
그런데, 이러한 대화형 애완 로봇에서는, 사용자와의 대화를 정체시키지 않고 어떻게 촉진할까 하는 것이 상품 구매력의 향상을 도모하는 데에 있어서 중요한 포인트가 된다. 이를 위해서는 로봇이 발음하는 발음 어구(phrase) 수와 로봇이 청취 가능한 대기 어구 수를 증가시켜, 회화의 자유도를 높이는 것이 고려된다. 그러나, 이 경우에는 사용자의 발음을 인식하는 데 고속인 마이크로컴퓨터가 필요하게 되는 것 외에 프로그램의 크기도 방대하게 되기 때문에, 저가격대의 제품화가 매우 곤란해진다. 한편, 종래의 비교적 저가인 제품에서는, 상술한 어구 수의 제약 때문에, 사용자의 발음이 인식되지 않는 경우가 많아, 회화가 정체되기 쉬워진 다. 그 결과, 대화형 애완 로봇과 사용자 사이에서의 커뮤니케이션의 연출이라는 점에서 문제가 있었다.By the way, in such an interactive pet robot, how to promote without congestion with a user becomes an important point in improving product purchasing power. To this end, it is considered that the number of pronunciation phrases pronounced by the robot and the number of atmospheric phrases that the robot can hear increase the degree of freedom of conversation. In this case, however, in addition to the need for a high speed microcomputer to recognize the user's pronunciation, the size of the program is enormous, which makes it very difficult to produce a low-cost band. On the other hand, in the conventional relatively low-cost product, the pronunciation of the user is often not recognized because of the above-mentioned limitation of the number of phrases, and the conversation is easily stagnated. As a result, there has been a problem in that the communication between the interactive pet robot and the user is directed.
본 발명은 이러한 사정을 감안하여 이루어진 것으로, 그 목적은 발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화의 촉진이 가능한 새로운 대화형 애완 로봇을 제공하는 것이다.This invention is made | formed in view of such a situation, The objective is to provide the new interactive pet robot which can promote a conversation, even if there is a restriction of the number of phonetic phrases and a waiting phrase.
또, 본 발명의 다른 목적은 대화형 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 지속시키는 것이다.In addition, another object of the present invention is to increase the communication feeling with the interactive pet robot, and to maintain the user's desire to learn.
이러한 과제를 해결하기 위하여, 본 발명의 제1 측면에 의하면, 이 대화형 애완 로봇은 캐릭터형의 로봇 본체와, 로봇 본체에 장착된 마이크로폰과, 로봇 본체에 장착된 스피커와, 로봇 본체에 장착된 디스플레이와, 프로그램을 격납하고 있는 기억부와, 로봇 본체에 내장되어 기억부로부터 읽혀진 프로그램의 기술(記述)에 따른 처리를 행하는 제어부를 가진다.In order to solve this problem, according to the first aspect of the present invention, the interactive pet robot is a character robot body, a microphone mounted on the robot body, a speaker mounted on the robot body, and a robot mounted on the robot body. It has a display, a storage unit that stores a program, and a control unit that performs processing in accordance with the description of a program built into the robot body and read from the storage unit.
여기에서, 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 이 프로그램에는 어떠한 질문의 내용과, 질문에 대한 전문(全文)의 대답이 되는 복수의 선택지(選擇肢)와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 또, 제어부는 질문의 내용을 스피커로부터 음성으로 출력한 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 전문으로 디스플레이에 표시하는 제1 처리를 행한다. 이 제어부는 디스플레이에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행한다.Here, the program stipulates the progression of conversation with the user as the branching part by the user's selection. This program describes the contents of a question, a plurality of options for answering the full text of the question, and an action for each of the options. In addition, when the content of the question is output from the speaker as a voice, as a candidate for answering the question, the control unit performs a first process of displaying on the display a plurality of choices corresponding to the question. When one of the plurality of options displayed on the display is pronounced by the user, the controller performs voice recognition using the pronunciation of the user's full text obtained from the microphone, thereby identifying one option corresponding to the user's pronunciation. At the same time, a second process is performed in which the action corresponding to this one option is determined as the response the interactive pet robot should take next to the answer.
여기에서, 본 발명의 제1 측면에 의한 대화형 애완 로봇에서의 제1 처리에서, 제어부는 질문의 내용과 함께 복수의 선택지의 전문을 열거하여 디스플레이에 표시하는 것이 바람직하다. 또, 이 제1 처리에 있어서, 제어부는 복수의 선택지의 전문 중, 억양의 스트레스 부분을 강조하여 디스플레이에 표시할 수도 있다.Here, in the first processing in the interactive pet robot according to the first aspect of the present invention, it is preferable that the controller enumerates the full text of the plurality of options together with the contents of the question and displays them on the display. In addition, in this first process, the control unit may highlight and display the stress portion of the accent in the full text of the plurality of options on the display.
본 발명의 제1 측면에 있어서, 액션은 대답에 대한 반응으로서의 발음을 스피커로부터 음성으로 출력하는 것인 것이 바람직하다.In the first aspect of the present invention, it is preferable that the action outputs the pronunciation from the speaker as a voice in response to the answer.
본 발명의 제1 측면에 있어서, 제어부는 로봇 본체에 있어서 가장 큰 내부 공간이 확보된 로봇 본체의 몸통부 내에 수납되어 있고, 디스플레이는 로봇 본체의 몸통부 정면에 장착되어 있는 것이 바람직하다.In the first aspect of the present invention, it is preferable that the control unit is housed in the trunk portion of the robot body in which the largest internal space is secured in the robot body, and the display is mounted in front of the trunk portion of the robot body.
본 발명의 제1 측면에 있어서, 제어부는 디스플레이에 복수의 단어의 철자와 보기를 일정한 간격으로 순서대로 표시시키는 동시에, 순서대로 표시된 단어의 발음을 스피커로부터 음성으로 출력하는 제3 처리를 행할 수도 있다.In the first aspect of the present invention, the controller may perform a third process of displaying the spelling and the example of a plurality of words on the display in order at regular intervals, and at the same time outputting the pronunciation of the words displayed in sequence from the speaker. .
본 발명의 제1 측면에 있어서, 액션은 대답에 대한 반응으로서의 발음의 내용을 디스플레이에 표시하는 것을 추가로 가질 수도 있다.In a first aspect of the invention, the action may further comprise displaying the content of the pronunciation on the display as a response to the answer.
본 발명의 제1 측면에서의 제1 처리에서, 제어부는 마이크로폰으로부터 얻어 지는 사용자의 전문의 발음을 입력으로 한 음성인식, 또는 제어부에 접속된 스위치의 조작을 행함으로써, 복수의 선택지의 전문 중, 최소한 하나를 본보기 음성으로 하여, 스피커로부터 음성으로 출력하는 제4 처리를 행할 수도 있다.In the first process according to the first aspect of the present invention, the control unit performs voice recognition using the user's full pronunciation obtained from the microphone or operates a switch connected to the control unit. A fourth process of outputting audio from the speaker as at least one example audio can also be performed.
본 발명의 제1 측면에서의 제4 처리에서, 제어부는 복수의 선택지의 전문 중, 본보기 음성을 강조하여 디스플레이에 표시할 수도 있다.In the fourth process in the first aspect of the present invention, the control unit may highlight and display an example voice among the full text of the plurality of options on the display.
한편, 본 발명의 제2 측면에 의하면, 이 대화형 애완 로봇은 캐릭터형의 로봇 본체와, 로봇 본체에 장착된 마이크로폰과, 로봇 본체에 장착되어 사용자에게 정보를 제시하는 제시 수단과, 프로그램을 격납하고 있는 기억부와, 로봇 본체에 내장되어 기억부로부터 읽혀진 프로그램의 기술에 따른 처리를 행하는 제어부를 가진다. 여기에서, 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 이 프로그램에는 어떠한 질문의 내용과, 질문에 대한 전문의 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이 대응되어 기술되어 있다. 또, 제어부는 질문의 내용을 제시 수단을 통하여 사용자에게 제시한 경우, 질문에 대한 대답의 후보로서, 질문에 대응된 복수의 선택지를 전문으로, 제시 수단을 통하여 사용자에게 제시하는 제1 처리를 행한다. 이 제어부는 디스플레이에 표시된 복수의 선택지 중 어느 하나가 사용자에 의해서 전문이 발음된 경우, 마이크로폰으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 사용자의 발음에 대응하는 하나의 선택지를 특정하는 동시에, 이 하나의 선택지에 대응하는 액션을, 대답에 대하여 대화형 애완 로봇이 다음에 취해야 하는 반응으로서 결정하는 제2 처리를 행한다.On the other hand, according to the second aspect of the present invention, the interactive pet robot includes a character robot body, a microphone mounted on the robot body, presentation means mounted on the robot body to present information to the user, and a program. And a control unit for processing according to the description of the program read in from the storage unit. Here, the program stipulates the progression of conversation with the user as the branching part by the user's selection. This program describes the contents of a question, a plurality of options that provide a full answer to the question, and an action for each of the options. In addition, when the content of the question is presented to the user through the presentation means, as a candidate for answering the question, the controller performs a first process of presenting to the user through the presentation means a plurality of options corresponding to the question. . When one of the plurality of options displayed on the display is pronounced by the user, the controller performs voice recognition using the pronunciation of the user's full text obtained from the microphone, thereby identifying one option corresponding to the user's pronunciation. At the same time, a second process is performed in which the action corresponding to this one option is determined as the response that the interactive pet robot should take next to the answer.
여기에서, 본 발명의 제2 측면에 있어서, 제시 수단은 스피커 및 디스플레이의 적어도 한쪽인 것이 바람직하다.Here, in the second aspect of the present invention, the presentation means is preferably at least one of a speaker and a display.
본 발명에 의하면, 대화형 애완 로봇의 질문에 대한 대답의 후보가 되는 복수의 선택지가 전문으로 사용자에 제시된다. 사용자는 전문으로 제시된 복수의 선택지의 중에서 적절한 것을 선택하여, 그 전문을 그대로 발음하면 된다. 한편, 음성인식을 행하는 시스템에 있어서는 사용자가 발음하는 변형은 선택지의 수만큼이기 때문에, 고속인 마이크로컴퓨터를 필요로 하지 않고, 그 인식을 용이하게 행할 수 있다. 그 결과, 발음 어구 수나 대기 어구 수에 제약을 둘 수밖에 없는 비교적 저가인 제품이더라도, 사용자에 스트레스를 느끼게 하는 일없이 회화의 촉진을 도모할 수 있다. 또, 질문에 대한 대답에 필요한 정보는 애완 로봇에 의해 제시되기 때문에, 사용자는 애완 로봇과 마주 본 상태로 회화를 진행시킬 수 있다. 이에 따라, 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 유효하게 지속시킬 수 있게 된다.According to the present invention, a plurality of options that are candidates for answers to the questions of the interactive pet robot are presented to the user in a specialized manner. The user may select an appropriate one from a plurality of options presented as a full text and pronounce the full text as it is. On the other hand, in the system for performing voice recognition, since the number of variations spoken by the user is as many as the number of choices, the recognition can be easily performed without requiring a high speed microcomputer. As a result, even if the product is relatively inexpensive, which has a limitation on the number of pronunciation phrases and waiting phrases, conversation can be promoted without causing the user to feel stress. In addition, since the information required for answering the question is presented by the pet robot, the user can proceed with the conversation while facing the pet robot. Accordingly, it is possible to increase the communication feeling with the pet robot and effectively maintain the user's motivation to learn.
도 1은 본 실시예에 관한 대화형 애완 로봇의 정면도이며, 도 2는 그 측면도이다. 이 대화형 애완 로봇(1)은 캐릭터형의 로봇 본체(2)와, 이 로봇 본체(2)에 장착된 디스플레이(3)를 가진다. 플라스틱제의 로봇 본체(2)는 캐릭터의 일례인 곰을 귀엽게 변형시킨 외관 형상을 가진다. 이 로봇 본체(2)는 두부, 몸통부 및 손발을 주체로 구성되어 있고, 그 내부에는 전자 기기를 수납하기 위한 공간이 설치되어 있다. 로봇 본체(2)의 몸통부(2a)에는 후술하는 제어부를 수납하기 위해, 로봇 본체(2)에서 가장 큰 내부 공간이 확보되어 있다. 디스플레이(3)는 예를 들 면 액정 또는 유기 EL과 같은 주지의 소형 디스플레이이며, 로봇 본체(2) 몸통부(2a)의 정면에 장착되어 있다. 디스플레이(3)를 정면에 배치하는 이유는 사용자가 캐릭터와 마주 본 상태에서 육안으로의 확인성을 확보하기 위해서이며, 이것을 몸통부(2a)에 배치하는 이유는 몸통부(2a)의 내부에 수납된 제어부와의 결선 거리를 가능한 짧게 하기 위해서이다.1 is a front view of an interactive pet robot according to the present embodiment, and FIG. 2 is a side view thereof. The
도 3은 대화형 애완 로봇(1)의 제어블럭도이다. 대화형 애완 로봇(1)의 제어시스템은 상술한 디스플레이(3), 각종 센서(4∼7), 스피커(8), 제어부(9) 및 각종 기억부(12∼14)로 구성되어 있다. 마이크로폰(4)은 로봇 본체(2)의 적절한 부위에 장착되어 있고, 사용자의 발음을 검지하는 대인 센서(5)는 로봇 본체(2)의 적절한 부위에 장착되어 있어서, 대화형 애완 로봇(1)의 주위에 사람이 있는지 여부를 검지한다. 이마 터치 센서(6)는 로봇 본체(2)의 두부의 이마에 장착되어 있고, 사용자가 이마에 접촉했는지 여부를 검지한다. 4개의 스위치(7)는 로봇 본체(2)의 오른손, 왼손, 오른발 및 왼발의 4군데 장착되어 있고, 사용자가 이들 부위에 접촉했는지 여부를 검지한다. 이들 센서(4∼7)에 의해 사용자가 행한 커뮤니케이션으로서의 행위(예를 들면, 이마에 접촉, 손발을 쥐는 등)를 시스템 측이 인식할 수 있다.3 is a control block diagram of the
제어부(9)는 음성인식 유닛(10) 및 메인 제어 유닛(11)으로 구성되어 있다. 음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 발음을 입력으로 한 음성인식을 행하는 동시에, 그 인식결과를 메인 제어 유닛(11)에 출력한다. 사용자의 발음을 입력으로 한 음성인식처리는 공지된 것이므로 여기서는 설명을 생략 한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과를 주체로 하고, 이것에 센서(5∼7)로부터의 검지신호를 적절하게 가미한 뒤에, 디스플레이(3)와 스피커(8)를 제어한다. 메인 제어 유닛(11)에 접속된 마스크 ROM(12)에는 사용자와의 회화의 진행 순서를 규정한 프로그램(메인 프로그램)이 격납되어 있다. 메인 제어 유닛(11)에 접속된 SRAM은 메인 제어 유닛(11)의 작업용 메모리이다. 또, 음성인식 유닛(10) 및 메인 제어 유닛(11)의 쌍방에 접속된 외부 장착 ROM은 로봇 본체(2)에 착탈 가능한 추가 카트리지 내의 기억부이다. 외부 장착 ROM에는 상술한 메인 프로그램의 확장 기능을 제공하는 프로그램(확장 프로그램)이 격납되어 있다.The
도 4는 프로그램에 의해 규정되는 회화의 진행 순서의 일례를 나타내는 플로차트이다. 이 프로그램은 사용자와의 회화의 진행 순서를 사용자의 선택에 의한 분기부로 규정하고 있다. 메인 제어 유닛(11)은 마스크 ROM(12)으로부터 읽혀진 프로그램의 기술에 따라, 다음과 같은 순서로 처리를 행한다.4 is a flowchart showing an example of a procedure of conversation performed by the program. This program stipulates the progression of conversation with the user by branching by the user's choice. The
먼저, 스텝1의 대기 상태에는 "Let's talk.", "Wake up." 또는 "Play."라는 3개의 선택지가 디스플레이(3)에 표시된다. 사용자는 이들 선택지 중에서 임의의 것을 선택하여, 그 전문을 발음한다. 음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하여, 인식결과를 메인 제어 유닛(11)에 출력한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과에 따라, 사용자의 발음에 대응하는 하나의 선택지("Let's talk.", "Wake up." 또는 "Play.")를 특정한다. 그리고, 메인 제어 유닛(11)은 특정된 선 택지에 대응하는 액션을 애완 로봇(1)이 다음에 취해야 하는 반응으로서 결정한다. 예를 들면, 특정된 선택지가 "Let's talk." 또는 "Wake up."인 경우에는 스텝(2)의 발음이 스피커(8)로부터 음성 출력되고, "Play."인 경우에는 스텝(10)의 발음이 음성 출력된다.First, the standby state of
계속하여 스텝2∼5는 애완 로봇(1)으로부터의 질문, 사용자의 대답, 이것에 대한 애완 로봇(1)의 반응이라는 일련의 흐름을 형성하고 있고, 회화(커뮤니케이션)의 핵심을 이루는 부분이다. 이 점에 관해서, 프로그램에는 어떠한 질문의 내용과, 이 질문에 대한 전문의 대답이 되는 복수의 선택지와, 선택지의 각각에 대한 액션이라는 일련의 행위가 대응되어 기술되어 있다. 구체적으로는 "Hi. How are you? My friend."라는 질문에 대해, "I'm fine.", "Great!" 및 "Not so good."라는 3개의 선택지(전문)가 대응되어 있다. 또, "I'm fine." 및 Great!"라는 선택지에는 "That's great!" 및 That's good, but I have a headache."라는 음성 출력에 의한 랜덤·액션이 대응되어 있고, "Not so good."라는 선택지에는 "Oh, really? I'm sorry to hear that. I hope you will feel better soon."이라는 음성 출력에 의한 액션이 대응되어 있다.Subsequently, Steps 2 to 5 form a series of flows of questions from the
이러한 프로그램의 기술에 따라, 스텝2에서, 메인 제어 유닛(11)이 스피커(8)를 제어함으로써, "Hi. How are you? My friend."라는 질문이 스피커(8)로부터 음성으로 출력된다. 계속하여 스텝3에서, 메인 제어 유닛(11)이 디스플레이(3)를 제어함으로써, 질문에 대한 대답의 후보로서, 이 질문에 대응된 3개의 선택지의 전문이 디스플레이(3)에 표시된다.According to the description of this program, in
도 5는 질문에 대한 대답의 후보인 선택지의 표시예를 나타내는 도면이다. 이 표시예에서는 음성 출력된 질문의 내용, 즉 "Hi. How are you? My friend."가 상단에 표시되어 있는 동시에, 그 아래에 "I'm fine.", "Great! 및 "Not so good."라는 3개의 선택지가 전문으로 열거되어 표시되어 있다. 이에 따라, 사용자에 있어서는 질문의 내용과 선택지의 내용의 대응 관계를 한눈에 파악할 수 있기 때문에, 특히, 어학 학습의 경우에는 학습효율을 높일 수 있다. 또, 이 표시예에서는 사용자에 주목을 촉진하여 학습효율을 한층 높이도록 하고, 선택지의 전문에서의 억양의 스트레스 부분에 대해, 폰트의 색상이나 크기를 바꾸는 것 등에 의해 강조하여 표시되어 있다. 사용자는 이들 선택지 중에서 임의의 것을 선택하여, 그 전문을 발음한다.5 is a diagram illustrating a display example of an option that is a candidate for an answer to a question. In this display example, the content of the voiced question, that is, "Hi. How are you? My friend." Is displayed at the top, and "I'm fine.", "Great! And" Not so good below it. 3 options are listed and displayed in full text. As a result, the user can grasp the correspondence between the contents of the question and the contents of the option at a glance. In this display example, the user's attention is promoted and the learning efficiency is further enhanced, and the stress portion of the accent in the text of the option is highlighted by changing the color or size of the font. The user selects any of these options and pronounces the full text.
이때, 애완 로봇(1)은 사용자가 발음하는 선택지의 각각을 본보기 음성으로서 발음하도록 할 수도 있다. 예를 들면, 도 5에 나타내는 상태에 있어서, 사용자가 스위치(7)에 대하여 소정의 조작을 행한다. 이렇게 하면 이 조작에 대응하여, 메인 제어 유닛(11)이 스피커(8)를 제어하고, 선택지의 전문 중, 적어도 하나의 선택지가 본보기 음성으로서 스피커(8)로부터 출력된다. 본보기 음성의 출력이 모두 완료되면, 다시, 도 5에 나타낸 상태로 되돌아간다.In this case, the
또, 본보기음성의 개시는 스위치(11)의 조작 이외에도, 예를 들면, 사용자로부터의 "본보기!"라는 말을 마이크로폰(4)으로부터 음성인식할 수도 있다. 또한, 이 "본보기!"의 후에, "1번"이라는 선택지를 나타내는 번호를 마이크로폰(4)으로부터 음성인식시킴으로써 선택지 중의 3번째만이 본보기 음성으로서 스피커(8)로부터 음성 출력된다.Moreover, in addition to the operation of the
또한, 애완 로봇(1)이, 이 본보기음성을 발음할 때에, 어떤 선택지를 본보기 음성으로서 발음하고 있는 지를 디스플레이(3)에 강조하여 표시할 수도 있다. 예를 들면, 지금 현재 디스플레이(3)에 표시되어 있는 하나의 선택지(예를 들면 "I'm fine.")가 스피커(8)로부터 본보기 음성으로서 발음되고 있다. 이 때, 메인 제어 유닛(11)이 디스플레이(3)를 제어하고, 이 하나의 선택지에 대응하는 문자(또는 선택지)를 강조하여 표시한다. 또한, 강조 표시 방법으로는 문자(또는 선택지)에 대하여, 폰트의 색상이나 크기를 바꾸는 것 외에, 밑줄을 긋거나, 글자체를 바꾸거나, 굵은 문자로 하는 것 등을 들 수 있다.In addition, when the
음성인식 유닛(10)은 마이크로폰(4)으로부터 얻어지는 사용자의 전문의 발음을 입력으로 한 음성인식을 행하는 동시에, 그 인식결과를 메인 제어 유닛(11)에 출력한다. 메인 제어 유닛(11)은 음성인식 유닛(10)으로부터의 인식결과에 따라, 사용자의 발음에 대응하는 하나의 선택지("I'm fine.", "Great!" 또는 "Not so good.")를 특정한다. 그리고, 메인 제어 유닛(11)은 특정된 선택지에 대응하는 액션을 애완 로봇(1)이 다음에 취해야 하는 반응으로서 결정한다. 그리고, 특정된 선택지가 "I'm fine." 또는 "Great!"인 경우에는 스텝4로 진행하여, "That's great" 및 That's good, but I have a headache." 중 어느 하나가 무작위로 선택되어, 이것이 스피커(8)로부터 음성 출력된다. 또, 특정된 선택지가 "Not so good."인 경우에는 스텝5로 진행하여, "Oh, really? I'm sorry to hear that. I hope you will feel better soon."이라는 발음이 음성 출력된다.The
스텝4에서, "That's great."으로 음성 출력된 경우에는 스텝10으로 진행하여, "What do you want to do?"라는 질문이 음성 출력된다. 한편, 스텝4에서 That's good, but I have a headache."로 음성 출력된 경우에는 스텝6에서 "Please touch my head gently."로 음성 출력된 후에, 사용자로부터의 액션 대기의 상태로 된다(스텝7). 이 액션 대기의 상태에 있어서, 사용자가 애완 로봇(1)의 이마에 접촉한 경우에는 이 액션이 이마 터치 센서(6)에 의해서 검지된다. 이에 따라, 스텝8에서, 대화형 애완 로봇(1)의 반응으로서, "Thank you my friend. I feel much better now."와 음성 출력된 후에, 상술한 스텝10으로 진행된다. 이것에 대하여, 사용자가 이마 이외에 접촉하여, 이마 터치 센서(6) 이외의 센서가 이것을 검지한 경우에는, 스텝9에서, 대화형 애완 로봇(1)의 반응으로서, "Please touch my head. Try again."으로 음성 출력되어, 스텝7의 대기 상태로 되돌아간다. 그 결과, 사용자가 이마에 접촉할 때까지, 스텝7, 9의 루프가 반복되게 된다.In
스텝(10)에서 "What do you want do?"로 음성 출력되면, 스텝11로 진행하여, 각 섹션의 선택지가 된다. 예를 들면, 좋아하는 과일 섹션을 선택하면, 대화형 애완 로봇(1) 및 사용자가 좋아하는 음식물에 관한 회화가 된다.If the voice is output in
또, 이상과 같은 회화의 진행 순서에 있어서, 사용자가 "See you later."로 발음한 경우에는 스텝1의 대기 상태로 강제적으로 되돌아가도록 설정되어 있다. 또, 사용자가 "Go back."으로 발음한 경우에는 스텝10으로 강제적으로 되돌아가도록 설정되어 있다.In the above-described conversational procedure, when the user pronounces "See you later.", It is set to forcibly return to the waiting state of
또, 이상과 같은 회화의 진행 순서에 있어서, 애완 로봇(1)이 질문 또는 대 답의 반응을 음성 출력하고 있을 때에, 그 발음 내용을 디스플레이(3)에 표시할 수도 있다. 예를 들면, 스텝2에 있어서, "Hi How are you? My friend."라는 내용이 스피커(8)로부터 음성 출력되고 있을 때에, 메인 제어 유닛(11)이 디스플레이(3)를 제어함으로써, 발음 내용인 "Hi How are you? My friend."라는 질문이 디스플레이(3)에 표시된다.In addition, in the above procedure of conversation, when the
또, 외부 장착 ROM(14)이 내장된 추가 카트리지에는 상기 이외에, 영어학습능력을 더 높이기 위해서 로봇을 면접관으로 상정하여, 문제 카드를 디스플레이에 표시하는 「영어능력시험 3급 정도의 면접」의 장을 가상한 것이 있다. 또, 「플래시카드게임」으로 단어의 발음 및 그 철자(스펠링)의 학습을 행할 수 있는 것도 있다. 후자의 경우, 메인 제어 유닛(11)은 디스플레이(3)에 단어의 철자와 보기(예를 들면, Book의 철자와 책의 보기)를 일정한 간격으로 순서대로 표시하는 동시에, 표시된 단어의 발음을 스피커(8)로부터 음성 출력시킨다. 로봇은 사용자가 올바른 발음을 한 경우에는 "Good.", 그렇지 않은 경우에는 "Try again." 등의 대답을 한다. 또「해외에서의 쇼핑」을 상정한 실용회화에 의거한 것 등, 각종 시리즈가 준비되어 있다.In addition to the above, an additional cartridge having an externally mounted
이와 같이 본 실시예에 의하면, 대화형 애완 로봇(1)의 질문에 대한 대답의 후보가 되는 복수의 선택지가 전문으로 사용자에 제시된다. 사용자는 제시된 복수의 선택지 중에서 적절한 것을 선택하여, 그 전문을 그대로 발음하면 된다. 한편, 음성인식 유닛(10)에 있어서는 사용자가 발음하는 변형은 선택지의 수에 제한되어 있기 때문에, 고속인 마이크로컴퓨터를 필요로 하지 않고, 그 인식을 용이하고 또 한 고속으로 행할 수 있다. 그 결과, 발음 어구 수나 대기 어구 수에 제약을 둘 수밖에 없는 비교적 저가인 제품이더라도, 선택지의 전문 제시에 의해, 사용자에 스트레스를 느끼게 하는 일없이 회화의 촉진을 도모할 수 있다.As described above, according to the present embodiment, a plurality of options that are candidates for answers to the questions of the
또, 본 실시예에 의하면, 질문에 대한 대답에 필요한 정보가 대화형 애완 로봇(1)으로부터 제시되기 때문에, 사용자는 이 애완 로봇(1)과 마주 본 상태에서, 다른 정보를 참조하지 않고 회화를 진행시킬 수 있다. 이에 따라, 애완 로봇(1)과의 커뮤니케이션감을 높일 수 있어, 사용자의 학습의욕을 유효하게 지속시킬 수 있게 된다.In addition, according to the present embodiment, since the information required for answering the question is presented from the
또, 상술한 실시예에서는 영어회화의 학습을 예로 대화형 애완 로봇(1)의 동작에 대하여 설명했지만, 본 발명은 이것에 한정되는 것이 아니라, 각국 언어의 회화학습에 대하여 넓게 적용 가능하다.In addition, in the above-described embodiment, the operation of the
또, 대화형 애완 로봇(1)이 취해야 하는 액션은 스피커(8)로부터의 음성 출력에 한정되지 않는다. 예를 들면, 대화형 애완 로봇(1)의 손발이 가동식이면, 액션으로서 이들을 가동시키더라도 되고, 발광체가 장착되어 있는 경우에는 이것을 점멸시킬 수도 있다.In addition, the action which the
또한, 상술한 실시예에서는 질문에 대한 대답의 후보인 선택지를 디스플레이(3)에 전문 표시하고 있지만, 이것을 스피커(8)에 의한 전문의 음성 출력에 의해 사용자에게 제시하는 것도 가능하다. 단, 회화의 촉진이라는 관점에서 말하면, 대화형 애완 로봇(1)이 질문에 대한 선택지를 그 때마다 발음하는 것보다도, 발음의 시간을 필요로 하지 않는 디스플레이(3)로의 표시 쪽이 바람직하다.In addition, in the above-mentioned embodiment, although the option which is a candidate for answering a question is displayed in full on the
본 발명에 의해, 발음 어구 수나 대기 어구 수의 제약이 있더라도, 회화를 촉진 가능한 신규한 대화형 애완 로봇이 제공된다. 또한, 대화형 애완 로봇과의 커뮤니케이션감을 높여, 사용자의 학습의욕을 지속시키는 것이 가능하다.The present invention provides a novel interactive pet robot capable of facilitating conversation even if there are restrictions on the number of phonetic phrases and waiting phrases. In addition, it is possible to maintain a sense of communication with the interactive pet robot and keep the user's motivation to learn.
Claims (11)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004225134 | 2004-08-02 | ||
JPJP-P-2004-00225134 | 2004-08-02 | ||
JPJP-P-2005-00073636 | 2005-03-15 | ||
JP2005073636A JP2006068489A (en) | 2004-08-02 | 2005-03-15 | Interactive pet robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20060049041A true KR20060049041A (en) | 2006-05-18 |
Family
ID=36149685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050070674A KR20060049041A (en) | 2004-08-02 | 2005-08-02 | Interactive robot pet |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2006068489A (en) |
KR (1) | KR20060049041A (en) |
TW (1) | TW200611745A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101381006B1 (en) * | 2012-05-10 | 2014-04-04 | 얄리주식회사 | Question answering doll using speech recognition |
KR101418709B1 (en) * | 2012-06-14 | 2014-07-16 | 진삼순 | Question answering doll using speech recognition and the manufacturing method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI406202B (en) * | 2009-09-18 | 2013-08-21 | Univ Nat Central | Leadership Robotics System, its control methods, computer program products and computer-readable recording media |
KR101386403B1 (en) * | 2012-07-25 | 2014-04-29 | 진삼순 | doll and the manufacturing method |
JP6308608B2 (en) * | 2013-01-30 | 2018-04-11 | 国立大学法人三重大学 | Foreign language conversation learning system based on direct method |
US10366689B2 (en) | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
BR112019001591A2 (en) * | 2016-08-04 | 2019-05-07 | Sony Interactive Entertainment Inc. | apparatus and method of information processing, and information media |
CN107756412B (en) * | 2017-09-22 | 2019-09-17 | 深圳壹账通智能科技有限公司 | The control method and terminal device of voice dialogue robot |
-
2005
- 2005-03-15 JP JP2005073636A patent/JP2006068489A/en not_active Withdrawn
- 2005-07-25 TW TW094125154A patent/TW200611745A/en unknown
- 2005-08-02 KR KR1020050070674A patent/KR20060049041A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101381006B1 (en) * | 2012-05-10 | 2014-04-04 | 얄리주식회사 | Question answering doll using speech recognition |
KR101418709B1 (en) * | 2012-06-14 | 2014-07-16 | 진삼순 | Question answering doll using speech recognition and the manufacturing method |
Also Published As
Publication number | Publication date |
---|---|
TW200611745A (en) | 2006-04-16 |
JP2006068489A (en) | 2006-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108962217B (en) | Speech synthesis method and related equipment | |
KR20060049041A (en) | Interactive robot pet | |
CN108431883B (en) | Language learning system and language learning program | |
JP6654691B2 (en) | Information processing device | |
KR20010013236A (en) | Reading and pronunciation tutor | |
JP4729902B2 (en) | Spoken dialogue system | |
CN106991094A (en) | Foreigh-language oral-speech is spoken learning system, method and computer program | |
JP2017173546A (en) | Learning support device, robot, learning support system, learning support method, and program | |
JP2015036788A (en) | Pronunciation learning device for foreign language | |
Fellbaum et al. | Principles of electronic speech processing with applications for people with disabilities | |
KR20150126176A (en) | A word study system using infinity mnemotechniques and method of the same | |
KR100238451B1 (en) | A computer aided education system and control techniques for korean | |
JP7166580B2 (en) | language learning methods | |
JP6466391B2 (en) | Language learning device | |
JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
KR102292477B1 (en) | Server and method for automatic assessment of oral language proficiency | |
JPH11237971A (en) | Voice responding device | |
JP2007148170A (en) | Foreign language learning support system | |
CN1734521A (en) | Conversation type robot pet | |
JP6641680B2 (en) | Audio output device, audio output program, and audio output method | |
WO2007016509A1 (en) | A system of sound representation and pronunciation techniques for english and other european languages | |
KR20090054951A (en) | Method for studying word and word studying apparatus thereof | |
KR101250897B1 (en) | Apparatus for word entry searching in a portable electronic dictionary and method thereof | |
KR20150136309A (en) | Language learning tool and learning method of using it | |
KR101487007B1 (en) | Learning method and learning apparatus of correction of pronunciation by pronunciation analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |