KR20050063471A - Interactive avatar using network - Google Patents

Interactive avatar using network Download PDF

Info

Publication number
KR20050063471A
KR20050063471A KR1020030094879A KR20030094879A KR20050063471A KR 20050063471 A KR20050063471 A KR 20050063471A KR 1020030094879 A KR1020030094879 A KR 1020030094879A KR 20030094879 A KR20030094879 A KR 20030094879A KR 20050063471 A KR20050063471 A KR 20050063471A
Authority
KR
South Korea
Prior art keywords
voice
avatar
user
data
driving
Prior art date
Application number
KR1020030094879A
Other languages
Korean (ko)
Inventor
정태철
현웅근
Original Assignee
정태철
현웅근
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정태철, 현웅근 filed Critical 정태철
Priority to KR1020030094879A priority Critical patent/KR20050063471A/en
Publication of KR20050063471A publication Critical patent/KR20050063471A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

본 발명은 대화형 아바타에 관한 것으로, 보다 상세하게는 사용자의 음성을 인식하고 이에 적합한 행동 또는 반응을 하는 대화형 아바타에 관한 것이다. 본 발명은 사용자의 음성을 수신하여 이에 반응하는 대화형 아바타에 있어서, 복수의 관절 및 상기 관절을 구동하는 복수의 모터를 포함하는 내장 로봇, 상기 사용자로부터 수신된 음성을 음성 데이터로 변환하거나 또는 그 역으로 변환하기 위한 음성 처리 수단, 변환된 음성 데이터를 클라이언트 PC에 전송하고 상기 클라이언트 PC로부터 상기 음성 데이터에 대한 해독 결과를 수신하는 통신 모듈 및 상기 사용자의 음성 해독 결과에 따라 상기 내장 로봇을 구동하거나 사용자에게 음성을 전달하기 위해 상기 음성 처리 수단을 구동하는 제어부를 포함하는 것인 대화형 아바타를 제공한다. 본 발명에 따르면, 높은 수준의 음성 인식 및 표현이 가능하며, 다양한 기능의 업데이트가 가능한 대화형 아바타를 제공하는 것을 목적으로 한다. The present invention relates to an interactive avatar, and more particularly, to an interactive avatar that recognizes a user's voice and acts or responds accordingly. The present invention relates to an interactive avatar that receives and responds to a user's voice, comprising: a built-in robot including a plurality of joints and a plurality of motors driving the joints, and converting a voice received from the user into voice data or Voice processing means for inverse conversion, a communication module for transmitting the converted voice data to the client PC and receiving a decoding result of the voice data from the client PC and driving the embedded robot according to the voice decoding result of the user; It provides an interactive avatar that includes a control unit for driving the voice processing means to deliver a voice to a user. According to the present invention, an object of the present invention is to provide an interactive avatar capable of a high level of speech recognition and expression, and capable of updating various functions.

Description

네트워크를 이용한 대화형 아바타{INTERACTIVE AVATAR USING NETWORK}Interactive avatar via network {INTERACTIVE AVATAR USING NETWORK}

본 발명은 대화형 아바타에 관한 것으로, 보다 상세하게는 사용자의 음성을 인식하고 이에 적합한 행동 또는 반응을 하는 대화형 아바타에 관한 것이다.The present invention relates to an interactive avatar, and more particularly, to an interactive avatar that recognizes a user's voice and acts or responds accordingly.

사용자의 음성을 인식하여 이에 적합한 반응을 하는 대화형 아바타 또는 로봇 완구 분야는 최근 관심이 집중되고 있는 분야이다. 이에 대해서는 한국특허출원번호 제1999-16583호, 제1999-29840호 등의 다수의 특허출원이 있다. Interactive avatars or robot toys that recognize a user's voice and react appropriately are areas of recent interest. There are a number of patent applications, such as Korean Patent Application Nos. 1999-16583, 1999-29840, and the like.

대화형 아바타는 사용자의 대화를 해석하고 그에 합당한 동작이나 대화를 제공하기 위해 사용자 음성을 인식하는 것을 기본적인 기능으로 한다. 그러나, 현재까지 이들 기술은 음성 인식 시스템와 완구를 단순히 결합하는 데 그치고 있으며, 인식하는 대화의 수준도 매우 낮다. 더욱이, 보다 복잡한 음성의 인식 및 표현을 위해서는 고가의 음성 인식 시스템을 내장하여야 하나 이에 따라 비용의 증가가 발생하여 상용화되기에는 어려움이 많다.The interactive avatar has a basic function of recognizing the user's voice in order to interpret the user's conversation and to provide an appropriate action or conversation. However, to date, these technologies are simply combining speech recognition systems with toys, and the level of conversation that is recognized is very low. Moreover, in order to recognize and express more complex speech, an expensive speech recognition system should be embedded, but accordingly, an increase in cost occurs and it is difficult to be commercialized.

또한, 종래의 대화형 아바타는 아동의 흥미를 유발하는 측면은 있으나, 음성 인식 및 표현 등 기능상 한계 때문에 곧 식상함을 느끼게 되어 완구로서의 제 기능을 다하기가 어렵다.In addition, although the conventional interactive avatar has an aspect of inducing children's interest, it is difficult to fulfill its function as a toy because of its functional limitation such as voice recognition and expression.

본 발명은 높은 수준의 음성 인식 및 표현이 가능한 대화형 아바타를 제공하는 것을 목적으로 한다. An object of the present invention is to provide an interactive avatar capable of a high level of speech recognition and expression.

또한, 본 발명은 다양한 기능의 업데이트가 가능한 대화형 아바타를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide an interactive avatar that can be updated with various functions.

또한 본 발명은 네트워크를 이용하여 아바타에서 음성 데이터를 처리하는 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a method for processing voice data in an avatar using a network.

상기 기술적 과제를 달성하기 위해 본 발명은 사용자의 음성을 수신하여 이에 반응하는 대화형 아바타에 있어서, 복수의 관절 및 상기 관절을 구동하는 복수의 모터를 포함하는 내장 로봇, 상기 사용자로부터 수신된 음성을 음성 데이터로 변환하거나 또는 그 역으로 변환하기 위한 음성 처리 수단, 변환된 음성 데이터를 클라이언트 PC에 전송하고 상기 클라이언트 PC로부터 상기 음성 데이터에 대한 해독 결과를 수신하는 통신 모듈 및 상기 사용자의 음성 해독 결과에 따라 상기 내장 로봇을 구동하거나 사용자에게 음성을 전달하기 위해 상기 음성 처리 수단을 구동하는 제어부를 포함하는 것인 대화형 아바타를 제공한다.In order to achieve the above technical problem, the present invention provides an interactive avatar that receives and responds to a user's voice, comprising: a built-in robot including a plurality of joints and a plurality of motors driving the joints, and a voice received from the user. Speech processing means for converting to speech data or vice versa, a communication module for transmitting the converted speech data to a client PC and receiving a decryption result of the speech data from the client PC and a speech decryption result of the user. Accordingly, to provide an interactive avatar comprising a control unit for driving the voice processing means to drive the built-in robot or to deliver a voice to a user.

본 발명에서 상기 대화형 아바타는 사용자의 접근 여부를 인식하기 위한 초음파 센서를 더 포함할 수 있다. 상기 통신 모듈은 USB 방식의 통신 모듈일 수 있다. 상기 제어부는 상기 음성 처리 수단 및 내장 로봇을 구동하는 제어 프로그램 및 제어 데이터를 포함하고, 상기 제어부는 상기 통신 모듈을 통해 상기 프로그램을 업데이트 가능하다.In the present invention, the interactive avatar may further include an ultrasonic sensor for recognizing whether the user approaches. The communication module may be a USB communication module. The controller may include a control program and control data for driving the voice processing means and the embedded robot, and the controller may update the program through the communication module.

또한, 상기 다른 기술적 과제를 달성하기 위해 본 발명은 아바타에서 음성 데이터를 처리하는 방법에 있어서, In addition, in order to achieve the above another technical problem, the present invention provides a method for processing voice data in an avatar,

a) 아바타로 사용자로부터 음성을 입력 받고 이를 음성 데이터로 변환하는 단계, b) 상기 음성 데이터를 상기 아바타에 연결된 컴퓨터로 전송하는 단계, c) 상기 컴퓨터에서 전송된 음성 데이터를 해독하는 단계, d) 상기 해독 결과로부터 상기 아바타를 구동하기 위한 구동 명령을 상기 아바타로 전송하는 단계 및 e) 상기 전송된 구동 명령에 따라 상기 아바타를 구동하는 단계를 포함하는 음성 데이터 처리 방법을 제공한다.a) receiving a voice from a user with an avatar and converting it into voice data, b) transmitting the voice data to a computer connected to the avatar, c) decrypting the voice data transmitted from the computer, d) And transmitting a driving command for driving the avatar from the decryption result to the avatar, and e) driving the avatar according to the transmitted driving command.

상기 방법에서 상기 단계 d)의 상기 구동 명령은 상기 아바타의 동작 명령과 음성 데이터를 포함할 수 있다. 또한, 상기 단계 b)는 아바타의 USB 통신 모듈을 이용하여 수행되는 것이 바람직하다. 상기 방법에서 상기 해독 단계 c)는 In the method, the driving command of step d) may include an operation command of the avatar and voice data. In addition, the step b) is preferably performed using the USB communication module of the avatar. In said method said deciphering step c)

c1) 상기 컴퓨터에서 상기 음성 데이터의 특징을 추출하는 단계, c2) 추출된 음성 특징 데이터를 상기 컴퓨터의 네트워크에 연결된 서버로 전송하는 단계 및 c3) 상기 서버에서 상기 음성 특징 데이터를 해독하는 단계를 포함할 수 있다.c1) extracting the feature of the voice data at the computer, c2) transmitting the extracted voice feature data to a server connected to the network of the computer, and c3) decrypting the voice feature data at the server. can do.

이하 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상술한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1a 및 도 1b는 각각 본 발명의 대화형 아바타의 외관을 표현한 사시도 및 상기 아바타 내부에 탑재되는 로봇의 사시도를 도시한 도면이다. 1A and 1B are respectively a perspective view showing the appearance of an interactive avatar of the present invention and a perspective view of a robot mounted inside the avatar.

도 1a와 같이 본 발명의 아바타는 돌고래 형상을 가질 수 있다. 물론, 본 발명에서 돌고래형 아바타의 형상은 예시적인 것에 불과하며, 다른 임의의 동물, 인형 형상을 가질 수도 있다.As shown in FIG. 1A, the avatar of the present invention may have a dolphin shape. Of course, the shape of the dolphin avatar in the present invention is merely exemplary, and may have any other animal or doll shape.

상기 아바타의 동작을 위해 상기 아바타 내부에는 도 1b와 같은 형상의 로봇이 삽입된다. 도시된 바와 같이, 상기 로봇(200)은 머리(210), 팔(220), 다리 (230), 목 관절(212), 팔 관절(224) 및 다리 관절(232)를 구비하고 있다. 상기 로봇의 관절(212, 224, 232)은 돌고래가 목을 끄덕여 인사를 하거나, 측면 지느러미를 움직이거나 꼬리 지느러미를 움직일 수 있도록 복수의 구동 모터(도시하지 않음)에 의해 구동된다.In order to operate the avatar, a robot having a shape as shown in FIG. 1B is inserted into the avatar. As shown, the robot 200 has a head 210, an arm 220, a leg 230, a neck joint 212, an arm joint 224, and a leg joint 232. Joints 212, 224, and 232 of the robot are driven by a plurality of drive motors (not shown) to allow dolphins to nod, greet, move side fins, or move tail fins.

도 2는 본 발명의 아바타의 회로 구성을 도시한 블록도이다. 2 is a block diagram showing a circuit configuration of an avatar of the present invention.

도 2를 참조하면, 본 발명의 아바타는 통신 모듈, 제어부, 로봇 관절 구동 수단, 음성 처리 수단 및 초음파 센서부를 포함하고 있다. 2, the avatar of the present invention includes a communication module, a controller, a robot joint driving unit, a voice processing unit, and an ultrasonic sensor unit.

상기 음성 처리 수단은 마이크로 폰, 스피커, 증폭기 및 AD/DA 변환기를 포함하여 구성된다. 상기 음성 처리 수단은 사용자의 음성을 수신하며, 음성 데이터를 음성 신호로 변환하여 사용자에게 음성을 전달한다. The speech processing means comprises a microphone, a speaker, an amplifier and an AD / DA converter. The voice processing means receives the user's voice, converts the voice data into a voice signal, and delivers the voice to the user.

상기 로봇 관절 구동 수단은 전술한 로봇의 각 관절을 구동하는 복수의 모터를 포함하여 제어부의 명령에 따라 해당 모터를 구동한다.The robot joint driving means includes a plurality of motors for driving the respective joints of the robot, and drives the corresponding motors according to a command of the controller.

상기 초음파 센서부는 사용자의 접근 여부를 식별하여 사용자가 접근하거나 멀어질 때 이를 감지하여 사용자에게 인사를 하는 등의 행동 및 음성을 표출하는 데 사용된다.The ultrasonic sensor unit is used to identify whether the user is approaching, to detect when the user approaches or away, and to express an action and a voice such as greeting the user.

상기 통신 모듈은 후술하는 바와 같이, 사용자의 음성을 인식하고 이에 반응하기 위해 클라이언트 PC와 데이터를 교환하는 데 사용된다. 상기 통신 모듈이 PC와 데이터를 교환한다는 점에서 상기 통신 모듈은 유무선 USB 방식 또는 블루투스 방식의 모듈인 것이 바람직하다. The communication module is used to exchange data with a client PC to recognize and respond to a user's voice, as described below. In the sense that the communication module exchanges data with a PC, the communication module is preferably a wired / wireless USB type or a Bluetooth type module.

상기 제어부는 내부에 메모리를 구비하여 아바타의 각 구성을 제어하는 프로그램이나 일정한 음성 데이터 및 동작 데이터를 저장할 수 있다.The controller may have a memory therein to store a program for controlling each component of the avatar, or predetermined voice data and motion data.

본 발명에서 아바타는 사용자의 음성을 직접 인식하는 시스템을 구비하고 있지 않다. 아바타 내에 고성능의 음성 인식 시스템을 갖춘다는 것은 현실적으로 불가능하다. 본 발명에서 아바타는 통신 모듈 및 네트워크를 이용하여 사용자의 음성을 인식하고 그에 적합한 반응을 표현한다.In the present invention, the avatar does not have a system for directly recognizing a user's voice. It is practically impossible to have a high performance speech recognition system in an avatar. In the present invention, the avatar uses a communication module and a network to recognize a user's voice and express an appropriate response.

도 3a는 본 발명의 아바타가 동작하는 원리를 설명하기 위한 개념도이다. 도 3a를 참조하면, 아바타는 상기 통신 모듈을 통해 클라이언트 PC와 데이터를 교환한다. 상기 데이터는 사용자의 음성 데이터이거나 음성 데이터의 해독 결과 상기 아바타가 수행하여야 할 명령일 수 있다. 3A is a conceptual diagram illustrating a principle of operating the avatar of the present invention. Referring to FIG. 3A, the avatar exchanges data with a client PC through the communication module. The data may be voice data of a user or a command to be performed by the avatar as a result of decoding the voice data.

클라이언트 PC는 사용자의 음성 데이터의 해독을 위해 인터넷과 같은 네트워크에 연결된 서버와 교신한다. 서버는 음성 데이터의 해독 결과를 클라이언트 PC에 통보한다.The client PC communicates with a server connected to a network such as the Internet to decrypt the user's voice data. The server notifies the client PC of the result of decrypting the voice data.

네트워크상으로 과도한 량의 데이터가 전송되지 않도록 클라이언트 PC는 자모바(JAMOVA)와 같은 상용 음성 특징 추출 엔진을 탑재할 수 있다. 음성 특징 추출 엔진은 아바타로부터 전송된 음성 데이터에서 음성 특징을 추출하고 추출된 음성 특징을 상기 서버로 전송한다. 이 때, 전송되는 음성 특징 데이터는 클라이언트 PC의 식별자와 함께 데이터 프레임 형태로 전송된다. 서버는 음성 해독 엔진을 구비하여 클라이언트 PC로부터 전송된 음성 특징 데이터를 해독하고 그 결과를 클라이언트 PC에 통보한다.To avoid sending excessive amounts of data over the network, client PCs can be equipped with a commercial speech feature extraction engine such as JAMOVA. The voice feature extraction engine extracts the voice feature from the voice data transmitted from the avatar and transmits the extracted voice feature to the server. At this time, the transmitted voice feature data is transmitted in the form of a data frame together with the identifier of the client PC. The server has a speech decryption engine to decrypt speech feature data transmitted from the client PC and notify the client PC of the result.

도 3b는 본 발명의 아바타에서 수신된 음성 데이터의 해독 절차를 도시한 절차도이다.3B is a flowchart illustrating a decoding process of voice data received by an avatar of the present invention.

도 3a 및 도 3b를 참조하면, 아바타에서 음성이 수신되면(S110), 상기 아바타는 음성 처리 수단(150) 및 제어부(110)를 통해 상기 음성 신호를 음성 데이터로 변환한다(S120). 상기 아바타의 통신 모듈(120)은 음성 데이터를 클라이언트 PC(310)로 전송한다(S130). 클라이언트 PC(310)는 전송된 음성 데이터에서 음성 특징을 추출한다(S140). 이어서, 클라이언트 PC(310)는 추출한 음성 특징을 네트워크 (320)를 통해 클라이언트 PC의 식별자와 함께 서버로 전송한다(S150). 전송된 음성 특징 데이터는 서버에서 해독되며(S160), 서버(330)는 식별자가 지시하는 클라이언트 PC(170)로 해독 결과를 전송한다(S170). 서버에서 해독된 음성은 예컨대 사용자가 아바타의 동작을 지시하는 것이나 대화를 위한 것일 수 있다. 클라이언트 PC(310)는 서버의 해독 결과에 따라 아바타(100)로 적절한 동작 명령을 지시한다 (S180). 상기 동작 명령은 관절 구동 정보 뿐만 아니라 사용자에게 전달할 음성 데이터를 포함할 수 있다. 통신 모듈(120)을 통해 아바타로 수신된 동작 명령에 의해 아바타는 소정 동작을 수행하거나 사용자에게 음성을 전달함으로써 사용자의 음성에 반응하게 된다(S190).3A and 3B, when a voice is received from the avatar (S110), the avatar converts the voice signal into voice data through the voice processing unit 150 and the controller 110 (S120). The communication module 120 of the avatar transmits voice data to the client PC 310 (S130). The client PC 310 extracts a voice feature from the transmitted voice data (S140). Subsequently, the client PC 310 transmits the extracted voice feature to the server along with the identifier of the client PC through the network 320 (S150). The transmitted voice feature data is decrypted at the server (S160), and the server 330 transmits the decryption result to the client PC 170 indicated by the identifier (S170). The voice decrypted at the server may be for example for the user to instruct the operation of the avatar or for the conversation. The client PC 310 instructs an appropriate operation command to the avatar 100 according to the decryption result of the server (S180). The operation command may include not only joint driving information but also voice data to be transmitted to the user. In response to an operation command received by the avatar through the communication module 120, the avatar responds to the user's voice by performing a predetermined operation or transmitting a voice to the user (S190).

전술한 바와 같이, 본 발명의 아바타는 통신 모듈과 네트워크를 통해 클라이언트 PC 및/또는 서버에 연결되어, 사용자의 음성을 인식하고 이를 해독하며 그에 적합한 동작 또는 음성을 사용자에게 제공할 수 있다. 따라서, 기존의 대화형 완구나 아바타가 갖는 대화 수준의 한계를 극복할 수 있다. 또한, 본 발명의 아바타는 통신 모듈을 통해 네트워크에 연결되므로, 아바타의 동작을 제어하는 제어 프로그램의 업데이트가 간단하게 수행될 수 있다. 업데이트를 통해 사용자에게 새로운 동작을 선보이거나 새로운 형태의 답변을 제공함으로써, 사용자에게 식상함을 주지 않을 수 있게 된다. 예컨대, 아바타가 학원가는 시간, 약먹는 시간, 잠자는 시간 등 하루 일정에 대한 음성 알람 기능을 수행하는 경우, 이러한 시간 정보는 클라이언트 PC를 통해 상시 업데이트가 가능하게 된다.As described above, the avatar of the present invention may be connected to a client PC and / or a server through a communication module and a network to recognize and decode the user's voice and provide the user with an appropriate action or voice. Therefore, it is possible to overcome the limitations of the conversation level of the existing interactive toys or avatars. In addition, since the avatar of the present invention is connected to the network through the communication module, the update of the control program controlling the operation of the avatar can be performed simply. An update may introduce a new behavior to the user or provide a new form of answer, thereby avoiding annoying the user. For example, when the avatar performs a voice alarm function for a day schedule such as school hours, medicine time, and sleeping time, such time information can be updated at any time through the client PC.

이상, 네트워크를 통한 사용자의 음성 인식 및 이에 대한 아바타의 반응과 관련한 설명하였지만 본 발명의 아바타는 네트워크를 이용하여 보다 다양한 기능에 응용될 수 있다. 그 일례로, 아바타를 이용한 채팅을 들 수 있다. As described above with reference to the voice recognition of the user through the network and the avatar's response thereto, the avatar of the present invention can be applied to various functions using the network. An example is a chat using an avatar.

컴퓨터 자판에 의한 채팅을 하기에는 아직 미숙한 아동의 경우, 아바타의 마이크로 폰을 이용하여 인터넷 채팅이 가능하다. 예컨대, 아동이 아바타에게 말을 할 경우, 그 음성 데이터는 클라이언트 PC 및 서버를 경유하여 해독되고 문자 메시지로 변환되어 상대방에게 전달될 수 있다. 반대로 상대방의 문자 메시지를 수신한 클라이언트 PC는 이를 음성 데이터로 변환하여 아바타의 스피커를 통해 아동에게 제공할 수 있다. 물론, 문자 메시지를 음성 데이터로 변환할 때 필요한 경우, 클라이언트 PC는 서버의 도움을 받을 수 있다. For children who are still inexperienced to chat by computer keyboard, they can use the avatar's microphone to chat online. For example, when a child speaks to an avatar, the voice data may be decrypted via the client PC and the server, converted into a text message, and transmitted to the other party. On the contrary, the client PC receiving the text message of the other party may convert the text message into voice data and provide the same to the child through the speaker of the avatar. Of course, if necessary when converting text messages to voice data, the client PC can be assisted by the server.

본 발명에 따르면, 통신 모듈을 아바타 내에 내장함으로써, 높은 수준의 음성 인식 및 표현이 가능한 대화형 아바타를 제공할 수 있게 된다. 또한, 본 발명은 네트워크를 이용하여 아바타의 기능을 업데이트할 수 있어, 사용자의 지속적인 관심을 유발할 수 있다. 따라서, 본 발명의 아바타는 인간의 감성에 보다 효과적으로 대응할 수 있다. 또한, 본 발명의 아바타는 음성 인식 기능을 내장하지 않고 이를 네트워크에 의존하여 해결하므로 아바타의 제조 비용을 낮출 수 있다는 장점을 갖는다.According to the present invention, by embedding the communication module in the avatar, it is possible to provide an interactive avatar capable of a high level of voice recognition and expression. In addition, the present invention can update the function of the avatar using a network, which can cause a continuous interest of the user. Therefore, the avatar of the present invention can respond more effectively to human emotions. In addition, the avatar of the present invention has an advantage of lowering the manufacturing cost of the avatar since it does not have a built-in voice recognition function and solves it depending on the network.

도 1a 및 도 1b는 각각 본 발명의 대화형 아바타의 외관을 표현한 사시도 및 상기 아바타 내부에 탑재되는 로봇의 사시도를 도시한 도면이다. 1A and 1B are respectively a perspective view showing the appearance of an interactive avatar of the present invention and a perspective view of a robot mounted inside the avatar.

도 2는 본 발명의 아바타의 회로 구성을 도시한 블록도이다. 2 is a block diagram showing a circuit configuration of an avatar of the present invention.

도 3a는 본 발명의 아바타가 동작하는 원리를 설명하기 위한 개념도이다.3A is a conceptual diagram illustrating a principle of operating the avatar of the present invention.

도 3b는 본 발명의 아바타에서 수신된 음성 데이터의 해독 절차를 도시한 절차도이다.3B is a flowchart illustrating a decoding process of voice data received by an avatar of the present invention.

<도면의 부호에 대한 간단한 설명><Short description of the symbols in the drawings>

100 : 아바타 110 : 제어부100: avatar 110: control unit

120 : 통신 모듈 130 : 로봇 관절 구동 수단120: communication module 130: robot joint drive means

140 : 초음파 센서부 150 : 음성 처리 수단140: ultrasonic sensor unit 150: voice processing means

200 : 내장 로봇 310 : 클라이언트 200: built-in robot 310: client

320 : 네트워크 330 : 서버320: network 330: server

Claims (8)

사용자의 음성을 수신하여 이에 반응하는 대화형 아바타에 있어서,In the interactive avatar that receives and responds to the user's voice, 복수의 관절 및 상기 관절을 구동하는 복수의 모터를 포함하는 내장 로봇;A built-in robot including a plurality of joints and a plurality of motors driving the joints; 상기 사용자로부터 수신된 음성을 음성 데이터로 변환하거나 또는 그 역으로 변환하기 위한 음성 처리 수단;Speech processing means for converting speech received from the user into speech data and vice versa; 변환된 음성 데이터를 클라이언트 PC에 전송하고 상기 클라이언트 PC로부터 상기 음성 데이터에 대한 해독 결과를 수신하는 통신 모듈; 및A communication module for transmitting the converted voice data to a client PC and receiving a decryption result of the voice data from the client PC; And 상기 사용자의 음성 해독 결과에 따라 상기 내장 로봇을 구동하거나 사용자에게 음성을 전달하기 위해 상기 음성 처리 수단을 구동하는 제어부를 포함하는 것인 대화형 아바타.And a controller for driving the embedded robot or driving the voice processing means to deliver a voice to the user according to a result of the voice decoding of the user. 제1항에 있어서,The method of claim 1, 사용자의 접근 여부를 인식하기 위한 초음파 센서를 더 포함하는 것인 대화형 아바타.The interactive avatar further comprises an ultrasonic sensor for recognizing the approach of the user. 제1항에 있어서,The method of claim 1, 상기 통신 모듈은 USB 방식의 통신 모듈인 것인 대화형 아바타.And the communication module is a USB type communication module. 제1항에 있어서, The method of claim 1, 상기 제어부는 상기 음성 처리 수단 및 내장 로봇을 구동하는 제어 프로그램 및 제어 데이터를 포함하고, 상기 제어부는 상기 통신 모듈을 통해 상기 프로그램 및 상기 제어 데이터를 업데이트 하는 것인 대화형 아바타.And the control unit includes a control program and control data for driving the voice processing means and the embedded robot, and the control unit updates the program and the control data through the communication module. 대화형 아바타에서 음성 데이터를 처리하는 방법에 있어서,In the method for processing voice data in an interactive avatar, a) 아바타로 사용자로부터 음성을 입력 받고 이를 음성 데이터로 변환하는 단계;a) receiving a voice from a user as an avatar and converting the voice into voice data; b) 상기 음성 데이터를 상기 아바타에 연결된 컴퓨터로 전송하는 단계;b) transmitting the voice data to a computer connected to the avatar; c) 상기 컴퓨터에서 전송된 음성 데이터를 해독하는 단계;c) decrypting voice data transmitted from the computer; d) 상기 해독 결과로부터 상기 아바타를 구동하기 위한 구동 명령을 상기 아바타로 전송하는 단계; 및d) transmitting a driving command for driving the avatar from the decryption result to the avatar; And e) 상기 전송된 구동 명령에 따라 상기 아바타를 구동하는 단계를 포함하는 음성 데이터 처리 방법.e) driving the avatar according to the transmitted driving command. 제5항에 있어서, The method of claim 5, 상기 단계 d)에서 상기 구동 명령은 상기 아바타의 동작 명령과 음성 데이터를 포함하는 것인 음성 데이터 처리 방법.And the driving command in step d) includes operation commands and voice data of the avatar. 제5항에 있어서,The method of claim 5, 상기 단계 b)는 아바타의 USB 통신 모듈을 이용하여 수행되는 것인 음성 데이터 처리 방법.Step b) is performed using the avatar's USB communication module. 제5항에 있어서,The method of claim 5, 상기 해독 단계 c)는 Said decryption step c) c1) 상기 컴퓨터에서 상기 음성 데이터의 특징을 추출하는 단계; c1) extracting features of the voice data from the computer; c2) 추출된 음성 특징 데이터를 상기 컴퓨터의 네트워크에 연결된 서버로 전송하는 단계; 및c2) transmitting the extracted voice feature data to a server connected to the network of the computer; And c3) 상기 서버에서 상기 음성 특징 데이터를 해독하는 단계를 포함하는 것인 음성 데이터 처리 방법.c3) decrypting the speech feature data at the server.
KR1020030094879A 2003-12-22 2003-12-22 Interactive avatar using network KR20050063471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030094879A KR20050063471A (en) 2003-12-22 2003-12-22 Interactive avatar using network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030094879A KR20050063471A (en) 2003-12-22 2003-12-22 Interactive avatar using network

Publications (1)

Publication Number Publication Date
KR20050063471A true KR20050063471A (en) 2005-06-28

Family

ID=37255316

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030094879A KR20050063471A (en) 2003-12-22 2003-12-22 Interactive avatar using network

Country Status (1)

Country Link
KR (1) KR20050063471A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956134B1 (en) * 2008-01-21 2010-05-06 주식회사 유진로봇 Using System of Toy Robot within a web environment
WO2023229117A1 (en) * 2022-05-26 2023-11-30 한국전자기술연구원 Method for implementing interactive virtual avatar

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956134B1 (en) * 2008-01-21 2010-05-06 주식회사 유진로봇 Using System of Toy Robot within a web environment
WO2023229117A1 (en) * 2022-05-26 2023-11-30 한국전자기술연구원 Method for implementing interactive virtual avatar

Similar Documents

Publication Publication Date Title
EP2146492B1 (en) Event execution method and system for robot synchronized with mobile terminal
US8591302B2 (en) Systems and methods for communication
CN110609620B (en) Human-computer interaction method and device based on virtual image and electronic equipment
US20220009105A1 (en) Virtual creature control system and virtual creature control method
US20030027636A1 (en) Intelligent toy with internet connection capability
US20080263164A1 (en) Method of Sending Motion Control Content in a Message, Message Transmitting Device Abnd Message Rendering Device
JP2005523827A (en) Animating system for robots with a set of moving parts
WO2007136167A1 (en) Communication system among toy robots using messenger and toy robot linked with the same
KR20050063471A (en) Interactive avatar using network
KR100417402B1 (en) Toy able to seperation of central controller
KR101712488B1 (en) Robot, smart block toy, control system for robot using the smart block toy
JP3526785B2 (en) Communication device
CN105641936A (en) Systems and methods for interactive communication between object and smart device
KR100756344B1 (en) Toy robot using &#39;personal media&#39; website
Jean et al. Development of an office delivery robot with multimodal human-robot interactions
KR20020014505A (en) Toy performance apparatus and method using chatting
US20210316225A9 (en) Systems and Methods for Interactive Communication Between an Object and a Smart Device
KR101959285B1 (en) Method for controlling the operation of dolls
JP2021064299A (en) Control system, terminal device, control method, and computer program
KR20090000589A (en) Method and system of transmitting and receiving the both direction motion data where the effective sensitivity expression which uses a script is possible
US20160206962A1 (en) Systems and Methods for Interactive Communication Between an Object and a Smart Device
KR100799160B1 (en) Method for coordinating robot and messenger and device thereof
KR100396754B1 (en) Toy performance apparatus and method using electronic mail
US11731262B2 (en) Robot and method for operating the same
KR101954977B1 (en) Interactive system of objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application