KR20120136966A - Method for express emotion through visual object, system and terminal thereof - Google Patents

Method for express emotion through visual object, system and terminal thereof Download PDF

Info

Publication number
KR20120136966A
KR20120136966A KR1020110056211A KR20110056211A KR20120136966A KR 20120136966 A KR20120136966 A KR 20120136966A KR 1020110056211 A KR1020110056211 A KR 1020110056211A KR 20110056211 A KR20110056211 A KR 20110056211A KR 20120136966 A KR20120136966 A KR 20120136966A
Authority
KR
South Korea
Prior art keywords
visual
terminal
data
service
information
Prior art date
Application number
KR1020110056211A
Other languages
Korean (ko)
Inventor
최윤정
김후종
이은복
정준용
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110056211A priority Critical patent/KR20120136966A/en
Publication of KR20120136966A publication Critical patent/KR20120136966A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06QDATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information

Abstract

PURPOSE: An emotion expression method, system and terminal thereof using visual objects are provided to intimately express each other by interchanging emotion with an opponent based on the visual objects. CONSTITUTION: A first terminal(10) executes an application, selects a visual object, displays on a display, and transmits operation data according to a signal designated to control the visual object to a service device(30). The first terminal controls operation and status of the visual object according to visual object information that received from the service device. The service apparatus transmits the operation data to a second terminal(20), receives feedback data related to the operation data, extracts visual object information from the feedback data and transmits the visual object information to a first terminal. [Reference numerals] (10) First terminal; (20) Second terminal; (30) Service device; (40) Communication network

Description

비주얼 객체를 이용한 감정 표현 방법, 시스템 및 이를 위한 단말기{Method for express emotion through visual object, system and terminal thereof}Method for expressing emotion through visual object, system and terminal for the same

본 발명은 비주얼 객체를 이용한 감정 표현 방법, 시스템 및 이를 위한 단말기에 관한 것으로, 더욱 상세하게는 각자의 사용자가 선택한 두 종류의 비주얼 객체가 연동되어 서로의 감정을 시각적으로 표현하는 비주얼 객체를 이용한 감정 표현 방법, 시스템 및 이를 위한 단말기에 관한 것이다.The present invention relates to a method for expressing emotion using a visual object, a system, and a terminal therefor. More particularly, the present invention relates to an emotion using a visual object in which two types of visual objects selected by respective users are linked to visually express each other's emotions. It relates to a method, a system and a terminal for the same.

이동통신망의 발달과 단말기 사양의 발전에 따라 종래의 단순한 통신장치 또는 정보 제공 장치의 범주를 벗어나 이동통신단말기는 현대인의 필수 소지품이 되었고, 토탈 엔터테인먼트 기기로 진화해 가고 있는 추세에 있다.With the development of mobile communication networks and the development of terminal specifications, mobile communication terminals have become a necessity of modern man and are evolving into total entertainment devices beyond the conventional simple communication devices or information providing devices.

특히, 급속한 컴퓨터 연산 기능 및 그래픽 처리 능력의 발전과 고속 인터넷 선로의 대중화에 따라 다양한 3차원 온라인 어플리케이션이 일반화되었으며, 특정한 목적을 달성해야 하는 어플리케이션과 달리 실제 생활 공간의 3차원 구현과 이를 통한 가상현실 체험을 위한 새로운 개념의 서비스도 상용화되어 점차 규모를 넓혀가고 있다. 이러한 어플리케이션은 다양한 서비스 환경이 혼재된 특성 상 사용자들에게 흥미를 유발할 수 있는 다양한 기능을 제공하고, 실생활의 즐거움을 가상 공간에 접목하여 다양한 서비스로서 활용되고 있다.In particular, various 3D online applications have been generalized due to the rapid development of computer computing functions, graphic processing capabilities, and popularization of high-speed Internet lines.Unlike applications that need to achieve a specific purpose, 3D implementation of real living space and virtual reality through them A new concept of service for experience is also being commercialized and expanding. Such applications provide various functions that can induce interest to users due to mixed service environments, and are utilized as various services by incorporating real life pleasure into virtual space.

이에 따라, 생활형 가상 현실 서비스에 대한 초기 인상이나 활용상의 만족도를 좌우하는 요소 중 하나로 아바타에 대한 사용자의 몰입성이 늘어 가고 있다. 일반적으로 사용자는 아바타가 자신과 동일하다고 느낄 수록 해당 서비스에 대한 몰입성과 충성도가 높아지게 되며 만족도 역시 높아지게 된다. 또한, 사용자의 아바타가 항상 서비스의 중심에서 표현되는 경우, 아바타의 형태, 구성의 다양성 및 액션의 자연스러움은 가상 공간 상에서 자신을 대신하는 아바타에 대한 몰입 정도를 결정하는 주요한 요인이 된다. 널리 알려진 바와 같이, 아바타는 자신의 분신 또는 화신의 의미를 가지기 때문에 자신을 유사하게 표현하거나 자신이 이상적이라 생각하는 이상형을 표현하는 것이 바람직하므로 최근 아바타 구현 방식은 실물에 근접하게 아바타의 외관을 제공하는 방식과 이상적인 외관의 기본 형태를 약간씩 변형하도록 한 외관을 제공하는 방식이 많이 개발되고 있다.Accordingly, the user's immersion to the avatar is increasing as one of factors that determine the initial impression or satisfaction of the life type virtual reality service. In general, the more the user feels the same as the avatar, the higher the immersion and loyalty of the corresponding service and the higher the satisfaction. In addition, when the user's avatar is always represented at the center of the service, the shape of the avatar, the diversity of the configuration, and the naturalness of the action become a major factor in determining the degree of immersion for the avatar replacing the user in the virtual space. As is widely known, since avatars have meanings of their own incarnations or incarnations, it is desirable to express themselves similarly or to express ideal types that they consider to be ideal, so recent avatar implementation methods provide the appearance of avatars in close proximity to the real thing. Many ways have been developed to provide an appearance that slightly alters the basic shape of the ideal appearance.

본 발명의 목적은 단말기가 어플리케이션을 실행하고, 사용자의 입력에 따라 선택되는 비주얼 객체를 화면에 표시하고, 비주얼 객체를 제어하기 위한 명령에 따라 해당되는 동작을 표현함과 동시에 해당되는 비주얼 객체 정보를 다른 단말기로 전송하여 비주얼 객체를 통한 감정을 공유할 수 있는 비주얼 객체를 이용한 감정 표현 방법, 시스템 및 그의 단말기를 제공하고자 한다.An object of the present invention is to execute an application, display a visual object selected according to a user's input on a screen, express the corresponding operation according to a command for controlling the visual object, and change the corresponding visual object information. The present invention provides a method and system for expressing emotions using a visual object capable of transmitting emotions through a visual object to a terminal, and a terminal thereof.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 시스템은 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하고, 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 서비스장치로 전송하고, 서비스장치로부터 수신되는 비주얼 객체 정보에 따라 비주얼 객체의 동작 및 상태를 제어하는 제1단말기와, 제1단말기 및 제2단말기의 요청에 따라 어플리케이션을 제공하고, 제1단말기로부터 수신되는 동작데이터를 제2단말기로 전송하고, 제2단말기로부터 동작데이터에 연관된 피드백 데이터를 수신하고, 피드백 데이터를 통해 비주얼 객체 정보를 추출하고, 비주얼 객체 정보를 제1단말기로 전송하는 서비스장치 및 제1단말기와 비주얼 객체에 대한 데이터를 공유하고, 서비스장치로부터 동작데이터를 수신하고, 동작데이터에 연관된 피드백 데이터를 생성하고, 피드백 데이터를 서비스장치로 전송하는 제2단말기를 포함하는 것을 특징으로 한다.Emotional expression system using a visual object according to an embodiment of the present invention for achieving the object as described above is executed by the application, at least one or more visual objects to display on the screen, the signal to control the visual object Accordingly, the first terminal for transmitting the corresponding operation data to the service device and controlling the operation and state of the visual object according to the visual object information received from the service device, and the application is provided at the request of the first terminal and the second terminal. And transmitting the operation data received from the first terminal to the second terminal, receiving feedback data related to the operation data from the second terminal, extracting visual object information through the feedback data, and converting the visual object information into the first terminal. Service device to transmit data to the first terminal and visual object And a second terminal for sharing, receiving operation data from the service apparatus, generating feedback data related to the operation data, and transmitting the feedback data to the service apparatus.

본 발명의 실시 예에 따른 단말기는 서비스장치와 어플리케이션에 대한 데이터를 송수신하는 단말통신부와, 다수의 비주얼 객체에 대한 동작을 시각적으로 표시하는 표시부 및 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하고, 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 서비스장치로 전송하고, 서비스장치로부터 수신되는 비주얼 객체 정보에 따라 비주얼 객체의 동작 및 상태를 제어하는 단말제어부를 포함하는 것을 특징으로 한다.A terminal according to an embodiment of the present invention executes a terminal communication unit for transmitting and receiving data for a service device and an application, a display unit for visually displaying operations for a plurality of visual objects, and an application and selecting at least one visual object. It includes a terminal control unit for displaying on the screen, and transmits the corresponding motion data to the service device according to the signal for controlling the visual object, and controls the operation and state of the visual object according to the visual object information received from the service device It features.

또한, 본 발명에 따른 단말기에 있어서, 단말제어부는 비주얼 객체가 표시되는 화면에 입력되는 터치신호를 감지하고, 터치신호에 연관된 동작데이터를 추출하는 것을 특징으로 한다.In the terminal according to the present invention, the terminal controller detects a touch signal input on the screen on which the visual object is displayed, and extracts motion data associated with the touch signal.

또한, 본 발명에 따른 단말기에 있어서, 단말제어부는 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 기능버튼 중 적어도 하나를 선택하고, 기능버튼에 연관된 비주얼 객체의 동작데이터를 추출하는 것을 특징으로 한다.In the terminal according to the present invention, the terminal controller provides a function button on a screen on which the visual object is displayed, selects at least one of the function buttons, and extracts operation data of the visual object associated with the function button. do.

또한, 본 발명에 따른 단말기에 있어서, 사용자 음성 및 주변환경에 대한 소리를 감지하는 마이크를 구비하는 오디오처리부 및 사용자의 주변환경, 동작 또는 표정을 감지하는 센서부 중 적어도 하나를 더 포함하며, 단말제어부는 오디오처리부를 통해 입력되는 신호를 감지하고, 신호에 연관된 비주얼 객체의 동작데이터를 추출하는 것을 특징으로 한다.In addition, the terminal according to the present invention, further comprising at least one of an audio processing unit having a microphone for detecting a user voice and a sound for the surrounding environment and a sensor unit for detecting the user's surroundings, actions or facial expressions, The controller may detect a signal input through the audio processor and extract motion data of a visual object associated with the signal.

또한, 본 발명에 따른 단말기에 있어서, 단말제어부는 서비스장치로부터 동작데이터를 수신하여 확인하고, 동작데이터에 대응하는 피드백 데이터를 서비스장치로 전송하는 것을 특징으로 한다.In the terminal according to the present invention, the terminal control unit receives and confirms operation data from the service apparatus, and transmits feedback data corresponding to the operation data to the service apparatus.

또한, 본 발명에 따른 단말기에 있어서, 단말제어부는 센서부를 통해 사용자의 주변환경, 동작 또는 표정을 인식하고, 인식 결과에 대한 동작데이터를 추출하고, 추출된 동작데이터에 연관된 피드백 데이터를 생성하고, 피드백 데이터를 서비스장치로 전송하는 것을 특징으로 한다.In addition, in the terminal according to the present invention, the terminal control unit recognizes the user's surroundings, actions or facial expressions through the sensor unit, extracts the motion data for the recognition result, generates the feedback data associated with the extracted motion data, The feedback data is transmitted to the service device.

본 발명의 실시 예에 따른 서비스장치는 다수의 단말기와 어플리케이션 실행에 따른 데이터를 송수신하는 서비스통신부와, 어플리케이션을 실행하기 위한 데이터를 저장하는 서비스저장부 및 다수의 단말기의 요청에 따라 어플리케이션을 제공하고, 하나의 단말기로부터 수신되는 동작데이터를 다른 단말기로 전송하고, 다른 단말기로부터 동작데이터에 연관된 피드백 데이터를 수신하고, 피드백 데이터를 통해 비주얼 객체 정보를 추출하고, 비주얼 객체 정보를 하나의 단말기로 전송하도록 제어하는 서비스제어부를 포함하는 것을 특징으로 한다.The service apparatus according to an embodiment of the present invention provides a service communication unit for transmitting and receiving data according to the execution of the application with a plurality of terminals, a service storage unit for storing data for executing the application and the application according to the request of the plurality of terminals; To transmit motion data received from one terminal to another terminal, to receive feedback data associated with the motion data from another terminal, to extract visual object information through the feedback data, and to transmit the visual object information to one terminal. It characterized in that it comprises a service control unit for controlling.

본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법은 단말기가 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하는 단계와, 단말기가 비주얼 객체를 제어하기 위한 신호를 감지하는 단계와, 단말기가 신호에 따라 해당되는 동작데이터를 추출하는 단계와, 단말기가 동작데이터를 서비스장치로 전송하는 단계와, 단말기가 서비스장치로부터 동작데이터에 연관된 비주얼 객체 정보를 수신하는 단계 및 단말기가 비주얼 객체 정보에 따라 비주얼 객체의 동작 및 상태를 제어하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method of expressing emotion using a visual object may include: executing an application by a terminal, displaying at least one visual object on a screen, and detecting a signal for controlling the visual object by the terminal; And extracting, by the terminal, corresponding motion data according to the signal, transmitting, by the terminal, the motion data to the service device, receiving, by the terminal, visual object information associated with the motion data from the service device, and visualizing the terminal. And controlling the operation and state of the visual object according to the object information.

본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법은 단말기가 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계와, 단말기가 비주얼 객체를 서비스장치에 등록하고, 다른 단말기와 비주얼 객체에 대한 데이터를 공유하는 단계와, 단말기가 서비스장치로부터 동작데이터를 수신하는 단계와, 단말기가 동작데이터를 확인하고, 동작데이터에 연관된 피드백 데이터를 생성하는 단계 및 단말기가 피드백 데이터를 서비스장치로 전송하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of expressing emotion using a visual object, by which a terminal executes an application, visually selects at least one visual object on a screen, and registers the visual object in a service device. Sharing data about the visual object with another terminal, receiving the operation data from the service device by the terminal, checking the operation data by the terminal, generating feedback data associated with the operation data, and the terminal by the feedback data It characterized in that it comprises the step of transmitting to the service device.

본 발명의 과제 해결을 위한 또 다른 수단으로서, 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계와, 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 추출하는 단계 및 동작데이터를 연관된 비주얼 객체 정보에 따라 비주얼 객체의 동작 및 상태를 제어하는 단계를 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록매체를 제공한다.As another means for solving the problem of the present invention, executing the application, selecting at least one or more visual objects to visually display on the screen, and extracting the corresponding motion data according to the signal for controlling the visual object A computer-readable recording medium having recorded thereon a program for performing the steps and controlling the operation and state of the visual object in accordance with the associated visual object information.

또한, 본 발명은 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계와, 비주얼 객체에 대한 데이터를 공유하는 단계 및 동작데이터를 수신하여 확인하고, 동작데이터에 연관된 피드백 데이터를 생성하는 단계를 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록매체를 제공한다.The present invention also provides a method for executing an application, selecting at least one visual object and visually displaying the same on a screen, sharing data on the visual object, receiving and confirming motion data, and feedback associated with the motion data. A computer readable recording medium having recorded thereon a program for performing data generation is provided.

본 발명에 따르면, 비주얼 객체를 이용하여 상대방과 감정 교류를 함으로써, 보다 친숙하게 서로를 표현할 수 있다.According to the present invention, it is possible to express each other more intimately by exchanging emotions with the counterpart using a visual object.

또한, 터치 동작 또는 마이크를 통해 입력되는 사용자의 음성에 따라 비주얼 객체의 얼굴 표정을 변화하여 자연스럽고 섬세하게 표현할 수 있다.In addition, the facial expression of the visual object may be changed according to a touch operation or a voice of a user input through a microphone, thereby expressing a natural and delicate expression.

또한, 현실 세계와 유사한 가상의 공간을 배경으로 제공하고, 가상의 공간에서 일어나는 다양한 의사 표현, 행동 또는 반응에 따라 자기 또는 상대방의 비주얼 객체의 동작을 변화하여 단말기 사용에 대한 새로운 흥미거리와 다양한 대화를 유도할 수 있다.In addition, it provides a virtual space similar to the real world as a background, and changes the behavior of a visual object of oneself or the other party according to various expressions, actions, or reactions occurring in the virtual space, thereby creating new interests and various conversations about the use of the terminal. Can be derived.

또한, 개인이 만든 비주얼 객체에 대한 어플리케이션을 온라인 상에 유통할 수 있어 적극적인 커뮤니케이션 및 마케팅 활동에 이용될 수 있다.In addition, applications for visual objects created by individuals can be distributed online to be used for active communication and marketing activities.

도 1은 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 시스템을 나타내는 구성도이다.
도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 블록도 이다.
도 3은 본 발명의 실시 예에 따른 서비스장치의 구성을 나타내는 블록도 이다.
도 4는 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름도이다.
도 5는 본 발명의 실시 예에 따른 제1단말기의 동작을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시 예에 따른 제2단말기의 동작을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시 예에 따른 서비스장치의 동작을 설명하기 위한 흐름도이다.
도 8은 본 발명의 다른 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름도이다.
도 9a 내지 도 12는 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 설명하기 위한 예시도 이다.
1 is a block diagram showing an emotional expression system using a visual object according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a terminal according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a service apparatus according to an exemplary embodiment of the present invention.
4 is a data flow diagram illustrating an emotion expression method using a visual object according to an embodiment of the present invention.
5 is a flowchart illustrating an operation of a first terminal according to an embodiment of the present invention.
6 is a flowchart illustrating an operation of a second terminal according to an embodiment of the present invention.
7 is a flowchart illustrating an operation of a service apparatus according to an exemplary embodiment of the present invention.
8 is a data flowchart illustrating a method of expressing emotion using a visual object according to another embodiment of the present invention.
9A to 12 are exemplary diagrams for describing an emotion expression method using a visual object according to an embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements are denoted by the same reference numerals as much as possible throughout the drawings.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as being limited to ordinary or dictionary meanings, and the inventors are appropriate as concepts of terms for explaining their own invention in the best way. It should be interpreted as meanings and concepts in accordance with the technical spirit of the present invention based on the principle that it can be defined. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

이하에서는 본 발명의 실시 예에 따른 단말기는 통신망에 연결되어 비주얼 객체를 제공하는 어플리케이션을 실행하고, 어플리케이션 중 비주얼 객체의 동작에 대한 데이터를 송수신할 수 있는 이동통신단말기를 대표적인 예로서 설명하지만 단말기는 이동통신단말기에 한정된 것이 아니고, 모든 정보통신기기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 IP(Internet Protocol) 단말기 등의 다양한 단말기에 적용될 수 있다. 또한, 단말기는 휴대폰, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 스마트폰(Smart Phone), 데스크톱(Desktop), 태블릿컴퓨터(Tablet PC), 노트북(Note book), 넷북(Net book) 및 정보통신 기기 등과 같은 다양한 이동통신 사양을 갖는 모바일(Mobile) 단말기일 때 유리하게 활용될 수 있다.Hereinafter, a terminal according to an embodiment of the present invention will be described as a representative example of a mobile communication terminal connected to a communication network to execute an application for providing a visual object and to transmit and receive data on the operation of the visual object among applications. The present invention is not limited to a mobile communication terminal, and may be applied to various terminals such as all information communication devices, multimedia terminals, wired terminals, fixed terminals, and IP (Internet Protocol) terminals. Also, the terminal may be a mobile phone, a portable multimedia player (PMP), a mobile Internet device (MID), a smart phone, a desktop, a tablet PC, a notebook, And an information communication device, which can be advantageously used in a mobile terminal having various mobile communication specifications.

도 1은 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 시스템을 나타내는 구성도이다.1 is a block diagram showing an emotional expression system using a visual object according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 시스템(100)은 제1단말기(10), 제2단말기(20), 서비스장치(30) 및 통신망(40)을 포함한다.Referring to FIG. 1, an emotional expression system 100 using a visual object according to an exemplary embodiment of the present invention includes a first terminal 10, a second terminal 20, a service device 30, and a communication network 40. do.

본 발명의 실시 예에 따른 비주얼 객체는 사람, 동물 또는 가상의 생물 등을 가상화하여 나타낸 2D(Dimension)/3D 아바타, 이모티콘, 애니메이션과 같이 사용자정보를 시각화하여 나타낸 객체가 될 수 있다. 여기서, 사용자정보는 환경, 감정, 위치, 상태 및 동작에 따라 변경될 수 있다.The visual object according to an embodiment of the present invention may be an object represented by visualizing user information, such as a 2D (Dimension) / 3D avatar, an emoticon, or an animation, which is represented by virtualizing a person, an animal, or a virtual creature. Here, the user information may be changed according to the environment, emotion, location, state and operation.

본 발명의 실시 예에 따른 제2단말기(20)는 제1단말기(10)와 서비스장치(30)를 통해 비주얼 객체를 서로 연동하여 어플리케이션을 실행하는 단말기로서, 비주얼 객체의 동작에 대한 피드백 데이터를 제1단말기(10)로 전송하는 단말기가 될 수 있다. 또한, 제1단말기(10)는 제2단말기(20)와 서비스장치(30)를 통해 비주얼 객체를 서로 연동하여 어플리케이션을 실행하는 단말기로서, 비주얼 객체의 동작에 해당되는 비주얼 객체 정보를 서비스장치(30)로부터 수신하여 비주얼 객체의 동작을 표시하는 단말기가 될 수 있다. 하지만, 상기에 제시된 제1단말기(10)와 제2단말기(20)의 동작은 설명의 편의를 위해 구분된 것일 뿐, 제시된 동작에 제한된 것이 아니다. 즉, 제1단말기(10)가 제2단말기(20)의 동작을 수행하거나, 제2단말기(20)가 제1단말기(10)의 동작을 수행할 수도 있다.The second terminal 20 according to an embodiment of the present invention is a terminal that executes an application by interworking a visual object through the first terminal 10 and the service device 30, and provides feedback data on the operation of the visual object. It may be a terminal for transmitting to the first terminal (10). In addition, the first terminal 10 is a terminal that executes an application by interworking a visual object through the second terminal 20 and the service apparatus 30, and provides visual object information corresponding to the operation of the visual object to the service apparatus ( It may be a terminal receiving from 30 to display the operation of the visual object. However, the operations of the first terminal 10 and the second terminal 20 presented above are merely divided for convenience of description and are not limited to the presented operations. That is, the first terminal 10 may perform the operation of the second terminal 20, or the second terminal 20 may perform the operation of the first terminal 10.

제1단말기(10)는 통신망(40)을 통해 서비스장치(30)에 접속할 수 있다. 여기서, 제1단말기(10)는 통신망(40)으로의 접속을 지원하는 프로토콜에 따라 다양한 방식으로 서비스장치(30)에 접속할 수 있다. 특히, 제1단말기(10)는 어플리케이션을 실행하고, 사용자의 입력에 따라 비주얼 객체를 선택한다. 이때, 제1단말기(10)는 비주얼 객체를 서비스장치(30)에 등록하고, 제2단말기(20)와 비주얼 객체에 대한 데이터를 공유한다.The first terminal 10 may be connected to the service device 30 through the communication network 40. Here, the first terminal 10 may connect to the service device 30 in various ways according to a protocol supporting the connection to the communication network 40. In particular, the first terminal 10 executes an application and selects a visual object according to a user's input. In this case, the first terminal 10 registers the visual object with the service device 30 and shares data about the visual object with the second terminal 20.

제1단말기(10)는 선택된 비주얼 객체를 화면에 시각적으로 표시하고, 화면에 표시된 비주얼 객체를 제어하기 위한 명령에 따라 해당되는 동작을 표현한다. 그리고, 제1단말기(10)는 해당되는 동작에 상응하는 데이터를 서비스장치(30)로 전송한다. 이후, 제1단말기(10)는 서비스장치(30)로부터 제2단말기(20)로부터 생성된 피드백 데이터에 대한 비주얼 객체 정보를 수신하고, 비주얼 객체 정보에 따라 비주얼 객체를 표시할 수 있다.The first terminal 10 visually displays the selected visual object on the screen and expresses a corresponding operation according to a command for controlling the visual object displayed on the screen. The first terminal 10 transmits data corresponding to the corresponding operation to the service device 30. Thereafter, the first terminal 10 may receive visual object information on the feedback data generated from the second terminal 20 from the service device 30 and display the visual object according to the visual object information.

제2단말기(20)는 통신망(40)을 통해 서비스장치(30)에 접속할 수 있다. 여기서, 제2단말기(20)는 통신망(40)으로의 접속을 지원하는 프로토콜에 따라 다양한 방식으로 서비스장치(30)에 접속할 수 있다. 특히, 제2단말기(20)는 서비스장치(30)로부터 비주얼 객체의 동작에 대한 데이터를 수신하고, 이를 확인하여 해당되는 데이터에 대응하는 피드백 데이터를 생성하여 서비스장치(30)로 전송한다.The second terminal 20 may be connected to the service device 30 through the communication network 40. Here, the second terminal 20 may access the service device 30 in various ways according to a protocol supporting the connection to the communication network 40. In particular, the second terminal 20 receives data on the operation of the visual object from the service device 30, checks the generated data, and generates feedback data corresponding to the corresponding data to the service device 30.

서비스장치(30)는 통신망(40)을 통해 제1단말기(10)와 제2단말기(20)로 비주얼 객체에 대한 어플리케이션을 제공한다. 특히, 서비스장치(30)는 제1단말기(10)로부터 비주얼 객체의 동작에 대한 데이터를 수신하여 제2단말기(20)로 전송한다. 그리고 나서, 서비스장치(30)는 제2단말기(20)로부터 수신되는 비주얼 객체의 동작에 대한 피드백 데이터를 확인하여, 비주얼 객체 정보를 추출한다. 여기서, 서비스장치(30)는 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다.The service device 30 provides an application for a visual object to the first terminal 10 and the second terminal 20 through the communication network 40. In particular, the service device 30 receives data on the operation of the visual object from the first terminal 10 and transmits the data to the second terminal 20. Then, the service device 30 checks the feedback data on the operation of the visual object received from the second terminal 20 and extracts the visual object information. Here, the service device 30 transmits the extracted visual object information to the first terminal 10.

이를 통해, 비주얼 객체를 이용하여 상대방과 감정 교류를 함으로써, 보다 친숙하게 서로를 표현할 수 있다. 또한, 터치 동작 또는 마이크를 통해 입력되는 사용자의 음성에 따라 비주얼 객체의 얼굴 표정을 변화하여 자연스럽고 섬세하게 표현할 수 있다. 또한, 현실 세계와 유사한 가상의 공간을 배경으로 제공하고, 가상의 공간에서 일어나는 다양한 의사 표현, 행동 또는 반응에 따라 자기 또는 상대방의 비주얼 객체의 동작을 변화하여 단말기 사용에 대한 새로운 흥미거리와 다양한 대화를 유도할 수 있다. 또한, 개인이 만든 비주얼 객체에 대한 어플리케이션을 온라인 상에 유통할 수 있어 적극적인 커뮤니케이션 및 마케팅 활동에 이용될 수 있다.In this way, by interacting with the other party using a visual object, it is possible to express each other more familiar. In addition, the facial expression of the visual object may be changed according to a touch operation or a voice of a user input through a microphone, thereby expressing a natural and delicate expression. In addition, it provides a virtual space similar to the real world as a background, and changes the behavior of a visual object of oneself or the other party according to various expressions, actions, or reactions occurring in the virtual space, thereby creating new interests and various conversations about the use of the terminal. Can be derived. In addition, applications for visual objects created by individuals can be distributed online to be used for active communication and marketing activities.

도 2는 본 발명의 실시 예에 따른 단말기의 구성을 나타내는 블록도 이다.2 is a block diagram illustrating a configuration of a terminal according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 단말기(10,20)는 단말제어부(11), 입력부(12), 단말저장부(13), 오디오처리부(14), 단말통신부(15), 표시부(16), 센서부(17) 및 카메라부(18)로 구성된다. 이때, 단말제어부(11)는 비주얼 객체 제어모듈(11a), 음성인식모듈(11b) 및 동작인식모듈(11c)를 포함하고, 단말저장부(13)는 비주얼 객체 어플리케이션(13a), 비주얼 객체 DB(13b), 음성데이터 DB(13c) 및 동작데이터 DB(13d)를 포함한다.2, the terminal 10, 20 according to an embodiment of the present invention is a terminal control unit 11, input unit 12, terminal storage unit 13, audio processing unit 14, terminal communication unit 15, It consists of the display part 16, the sensor part 17, and the camera part 18. As shown in FIG. In this case, the terminal controller 11 includes a visual object control module 11a, a voice recognition module 11b, and an operation recognition module 11c, and the terminal storage unit 13 includes a visual object application 13a and a visual object DB. 13b, voice data DB 13c, and operation data DB 13d.

단말제어부(11)는 운영 체제(OS, Operation System) 및 각 구성을 구동시키는 프로세스 장치가 될 수 있다. 예컨대, 단말제어부(11)는 중앙처리장치(CPU, Central Processing Unit)가 될 수 있다. 단말제어부(11)는 단말기(10, 20)의 전원이 켜지면, 운영 체제를 보조 기억 장치로부터 주 기억 장치로 이동시킨 후, 운영 체제를 구동하기 위한 부팅(booting)을 수행하고, 필요한 신호 제어를 수행한다. 특히, 본 발명의 실시 예에 따른 단말제어부(11)는 어플리케이션을 실행하고, 사용자의 입력에 따라 비주얼 객체를 선택한다. 이때, 단말제어부(11)는 비주얼 객체를 서비스장치(30)에 등록하고, 다른 단말기와 비주얼 객체에 대한 데이터를 공유한다. 여기서, 비주얼 객체는 사용자의 입력에 따라 동작하는 상대방의 비주얼 객체와 상대방의 입력에 따라 동작하는 사용자의 비주얼 객체가 될 수 있다.The terminal controller 11 may be a process device that drives an operating system (OS) and each component. For example, the terminal control unit 11 may be a central processing unit (CPU). When the terminals 10 and 20 are powered on, the terminal controller 11 moves the operating system from the auxiliary storage device to the main storage device, performs booting to drive the operating system, and controls necessary signals. Perform In particular, the terminal controller 11 according to an embodiment of the present invention executes an application and selects a visual object according to a user input. In this case, the terminal controller 11 registers the visual object to the service device 30 and shares data on the visual object with other terminals. Here, the visual object may be a visual object of a counterpart operating in response to a user input and a visual object of a user operating in response to the input of the counterpart.

단말제어부(11)는 선택된 비주얼 객체를 화면에 시각적으로 표시한다. 이때, 단말제어부(11)는 비주얼 객체를 표시하는 모드에 따라 하나의 비주얼 객체가 표시되는 화면 크기를 다른 비주얼 객체가 표시되는 화면의 크기 보다 크게 입력부(12)에 표시한다. 즉, 단말제어부(11)는 사용자의 비주얼 객체와 상대방의 비주얼 객체를 선택에 따라 구분하여 크기를 조절할 수 있다.The terminal controller 11 visually displays the selected visual object on the screen. In this case, the terminal controller 11 displays the screen size on which one visual object is displayed in the input unit 12 to be larger than the size of the screen on which another visual object is displayed according to the mode of displaying the visual object. That is, the terminal controller 11 may adjust the size by dividing the visual object of the user and the visual object of the counterpart according to the selection.

단말제어부(11)는 화면에 표시된 비주얼 객체를 제어하기 위한 명령에 따라 해당되는 동작을 표현한다. 이때, 단말제어부(11)는 비주얼 객체가 표시되는 화면에 입력되는 터치 신호를 감지하고, 터치신호에 따라 해당되는 비주얼 객체 동작을 구분하고, 구분된 동작에 대한 데이터를 추출한다. 또한, 단말제어부(11)는 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 기능버튼 중 적어도 하나를 선택하고, 선택된 기능버튼에 대응하는 동작에 대한 데이터를 추출한다. 또한, 단말제어부(11)는 오디오처리부(14)를 통해 입력되는 신호를 감지하고, 입력 신호에 따른 동작에 대한 데이터를 추출한다. 이후, 단말제어부(11)는 해당되는 동작에 상응하는 데이터를 서비스장치(30)로 전송한다.The terminal controller 11 expresses a corresponding operation according to a command for controlling a visual object displayed on the screen. In this case, the terminal controller 11 detects a touch signal input to the screen on which the visual object is displayed, classifies the corresponding visual object operation according to the touch signal, and extracts data about the divided operation. In addition, the terminal controller 11 provides a function button on the screen on which the visual object is displayed, selects at least one of the function buttons, and extracts data on an operation corresponding to the selected function button. In addition, the terminal controller 11 detects a signal input through the audio processor 14 and extracts data on an operation according to the input signal. Thereafter, the terminal controller 11 transmits data corresponding to the corresponding operation to the service device 30.

단말제어부(11)는 서비스장치(30)로부터 비주얼 객체의 동작에 따른 비주얼 객체 정보를 수신한다. 여기서, 단말제어부(11)는 서비스장치(30)로부터 수신된 비주얼 객체 정보를 확인하고, 해당되는 비주얼 객체의 동작에 따라 비주얼 객체를 표시할 수 있다. 이와 같은 단말제어부(11)의 기능을 보다 효과적으로 수행하기 위하여 단말기(10, 20)는 비주얼 객체 제어모듈(11a), 음성인식모듈(11b) 및 동작인식모듈(11c)를 더 포함한다. 특히, 비주얼 객체 제어모듈(11a)은 비주얼 객체를 제어하기 위한 사용자의 명령에 따라 해당되는 동작을 표현한다. 또한, 음성인식모듈(11b)은 동작데이터에 연관된 피드백 데이터를 생성하기 위하여 사용자의 음성을 인식하고, 인식된 음성을 기 저장된 음성데이터와 비교하여 해당되는 음성에 따라 사용자의 감정을 추출한다. 또한, 동작인식모듈(11c)은 동작데이터에 연관된 피드백 데이터를 생성하기 위하여 사용자의 동작 또는 표정을 인식한다. 이때, 동작인식모듈(11c)은 센서부(17) 및 카메라부(18)를 통해 감지되는 데이터를 분석하여 사용자의 동작 또는 표정을 추출한다.The terminal controller 11 receives the visual object information according to the operation of the visual object from the service device 30. Here, the terminal controller 11 may check the visual object information received from the service device 30 and display the visual object according to the operation of the corresponding visual object. In order to perform the functions of the terminal control unit 11 more effectively, the terminals 10 and 20 further include a visual object control module 11a, a voice recognition module 11b, and an operation recognition module 11c. In particular, the visual object control module 11a expresses a corresponding operation according to a user's command to control the visual object. In addition, the voice recognition module 11b recognizes the user's voice in order to generate feedback data related to the operation data, and compares the recognized voice with previously stored voice data to extract the user's emotion according to the corresponding voice. In addition, the motion recognition module 11c recognizes a user's motion or facial expression in order to generate feedback data related to the motion data. At this time, the motion recognition module 11c extracts the user's motion or facial expression by analyzing the data sensed by the sensor unit 17 and the camera unit 18.

또한, 단말제어부(11)는 서비스장치(30)로부터 수신되는 비주얼 객체의 동작에 대한 데이터를 확인하여, 비주얼 객체의 피드백 데이터를 생성한다. 그리고, 단말제어부(11)는 생성된 피드백 데이터를 서비스장치(30)로 전송할 수 있다.In addition, the terminal controller 11 checks the data on the operation of the visual object received from the service device 30 and generates feedback data of the visual object. In addition, the terminal controller 11 may transmit the generated feedback data to the service device 30.

입력부(12)는 숫자 및 문자 정보 등의 다양한 정보를 입력 받고, 각종 기능을 설정 및 단말기(10, 20)의 기능 제어와 관련하여 입력되는 신호를 단말제어부(11)로 전달한다. 또한, 입력부(12)는 사용자의 터치 또는 조작에 따른 입력 신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때, 입력부(12)는 표시부(16)와 함께 하나의 터치패널(또는 터치스크린)의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다. 또한, 입력부(12)는 키보드, 키패드, 마우스, 조이스틱 등과 같은 입력 장치 외에도 향후 개발될 수 있는 모든 형태의 입력 수단이 사용될 수 있다. 특히, 본 발명의 실시 예에 따른 입력부(12)는 사용자의 조작에 따라 입력되는 어플리케이션 실행을 위한 입력 신호를 단말제어부(11)로 전달한다.The input unit 12 receives various information such as numeric and text information, and transmits a signal input in connection with setting various functions and controlling functions of the terminals 10 and 20 to the terminal control unit 11. The input unit 12 may include at least one of a keypad and a touchpad that generates an input signal according to a user's touch or operation. In this case, the input unit 12 may be configured in the form of one touch panel (or touch screen) together with the display unit 16 to simultaneously perform input and display functions. The input unit 12 may be any type of input device that can be developed in addition to an input device such as a keyboard, a keypad, a mouse, a joystick, and the like. In particular, the input unit 12 according to the embodiment of the present invention transmits an input signal for executing an application input according to a user's operation to the terminal controller 11.

표시부(16)는 단말기(10, 20)의 기능 수행 중에 발생하는 일련의 동작상태 및 동작결과 등에 대한 정보를 표시한다. 또한, 표시부(16)는 단말기(10, 20)의 메뉴 및 사용자가 입력한 사용자 데이터 등을 표시할 수 있다. 여기서, 표시부(13)는 LCD(Liquid Crystal Display), TFT-LCD(Thin Film Transistor LCD), OLED(Organic Light Emitting Diodes), 발광다이오드(LED), AMOLED(Active Matrix Organic LED), 플렉시블 디스플레이(Flexible display) 및 3차원 디스플레이(3 Dimension) 등으로 구성될 수 있다. 이때, 표시부(16)는 터치스크린(touch screen) 형태로 구성될 수 있고, 이와 같이, 터치스크린 형태로 형성된 경우, 입력부(12)의 기능 중 일부 또는 전부를 수행할 수 있다. 특히, 본 발명의 실시 예에 따른 표시부(16)는 어플리케이션 실행에 따른 데이터를 화면에 표시한다. 즉, 표시부(16)는 비주얼 객체를 통해 사용자정보를 시각화하여 표시한다. 또한, 표시부(16)는 비주얼 객체를 표시하는 모드에 따라 단말제어부(11)의 제어에 따라 비주얼 객체의 화면 크기를 구분하여 표시한다.The display unit 16 displays information on a series of operation states and operation results generated while the functions of the terminals 10 and 20 are performed. In addition, the display unit 16 may display menus of the terminals 10 and 20 and user data input by the user. Here, the display unit 13 may be a liquid crystal display (LCD), a thin film transistor (TFT) LCD, an organic light emitting diode (OLED), a light emitting diode (LED), an active matrix organic LED (AMOLED) display) and a three-dimensional display (three-dimensional display). In this case, the display unit 16 may be configured in the form of a touch screen, and when the display unit 16 is formed in the form of a touch screen, the display unit 16 may perform some or all of the functions of the input unit 12. In particular, the display unit 16 according to an exemplary embodiment of the present invention displays data according to application execution on a screen. That is, the display unit 16 visualizes and displays the user information through the visual object. In addition, the display unit 16 classifies and displays the screen size of the visual object under the control of the terminal controller 11 according to the mode of displaying the visual object.

단말저장부(13)는 데이터를 저장하기 위한 장치로, 주 기억 장치 및 보조 기억 장치를 포함하고, 단말기(10, 20)의 기능 동작에 필요한 응용 프로그램을 저장한다. 이러한 단말저장부(13)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 여기서, 단말기(10, 20)는 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 단말제어부(11)의 제어 하에 해당 응용 프로그램들을 실행하여 각 기능을 제공하게 된다. 특히, 본 발명의 실시 예에 따른 프로그램 영역은 단말기(10, 20)를 부팅시키는 운영체제, 비주얼 객체를 실행하고, 비주얼 객체의 동작을 제어하는 프로그램 등을 저장한다. The terminal storage unit 13 is a device for storing data. The terminal storage unit 13 includes a main memory device and an auxiliary memory device, and stores an application program necessary for the functional operation of the terminals 10 and 20. The terminal storage unit 13 may largely include a program area and a data area. When the terminals 10 and 20 activate each function in response to a user's request, the terminals 10 and 20 execute the corresponding application programs under the control of the terminal controller 11 to provide the respective functions. In particular, the program area according to an embodiment of the present invention stores an operating system for booting the terminals 10 and 20, a program for executing a visual object, and controlling a operation of the visual object.

또한, 데이터 영역은 단말기(10, 20)의 사용에 따라 발생하는 데이터가 저장되는 영역이다. 특히, 본 발명의 실시 예에 따른 데이터 영역은 서비스장치(30)로부터 다운로드 되는 비주얼 객체 어플리케이션(13a), 다양한 비주얼 객체에 대한 비주얼 객체 DB(31b), 동작데이터에 연관된 피드백 데이터를 생성하기 위해 감지되는 음성을 확인하는데 이용되는 음성데이터 DB(13c) 및 사용자 동작을 확인하는데 이용되는 동작데이터 DB(13d)를 저장한다. 또한, 데이터영역은 사용자의 입력에 따라 변화하는 비주얼 객체의 동작에 대한 정보를 저장한다.In addition, the data area is an area in which data generated according to the use of the terminals 10 and 20 is stored. In particular, the data area according to an embodiment of the present invention is detected to generate a visual object application 13a downloaded from the service device 30, a visual object DB 31b for various visual objects, and feedback data associated with motion data. The voice data DB 13c used to confirm the voice being used and the operation data DB 13d used to confirm the user operation are stored. In addition, the data area stores information on the operation of the visual object that changes according to a user's input.

오디오처리부(14)는 오디오 신호를 재생하여 출력하기 위한 스피커(SPK) 또는 마이크(MIC)로부터 입력되는 오디오 신호를 단말제어부(11)에 전달하는 기능을 수행한다. 이러한 오디오처리부(14)는 마이크를 통해 입력되는 아날로그 형식의 오디오 신호를 디지털 형식으로 변환하여 단말제어부(11)에 전달할 수 있다. 또한, 오디오처리부(14)는 단말제어부(11)로부터 출력되는 디지털 형식의 오디오 신호를 아날로그 신호로 변환하여 스피커를 통해 출력할 수 있다. 특히, 오디오처리부(14)는 마이크를 통해 사용자 음성 및 주변환경의 소리를 감지한다. 즉, 오디오처리부(14)는 단말제어부(11)의 제어에 따라 오디오 신호를 감지한다.The audio processor 14 transmits the audio signal input from the speaker SPK or the microphone MIC to reproduce and output the audio signal to the terminal controller 11. The audio processor 14 may convert the analog audio signal input through the microphone into a digital format and transmit the digital signal to the terminal controller 11. In addition, the audio processor 14 may convert an audio signal of a digital format output from the terminal controller 11 into an analog signal and output the analog signal through a speaker. In particular, the audio processor 14 detects a user's voice and a sound of the surrounding environment through a microphone. That is, the audio processor 14 detects an audio signal under the control of the terminal controller 11.

단말통신부(15)는 서비스장치(30)와 통신망(40)을 통해 데이터를 송수신하기 위한 기능을 수행한다. 여기서, 단말통신부(15)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신 수단과 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신 수단 등을 포함한다. 이러한 단말통신부(15)는 무선통신 모듈(미도시) 및 유선통신 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 그리고, 무선통신 모듈은 무선망 통신 모듈, 무선랜(WLAN, Wireless Local Area Network 또는 WiFi, Wireless Fidelity 또는 WiMAX, Worldwide Interoperability for Microwave Access) 통신 모듈 및 무선팬(WPAN, Wireless Personal Area Network) 통신 모듈 중 적어도 하나를 포함할 수 있다.The terminal communication unit 15 performs a function for transmitting and receiving data through the service device 30 and the communication network 40. Here, the terminal communication unit 15 includes RF transmitting means for up-converting and amplifying the frequency of the transmitted signal, and RF receiving means for low-noise-amplifying and down-converting the received signal. The terminal communication unit 15 may include at least one of a wireless communication module (not shown) and a wired communication module (not shown). The wireless communication module includes a wireless communication module, a wireless local area network (WLAN), a wireless fidelity (WiFi), a wireless communication module, and a wireless personal area network (WPAN) And may include at least one.

무선통신 모듈은 무선 통신 방법에 따라 데이터를 송수신하기 위한 구성이며, 단말기(10, 20)가 무선 통신을 이용하는 경우, 무선망 통신 모듈, 무선랜 통신 모듈 및 무선팬 통신 모듈 중 어느 하나를 이용하여 데이터를 서비스장치(30)로 전송하거나, 수신할 수 있다.The wireless communication module is a component for transmitting and receiving data according to a wireless communication method. When the terminals 10 and 20 use wireless communication, the wireless communication module uses any one of a wireless network communication module, a wireless LAN communication module, and a wireless fan communication module. Data may be transmitted or received to the service device 30.

무선망 통신 모듈은 기지국을 통해 통신망(40)에 접속하여 데이터를 송수신하기 위한 것이다. 무선통신 모듈은 단말제어부(11)로부터 데이터를 수신하면, 기지국을 통해 통신망(40)에 접속하여 데이터를 서비스장치(30)에 전송할 수 있다. 또한, 무선망 통신 모듈은 기지국을 통해 통신망(40)에 접속하고, 데이터를 서비스장치(30)로부터 수신하여, 수신된 데이터를 단말제어부(11)로 제공할 수 있다.The wireless network communication module is for accessing the communication network 40 through a base station and transmitting / receiving data. When the wireless communication module receives data from the terminal controller 11, the wireless communication module may access the communication network 40 through the base station and transmit the data to the service device 30. In addition, the wireless network communication module may access the communication network 40 through a base station, receive data from the service device 30, and provide the received data to the terminal controller 11.

무선랜 통신 모듈은 무선랜(WLAN), 와이파이(WiFi) 또는 와이맥스(WiMAX) 방식에 따른 통신을 수행하기 위한 것이다. 무선랜 통신 모듈은 단말제어부(11)로부터 데이터를 수신하면, 접속 포인트(AP, Access Point)를 통해 통신망(40)에 접속하여, 데이터를 서비스장치(30)로 전송할 수 있다. 또한, 무선랜 통신 모듈은 접속 포인트를 통해 통신망(40)에 접속하여 서비스장치(30)로부터 데이터를 수신하면, 수신된 데이터를 단말제어부(11)로 제공할 수 있다.The WLAN communication module is for performing communication according to a WLAN, Wi-Fi, or WiMAX scheme. When the WLAN communication module receives data from the terminal controller 11, the WLAN communication module may access the communication network 40 through an access point (AP) and transmit data to the service device 30. In addition, the WLAN communication module may provide the received data to the terminal controller 11 when the WLAN communication module receives the data from the service apparatus 30 through the access point 40.

무선팬 통신 모듈은 무선 팬(WPAN) 방식에 따라 데이터를 송수신하기 위한 것으로, 무선망 통신 모듈 및 무선랜 통신 모듈에 비해 짧은 거리의 무선 통신을 수행한다. 무선팬 통신 모듈은 단말기간에 직접 데이터를 주고 받을 수도 있다. 즉, 무선팬 통신 모듈을 통해 다른 단말기와 직접 데이터를 송수신할 수 있다. 또한, 무선팬 통신 모듈은 통신망(40)에 게이트웨이(Gateway)에 직접 또는 멀티 홉(multi-hop)을 통해 연결 가능한 경우, 게이트웨이를 통해 통신망(40)에 접속하여 데이터를 송수신할 수도 있다. 이러한 무선팬 통신 모듈은 블루투스(Bluetooth), 적외선 통신(IrDA), 지그비(ZigBee) 등에 따른 통신을 예시할 수 있다.The wireless fan communication module is for transmitting / receiving data according to a wireless fan (WPAN) method, and performs wireless communication with a shorter distance than a wireless network communication module and a wireless LAN communication module. The wireless fan communication module can exchange data directly between terminals. That is, data can be transmitted and received directly to another terminal through the wireless fan communication module. In addition, when the wireless fan communication module can be connected to the gateway 40 directly or via multi-hop to the communication network 40, the wireless fan communication module may connect to the communication network 40 via the gateway and transmit and receive data. Such a wireless fan communication module can exemplify communication based on Bluetooth, infrared communication (IrDA), ZigBee, and the like.

유선통신 모듈은 유선으로 데이터를 송수신하기 위한 것이다. 유선통신 모듈은 유선을 통해 통신망(40)에 접속하여, 서비스장치(30)에 데이터를 전송하거나, 수신할 수 있다. 즉, 단말기(10, 20)는 유선통신 모듈을 이용하여 통신망(40)에 접속하며, 통신망(40)을 통해 서비스장치(30)와 데이터를 송수신할 수 있다. 특히, 본 발명의 실시 예에 따른 단말통신부(15)는 서비스장치(30)와 어플리케이션에 대한 데이터를 송수신한다. 여기서, 단말통신부(15)는 서비스장치(30)로 비주얼 객체의 동작에 대한 데이터를 전송하거나, 변화된 비주얼 객체 정보에 대한 데이터를 수신할 수 있다. 또한, 단말통신부(15)는 비주얼 객체의 동작에 대응하는 피드백 데이터를 서비스장치(30)로 전송할 수 있다.The wired communication module is for transmitting and receiving data by wire. The wired communication module may be connected to the communication network 40 through a wire to transmit or receive data to the service device 30. That is, the terminals 10 and 20 may be connected to the communication network 40 by using a wired communication module, and may transmit and receive data to and from the service device 30 through the communication network 40. In particular, the terminal communication unit 15 according to the embodiment of the present invention transmits and receives data for the service device 30 and the application. Here, the terminal communication unit 15 may transmit data on the operation of the visual object to the service device 30 or receive data on the changed visual object information. In addition, the terminal communication unit 15 may transmit the feedback data corresponding to the operation of the visual object to the service device 30.

센서부(17)는 어플리케이션 실행에 따라 동작정보를 수집하기 위하여 사용자의 동작을 감지하는 이미지센서, 광학센서, 음향센서 및 자이로센서 등과 같은 센서로 구성되며, 빛을 발광하고, 외부로부터 입력되는 사용자의 움직임 또는 물체의 움직임 등과 같은 물리적 신호를 감지하여 신호 처리부(미도시)로 전송할 수 있다. 이때, 센서부(17)는 외부 물체가 일정 감지 영역 내로 접근하는 것을 적외선을 이용하여 감지하는 적외선 센서(Infrared Sensor)를 사용할 수 있다. 여기서, 적외선 센서는 적외선을 복사하여 빛이 차단됨으로써 변화를 감지하는 능동식과, 자체에 발광부를 가지지 않고 외부로부터 받는 적외선의 변화만을 감지하는 수동식으로 구분될 수 있다. 특히, 적외선 센서가 능동식으로 구성되는 경우 적외선(IR)을 방사하는 발광 다이오드(Light Emitting Diode, LED)로 이루어지는 발광부(미도시)와, 반사되는 빛을 감지할 수 있는 다이오드 또는 트랜지스터(Transister, TR)와 같은 검출기(Detector)로 이루어지는 수광부(미도시)로 구성될 수 있다. 여기서, 발광부는 단말제어부(11)의 신호에 따라 외부 임의의 물체까지 빛을 발광하는 역할을 하고, 수광부는 검출기를 통해 외부 물체로부터 반사되는 빛을 감지하는 역할을 할 수 있다. 이를 자세하게 살펴보면, 발광부는 일정 양의 적외선을 발광하고, 수광부는 물체에 반사되어 돌아오는 적외선의 양에 따라 전압의 변화를 감지할 수 있다.The sensor unit 17 is composed of a sensor such as an image sensor, an optical sensor, an acoustic sensor, and a gyro sensor that detects a user's motion in order to collect motion information according to an application execution, and emits light and is input from the outside. Physical signals such as movement of an object or movement of an object may be detected and transmitted to a signal processor (not shown). In this case, the sensor unit 17 may use an infrared sensor that detects an external object approaching a predetermined detection area using infrared rays. Here, the infrared sensor may be classified into an active type for detecting a change by radiating infrared rays and a passive type for detecting only a change in the infrared light received from the outside without having a light emitting part on its own. In particular, when the infrared sensor is actively configured, a light emitting unit (not shown) including a light emitting diode (LED) that emits infrared rays (IR), and a diode or transistor capable of detecting reflected light. It may be composed of a light receiving unit (not shown) consisting of a detector such as, TR). Here, the light emitting unit may serve to emit light to any external object according to the signal of the terminal control unit 11, the light receiving unit may serve to detect the light reflected from the external object through the detector. In detail, the light emitting unit emits a predetermined amount of infrared rays, and the light receiving unit may detect a change in voltage according to the amount of infrared rays reflected by the object.

센서부(17)는 적외선을 이용하여 온도, 열, 압력 또는 방사선의 세기 등의 물리량 또는 화학량을 검지하여 신호 처리가 가능한 전기량으로 변환할 수 있다. 여기서, 센서부(17)는 단말제어부(11)의 제어에 따라 활성화되며, 사용자의 움직임을 감지하여 단말제어부(11)에 해당되는 신호를 전달할 수 있다.The sensor unit 17 may detect a physical quantity or a chemical quantity such as temperature, heat, pressure, or radiation intensity by using infrared rays, and convert the sensor unit 17 into an electrical quantity capable of signal processing. Here, the sensor unit 17 is activated under the control of the terminal controller 11, and detects a user's movement to transmit a signal corresponding to the terminal controller 11.

센서부(17)는 음향을 이용하여 전류를 통제하고, 이를 통해 주파수를 조정하는 음향센서를 포함한다. 특히, 센서부(17)는 사용자의 주변환경, 동작 또는 표정을 감지한다. 여기서, 센서부(17)는 감지되는 신호의 세기 및 방향에 따른 주변환경을 인식하고, 인식된 주변환경에 대한 데이터를 단말제어부(11)로 전달한다. 즉, 센서부(17)는 오디오처리부(14)에서 마이크를 통해 주변 오디오 신호를 수집하며, 단말제어부(11)에서 수집한 오디오 신호의 크기 등을 분석하여 주변 소음이나 상태를 인식한다.The sensor unit 17 includes an acoustic sensor that controls the current using sound and adjusts the frequency through the sound. In particular, the sensor unit 17 detects a user's surroundings, actions, or facial expressions. Here, the sensor unit 17 recognizes the surrounding environment according to the strength and direction of the detected signal, and transmits data on the recognized surrounding environment to the terminal controller 11. That is, the sensor unit 17 collects the surrounding audio signal through the microphone in the audio processor 14, and analyzes the magnitude of the audio signal collected by the terminal controller 11 to recognize the ambient noise or the state.

센서부(17)는 회전축이 자유롭게 회전하여 운동상태를 측정할 수 있는 자이로센서를 포함한다. 특히, 센서부(17)는 사용자 동작에 따른 운동상태를 감지하여 해당되는 데이터를 단말제어부(11)로 전달한다.The sensor unit 17 includes a gyro sensor that can rotate freely to measure the state of movement. In particular, the sensor unit 17 detects an exercise state according to a user's motion and transmits corresponding data to the terminal controller 11.

카메라부(18)는 사용자의 영상에 대한 영상데이터를 수집한다. 이러한 카메라부(18)는 렌즈를 통해 촬상되는 영상을 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서(도시되지 않음)와, 카메라 센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부(도시되지 않음)를 구비한다. 여기서 카메라 센서는 CCD(Charge Coupled Device) 센서 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서가 적용될 수 있고, 신호처리부는 DSP(Digital Signal Processor)로 구현될 수 있으나, 이에 한정되는 것은 아니다. 이러한 카메라부(18)는 카메라 기능을 이용하기 위한 입력 신호가 수신되는 경우에 활성화될 수 있다. 그런 다음, 카메라부(18)는 수집되는 영상 데이터를 단말제어부(11)에 전달한다. 이러한 기능을 효과적으로 수행하기 위하여, 카메라부(18)는 영상 처리부(미도시)를 구비할 수 있다. 이때, 영상 처리부는 카메라 센서에서 출력되는 영상신호를 표시하기 위한 화면데이터를 발생하는 기능을 수행한다. 이때, 영상 처리부는 카메라 센서에서 출력되는 영상신호를 프레임 단위로 처리하며, 프레임 영상데이터를 표시부(16)의 표시 특성 및 크기에 대응하여 출력한다. 또한, 영상 처리부는 영상 코덱(CODEC)을 구비하며, 표시부(16)에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서, 영상 코덱은 JPEG(Joint Photographic coding Experts Group) 코덱 또는 MPEG(Moving Picture Experts Group) 코덱 등이 될 수 있다.The camera unit 18 acquires image data of the user's image. The camera unit 18 includes a camera sensor (not shown) that photographs an image captured through a lens and converts the photographed optical signal into an electrical signal, And a signal processing unit (not shown). The camera sensor may be a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) image sensor, and the signal processor may be implemented as a digital signal processor (DSP), but is not limited thereto. The camera unit 18 may be activated when an input signal for using the camera function is received. Then, the camera unit 18 transmits the collected image data to the terminal control unit 11. In order to effectively perform such a function, the camera unit 18 may include an image processing unit (not shown). In this case, the image processor performs a function of generating screen data for displaying an image signal output from the camera sensor. In this case, the image processor processes the image signal output from the camera sensor in units of frames, and outputs the frame image data corresponding to the display characteristics and the size of the display unit 16. In addition, the image processor includes an image codec and performs a function of compressing the frame image data displayed on the display unit 16 in a set manner or restoring the compressed frame image data to the original frame image data. The image codec may be a Joint Photographic Coding Experts Group (JPEG) codec or a Moving Picture Experts Group (MPEG) codec.

도 3은 본 발명의 실시 예에 따른 서비스장치의 구성을 나타내는 블록도 이다.3 is a block diagram illustrating a configuration of a service apparatus according to an exemplary embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시 예에 따른 서비스장치(30)는 서비스제어부(31), 서비스저장부(32) 및 서비스통신부(33)를 포함한다.Referring to FIG. 3, the service apparatus 30 according to an exemplary embodiment of the present invention includes a service control unit 31, a service storage unit 32, and a service communication unit 33.

서비스통신부(33)는 제1단말기(10) 및 제2단말기(20)와 어플리케이션 실행에 따른 데이터를 송수신한다. 특히, 서비스통신부(33)는 제1단말기(10)로부터 수신되는 비주얼 객체의 동작에 대한 데이터를 제2단말기(20)로 전송한다. 또한, 서비스통신부(33)는 제2단말기(20)로부터 수신되는 비주얼 객체의 동작에 대응하는 피드백 데이터에 따른 비주얼 객체 정보를 제1단말기(10)로 전송한다.The service communication unit 33 transmits / receives data with the first terminal 10 and the second terminal 20 according to the execution of the application. In particular, the service communication unit 33 transmits data on the operation of the visual object received from the first terminal 10 to the second terminal 20. In addition, the service communication unit 33 transmits the visual object information according to the feedback data corresponding to the operation of the visual object received from the second terminal 20 to the first terminal 10.

서비스저장부(32)는 비주얼 객체 어플리케이션을 실행하기 위한 모든 데이터를 저장한다.The service storage unit 32 stores all data for executing the visual object application.

서비스제어부(31)는 제1단말기(10) 및 제2단말기(20)의 요청에 따라 어플리케이션을 제공한다. 그리고, 서비스제어부(31)는 제1단말기(10)로부터 비주얼 객체의 동작에 대한 데이터를 수신하여 제2단말기(20)로 전송한다. 그리고, 서비스장치(30)는 제2단말기(20)로부터 수신되는 비주얼 객체의 동작에 대응하는 피드백 데이터를 확인하여 비주얼 객체 정보를 추출하고, 추출된 비주얼 객체 정보를 제1단말기(10)로 전송하도록 제어한다.The service control unit 31 provides an application at the request of the first terminal 10 and the second terminal 20. The service controller 31 receives data on the operation of the visual object from the first terminal 10 and transmits the data to the second terminal 20. The service device 30 checks the feedback data corresponding to the operation of the visual object received from the second terminal 20, extracts the visual object information, and transmits the extracted visual object information to the first terminal 10. To control.

또한, 상술한 바와 같이 구성되는 서비스장치(30)는 서버 기반 컴퓨팅 기반 방식 또는 클라우드 방식으로 동작하는 하나 이상의 서버로 구현될 수 있다. 특히, 클라우드 컴퓨팅 장치를 이용하여 어플리케이션을 실행하고, 비주얼 객체의 동작 변화에 대응하는 데이터는 인터넷 상의 클라우드 컴퓨팅 장치에 영구적으로 저장될 수 있는 클라우드 컴퓨팅(Cloud Computing) 기능을 통해 제공될 수 있다. 여기서, 클라우드 컴퓨팅은 데스크톱, 태블릿 컴퓨터, 노트북, 넷북 및 스마트폰 등의 디지털 단말기에 인터넷 기술을 활용하여 가상화된 IT(Information Technology) 자원, 예를 들어, 하드웨어(서버, 스토리지, 네트워크 등), 소프트웨어(데이터베이스, 보안, 웹 서버 등), 서비스, 데이터 등을 온 디맨드(On demand) 방식으로 서비스하는 기술을 의미한다. 본 발명에 있어서, 어플리케이션 실행 중 비주얼 객체의 동작 변화에 따른 모든 데이터는 인터넷 상의 클라우드 컴퓨팅 장치에 저장되고, 단말기(10)를 통하여 언제 어디서든 이용될 수 있다.In addition, the service device 30 configured as described above may be implemented as one or more servers operating in a server-based computing-based method or a cloud method. In particular, data may be provided through a cloud computing function that executes an application using a cloud computing device and may be permanently stored in a cloud computing device on the Internet. Here, cloud computing utilizes Internet technologies in digital terminals such as desktops, tablet computers, laptops, netbooks, and smartphones to virtualize information technology (IT) resources such as hardware (servers, storage, networks, etc.) and software. It refers to a technology that provides services on demand (database, security, web server, etc.), services, and data. In the present invention, all data according to the change of the operation of the visual object during application execution is stored in the cloud computing device on the Internet, and can be used anytime and anywhere through the terminal 10.

도 4는 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름도이다.4 is a data flow diagram illustrating an emotion expression method using a visual object according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름은 먼저, 제1단말기(10)와 제2단말기(20)는 통신망(40)을 통해 서비스장치(30)에 접속하여 어플리케이션의 다운로드를 요청하고, 이에 대한 데이터를 다운로드 한다(S11 내지 S17).Referring to FIG. 4, a data flow illustrating an emotion expression method using a visual object according to an embodiment of the present invention, first, the first terminal 10 and the second terminal 20 are connected to a service device through a communication network 40. 30) and requests the download of the application, and downloads the data (S11 to S17).

제1단말기(10)는 S19 단계에서 어플리케이션을 실행하고, 비주얼 객체를 선택한다. 이때, 비주얼 객체는 사용자의 입력에 따라 동작하는 상대방의 비주얼 객체와 상대방의 입력에 따라 동작하는 사용자의 비주얼 객체가 될 수 있다. 그리고, 제1단말기(10)는 S21 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록한다. 또한, 제2단말기(20)는 S23 단계에서 어플리케이션을 실행하고, 비주얼 객체를 선택한다. 그리고, 제2단말기(20)는 S25 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록한다.The first terminal 10 executes the application in step S19, and selects a visual object. In this case, the visual object may be a visual object of a counterpart operating in response to a user input and a visual object of a user operating in response to the input of the counterpart. In operation S21, the first terminal 10 registers the visual object selected in the service device 30. In addition, the second terminal 20 executes the application in step S23 and selects a visual object. In operation S25, the second terminal 20 registers the visual object selected in the service device 30.

각각의 비주얼 객체가 등록되면, 제1단말기(10)와 제2단말기(20)는 S27 단계에서 서비스장치(30)를 통해 비주얼 객체를 서로 연동하여 어플리케이션을 실행한다.When each visual object is registered, the first terminal 10 and the second terminal 20 executes the application by interlocking the visual objects with each other through the service device 30 in step S27.

제1단말기(10)와 제2단말기(20)는 각각의 화면에 자신의 비주얼 객체와 상대방의 비주얼 객체를 시각적으로 표시한다(S29 내지 S31). 이때, 제1단말기(10)와 제2단말기(20)는 비주얼 객체를 표시하는 모드에 따라 하나의 비주얼 객체가 표시되는 화면 크기를 다른 비주얼 객체가 표시되는 화면의 크기 보다 크게 표시할 수 있다. 즉, 제1단말기(10)와 제2단말기(20)는 사용자의 비주얼 객체와 상대방의 비주얼 객체를 선택에 따라 구분하여 크기를 조절할 수 있다.The first terminal 10 and the second terminal 20 visually display their own visual object and the counterpart's visual object on each screen (S29 to S31). In this case, the first terminal 10 and the second terminal 20 may display a screen size in which one visual object is displayed larger than a screen in which another visual object is displayed according to a mode for displaying a visual object. That is, the first terminal 10 and the second terminal 20 may adjust the size by dividing the visual object of the user and the visual object of the counterpart according to the selection.

제1단말기(10)는 S33 단계에서 비주얼 객체의 동작을 제어하는 요청을 감지한다. 이때, 제1단말기(10)는 S35 단계에서 요청된 동작에 대한 정보를 확인하여, 비주얼 객체의 동작에 대한 데이터를 추출한다. 여기서, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 입력되는 터치 신호를 감지하고, 터치신호에 따라 해당되는 비주얼 객체의 동작을 구분하고, 구분된 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 기능버튼 중 하나를 선택하고, 선택된 기능버튼에 대응하는 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 마이크를 통해 입력되는 신호를 감지하고, 신호에 따른 동작에 대한 데이터를 표시한다. 이후, 제1단말기(10)는 S35 단계에서 해당되는 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다.The first terminal 10 detects a request for controlling the operation of the visual object in step S33. At this time, the first terminal 10 checks the information on the operation requested in step S35, and extracts data on the operation of the visual object. Here, the first terminal 10 detects a touch signal input to the screen on which the visual object is displayed, classifies the operation of the corresponding visual object according to the touch signal, and extracts data about the divided operation. In addition, the first terminal 10 provides a function button on the screen on which the visual object is displayed, selects one of the function buttons, and extracts data on an operation corresponding to the selected function button. In addition, the first terminal 10 detects a signal input through a microphone and displays data on an operation according to the signal. Thereafter, the first terminal 10 transmits data on the operation of the corresponding visual object to the service device 30 in step S35.

서비스장치(30)는 S37 단계에서 제1단말기(10)로부터 비주얼 객체의 동작에 대한 데이터를 제2단말기(20)로 전송한다.The service device 30 transmits data about the operation of the visual object from the first terminal 10 to the second terminal 20 in step S37.

제2단말기(20)는 S39 단계에서 서비스장치(30)로부터 수신된 비주얼 객체 동작에 대한 데이터를 확인한다. 그리고, 제2단말기(20)는 S39 단계에서 동작데이터에 대한 응답을 입력한다. 여기서, 제2단말기(20)는 S40 단계에서 확인된 응답에 대응하는 피드백 데이터를 생성한다. 그리고 나서, 제2단말기(20)는 S41 단계에서 생성된 피드백 데이터를 서비스장치(30)로 전송한다.The second terminal 20 checks the data on the visual object operation received from the service device 30 in step S39. In operation S39, the second terminal 20 inputs a response to the operation data. Here, the second terminal 20 generates feedback data corresponding to the response identified in step S40. Then, the second terminal 20 transmits the feedback data generated in step S41 to the service device 30.

서비스장치(30)는 S43 단계에서 제2단말기(20)로부터 수신된 피드백 데이터를 확인한다. 여기서, 서비스장치(30)는 S45 단계에서 피드백 데이터를 통해 비주얼 객체 정보를 추출한다. 그리고 나서, 서비스장치(30)는 S47 단계에서 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다.The service device 30 checks the feedback data received from the second terminal 20 in step S43. Here, the service device 30 extracts the visual object information through the feedback data in step S45. Thereafter, the service device 30 transmits the visual object information extracted in step S47 to the first terminal 10.

제1단말기(10)는 S49 단계에서 서비스장치(30)로부터 수신된 비주얼 객체 정보를 확인하고, 비주얼 객체 정보에 따라 비주얼 객체의 동작을 제어하여 시각적으로 표시한다.The first terminal 10 checks the visual object information received from the service device 30 in step S49, and visually controls the operation of the visual object according to the visual object information.

이를 통해, 비주얼 객체를 이용하여 상대방과 감정 교류를 함으로써, 보다 친숙하게 서로를 표현할 수 있다. 또한, 터치 동작 또는 마이크를 통해 입력되는 사용자의 음성에 따라 비주얼 객체의 얼굴 표정을 변화하여 자연스럽고 섬세하게 표현할 수 있다. 또한, 현실 세계와 유사한 가상의 공간을 배경으로 제공하고, 가상의 공간에서 일어나는 다양한 의사 표현, 행동 또는 반응에 따라 자기 또는 상대방의 비주얼 객체의 동작을 변화하여 단말기 사용에 대한 새로운 흥미거리와 다양한 대화를 유도할 수 있다. 또한, 개인이 만든 비주얼 객체에 대한 어플리케이션을 온라인 상에 유통할 수 있어 적극적인 커뮤니케이션 및 마케팅 활동에 이용될 수 있다.In this way, by interacting with the other party using a visual object, it is possible to express each other more familiar. In addition, the facial expression of the visual object may be changed according to a touch operation or a voice of a user input through a microphone, thereby expressing a natural and delicate expression. In addition, it provides a virtual space similar to the real world as a background, and changes the behavior of a visual object of oneself or the other party according to various expressions, actions, or reactions occurring in the virtual space, thereby creating new interests and various conversations about the use of the terminal. Can be derived. In addition, applications for visual objects created by individuals can be distributed online to be used for active communication and marketing activities.

도 5는 본 발명의 실시 예에 따른 제1단말기의 동작을 설명하기 위한 흐름도이다.5 is a flowchart illustrating an operation of a first terminal according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시 예에 따른 제1단말기(10)는 S51 단계에서 비주얼 객체 어플리케이션을 실행한다. 여기서, 제1단말기(10)는 통신망(40)을 통해 서비스장치(30)에 접속하여 어플리케이션의 다운로드를 요청하고, 이에 대한 데이터를 다운로드 할 수 있다. 그리고, 제1단말기(10)는 S53 단계에서 비주얼 객체를 선택한다. 이때, 비주얼 객체는 사용자의 입력에 따라 동작하는 상대방의 비주얼 객체와 상대방의 입력에 따라 동작하는 사용자의 비주얼 객체가 될 수 있다.Referring to FIG. 5, the first terminal 10 according to an embodiment of the present invention executes a visual object application in step S51. Here, the first terminal 10 may access the service device 30 through the communication network 40 to request the download of the application, and may download data thereof. In operation S53, the first terminal 10 selects a visual object. In this case, the visual object may be a visual object of a counterpart operating in response to a user input and a visual object of a user operating in response to the input of the counterpart.

제1단말기(10)는 S55 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록하여 제2단말기(20) 사용자와 비주얼 객체 정보를 공유한다. 비주얼 객체가 등록되면, 제1단말기(10)는 S57 단계에서 화면에 비주얼 객체를 표시한다. 이때, 제1단말기(10)는 비주얼 객체를 표시하는 모드에 따라 하나의 비주얼 객체가 표시되는 화면 크기를 다른 비주얼 객체가 표시되는 화면의 크기 보다 크게 표시할 수 있다.The first terminal 10 registers the visual object selected in the step S55 to the service device 30 to share the visual object information with the user of the second terminal 20. When the visual object is registered, the first terminal 10 displays the visual object on the screen in step S57. In this case, the first terminal 10 may display a screen size on which one visual object is displayed larger than a screen on which another visual object is displayed according to a mode of displaying a visual object.

제1단말기(10)는 S59 단계에서 비주얼 객체의 동작을 제어하는 요청을 감지한다. 이때, 제1단말기(10)는 S61 단계에서 요청된 동작에 대한 입력 정보를 확인한다. 여기서, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 입력되는 터치 신호를 감지하고, 터치신호에 따라 해당되는 비주얼 객체의 동작을 구분하고, 구분된 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 기능버튼 중 하나를 선택하고, 선택된 기능버튼에 대응하는 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 마이크를 통해 입력되는 신호를 감지하고, 신호에 따른 동작에 대한 데이터를 추출한다. 그리고, 제1단말기(10)는 S63 단계에서 확인된 정보에 따라 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다. 이후, 제1단말기(10)는 S65 단계에서 해당되는 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다.The first terminal 10 detects a request to control the operation of the visual object in step S59. At this time, the first terminal 10 checks the input information on the operation requested in step S61. Here, the first terminal 10 detects a touch signal input to the screen on which the visual object is displayed, classifies the operation of the corresponding visual object according to the touch signal, and extracts data about the divided operation. In addition, the first terminal 10 provides a function button on the screen on which the visual object is displayed, selects one of the function buttons, and extracts data on an operation corresponding to the selected function button. In addition, the first terminal 10 detects a signal input through a microphone and extracts data on an operation according to the signal. Then, the first terminal 10 transmits data on the operation of the visual object to the service device 30 according to the information confirmed in step S63. Thereafter, the first terminal 10 transmits data on the operation of the corresponding visual object to the service device 30 in step S65.

제1단말기(10)는 S65 단계에서 서비스장치(30)로부터 비주얼 객체 정보가 수신되는지 확인한다. 이때, 비주얼 객체 정보가 수신되는 경우, 제1단말기(10)는 S67 단계에서 비주얼 객체 정보를 확인하고, 비주얼 객체 정보에 따라 비주얼 객체의 동작을 변화하여 시각적으로 표시한다. 한편, 비주얼 객체 정보가 수신되지 않는 경우, 제1단말기(10)는 비주얼 객체 정보의 수신을 대기하면서, 비주얼 객체를 화면에 표시한다.The first terminal 10 checks whether visual object information is received from the service device 30 in step S65. In this case, when the visual object information is received, the first terminal 10 checks the visual object information in step S67, and visually changes the operation of the visual object according to the visual object information. On the other hand, when the visual object information is not received, the first terminal 10 displays the visual object on the screen while waiting for the reception of the visual object information.

도 6은 본 발명의 실시 예에 따른 제2단말기의 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an operation of a second terminal according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시 예에 따른 제2단말기(20)는 S71 단계에서 비주얼 객체 어플리케이션을 실행한다. 여기서, 제2단말기(20)는 통신망(40)을 통해 서비스장치(30)에 접속하여 어플리케이션의 다운로드를 요청하고, 이에 대한 데이터를 다운로드 할 수 있다. 그리고, 제2단말기(20)는 S73 단계에서 비주얼 객체를 선택한다. 이때, 비주얼 객체는 사용자의 입력에 따라 동작하는 상대방의 비주얼 객체와 상대방의 입력에 따라 동작하는 사용자의 비주얼 객체가 될 수 있다.Referring to FIG. 6, the second terminal 20 according to an embodiment of the present invention executes a visual object application in step S71. Here, the second terminal 20 may access the service device 30 through the communication network 40 to request the download of the application, and may download data thereof. In operation S73, the second terminal 20 selects a visual object. In this case, the visual object may be a visual object of a counterpart operating in response to a user input and a visual object of a user operating in response to the input of the counterpart.

제2단말기(20)는 S75 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록하여 제1단말기(10) 사용자와 비주얼 객체 정보를 공유한다. 비주얼 객체가 등록되면, 제2단말기(20)와 S77 단계에서 화면에 비주얼 객체를 표시한다. 이때, 제2단말기(20)는 비주얼 객체를 표시하는 모드에 따라 하나의 비주얼 객체가 표시되는 화면 크기를 다른 비주얼 객체가 표시되는 화면의 크기 보다 크게 표시할 수 있다.The second terminal 20 registers the visual object selected in operation S75 to the service device 30 to share the visual object information with the user of the first terminal 10. When the visual object is registered, the visual object is displayed on the screen in step S77 and the second terminal 20. In this case, the second terminal 20 may display a screen size in which one visual object is displayed larger than a screen in which another visual object is displayed according to a mode of displaying a visual object.

제2단말기(20)는 S79 단계에서 서비스장치(30)로부터 비주얼 객체의 동작에 대한 데이터가 수신되는지 확인한다. 이때, 비주얼 객체의 동작에 대한 데이터가 수신되는 경우, 제2단말기(20)는 S81 단계에서 서비스장치(30)로부터 수신되는 비주얼 객체의 동작에 대응하는 피드백 데이터를 생성한다. 그리고, 제2단말기(20)는 생성된 피드백 데이터를 서비스장치(30)로 전송한다.The second terminal 20 checks whether data on the operation of the visual object is received from the service device 30 in step S79. In this case, when data on the operation of the visual object is received, the second terminal 20 generates feedback data corresponding to the operation of the visual object received from the service device 30 in step S81. In addition, the second terminal 20 transmits the generated feedback data to the service device 30.

도 7은 본 발명의 실시 예에 따른 서비스장치의 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation of a service apparatus according to an exemplary embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시 예에 따른 서비스장치(30)는 S91 단계에서 제1단말기(10)와 제2단말기(20)의 요청에 따라 비주얼 객체 어플리케이션을 제공한다. 그리고, 서비스장치(30)는 S93 단계에서 제1단말기(10)와 제2단말기(20)의 선택에 따라 수신되는 비주얼 객체를 등록한다.Referring to FIG. 7, the service device 30 according to an embodiment of the present disclosure provides a visual object application at the request of the first terminal 10 and the second terminal 20 in step S91. In operation S93, the service device 30 registers the visual object received according to the selection of the first terminal 10 and the second terminal 20.

서비스장치(30)는 S95 단계에서 비주얼 객체의 동작에 대한 데이터가 수신되는지 확인한다. 이때, 비주얼 객체의 동작에 따른 데이터가 수신되면, 서비스장치(30)는 S97 단계에서 제1단말기(10)로부터 수신되는 비주얼 객체의 동작에 대한 데이터를 제2단말기(20)로 전송한다. 그리고 나서, 서비스장치(30)는 S99 단계에서 제2단말기(20)로부터 비주얼 객체의 동작에 대한 피드백 데이터가 수신되는지 판단한다.The service device 30 checks whether data on the operation of the visual object is received in step S95. In this case, when data according to the operation of the visual object is received, the service device 30 transmits data about the operation of the visual object received from the first terminal 10 to the second terminal 20 in step S97. Then, the service device 30 determines whether feedback data on the operation of the visual object is received from the second terminal 20 in step S99.

피드백 데이터가 수신되면, 서비스장치(30)는 S101 단계에서 수신된 피드백 데이터를 분석하여 비주얼 객체 정보를 추출한다. 이후, 서비스장치(30)는 S103 단계에서 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다. 한편, 서비스장치(30)는 피드백 데이터가 수신되지 않으면, 피드백 데이터의 수신을 대기한다.When the feedback data is received, the service device 30 analyzes the feedback data received in step S101 to extract the visual object information. Thereafter, the service device 30 transmits the visual object information extracted in step S103 to the first terminal 10. Meanwhile, if the feedback data is not received, the service device 30 waits for the reception of the feedback data.

도 8은 본 발명의 다른 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름도이다.8 is a data flowchart illustrating a method of expressing emotion using a visual object according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 다른 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 나타내는 데이터 흐름은 먼저, 제1단말기(10)와 제2단말기(20)는 통신망(40)을 통해 서비스장치(30)에 접속하여 어플리케이션의 다운로드를 요청하고, 이에 대한 데이터를 다운로드 한다(S111 내지 S117).Referring to FIG. 8, a data flow illustrating an emotion expression method using a visual object according to another embodiment of the present invention, first, the first terminal 10 and the second terminal 20 is a service device through the communication network 40 The user accesses 30 to request the download of an application, and downloads data thereof (S111 to S117).

제1단말기(10)는 S119 단계에서 어플리케이션을 실행하고, 비주얼 객체를 선택한다. 이때, 비주얼 객체는 사용자의 입력에 따라 동작하는 상대방의 비주얼 객체와 상대방의 입력에 따라 동작하는 사용자의 비주얼 객체가 될 수 있다. 그리고, 제1단말기(10)는 S121 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록한다. 또한, 제2단말기(20)는 S123 단계에서 어플리케이션을 실행하고, 비주얼 객체를 선택한다. 그리고, 제2단말기(20)는 S125 단계에서 선택된 비주얼 객체를 서비스장치(30)에 등록한다.The first terminal 10 executes the application in step S119, and selects a visual object. In this case, the visual object may be a visual object of a counterpart operating in response to a user input and a visual object of a user operating in response to the input of the counterpart. In operation S121, the first terminal 10 registers the visual object selected in the service device 30. In addition, the second terminal 20 executes the application in step S123 and selects a visual object. In operation S125, the second terminal 20 registers the visual object selected in the service device 30.

각각의 비주얼 객체가 등록되면, 제1단말기(10)와 제2단말기(20)는 S127 단계에서 서비스장치(30)를 통해 비주얼 객체를 서로 연동하여 어플리케이션을 실행한다.When each visual object is registered, the first terminal 10 and the second terminal 20 executes the application by interworking the visual objects with each other through the service device 30 in step S127.

제1단말기(10)와 제2단말기(20)는 각각의 화면에 자신의 비주얼 객체와 상대방의 비주얼 객체를 시각적으로 표시한다(S129 내지 S131). 이때, 제1단말기(10)와 제2단말기(20)는 비주얼 객체를 표시하는 모드에 따라 하나의 비주얼 객체가 표시되는 화면 크기를 다른 비주얼 객체가 표시되는 화면의 크기 보다 크게 표시할 수 있다. 즉, 제1단말기(10)와 제2단말기(20)는 사용자의 비주얼 객체와 상대방의 비주얼 객체를 선택에 따라 구분하여 크기를 조절할 수 있다.The first terminal 10 and the second terminal 20 visually display their own visual object and the counterpart's visual object on each screen (S129 to S131). In this case, the first terminal 10 and the second terminal 20 may display a screen size in which one visual object is displayed larger than a screen in which another visual object is displayed according to a mode for displaying a visual object. That is, the first terminal 10 and the second terminal 20 may adjust the size by dividing the visual object of the user and the visual object of the counterpart according to the selection.

제1단말기(10)는 S133 단계에서 비주얼 객체 동작을 제어하는 요청을 감지한다. 이때, 제1단말기(10)는 S135 단계에서 요청된 동작에 대한 정보를 확인하여, 비주얼 객체의 동작에 대한 데이터를 추출한다. 여기서, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 입력되는 터치 신호를 감지하고, 터치신호에 따라 해당되는 비주얼 객체의 동작을 구분하고, 구분된 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 기능버튼 중 하나를 선택하고, 선택된 기능버튼에 대응하는 동작에 대한 데이터를 추출한다. 또한, 제1단말기(10)는 마이크를 통해 입력되는 신호를 감지하고, 신호에 따른 동작에 대한 데이터를 표시한다. 이후, 제1단말기(10)는 S135 단계에서 해당되는 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다.The first terminal 10 detects a request for controlling a visual object operation in step S133. At this time, the first terminal 10 checks the information on the operation requested in step S135, and extracts data on the operation of the visual object. Here, the first terminal 10 detects a touch signal input to the screen on which the visual object is displayed, classifies the operation of the corresponding visual object according to the touch signal, and extracts data about the divided operation. In addition, the first terminal 10 provides a function button on the screen on which the visual object is displayed, selects one of the function buttons, and extracts data on an operation corresponding to the selected function button. In addition, the first terminal 10 detects a signal input through a microphone and displays data on an operation according to the signal. Thereafter, the first terminal 10 transmits data on the operation of the corresponding visual object to the service device 30 in step S135.

서비스장치(30)는 S137 단계에서 제1단말기(10)로부터 비주얼 객체의 동작에 대한 데이터를 제2단말기(20)로 전송한다.The service device 30 transmits data about the operation of the visual object from the first terminal 10 to the second terminal 20 in step S137.

제2단말기(20)는 S139 단계에서 서비스장치(30)로부터 수신된 비주얼 객체 동작에 대한 데이터를 확인한다. 그리고, 제2단말기(20)는 S141 단계에서 주변환경 및 사용자 동작 또는 표정을 인식한다. 즉, 제2단말기(20)는 동작데이터에 연관된 피드백 데이터를 생성하기 위하여 사용자의 음성을 인식하고, 인식된 음성을 기 저장된 음성데이터와 비교하여 해당되는 음성에 따라 사용자의 감정을 추출한다. 또한, 제2단말기(20)는 동작데이터에 연관된 피드백 데이터를 생성하기 위하여 사용자의 동작을 인식한다. 이때, 제2단말기(20)는 센서부(17) 및 카메라부(18)를 통해 감지되는 동작을 분석하여 사용자의 동작을 추출한다. 즉, 제2단말기(20)는 주변환경 및 사용자 동작 또는 표정을 지능적으로 자동 인식이 가능하다. 그리고 나서, 제2단말기(20)는 S143 단계에서 확인된 응답에 대응하는 피드백 데이터를 생성한다.The second terminal 20 checks the data on the visual object operation received from the service device 30 in step S139. In operation S141, the second terminal 20 recognizes the surrounding environment and the user's motion or facial expression. That is, the second terminal 20 recognizes the user's voice in order to generate feedback data related to the operation data, and compares the recognized voice with previously stored voice data to extract the user's emotion according to the corresponding voice. In addition, the second terminal 20 recognizes a user's motion in order to generate feedback data related to the motion data. In this case, the second terminal 20 extracts the user's motion by analyzing the motion detected by the sensor unit 17 and the camera unit 18. That is, the second terminal 20 may intelligently recognize the surrounding environment and the user's motion or facial expression. Then, the second terminal 20 generates feedback data corresponding to the response identified in step S143.

피드백 데이터가 생성되면, 제2단말기(20)는 S415 단계에서 생성된 피드백 데이터를 서비스장치(30)로 전송한다.When the feedback data is generated, the second terminal 20 transmits the feedback data generated in step S415 to the service device 30.

서비스장치(30)는 S147 단계에서 제2단말기(20)로부터 수신된 피드백 데이터를 확인한다. 여기서, 서비스장치(30)는 S149 단계에서 피드백 데이터를 통해 비주얼 객체 정보를 추출한다. 그리고 나서, 서비스장치(30)는 S151 단계에서 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다.The service device 30 checks the feedback data received from the second terminal 20 in step S147. Here, the service device 30 extracts the visual object information through the feedback data in step S149. Then, the service device 30 transmits the visual object information extracted in step S151 to the first terminal 10.

제1단말기(10)는 S153 단계에서 서비스장치(30)로부터 수신된 비주얼 객체 정보를 확인하고, 비주얼 객체 정보에 따라 비주얼 객체의 동작을 제어하여 시각적으로 표시한다.The first terminal 10 checks the visual object information received from the service device 30 in step S153, and visually controls the operation of the visual object according to the visual object information.

도 9a 내지 도 12는 본 발명의 실시 예에 따른 비주얼 객체를 이용한 감정 표현 방법을 설명하기 위한 예시도 이다.9A to 12 are exemplary diagrams for describing an emotion expression method using a visual object according to an embodiment of the present invention.

본 발명의 실시 예에 따른 단말기(10, 20)는 서비스장치(30)를 통해 비주얼 객체 어플리케이션을 다운로드 받아 실행한다. 그리고, 도 9a에 도시된 바와 같이, 단말기(10, 20)는 비주얼 객체(801)를 선택할 수 있는 화면을 제공한다. 이때, 특정 비주얼 객체가 선택되면, 단말기(10, 20)는 비주얼 객체를 화면에 표시한다. 여기서, 비주얼 객체는 표시하는 모드에 따라 하나의 비주얼 객체에 대한 화면 크기가 다른 하나의 비주얼 객체에 대한 화면 크기 보다 크게 표시될 수 있다. 즉, 단말기(10, 20)는 사용자의 비주얼 객체와 상대방의 비주얼 객체를 선택에 따라 구분하여 크기를 조절할 수 있다. 예를 들어, 도 9b와 도 9c에 도시된 바와 같이, 단말기(10, 20)는 사용자의 선택에 따라 상대방의 비주얼 객체(803)를 사용자의 비주얼 객체(805) 보다 상위에 화면 크기를 크게 하여 표시하거나, 사용자의 비주얼 객체(807)를 상대방의 비주얼 객체(809) 보다 상위에 화면 크기를 크게 하여 표시할 수 있다.The terminal 10 or 20 according to an embodiment of the present invention downloads and executes a visual object application through the service device 30. As shown in FIG. 9A, the terminals 10 and 20 provide a screen for selecting the visual object 801. In this case, when a specific visual object is selected, the terminals 10 and 20 display the visual object on the screen. Here, the visual object may be displayed larger than the screen size of one visual object according to the display mode. That is, the terminals 10 and 20 may adjust the size by dividing the visual object of the user and the visual object of the counterpart according to the selection. For example, as illustrated in FIGS. 9B and 9C, the terminals 10 and 20 may enlarge the screen size of the counterpart's visual object 803 above the user's visual object 805 according to the user's selection. The user may display the visual object 807 of the user at a larger screen size than the visual object 809 of the counterpart.

제1단말기(10) 및 제2단말기(20)는 각각의 비주얼 객체를 등록하고, 서비스장치(30)를 통해 비주얼 객체를 서로 연동하여 어플리케이션을 실행한다. 이때, 제1단말기(10)는 사용자의 입력에 따라 비주얼 객체의 동작을 제어하고, 연관된 동작을 화면에 표시한다. 예를 들어, 도 10에 도시된 바와 같이, 제1단말기(10)는 상대방 비주얼 객체(901)의 표정을 변화 시키기 위하여 화면에 터치 신호를 입력한다. 이때, 상대방 비주얼 객체(901)의 머리를 터치하는 경우, 제1단말기(10)는 머리를 터치한 동작에 대한 데이터를 서비스장치(30)로 전송한다. 이후, 제2단말기(20)는 서비스장치(30)로부터 머리를 터치한 동작에 대한 데이터를 수신하여 확인하고, 확인된 동작에 대한 비주얼 객체(903)의 피드백 데이터를 생성하여 서비스장치(30)로 전송한다. 다음으로, 서비스장치(30)는 수신된 피드백 데이터를 분석하여 이에 대한 비주얼 객체 정보를 추출하고, 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다. 그리고, 제1단말기(10)는 서비스장치(30)로부터 수신된 비주얼 객체 정보에 따라 웃는 표정의 비주얼 객체(905)를 표시한다. 또한, 본 발명의 실시 예에 따른 비주얼 객체는 싱글터치, 더블터치 및 플릭(Flick) 등과 같은 다양한 터치 신호에 따라 동작이 변화될 수 있다.The first terminal 10 and the second terminal 20 register each visual object and execute the application by interworking the visual objects with the service device 30. At this time, the first terminal 10 controls the operation of the visual object according to the user's input, and displays the associated operation on the screen. For example, as shown in FIG. 10, the first terminal 10 inputs a touch signal to the screen to change the facial expression of the counterpart visual object 901. In this case, when the head of the counterpart visual object 901 is touched, the first terminal 10 transmits data on an operation of touching the head to the service device 30. Thereafter, the second terminal 20 receives and confirms data on an operation of touching the head from the service apparatus 30, generates feedback data of the visual object 903 on the identified operation, and then provides the service apparatus 30. To send. Next, the service device 30 analyzes the received feedback data, extracts visual object information on the received feedback data, and transmits the extracted visual object information to the first terminal 10. The first terminal 10 displays the visual object 905 having a smiley expression according to the visual object information received from the service device 30. In addition, the operation of the visual object according to an embodiment of the present disclosure may change according to various touch signals such as single touch, double touch, and flick.

또한, 도 11을 참조하면, 제1단말기(10)는 상대방 비주얼 객체(1001)의 표정을 변화 시키기 위하여 마이크를 통해 사용자 음성을 입력한다. 이때, 제1단말기(10)는 사용자 음성에 해당되는 입김을 인식하고, 이에 대응하는 데이터를 추출한다. 그리고, 제1단말기(10)는 추출된 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다. 이후, 제2단말기(20)는 서비스장치(30)로부터 비주얼 객체의 동작에 대한 데이터를 수신하여 확인하고, 확인된 동작에 대한 비주얼 객체(1003)의 피드백 데이터를 생성하여 서비스장치(30)로 전송한다. 다음으로, 서비스장치(30)는 수신된 피드백 데이터를 분석하여 이에 대한 비주얼 객체 정보를 추출하고, 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다. 그리고, 제1단말기(10)는 서비스장치(30)로부터 수신된 비주얼 객체 정보에 따라 머리를 휘날리는 비주얼 객체(1005)를 표시한다.In addition, referring to FIG. 11, the first terminal 10 inputs a user's voice through a microphone to change the facial expression of the counterpart visual object 1001. At this time, the first terminal 10 recognizes the breath corresponding to the user's voice, and extracts the data corresponding thereto. The first terminal 10 transmits data on the operation of the extracted visual object to the service device 30. Subsequently, the second terminal 20 receives and confirms data on the operation of the visual object from the service device 30, generates feedback data of the visual object 1003 on the checked operation, and sends it to the service device 30. send. Next, the service device 30 analyzes the received feedback data, extracts visual object information on the received feedback data, and transmits the extracted visual object information to the first terminal 10. In addition, the first terminal 10 displays the visual object 1005 with its head flying in accordance with the visual object information received from the service device 30.

또한, 도 12를 참조하면, 제1단말기(10)는 상대방 비주얼 객체(1103)의 표정을 변화 시키기 위한 기능버튼(1101)을 화면에 제공한다. 여기서, 기능버튼은 사용자의 입력 신호에 따라 비주얼 객체의 표정을 변화시키기 위하여 제공되는 아이콘으로, 울기, 웃기, 인상쓰기 및 화내기 등과 같은 문구가 표시된다. 이때, 제1단말기(10)는 기능버튼 중에서 사용자에 의해 선택되는 기능버튼에 대한 비주얼 객체의 동작을 표시한다. 예를 들어, 제1단말기(10)는 울기에 해당하는 기능버튼이 선택되는 경우, 우는 비주얼 객체의 동작에 대한 데이터를 서비스장치(30)로 전송한다. 이후, 제2단말기(20)는 서비스장치(30)로부터 우는 비주얼 객체의 동작에 대한 데이터를 수신하여 확인하고, 확인된 동작에 대한 비주얼 객체(1105)의 피드백 데이터를 생성하여 서비스장치(30)로 전송한다. 다음으로, 서비스장치(30)는 수신된 피드백 데이터를 분석하여 이에 대한 비주얼 객체 정보를 추출하고, 추출된 비주얼 객체 정보를 제1단말기(10)로 전송한다. 그리고, 제1단말기(10)는 서비스장치(30)로부터 수신된 비주얼 객체 정보에 따라 웃는 표정의 비주얼 객체(1107)를 표시한다.In addition, referring to FIG. 12, the first terminal 10 provides a function button 1101 on the screen to change the facial expression of the counterpart visual object 1103. Here, the function button is an icon provided to change the facial expression of the visual object according to a user's input signal, and phrases such as crying, laughing, impression writing, and anger are displayed. At this time, the first terminal 10 displays the operation of the visual object for the function button selected by the user among the function buttons. For example, when a function button corresponding to crying is selected, the first terminal 10 transmits data on the operation of the crying visual object to the service device 30. Thereafter, the second terminal 20 receives and confirms data on the operation of the crying visual object from the service device 30, and generates feedback data of the visual object 1105 for the confirmed operation. To send. Next, the service device 30 analyzes the received feedback data, extracts visual object information on the received feedback data, and transmits the extracted visual object information to the first terminal 10. The first terminal 10 displays the visual object 1107 having a smiley expression according to the visual object information received from the service device 30.

본 발명에 따른 비주얼 객체를 이용한 감정 표현 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The emotion expression method using the visual object according to the present invention may be implemented in a software form readable through various computer means and recorded on a computer readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions recorded on the recording medium may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. For example, the recording medium may be magnetic media such as hard disks, floppy disks and magnetic tapes, optical disks such as Compact Disk Read Only Memory (CD-ROM), digital video disks (DVD), Magnetic-Optical Media, such as floppy disks, and hardware devices specially configured to store and execute program instructions, such as ROM, random access memory (RAM), flash memory, and the like. do. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

본 발명은 이동통신 단말기, PMP, PDA, 노트북 및 MP3 플레이어와 같은 다양한 종류의 사용자 장치에서, 각자의 사용자가 선택한 두 종류의 비주얼 객체가 연동되어 서로의 감정을 시각적으로 표현한다. 이를 통해, 비주얼 객체를 이용하여 상대방과 감정 교류를 함으로써, 보다 친숙하게 서로를 표현할 수 있다. 또한, 터치 동작 또는 마이크를 통해 입력되는 사용자의 음성에 따라 비주얼 객체의 얼굴 표정을 변화하여 자연스럽고 섬세하게 비주얼 객체의 얼굴 표정을 표현할 수 있다. 또한, 현실 세계와 유사한 가상의 공간을 배경으로 제공하고, 가상의 공간에서 일어나는 다양한 의사 표현, 행동 또는 반응에 따라 자기 또는 상대방의 비주얼 객체의 동작을 변화하여 단말기 사용에 대한 새로운 흥미거리와 다양한 대화를 유도할 수 있다. 또한, 개인이 만든 비주얼 객체에 대한 어플리케이션을 온라인 상에 유통할 수 있어 적극적인 커뮤니케이션 및 마케팅 활동에 이용될 수 있다.In the present invention, two kinds of visual objects selected by respective users are linked to each other in various kinds of user devices such as a mobile communication terminal, a PMP, a PDA, a notebook computer, and an MP3 player to visually express each other's emotions. In this way, by interacting with the other party using a visual object, it is possible to express each other more familiar. In addition, the facial expression of the visual object may be naturally and delicately expressed by changing the facial expression of the visual object according to a touch operation or a voice of a user input through a microphone. In addition, it provides a virtual space similar to the real world as a background, and changes the behavior of a visual object of oneself or the other party according to various expressions, actions, or reactions occurring in the virtual space, thereby creating new interests and various conversations about the use of the terminal. Can be derived. In addition, applications for visual objects created by individuals can be distributed online to be used for active communication and marketing activities.

10: 제1단말기 11: 단말제어부 12: 입력부
13: 단말저장부 14: 오디오처리부 15: 단말통신부
16: 표시부 17: 센서부 18: 카메라부
11a: 비주얼 객체 제어모듈 11b: 음성인식모듈
11c: 동자인식모듈 13a: 비주얼 객체 어플리케이션
13b: 비주얼 객체 DB 13c: 음성데이터 DB 13d: 동작데이터 DB
20: 제2단말기 30: 서비스장치 31: 서비스제어부
32: 서비스저장부 33: 서비스통신부 40: 통신망
100: 비주얼 객체를 이용한 감정 표현 시스템
10: first terminal 11: terminal control unit 12: input unit
13: terminal storage unit 14: audio processing unit 15: terminal communication unit
16: Display 17: Sensor 18: Camera
11a: Visual Object Control Module 11b: Voice Recognition Module
11c: Driver recognition module 13a: Visual object application
13b: visual object DB 13c: voice data DB 13d: motion data DB
20: second terminal 30: service device 31: service control unit
32: service storage unit 33: service communication unit 40: communication network
100: emotional expression system using visual objects

Claims (12)

어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하고, 상기 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 서비스장치로 전송하고, 상기 서비스장치로부터 수신되는 비주얼 객체 정보에 따라 상기 비주얼 객체의 동작 및 상태를 제어하는 제1단말기;
상기 제1단말기 및 제2단말기의 요청에 따라 상기 어플리케이션을 제공하고, 상기 제1단말기로부터 수신되는 동작데이터를 상기 제2단말기로 전송하고, 상기 제2단말기로부터 상기 동작데이터에 연관된 피드백 데이터를 수신하고, 상기 피드백 데이터를 통해 비주얼 객체 정보를 추출하고, 상기 비주얼 객체 정보를 상기 제1단말기로 전송하는 상기 서비스장치; 및
상기 제1단말기와 상기 비주얼 객체에 대한 데이터를 공유하고, 상기 서비스장치로부터 상기 동작데이터를 수신하고, 상기 동작데이터에 연관된 피드백 데이터를 생성하고, 상기 피드백 데이터를 상기 서비스장치로 전송하는 상기 제2단말기;
를 포함하는 것을 특징으로 하는 비주얼 객체를 이용한 감정 표현 시스템.
Runs an application, selects at least one visual object to display on the screen, and transmits the corresponding operation data to the service device according to a signal for controlling the visual object, and according to the visual object information received from the service device A first terminal controlling an operation and a state of the visual object;
Providing the application at the request of the first terminal and the second terminal, transmitting the operation data received from the first terminal to the second terminal, and receives the feedback data associated with the operation data from the second terminal The service device extracting visual object information from the feedback data and transmitting the visual object information to the first terminal; And
The second terminal for sharing data about the visual object with the first terminal, receiving the operation data from the service device, generating feedback data associated with the operation data, and transmitting the feedback data to the service device. terminal;
Emotional expression system using a visual object comprising a.
서비스장치와 어플리케이션에 대한 데이터를 송수신하는 단말통신부;
다수의 비주얼 객체를 표시하는 표시부; 및
상기 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하고, 상기 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 상기 서비스장치로 전송하고, 상기 서비스장치로부터 수신되는 비주얼 객체 정보에 따라 상기 비주얼 객체의 동작 및 상태를 제어하는 단말제어부;
를 포함하는 것을 특징으로 하는 단말기.
Terminal communication unit for transmitting and receiving data for the service device and the application;
A display unit displaying a plurality of visual objects; And
Executes the application, selects at least one visual object to display on the screen, and transmits corresponding operation data to the service device according to a signal for controlling the visual object, and receives visual object information received from the service device. Terminal control unit for controlling the operation and state of the visual object according to;
And a second terminal.
제2항에 있어서, 상기 단말제어부는
상기 비주얼 객체가 표시되는 화면에 입력되는 터치신호를 감지하고, 상기 터치신호에 연관된 동작데이터를 추출하는 것을 특징으로 하는 단말기.
The method of claim 2, wherein the terminal control unit
And detecting a touch signal input to a screen on which the visual object is displayed, and extracting motion data associated with the touch signal.
제2항에 있어서, 상기 단말제어부는
상기 비주얼 객체가 표시되는 화면에 기능버튼을 제공하고, 상기 기능버튼 중 적어도 하나를 선택하고, 상기 기능버튼에 연관된 상기 비주얼 객체의 동작데이터를 추출하는 것을 특징으로 하는 단말기.
The method of claim 2, wherein the terminal control unit
And providing a function button on a screen on which the visual object is displayed, selecting at least one of the function buttons, and extracting operation data of the visual object associated with the function button.
제2항에 있어서,
사용자 음성 및 주변환경에 대한 소리를 감지하는 마이크를 구비하는 오디오처리부; 및
상기 사용자의 주변환경, 동작 또는 표정을 감지하는 센서부 중 적어도 하나를 더 포함하며,
상기 단말제어부는 상기 오디오처리부를 통해 입력되는 신호를 감지하고, 상기 신호에 연관된 상기 비주얼 객체의 동작데이터를 추출하는 것을 특징으로 하는 단말기.
The method of claim 2,
An audio processor including a microphone configured to detect a user voice and a sound for the surrounding environment; And
Further comprising at least one of the sensor unit for detecting the surrounding environment, motion or facial expression of the user,
And the terminal controller detects a signal input through the audio processor and extracts motion data of the visual object associated with the signal.
제2항에 있어서, 상기 단말제어부는
상기 서비스장치로부터 상기 동작데이터를 수신하여 확인하고, 상기 동작데이터에 대응하는 피드백 데이터를 상기 서비스장치로 전송하는 것을 특징으로 하는 단말기.
The method of claim 2, wherein the terminal control unit
And receiving and confirming the operation data from the service device, and transmitting feedback data corresponding to the operation data to the service device.
제5항에 있어서, 상기 단말제어부는
상기 센서부를 통해 사용자의 주변환경, 동작 또는 표정을 인식하고, 상기 인식 결과에 대한 동작데이터를 추출하고, 상기 추출된 동작데이터에 연관된 피드백 데이터를 생성하고, 상기 피드백 데이터를 상기 서비스장치로 전송하는 것을 특징으로 하는 단말기.
The method of claim 5, wherein the terminal control unit
Recognizing the surrounding environment, motion or facial expression of the user through the sensor unit, extracts the motion data for the recognition result, generates feedback data associated with the extracted motion data, and transmits the feedback data to the service device Terminal, characterized in that.
다수의 단말기와 어플리케이션 실행에 따른 데이터를 송수신하는 서비스통신부;
상기 어플리케이션을 실행하기 위한 데이터를 저장하는 서비스저장부; 및
상기 다수의 단말기의 요청에 따라 상기 어플리케이션을 제공하고, 하나의 단말기로부터 수신되는 동작데이터를 다른 단말기로 전송하고, 상기 다른 단말기로부터 상기 동작데이터에 연관된 피드백 데이터를 수신하고, 상기 피드백 데이터를 통해 비주얼 객체 정보를 추출하고, 상기 비주얼 객체 정보를 상기 하나의 단말기로 전송하도록 제어하는 서비스제어부;
를 포함하는 것을 특징으로 하는 서비스장치.
Service communication unit for transmitting and receiving data according to the execution of the application with a plurality of terminals;
A service storage unit for storing data for executing the application; And
Providing the application at the request of the plurality of terminals, transmitting the operation data received from one terminal to another terminal, receiving feedback data associated with the operation data from the other terminal, and visual through the feedback data A service control unit which extracts object information and controls to transmit the visual object information to the one terminal;
Service apparatus comprising a.
단말기가 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 표시하는 단계;
상기 단말기가 상기 비주얼 객체를 제어하기 위한 신호를 감지하는 단계;
상기 단말기가 상기 신호에 따라 해당되는 동작데이터를 추출하는 단계;
상기 단말기가 상기 동작데이터를 서비스장치로 전송하는 단계;
상기 단말기가 상기 서비스장치로부터 상기 동작데이터에 연관된 비주얼 객체 정보를 수신하는 단계; 및
상기 단말기가 상기 비주얼 객체 정보에 따라 상기 비주얼 객체의 동작 및 상태를 제어하는 단계;
를 포함하는 것을 특징으로 하는 비주얼 객체를 이용한 감정 표현 방법.
Executing an application by the terminal, selecting at least one visual object and displaying the same on a screen;
Detecting, by the terminal, a signal for controlling the visual object;
Extracting, by the terminal, operation data corresponding to the signal;
Transmitting, by the terminal, the operation data to a service device;
Receiving, by the terminal, visual object information associated with the operation data from the service device; And
Controlling, by the terminal, the operation and state of the visual object according to the visual object information;
Emotional expression method using a visual object comprising a.
단말기가 어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계;
상기 단말기가 상기 비주얼 객체를 서비스장치에 등록하고, 다른 단말기와 상기 비주얼 객체에 대한 데이터를 공유하는 단계;
상기 단말기가 상기 서비스장치로부터 동작데이터를 수신하는 단계;
상기 단말기가 상기 동작데이터를 확인하고, 상기 동작데이터에 연관된 피드백 데이터를 생성하는 단계; 및
상기 단말기가 상기 피드백 데이터를 상기 서비스장치로 전송하는 단계;
를 포함하는 것을 특징으로 하는 비주얼 객체를 이용한 감정 표현 방법.
Executing an application by the terminal and visually selecting at least one visual object on a screen;
Registering, by the terminal, the visual object with a service device, and sharing data about the visual object with another terminal;
Receiving, by the terminal, operation data from the service apparatus;
Identifying, by the terminal, the operation data and generating feedback data associated with the operation data; And
Transmitting, by the terminal, the feedback data to the service apparatus;
Emotional expression method using a visual object comprising a.
어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계;
상기 비주얼 객체를 제어하기 위한 신호에 따라 해당되는 동작데이터를 추출하는 단계; 및
상기 동작데이터를 연관된 비주얼 객체 정보에 따라 상기 비주얼 객체의 동작 및 상태를 제어하는 단계;
를 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.
Executing an application and visually selecting at least one visual object on a screen;
Extracting corresponding motion data according to a signal for controlling the visual object; And
Controlling the operation and state of the visual object based on the associated visual object information;
A computer-readable recording medium having recorded thereon a program for performing the program.
어플리케이션을 실행하고, 적어도 하나 이상의 비주얼 객체를 선택하여 화면에 시각적으로 표시하는 단계;
상기 비주얼 객체에 대한 데이터를 공유하는 단계; 및
동작데이터를 수신하여 확인하고, 상기 동작데이터에 연관된 피드백 데이터를 생성하는 단계;
를 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.
Executing an application and visually selecting at least one visual object on a screen;
Sharing data for the visual object; And
Receiving and confirming motion data and generating feedback data associated with the motion data;
A computer-readable recording medium having recorded thereon a program for performing the program.
KR1020110056211A 2011-06-10 2011-06-10 Method for express emotion through visual object, system and terminal thereof KR20120136966A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110056211A KR20120136966A (en) 2011-06-10 2011-06-10 Method for express emotion through visual object, system and terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110056211A KR20120136966A (en) 2011-06-10 2011-06-10 Method for express emotion through visual object, system and terminal thereof

Publications (1)

Publication Number Publication Date
KR20120136966A true KR20120136966A (en) 2012-12-20

Family

ID=47904241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110056211A KR20120136966A (en) 2011-06-10 2011-06-10 Method for express emotion through visual object, system and terminal thereof

Country Status (1)

Country Link
KR (1) KR20120136966A (en)

Similar Documents

Publication Publication Date Title
US11061531B2 (en) System and method for touch-based communications
US11354843B2 (en) Animated chat presence
US10395100B1 (en) Neural networks for facial modeling
CN108885485A (en) Digital assistants experience based on Detection of Existence
JP2018505462A (en) Avatar selection mechanism
KR102044241B1 (en) Terminal providing a video call service
KR102389996B1 (en) Electronic device and method for screen controlling for processing user input using the same
CN113383369A (en) Body posture estimation
JP2018014708A (en) Haptic functionality for network connected devices
US11120601B2 (en) Animated expressive icon
JPWO2015155977A1 (en) Cooperation system, apparatus, method, and recording medium
CN108885521A (en) Cross-environment is shared
CN107079065A (en) Phone board device
US11263459B2 (en) Shared augmented reality system
KR20120119244A (en) Method for producing contents, system thereof and terminal thereof
Figueiredo et al. Overcoming poverty through digital inclusion
KR20120136966A (en) Method for express emotion through visual object, system and terminal thereof
US10290151B2 (en) AR/VR device virtualisation
Yim et al. Development of communication model for social robots based on mobile service
US20190096130A1 (en) Virtual mobile terminal implementing system in mixed reality and control method thereof
US20210357075A1 (en) Trackpad on back portion of a device
KR101652039B1 (en) The method for controlling device by character and aplication
Curran Pervasive and ubiquitous technology innovations for ambient intelligence environments
KR20120136965A (en) Method for providing user information through visual object, system and terminal thereof
TWI583198B (en) Communication using interactive avatars

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid