KR102425624B1 - Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal - Google Patents

Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal Download PDF

Info

Publication number
KR102425624B1
KR102425624B1 KR1020210138092A KR20210138092A KR102425624B1 KR 102425624 B1 KR102425624 B1 KR 102425624B1 KR 1020210138092 A KR1020210138092 A KR 1020210138092A KR 20210138092 A KR20210138092 A KR 20210138092A KR 102425624 B1 KR102425624 B1 KR 102425624B1
Authority
KR
South Korea
Prior art keywords
avatar
emoji
sensor
gesture
user
Prior art date
Application number
KR1020210138092A
Other languages
Korean (ko)
Inventor
안정수
Original Assignee
주식회사 피치솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피치솔루션 filed Critical 주식회사 피치솔루션
Application granted granted Critical
Publication of KR102425624B1 publication Critical patent/KR102425624B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided are a method for displaying a gesture or emoji of an avatar in virtual space using a sensor operation signal of a user terminal, and a method for constructing a virtual space management system therefor. A method for transmitting a gesture or emoji of an avatar in virtual space using a sensor operation signal of a user terminal may obtain a sensor operation signal built into or attached to a user terminal, transmit login information and the sensor operation signal obtained from the user terminal to a virtual space management server, generate an image of a gesture or emoji of a user avatar based on the received login information and the sensor operation signal by the virtual space management server, transmit the image to each user terminal connected to the virtual space management system, and display an avatar gesture or emoji.

Description

사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템{Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal} Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal

본 발명은 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템에 관한 것이다. The present invention relates to a method for transmitting a gesture or emoji of an avatar in a virtual space using a sensor operation signal of a user terminal, and a system for the same.

최근 이동통신 기술 및 통신 단말 기술의 발달로, 사용자가 이동 중에도 스마트폰(smart phone), 태블릿 PC(tablet PC), 랩톰(lap top) 등과 같은 사용자 단말(user terminal)을 이용하여 무선 통신 네트워크에 접속할 수 있으며, 사용자 단말에 설치된 다양한 애플리케이션 또는 프로그램을 통해 다양한 업무를 수행할 수 있다. With the recent development of mobile communication technology and communication terminal technology, a user can access a wireless communication network using a user terminal such as a smart phone, a tablet PC, and a lap top while moving. It can be accessed, and various tasks can be performed through various applications or programs installed in the user terminal.

사용자 단말은 기본적인 통화와 메시지 전송 외에도, 단말에 내장된 센서 혹은 단말과 연결된 센서를 이용하여 애플리케이션과 연결된 가상 공간 관리 시스템으로 다양한 신호를 보낼 수 있다. In addition to basic call and message transmission, the user terminal can send various signals to the virtual space management system connected to the application by using a sensor built into the terminal or a sensor connected to the terminal.

가상 공간 서비스 시스템에서는 주로 아바타를 통해 식별하고, 상대방과의 소통을 하게 되는데, 통화나 채팅과 같은 언어적인 소통 수단 외에도 제스처, 이모지 등과 같은 비언어적인 소통 수단을 통해 상대방과 소통할 수 있다. 사용자 단말의 센서 동작 신호를 이용하여 좀더 쉽게 가상 공간 내에서 아바타의 제스처, 이모지를 전달하거나 표시하는데 목적이 있다. In the virtual space service system, identification is mainly performed through an avatar and communication with the other party is performed. In addition to verbal communication methods such as calls or chatting, non-verbal communication methods such as gestures and emojis can be used to communicate with the other party. An object of the present invention is to transmit or display an avatar's gesture or emoji in a virtual space more easily by using a sensor operation signal of a user terminal.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법은 상기 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 단계; 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계; 상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계; 상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계; 결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및 상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계를 포함한다. According to an exemplary embodiment, a method for transmitting a gesture or emoji of an avatar in a virtual space using a sensor operation signal of a user terminal includes: obtaining login information from a user in the user terminal; obtaining a sensor operation signal of each user terminal in the user terminal; transmitting the login information and the sensor operation signal obtained from the user terminal to a virtual space management system; determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal; generating an image of the determined avatar's gesture or emoji; and transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal.

상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행될 수 있다.The acquiring of the sensor operation signal may be performed through a sensor operation acquiring unit of the user terminal.

상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.

상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.In the determining of the gesture or emoji of the avatar, the gesture or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.

상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar It can be determined whether or not

상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려할 수 있다.The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor can

상기 과제를 해결하기 위한 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법을 이용한 시스템은 상기 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 사용자 관리부; 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부; 상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부; 수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스터/이모지 결정부; 결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부; 및 연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부를 포함한다.A system using a method for transmitting an avatar's gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment for solving the above problem includes: a user manager configured to obtain login information from a user in the user terminal; a sensor operation acquisition unit for acquiring a sensor operation signal of each user terminal from the user terminal; a sensor operation receiving unit for receiving the acquired sensor operation signal transmitted from the user terminal; an avatar jester/emoji determiner configured to determine a gesture or an emoji of the avatar based on the received sensor operation signal and the login information; an avatar gesture/emoji generator for generating the determined gesture or emoji of the avatar; and a transmitter for transmitting an avatar gesture or emoji to each of the linked user terminals.

상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.

상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.The jester or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.

상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, the auxiliary sensor includes an illuminance sensor, and the avatar gesture or emoji generating unit generates the avatar gesture or emoji in consideration of ambient illuminance sensed by the illuminance sensor. can determine whether

상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The auxiliary sensor may further include a distance measuring sensor, and the gesture or emoji generating unit of the avatar considers the distance between the sensed ambient illuminance and the peripheral object forming the ambient illuminance sensed through the distance measuring sensor. It is possible to determine whether an avatar gesture or an emoji is generated.

실시예들에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템에 따르면, 사용자 단말의 센서 동작 신호를 이용하여 좀더 쉽게 가상 공간 내에서 아바타의 제스처, 이모지를 전달하거나 표시할 수 있다.According to a method and a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to embodiments, the gesture of the avatar in a virtual space more easily using a sensor operation signal of a user terminal , can convey or display an emoji.

실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the embodiments are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 구성 환경도이다.
도 2는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 상세 구성도이다.
도 3 내지 도 8은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 여러 센서 동작을 보여주는 모식도들이다.
도 9는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부를 보여주는 블록도이다.
도 10은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부의 상세 구성을 보여주는 블록도이다.
도 11은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 보여주는 순서도이다.
1 is a configuration environment diagram of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
2 is a detailed configuration diagram of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
3 to 8 are schematic diagrams illustrating various sensor operations of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
9 is a block diagram illustrating an avatar gesture/emoji determining unit of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
10 is a block diagram illustrating a detailed configuration of an avatar gesture/emoji determining unit of a system for a method for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
11 is a flowchart illustrating a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.

소자(elements) 또는 층이 다른 소자 또는 층의 "상(on)"으로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 실시예들을 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되지 않는다.Reference to an element or layer "on" of another element or layer includes any intervening layer or other element directly on or in the middle of the other element or layer. Like reference numerals refer to like elements throughout. The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining the embodiments are illustrative and the present invention is not limited to the illustrated matters.

비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하고, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시할 수도 있다.Each feature of the various embodiments of the present invention may be partially or wholly combined or combined with each other, technically various interlocking and driving are possible, and each of the embodiments may be implemented independently of each other or may be implemented together in a related relationship. may be

이하 첨부된 도면을 참조하여 구체적인 실시예들에 대해 설명한다.Hereinafter, specific embodiments will be described with reference to the accompanying drawings.

도 1은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 구성 환경도이다.1 is a configuration environment diagram of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.

도 1은 본 발명의 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)의 구성 환경도로서, 도시된 바와 같이, 복수의 서로 다른 사용자 단말들, 가상 공간 관리 시스템(100), 및 복수의 서로 다른 사용자 단말들과 가상 공간 관리 시스템(100)을 연동시키는 시스템 서버를 포함하여 구성될 수 있다. 상기 연동은 통신망에 의해 구현될 수 있다. 1 is a configuration environment diagram of a system 10 for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment of the present invention. The user terminals, the virtual space management system 100, and a plurality of different user terminals may be configured to include a system server that interlocks the virtual space management system 100 . The interworking may be implemented by a communication network.

이때, 가상 공간 관리 시스템(100)는 서버로 구성될 수 있다.In this case, the virtual space management system 100 may be configured as a server.

또한, 본 발명에서 설명하는 통신망은 유/무선 통신망을 포함할 수 있으며, 이러한 무선 통신망의 일례로 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 5G 이동통신 서비스, 블루투스(Bluetooth), LoRa(Long Range), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신망으로는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.In addition, the communication network described in the present invention may include a wired/wireless communication network, and as an example of such a wireless communication network, a wireless LAN (WLAN), a DLNA (Digital Living Network Alliance), a Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice- Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-A (LTE-A) Advanced), Wireless Mobile Broadband Service (WMBS), 5G mobile communication service, Bluetooth (Bluetooth), LoRa (Long Range), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct may be included. In addition, wired communication networks include wired LAN (Local Area Network), wired WAN (Wide Area Network), Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc. may be included.

또한, 상기 사용자 단말은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함) 등과 같은 다양한 단말기를 포함할 수 있다.In addition, the user terminal includes a smart phone, a portable terminal, a mobile terminal, a personal digital assistant (PDA), a personal computer, a notebook computer, and a slate PC. (Slate PC), tablet PC (Tablet PC), ultrabook (ultrabook), wearable device (Wearable Device, for example, watch-type terminal (Smartwatch), glass-type terminal (Smart Glass), HMD (Head Mounted Display), etc. included) and the like).

이하, 상술한 구성을 바탕으로, 본 발명의 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)의 상세 구성을 설명한다.Hereinafter, a detailed configuration of the system 10 for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment of the present invention will be described based on the above configuration.

도 2는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 상세 구성도이다.2 is a detailed configuration diagram of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.

도 1 및 도 2를 참조하면, 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)은 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 사용자 관리부(110); 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부(210); 상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부(120); 수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스터/이모지 결정부(130); 결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부(140); 및 연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부(150)를 포함할 수 있다.1 and 2, the system 10 for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal is a user management unit 110 that obtains login information from a user in the user terminal. ; a sensor operation acquisition unit 210 for acquiring a sensor operation signal of each user terminal in the user terminal; a sensor operation receiving unit 120 for receiving the acquired sensor operation signal transmitted from the user terminal; an avatar jester/emoji determining unit 130 that determines a gesture or emoji of the avatar based on the received sensor operation signal and the login information; an avatar gesture/emoji generator 140 that generates the determined gesture or emoji of the avatar; and a transmitter 150 for transmitting an avatar gesture or emoji to each of the linked user terminals.

사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150)는 제어부(101)에 의해 구성될 수 있다. The user manager 110 , the sensor motion receiver 120 , the avatar gesture/emoji determiner 130 , the avatar gesture/emoji generator 140 , and the transmitter 150 may be configured by the controller 101 . can

몇몇 실시예에서, 사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150) 중 다른 하나는 제어부(101)에 구성되지 않고 별도의 장치에 의해 구성될 수 있음은 물론이다.In some embodiments, the other of the user manager 110 , the sensor motion receiver 120 , the avatar gesture/emoji determiner 130 , the avatar gesture/emoji generator 140 , and the transmitter 150 is Of course, it may be configured by a separate device instead of being configured in the control unit 101 .

또한, 상기 제어부(101)는 상기 가상 공간 관리 시스템(100)의 저장부에 저장된 프로그램 및 데이터를 이용하여 상기 가상 공간 관리 시스템(100)의 전반적인 제어 기능을 실행할 수 있으며, 상기 제어부(101)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다.In addition, the control unit 101 may execute an overall control function of the virtual space management system 100 by using the program and data stored in the storage unit of the virtual space management system 100 , and the control unit 101 may It may include RAM, ROM, CPU, GPU, and a bus, and the RAM, ROM, CPU, GPU, etc. may be connected to each other through the bus.

또한, 상기 가상 공간 관리 시스템(100)은 상기 제어부(101) 이외에도 사용자 입력을 수신하는 사용자 입력부와, 사용자 단말과 가상 공간 관리 시스템(100)과의 통신을 위한 통신부, 각종 정보를 저장하는 저장부, 각종 정보를 표시하는 표시부 등과 같은 다양한 구성부를 포함하여 구성될 수 있으며, 상기 가상 공간 관리 시스템(100)을 구성하는 구성부들은 상기 제어부(101)에 의해 제어될 수 있다.In addition to the control unit 101 , the virtual space management system 100 includes a user input unit for receiving a user input, a communication unit for communication between the user terminal and the virtual space management system 100 , and a storage unit for storing various information. , and various components such as a display unit displaying various information, and the components constituting the virtual space management system 100 may be controlled by the control unit 101 .

상술한 구성을 토대로, 상기 회원 관리부(110)는 복수의 서로 사용자(또는 회원)별로 사용자 정보를 수신하여 회원 정보로 등록할 수 있다.Based on the above-described configuration, the member management unit 110 may receive user information for each user (or member) and register it as member information.

이때, 상기 회원 관리부(110)는 복수의 서로 다른 사용자(또는 회원)별로 개인 단말기로부터 상기 사용자 정보를 수신하여 상기 가상 공간 관리 시스템(100)에 포함된 회원 DB(102)에 등록할 수 있다.In this case, the member management unit 110 may receive the user information from a personal terminal for each of a plurality of different users (or members) and register it in the member DB 102 included in the virtual space management system 100 .

가상 공간 관리 시스템(100)은 사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150)를 포함하고, 사용자 단말기(200)의 시스템은 센서 동작 획득부(210), 및 복수의 센서들을 포함할 수 있다. 상기 복수의 센서들은 제1 센서(220), 제2 센서(230), 제3 센서(240), 및 보조 센서(250)를 포함할 수 있다. 보조 센서(250)는 다수의 센서들을 포함할 수 있다. 보조 센서(250)는 조도 센서, 및 거리 측정 센서를 포함할 수 있다.The virtual space management system 100 includes a user manager 110 , a sensor motion receiver 120 , an avatar gesture/emoji determiner 130 , an avatar gesture/emoji generator 140 , and a transmitter 150 . In addition, the system of the user terminal 200 may include a sensor motion acquisition unit 210 and a plurality of sensors. The plurality of sensors may include a first sensor 220 , a second sensor 230 , a third sensor 240 , and an auxiliary sensor 250 . The auxiliary sensor 250 may include a plurality of sensors. The auxiliary sensor 250 may include an illuminance sensor and a distance measuring sensor.

센서 동작 획득부(210)는 사용자 단말기(200)의 시스템에 포함되어, 사용자가 사용하는 단말기(200)의 동작 센싱 정보를 획득할 수 있다. 상기 동작 센싱 정보는 상술한 센서(220, 230, 240)들을 통해 생성될 수 있다. 센서(220, 230, 240)들은 서로 상이한 센서들일 수 있다. 예를 들어, 센서(220, 230, 240)들은 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다. 예를 들어, 제1 센서(220)는 가속도 센싱 센서를 포함하고, 제2 센서(230)는 자이로스코프 센서를 포함하고, 제3 센서(240)는 각도 센싱 센서를 포함할 수 있다. 본 명세서에서는, 보조 센서(250)들을 제외한 단말기(200) 동작을 센싱하는 센서들이 3개인 것으로 예시하였지만, 해당 센서들이 개수는 4개 이상일 수도 있다. The sensor motion acquisition unit 210 may be included in the system of the user terminal 200 to acquire motion sensing information of the terminal 200 used by the user. The motion sensing information may be generated through the above-described sensors 220 , 230 , and 240 . The sensors 220 , 230 , and 240 may be different sensors. For example, the sensors 220 , 230 , and 240 may be any one of an acceleration sensing sensor, a gyroscope sensor, and an angle sensing sensor. For example, the first sensor 220 may include an acceleration sensing sensor, the second sensor 230 may include a gyroscope sensor, and the third sensor 240 may include an angle sensing sensor. In the present specification, three sensors for sensing the operation of the terminal 200 except for the auxiliary sensors 250 have been exemplified, but the number of the corresponding sensors may be four or more.

이하에서, 단말기(200)의 동작을 설명하기에 앞서, 방향을 정의하기로 한다. Hereinafter, before describing the operation of the terminal 200, a direction will be defined.

도 3 내지 도 8은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 여러 센서 동작을 보여주는 모식도들이다.3 to 8 are schematic diagrams illustrating various sensor operations of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.

도 2와 함께 도 3 내지 도 8을 참조하면, 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)이 정의될 수 있다. 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)은 상호 교차될 수 있다. 예를 들어, 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)은 서로 직교할 수 있다.3 to 8 together with FIG. 2 , a first direction (X direction), a second direction (Y direction), and a third direction (Z direction) may be defined. The first direction (X direction), the second direction (Y direction), and the third direction (Z direction) may cross each other. For example, the first direction (X direction), the second direction (Y direction), and the third direction (Z direction) may be orthogonal to each other.

사용자 단말기(200)의 센서 동작 신호는 단말기(200)의 센서 동작을 통해 생성될 수 있다. 센서 동작 획득부(210)는 생성된 센서 동작 신호를 획득 및 저장할 수 있다. 단말기(200)의 센서 동작은 쉐이킹, 및 회전 센서 동작을 포함할 수 있다. 예를 들어, 단말기(200)의 센서 동작 중 쉐이킹은 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1), 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3), 및 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2)을 포함하고, 단말기(200)의 센서 동작 중 회전은 Y축을 중심축으로 하는 회전(예컨대, 360도), X축을 중심축으로 하는 회전(예컨대, 360도), 및 Z축을 중심축으로 하는 회전(예컨대, 360도)을 포함할 수 있다. 다만, 예시된 단말기(200)의 센서 동작은 이에 제한되지 않고 본 기술 분야의 다양한 센서 동작을 포함할 수 있다. 상기 다양한 센서 동작은 상술한 센서(220, 230, 240)들의 조합을 통해 인식할 수 있는 다양한 센서 동작들을 포함할 수 있다.A sensor operation signal of the user terminal 200 may be generated through a sensor operation of the terminal 200 . The sensor motion acquisition unit 210 may acquire and store the generated sensor motion signal. The sensor operation of the terminal 200 may include shaking and rotation sensor operation. For example, shaking during the sensor operation of the terminal 200 is left and right shaking (X-axis shaking) (reference distance: d1), up-and-down shaking (Z-axis shaking) (reference distance: d3), and front and rear shaking (Y-axis shaking) (reference distance: d2), and the rotation during the sensor operation of the terminal 200 is rotation about the Y axis (eg, 360 degrees), rotation about the X axis (eg, 360 degrees), and Z Rotation about an axis (eg, 360 degrees) may be included. However, the illustrated sensor operation of the terminal 200 is not limited thereto and may include various sensor operations in the art. The various sensor operations may include various sensor operations that can be recognized through a combination of the above-described sensors 220 , 230 , and 240 .

우선, 도 3(a) 및 도 3(b)에는, 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1)이 예시되어 있다.First, in Figs. 3(a) and 3(b), left-right shaking (X-axis shaking) (reference distance: d1) is exemplified.

도 4에는 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2)이 예시되어 있다.4 exemplifies forward and backward shaking (Y-axis shaking) (reference distance: d2).

도 5에는 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3)이 예시되어 있다.5 exemplifies vertical shaking (Z-axis shaking) (reference distance: d3).

도 6에는 Y축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.6 illustrates rotation (eg, 360 degrees) about the Y axis.

도 7에는 X축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.7 illustrates rotation (eg, 360 degrees) about the X axis.

도 8에는 Z축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.8 illustrates rotation (eg, 360 degrees) about the Z axis.

하기의 표 1에는 도 3 내지 도 8에 도시된 센서 동작들, 및 이에 의해 결정되는 아바타 동작 및 이모지를 나타내고 있다. 하기의 표에는 아바타 동작이 2D 상에서 이루어진 것만을 예시하였지만, 이에 제한되지 않고 아바타 동작은 3D 상에서도 이루어질 수 있으며, 더 나아가, 아바타 동작뿐만 아니라, 아바타로부터 나오는 음향효과, 아바타 자체 색상효과를 포함할 수 있음은 물론이다. Table 1 below shows the sensor actions shown in FIGS. 3 to 8 , and the avatar action and emoji determined by the sensor actions. The table below exemplifies only the avatar motions performed in 2D, but the present invention is not limited thereto, and the avatar motions can be performed in 3D. of course there is

Figure 112021118684511-pat00001
Figure 112021118684511-pat00001

도 9는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부를 보여주는 블록도이다.9 is a block diagram illustrating an avatar gesture/emoji determining unit of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.

도 9를 참조하면, 아바타 제스처/이모지 결정부(130)는 복수개로 마련될 수 있다. 즉, 아바타 제스처/이모지 결정부(130)는 제1 결정부(130a), 및 제2 결정부(130b)를 포함할 수 있다. 본 실시예에서, 아바타 제스처/이모지 결정부(130)가 복수개로 마련된 이유는, 사용자의 편의성 및 아바타 사용 자유도를 개선하기 위함이다. 아바타 제스처/이모지 결정부(130)는 도 10에서 후술할 마이 설정부(131)를 통해 미리 저장된 설정에 의해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정할 수 있다. 예를 들어, 표 1에서 상술한 바와 같이, 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1), 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3), 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2), Y축을 중심축으로 하는 회전(예컨대, 360도), X축을 중심축으로 하는 회전(예컨대, 360도), 및 Z축을 중심축으로 하는 회전(예컨대, 360도)에 따라 각각 상이한 아바타 동작, 이모지가 표현되도록 설정할 수 있다. 다만, 아바타의 제스처/이모지를 결정함에 있어, 사용자는 상이한 상황에서 서로 다른 제스처/이모지를 결정하기를 원할 수 있다. 예를 들어, 사용자가 친구, 가족 등 편한 사람들과 소통할 때와, 사용자가 직장 동료, 상사, 또는 클라이언트 등 형식적 관계를 갖는 사람들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되기를 원할 수 있다. 이를 위해, 아바타 제스처/이모지 결정부(130)는 복수의 결정부(130a, 130b)로 구성됨으로써, 상황에 따른 서로 다른 아바타의 제스처 또는 이모지를 결정할 수 있다.Referring to FIG. 9 , a plurality of avatar gesture/emoji determiners 130 may be provided. That is, the avatar gesture/emoji determiner 130 may include a first determiner 130a and a second determiner 130b. In the present embodiment, the reason why the avatar gesture/emoji determiner 130 is provided in plurality is to improve the user's convenience and the degree of freedom in using the avatar. The avatar gesture/emoji determiner 130 may determine the avatar gesture/emoji according to a sensor operation signal acquired by a preset stored through the My Setting unit 131 to be described later with reference to FIG. 10 . For example, as described above in Table 1, left and right shaking (X-axis shaking) (reference distance: d1), up-and-down shaking (Z-axis shaking) (reference distance: d3), back and forth shaking (Y-axis shaking) (reference distance) : d2), the rotation about the Y-axis as a central axis (eg 360 degrees), the rotation about the X-axis as the central axis (eg 360 degrees), and the rotation about the Z-axis as the central axis (eg 360 degrees). You can set avatar motions and emojis to be displayed. However, in determining the gesture/emoji of the avatar, the user may want to determine different gestures/emoji in different situations. For example, when the user communicates with comfortable people such as friends and family, and when the user communicates with people with formal relationships such as co-workers, bosses, or clients, even with the same sensor motion signal, different avatar motions or aunts may want to be expressed. To this end, the avatar gesture/emoji determiner 130 includes a plurality of determiners 130a and 130b, and thus may determine different gestures or emojis of avatars according to situations.

도 10은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부의 상세 구성을 보여주는 블록도이다.10 is a block diagram illustrating a detailed configuration of an avatar gesture/emoji determining unit of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.

도 10을 참조하면, 각각의 결정부는 마이 설정부(131), 지정 사용자 설정 공유부(132), 다수 사용자 설정 공유부(133), 결정 화면 출력부(134), 결정 화면 ON/Off 제어부(135), 및 마이 설정 자동화 선택부(136)를 포함할 수 있다. 마이 설정부(131)는 상술한 바와 같이, 미리 저장된 설정에 의해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정할 수 있다. 마이 설정부(131)의 설정 주체는 단말기(200)의 사용자일 수 있다. 몇몇 실시예에서, 마이 설정부(131)는 사용자 설정 없이, 가장 많이 사용되는 설정(획득된 센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)으로 초기화 설정될 수도 있다.Referring to FIG. 10 , each decision unit includes a my setting unit 131 , a designated user setting sharing unit 132 , a multiple user setting sharing unit 133 , a decision screen output unit 134 , and a decision screen ON/Off control unit ( 135), and a My Settings automation selection unit 136 . As described above, the my setting unit 131 may determine an avatar gesture/emoji according to a sensor operation signal obtained by a pre-stored setting. The setting subject of the my setting unit 131 may be a user of the terminal 200 . In some embodiments, the my setting unit 131 may be initialized to the most used setting (available gesture or emoji setting according to the acquired sensor operation signal) without user setting.

지정 사용자 설정 공유부(132)는 도 2에 도시된 바와 같이, 사용자와 타 사용자와의 마이 설정부 공유를 가능하게 한다. 더욱 상세히 설명하면, 사용자는 마이 설정부(131)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하는데, 또는 상술한 몇몇 실시예에 따른 초기화 설정되어 결정하는데, 상기 타 사용자와 친밀한 관계가 있는 경우, 상기 타 사용자의 해당 시스템 사용 경험에 비추어 가장 편하고 가장 많이 이용되는 획득된 센서 동작 신호에 따른 아바타 제스처 또는 이모지 결정 설정을 그대로 사용하고 싶을 수 있다. 이 경우, 상술한 지정 사용자 설정 공유부(132)를 통해, 상기 사용자와 상기 타 사용자가 가상 공간 관리 시스템(100)에 동시에 접속하면, 상기 타 사용자의 마이 설정부(131)로부터 결정 관련 설정을 그대로 상기 사용자의 마이 설정부(131)에 붙여 넣기 할 수 있다.The designated user setting sharing unit 132 enables sharing of the My Setting unit between the user and other users, as shown in FIG. 2 . In more detail, the user determines the avatar gesture/emoji according to the sensor operation signal obtained through the my setting unit 131, or the user determines the avatar gesture/emoji by setting the initial settings according to some embodiments described above, and has a close relationship with the other user. , you may want to use the avatar gesture or emoji determination setting according to the acquired sensor operation signal, which is the most convenient and most used in view of the other user's experience of using the system as it is. In this case, when the user and the other user simultaneously access the virtual space management system 100 through the designated user setting sharing unit 132 described above, the other user's My Setting unit 131 determines related settings. It can be pasted into the user's My Setting Unit 131 as it is.

다수 사용자 설정 공유부(133)는 상술한 지정 사용자 설정 공유부(132)와 달리, 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 한다. 더욱 상세히 설명하면, 사용자는 마이 설정부(131)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하는데, 또는 상술한 몇몇 실시예에 따른 초기화 설정되어 결정하는데, 다수 사용자들이 사용하는 결정 설정을 그대로 사용하고 싶을 수 있다. 상기 다수 사용자들이 사용하는 결정 설정은 각각의 획득된 센서 동작 신호 별로 결정된 아바타 제스처 또는 이모지를 포함하고 있다. 즉, 각각의 획득된 센서 동작 신호 별로, 사용자들이 가장 많이 사용하고 있는 아바타 제스처 또는 이모지를 포함하고 있다. 이 경우, 상술한 다수 사용자 설정 공유부(133)를 통해, 상기 사용자는 다수 사용자들이 사용하고 있는 결정 설정을 복사하여 그대로 상기 사용자의 마이 설정부(131)에 붙여 넣기 할 수 있다.The multiple user setting sharing unit 133 enables sharing of the My Setting unit between the user and multiple users, unlike the designated user setting sharing unit 132 described above. In more detail, the user determines the avatar gesture/emoji according to the sensor operation signal obtained through the my setting unit 131, or the initial setting according to some embodiments described above, and the decision used by multiple users You may want to use the settings as they are. The decision setting used by the plurality of users includes an avatar gesture or emoji determined for each acquired sensor operation signal. That is, for each acquired sensor operation signal, the avatar gesture or emoji most frequently used by users is included. In this case, through the multiple user setting sharing unit 133 described above, the user can copy the decision setting used by multiple users and paste it into the user's My Setting unit 131 as it is.

결정 화면 출력부(134)는 사용자가 마이 설정부(130)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부(120)를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되는데, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 단말기(200) 화면에 출력할 수 있다. 이 경우, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상일 수 있다. 예를 들어, 분할된 출력 화면의 일 영역에는 최근 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지(이하, 제1 아바타 이미지)가 나오고, 다른 영역에는 최근 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지 이전 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지(이하, 제2 아바타 이미지)가 나타날 수 있다. 예시에서는, 2개의 아바타 제스처 또는 이모지 만을 설명하고 있지만, 3개 이상일 수도 있다. 상기 출력 화면은 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져 있을 수 있다(결정 화면 On/off 제어부(135)를 통해 제어됨). 이 경우, 사용자가 제1 아바타 이미지를 선택하거나, 사용자가 제2 아바타 이미지를 선택하거나, 아니면 선택하지 않을 수 있다. 상기 제1 아바타 이미지를 선택한 경우 상기 제1 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송되고, 상기 제2 아바타 이미지를 선택한 경우 상기 제2 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송될 수 있다. 상기 제1 아바타 이미지 및 제2 아바타 이미지를 둘다 선택하지 않은 경우 자동적으로 최근에 설정된 상기 제1 아바타 이미지가 선택된 것으로 간주되어 상기 제1 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송될 수 있다. 몇몇 실시예에서, 결정 화면 On/off 제어부(135)를 통해 출력 화면이 켜져 있다가 꺼지는 상기 소정의 시간은 조절될 수 있다. 다른 몇몇 실시예에서, 사용자의 로그인 정보에 따라 자동적으로 결정 화면 On/off 제어부(135)는 사용자의 연령대에 따라 상기 소정의 시간을 조절할 수 있다. 즉, 연령대에 비례하여 상기 소정의 시간이 증가될 수 있다.The decision screen output unit 134 receives one sensor operation signal through the sensor operation receiving unit 120 after the user sets an avatar gesture/emoji according to the sensor operation signal obtained through the My Setting unit 130 . In this case, an avatar gesture or emoji is determined according to the set sensor operation signal and an avatar gesture or emoji corresponding thereto is generated. It can be output on the screen of the terminal 200 . In this case, the outputted avatar gesture or emoji may be two or more. For example, in one area of the divided output screen, an avatar gesture or emoji (hereinafter, referred to as the first avatar image) recently set through the My Setting unit 130 is displayed, and in the other area, an avatar gesture or emoji recently set through the My Setting unit 130 is displayed. Before the set avatar gesture or emoji An avatar gesture or emoji (hereinafter, referred to as a second avatar image) set through the My Setting unit 130 may appear. In the example, only two avatar gestures or emojis are described, but there may be three or more. The output screen may be turned on for a predetermined time during which the user can select between the first avatar image and the second avatar image displayed on the screen (controlled through the decision screen on/off control unit 135). In this case, the user may select the first avatar image, the user may select the second avatar image, or may not select the second avatar image. When the first avatar image is selected, the first avatar image is generated and transmitted to the terminal 200 through the transmitter 150. When the second avatar image is selected, the second avatar image is generated and transmitted may be transmitted to the terminal 200 through the unit 150 . If neither the first avatar image nor the second avatar image is selected, the first avatar image that has been recently set is automatically regarded as selected, and the first avatar image is generated, and the terminal 200 is transmitted through the transmitter 150. ) can be transmitted to In some embodiments, the predetermined time during which the output screen is turned on and off may be adjusted through the decision screen on/off control unit 135 . In some other embodiments, the automatic determination screen on/off control unit 135 may adjust the predetermined time according to the user's age group according to the user's login information. That is, the predetermined time may increase in proportion to the age group.

마이 설정 자동화 선택부(136)는 상술한 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 마이 설정부(131)의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 단말기(200)의 화면에 출력할 수 있다. 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정(예컨대, 제1 아바타 이미지)(메인 위치에 출력, 예컨대 가장 왼편), 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정(예컨대, 제2 아바타 이미지)(서브 위치에 출력, 예컨대, 제1 아바타 이미지의 바로 오른편)이 나타날 수 있다. 3개 이상의 아바타 제스처 또는 이모지들이 설정된 이력이 있는 경우에는, 선택된 횟수에 따라 서브 위치가 두 개 이상으로 분할되어 각각의 이전 설정된 아바타의 제스처 또는 이모지 설정들이 출력될 수 있다. 해당 화면이 출력되면 사용자가 최근 설정을 유지하고자 하는 경우, 제1 아바타 이미지를 선택하면 되고, 사용자가 이전 설정들로 변경하고자 하는 경우, 제2 아바타 이미지(또는 두 개 이상의 화면으로 분할된 서브 위치들에 나타난 아바타 이미지들)를 선택하면 된다. 이 경우에도, 소정의 시간이 초과되면, 해당 출력 화면은 오프되고, 최근 설정으로 유지될 수 있다. When the number of times of selecting the above-described second avatar image exceeds a predetermined number, the my setting automation selection unit 136 sets an existing (or recent) setting (avatar gesture according to a sensor operation signal) of the my setting unit 131 . Alternatively, a selection window requesting to change the emoji setting) may be output on the screen of the terminal 200 . In the selection window, a sensor operation signal exceeding the predetermined number of times, a gesture or emoji setting of a recently set avatar corresponding to the sensor operation signal (eg, the first avatar image) (output to the main location, eg, the leftmost side); and a previously set avatar gesture or emoji setting (eg, a second avatar image) corresponding to the sensor operation signal (output to a sub-position, eg, immediately right of the first avatar image) may be displayed. When there is a history in which three or more avatar gestures or emojis have been set, the sub-positions may be divided into two or more according to the selected number of times, and the gesture or emoji settings of each previously set avatar may be output. When the corresponding screen is displayed, if the user wants to keep the latest settings, he can select the first avatar image. avatar images) displayed in the fields. Even in this case, if the predetermined time is exceeded, the corresponding output screen may be turned off and the latest setting may be maintained.

한편, 도 2에 도시된 바와 같이, 사용자 단말기(200)는 보조 센서(250)를 더 포함할 수 있다. 보조 센서(250)는 다수의 센서들을 포함할 수 있다. 보조 센서(250)는 조도 센서, 및 거리 측정 센서를 포함할 수 있다.Meanwhile, as shown in FIG. 2 , the user terminal 200 may further include an auxiliary sensor 250 . The auxiliary sensor 250 may include a plurality of sensors. The auxiliary sensor 250 may include an illuminance sensor and a distance measuring sensor.

아바타 제스처/이모지 생성부(140)를 통해 상기 아바타의 제스처나 이모지를 생성하기에 앞서, 상기 아바타의 제스처나 이모지의 생성 여부를 더 판단할 수 있다. 이 경우, 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.Before generating the avatar gesture or emoji through the avatar gesture/emoji generator 140 , it may be further determined whether the avatar gesture or emoji is generated. In this case, it may be determined whether the avatar's gesture or emoji is generated in consideration of the ambient illuminance sensed by the illuminance sensor.

몇몇 실시예에서, 상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지의 생성여부를 판단하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다. 이를 통해, 상기 센서 동작 신호가 사용자의 단말기(200) 동작에 의해 인위적으로 발생된 것인지 아니면 주머니 또는 가방 등 어두운 환경(조도 고려, 및 주머니 또는 가방 등에서는 단말기(200)가 주변의 주머니 또는 가방 등과 매우 가깝게 위치함)에서 원치 않게 발생된 것인지 판단하여 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다. 주머니 또는 가방 등 어두운 환경(조도 고려, 및 주머니 또는 가방 등에서는 단말기(200)가 주변의 주머니 또는 가방 등과 매우 가깝게 위치함)에서 원치 않게 발생된 것이라고 판단되면, 아바타 제스처/이모지 생성부(140)는 해당 결정된 아바타 제스처 또는 이모지를 생성하지 않을 수 있어, 원치 않은 상황에서 아바타 제스처 또는 이모지가 생성되는 것을 미연에 방지할 수 있다.In some embodiments, the auxiliary sensor further includes a distance measuring sensor, and forming the ambient illuminance sensed in the step of determining whether to generate a gesture or an emoji of the avatar and the peripheral illuminance sensed through the distance measuring sensor Whether to generate a gesture or an emoji of the avatar may be determined in consideration of the distance from the surrounding object. Through this, whether the sensor operation signal is artificially generated by the user's operation of the terminal 200, or in a dark environment such as a pocket or bag (in consideration of illumination, and a pocket or bag, etc. It is possible to determine whether the avatar's gesture or emoji is generated by determining whether the avatar's gesture or emoji is generated by determining whether the avatar's gesture or emoji is generated. If it is determined that the avatar gesture/emoji generating unit 140 is undesirably generated in a dark environment such as a pocket or bag (in consideration of illumination, and the terminal 200 is located very close to a nearby pocket or bag, etc.) ) may not generate the determined avatar gesture or emoji, so that generation of the avatar gesture or emoji in an undesired situation can be prevented in advance.

도 11은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 보여주는 순서도이다.11 is a flowchart illustrating a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an exemplary embodiment.

도 11은 상술한 도 1 내지 도 10에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템과 카테고리만 상이할 뿐 실질적 구성은 동일하다. 이에 따라 자세한 단계들이나, 자세한 구성들에 대한 설명은 도 1 내지 도 10에서 상술한 내용들에 갈음하기로 한다.11 is different from the system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of the user terminal according to FIGS. 1 to 10 described above, except in a category different from that of FIG. Accordingly, detailed steps and descriptions of detailed configurations will be substituted for the contents described above with reference to FIGS. 1 to 10 .

도 11을 참조하면, 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법은 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 단계(S10); 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계(S20); 상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계(S30); 상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계(S40); 결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및 상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계(S50)를 포함할 수 있다.Referring to FIG. 11 , a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal includes: obtaining login information from a user in the user terminal (S10); obtaining a sensor operation signal of each user terminal in the user terminal (S20); transmitting the login information and the sensor operation signal obtained from the user terminal to the virtual space management system (S30); determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal (S40); generating an image of the determined avatar's gesture or emoji; and transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal (S50).

상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행될 수 있다.The acquiring of the sensor operation signal may be performed through a sensor operation acquiring unit of the user terminal.

상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.

상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.In the determining of the gesture or emoji of the avatar, the gesture or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.

상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar It can be determined whether or not

상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor Thus, it is possible to determine whether the avatar's gesture or emoji is generated.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains may be embodied in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10: 시스템
100: 가상 공간 관리 시스템
101: 제어부
102: 회원 DB
110: 사용자 관리부
120: 센서동작 수신부
130: 아바타 제스처/이모지 결정부
140: 아바타 제스처/이모지 생성부
150: 전송부
10: system
100: virtual space management system
101: control unit
102: member DB
110: user management unit
120: sensor operation receiving unit
130: avatar gesture / emoji determining unit
140: avatar gesture / emoji generator
150: transmission unit

Claims (11)

사용자 단말에서 사용자로부터 로그인 정보를 획득하는 단계;
상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계;
상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계;
상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계;
결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및
상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계를 포함하고,
상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행되고,
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나이고,
상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스처나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정되며,
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 단말의 센서 동작 신호는 쉐이킹, 및 회전 센서 동작을 포함하고,
상기 쉐이킹은 좌우 쉐이킹(X축 쉐이킹), 상하 쉐이킹(Z축 쉐이킹), 및 전후 쉐이킹(Y축 쉐이킹)을 포함하고,
상기 회전은 상기 Y축을 중심축으로 하는 회전, 상기 X축을 중심축으로 하는 회전, 및 상기 Z축을 중심축으로 하는 회전을 포함하고,
상기 아바타의 제스처나 이모지를 결정은 아바타 제스처/이모지 결정부에 의해 수행되고,
상기 아바타 제스처/이모지 결정부는 복수개로 마련되어 상기 사용자가 친구, 또는 가족들과 소통할 때와, 상기 사용자가 직장 동료, 상사, 또는 클라이언트들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되며,
상기 아바타 제스처/이모지 결정부는 마이 설정부, 지정 사용자 설정 공유부, 다수 사용자 설정 공유부, 결정 화면 출력부, 결정 화면 ON/Off 제어부, 및 마이 설정 자동화 선택부를 포함하고,
상기 마이 설정부는 미리 저장된 설정에 의해 획득된 상기 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하고,
상기 지정 사용자 설정 공유부는 상기 사용자와 타 사용자와의 상기 마이 설정부 공유를 가능하게 하며,
상기 다수 사용자 설정 공유부는 상기 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 하고,
상기 결정 화면 출력부는 상기 사용자가 상기 마이 설정부를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 상기 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되고, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 상기 단말 화면에 출력하고, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상이고,
분할된 출력 화면의 일 영역에는 최근 상기 마이 설정부를 통해 설정된 제1 아바타 이미지가 나오고, 다른 영역에는 최근 상기 마이 설정부를 통해 설정된 아바타 제스처 또는 이모지 이전의 상기 마이 설정부를 통해 설정된 제2 아바타 이미지가 나타나고,
상기 출력 화면은 상기 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져있고, 상기 결정 화면 On/off 제어부를 통해 제어되며,
상기 사용자가 상기 제1 아바타 이미지를 선택하거나, 상기 사용자가 상기 제2 아바타 이미지를 선택하거나, 또는 상기 제1 아바타 이미지 및 상기 제2 아바타 이미지를 모두 선택하지 않을 수 있고,
상기 마이 설정 자동화 선택부는 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 상기 마이 설정부의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 상기 단말의 화면에 출력하고, 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정, 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정이 나타나는 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법.
obtaining login information from a user in a user terminal;
obtaining a sensor operation signal of each user terminal in the user terminal;
transmitting the login information and the sensor operation signal obtained from the user terminal to a virtual space management system;
determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal;
generating an image of the determined avatar's gesture or emoji; and
transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal;
In the step of acquiring the sensor operation signal, it is performed through the sensor operation acquisition unit of the user terminal,
The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and Any one of the angle sensing sensors,
In the step of determining the gesture or emoji of the avatar, the gesture or emoji of the avatar is determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor,
The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar to determine whether or not the
The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor to determine whether the avatar's gesture or emoji is generated,
The sensor operation signal of the terminal includes shaking and rotation sensor operation,
The shaking includes left and right shaking (X-axis shaking), up-and-down shaking (Z-axis shaking), and front-back shaking (Y-axis shaking),
The rotation includes rotation about the Y-axis as a central axis, rotation about the X-axis as a central axis, and rotation about the Z-axis as a central axis,
The determination of the gesture or emoji of the avatar is performed by the avatar gesture/emoji determining unit,
A plurality of avatar gesture/emoji determining units are provided to perform different avatar motions when the user communicates with friends or family and when the user communicates with coworkers, bosses, or clients, even with the same sensor motion signal , or an emoji is expressed,
The avatar gesture/emoji determining unit includes a my setting unit, a designated user setting sharing unit, a multiple user setting sharing unit, a decision screen output unit, a decision screen ON/Off control unit, and a my setting automation selection unit,
The my setting unit determines an avatar gesture / emoji according to the sensor operation signal obtained by a pre-stored setting,
The designated user setting sharing unit enables sharing of the my setting unit with the user and other users,
The multiple user setting sharing unit enables sharing of my setting unit with the user and multiple users,
When the user sets an avatar gesture/emoji according to the sensor operation signal obtained through the My Setting unit and then receives one sensor operation signal through the sensor operation receiving unit, the determination screen output unit responds to the set sensor operation signal. an avatar gesture or emoji is determined and a corresponding avatar gesture or emoji is generated, and the avatar gesture or emoji determined between the determination of the avatar gesture or emoji and generation of the avatar gesture or emoji is output to the terminal screen; The output avatar gesture or emoji is two or more,
The first avatar image recently set through the My Setting unit is displayed in one area of the divided output screen, and the second avatar image recently set through the My Setting unit before the avatar gesture or emoji recently set through the My Setting unit is displayed in the other area. appear,
The output screen is turned on for a predetermined time during which the user can select between the first avatar image and the second avatar image displayed on the screen, and is controlled through the decision screen on/off control unit,
the user may select the first avatar image, the user may select the second avatar image, or both the first avatar image and the second avatar image may not be selected,
When the number of times to select the second avatar image exceeds a predetermined number of times, the My Settings automation selection unit changes the existing (or recent) settings of the My Settings unit (available gestures or emoji settings according to sensor operation signals). A requesting selection window is output to the screen of the terminal, and the sensor operation signal exceeding the predetermined number of times, a gesture or emoji setting of a recently set avatar corresponding to the sensor operation signal, and the sensor operation signal A method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal indicating a previously set avatar gesture or emoji setting corresponding to .
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 사용자 관리부;
상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부;
상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부;
수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스처/이모지 결정부;
결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부; 및
연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부를 포함하고,
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나이며,
상기 아바타의 제스처나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정되고,
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하며,
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 단말의 센서 동작 신호는 쉐이킹, 및 회전 센서 동작을 포함하고,
상기 쉐이킹은 좌우 쉐이킹(X축 쉐이킹), 상하 쉐이킹(Z축 쉐이킹), 및 전후 쉐이킹(Y축 쉐이킹)을 포함하고,
상기 회전은 상기 Y축을 중심축으로 하는 회전, 상기 X축을 중심축으로 하는 회전, 및 상기 Z축을 중심축으로 하는 회전을 포함하고,
상기 아바타의 제스처나 이모지를 결정은 아바타 제스처/이모지 결정부에 의해 수행되고,
상기 아바타 제스처/이모지 결정부는 복수개로 마련되어 상기 사용자가 친구, 또는 가족들과 소통할 때와, 상기 사용자가 직장 동료, 상사, 또는 클라이언트들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되며,
상기 아바타 제스처/이모지 결정부는 마이 설정부, 지정 사용자 설정 공유부, 다수 사용자 설정 공유부, 결정 화면 출력부, 결정 화면 ON/Off 제어부, 및 마이 설정 자동화 선택부를 포함하고,
상기 마이 설정부는 미리 저장된 설정에 의해 획득된 상기 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하고,
상기 지정 사용자 설정 공유부는 상기 사용자와 타 사용자와의 상기 마이 설정부 공유를 가능하게 하며,
상기 다수 사용자 설정 공유부는 상기 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 하고,
상기 결정 화면 출력부는 상기 사용자가 상기 마이 설정부를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 상기 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되고, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 상기 단말 화면에 출력하고, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상이고,
분할된 출력 화면의 일 영역에는 최근 상기 마이 설정부를 통해 설정된 제1 아바타 이미지가 나오고, 다른 영역에는 최근 상기 마이 설정부를 통해 설정된 아바타 제스처 또는 이모지 이전의 상기 마이 설정부를 통해 설정된 제2 아바타 이미지가 나타나고,
상기 출력 화면은 상기 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져있고, 상기 결정 화면 On/off 제어부를 통해 제어되며,
상기 사용자가 상기 제1 아바타 이미지를 선택하거나, 상기 사용자가 상기 제2 아바타 이미지를 선택하거나, 또는 상기 제1 아바타 이미지 및 상기 제2 아바타 이미지를 모두 선택하지 않을 수 있고,
상기 마이 설정 자동화 선택부는 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 상기 마이 설정부의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 상기 단말의 화면에 출력하고, 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정, 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정이 나타나는 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 이용한 시스템.
a user manager for obtaining login information from a user in a user terminal;
a sensor operation acquisition unit for acquiring a sensor operation signal of each user terminal from the user terminal;
a sensor operation receiving unit for receiving the acquired sensor operation signal transmitted from the user terminal;
an avatar gesture/emoji determining unit configured to determine an avatar's gesture or emoji based on the received sensor operation signal and the login information;
an avatar gesture/emoji generator for generating the determined gesture or emoji of the avatar; and
A transmitter for transmitting an avatar gesture or emoji to each of the linked user terminals,
The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and Any one of the angle sensing sensors,
The gesture or emoji of the avatar is determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor,
The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the avatar gesture or emoji generating unit generates the avatar gesture or emoji in consideration of ambient illuminance sensed by the illuminance sensor. to determine whether
The auxiliary sensor further includes a distance measuring sensor, and the gesture or emoji generating unit of the avatar considers the distance between the sensed ambient illuminance and the peripheral object forming the ambient illuminance sensed through the distance measuring sensor. Determining whether the avatar's gesture or emoji is generated,
The sensor operation signal of the terminal includes shaking and rotation sensor operation,
The shaking includes left and right shaking (X-axis shaking), up-and-down shaking (Z-axis shaking), and front-back shaking (Y-axis shaking),
The rotation includes rotation about the Y-axis as a central axis, rotation about the X-axis as a central axis, and rotation about the Z-axis as a central axis,
The determination of the gesture or emoji of the avatar is performed by the avatar gesture/emoji determining unit,
A plurality of avatar gesture/emoji determining units are provided to perform different avatar motions when the user communicates with friends or family and when the user communicates with coworkers, bosses, or clients, even with the same sensor motion signal , or an emoji is expressed,
The avatar gesture/emoji determining unit includes a my setting unit, a designated user setting sharing unit, a multiple user setting sharing unit, a decision screen output unit, a decision screen ON/Off control unit, and a my setting automation selection unit,
The my setting unit determines an avatar gesture / emoji according to the sensor operation signal obtained by a pre-stored setting,
The designated user setting sharing unit enables sharing of the my setting unit with the user and other users,
The multiple user setting sharing unit enables sharing of my setting unit with the user and multiple users,
When the user sets an avatar gesture/emoji according to the sensor operation signal obtained through the My Setting unit and then receives one sensor operation signal through the sensor operation receiving unit, the determination screen output unit responds to the set sensor operation signal. an avatar gesture or emoji is determined and a corresponding avatar gesture or emoji is generated, and the avatar gesture or emoji determined between the determination of the avatar gesture or emoji and generation of the avatar gesture or emoji is output to the terminal screen; The output avatar gesture or emoji is two or more,
The first avatar image recently set through the My Setting unit is displayed in one area of the divided output screen, and the second avatar image recently set through the My Setting unit before the avatar gesture or emoji recently set through the My Setting unit is displayed in the other area. appear,
The output screen is turned on for a predetermined time during which the user can select between the first avatar image and the second avatar image displayed on the screen, and is controlled through the decision screen on/off control unit,
the user may select the first avatar image, the user may select the second avatar image, or both the first avatar image and the second avatar image may not be selected,
When the number of times to select the second avatar image exceeds a predetermined number of times, the My Settings automation selection unit changes the existing (or recent) settings of the My Settings unit (available gestures or emoji settings according to sensor operation signals). A requesting selection window is output to the screen of the terminal, and the sensor operation signal exceeding the predetermined number of times, a gesture or emoji setting of a recently set avatar corresponding to the sensor operation signal, and the sensor operation signal A system using an avatar gesture or emoji transmission method in a virtual space using a sensor operation signal of a user terminal in which a previously set avatar gesture or emoji setting corresponding to .
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210138092A 2021-03-03 2021-10-18 Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal KR102425624B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210028432 2021-03-03
KR20210028432 2021-03-03

Publications (1)

Publication Number Publication Date
KR102425624B1 true KR102425624B1 (en) 2022-07-27

Family

ID=82701497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210138092A KR102425624B1 (en) 2021-03-03 2021-10-18 Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal

Country Status (1)

Country Link
KR (1) KR102425624B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019007A (en) * 2010-08-24 2012-03-06 한국전자통신연구원 System and method for providing virtual reality linking service
KR20160125647A (en) * 2015-04-22 2016-11-01 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019007A (en) * 2010-08-24 2012-03-06 한국전자통신연구원 System and method for providing virtual reality linking service
KR20160125647A (en) * 2015-04-22 2016-11-01 엘지전자 주식회사 Mobile terminal and method for controlling the same

Similar Documents

Publication Publication Date Title
US10986312B2 (en) Information processing apparatus, information processing method, program, and server
KR101306288B1 (en) Apparatus and Method for Providing Augmented Reality using Virtual Object
KR101977526B1 (en) Image splicing method, terminal, and system
EP3046352B1 (en) Method by which portable device displays information through wearable device, and device therefor
KR102128180B1 (en) A technique for transitioning the head-worn display from the operation of the first power mode to the operation of the second power mode
CN111131531B (en) Method and device for generating nickname in chat group and readable storage medium
CN114265641A (en) Control method, electronic device, and computer-readable storage medium
KR20140042188A (en) Method for sharing function between terminals, terminal, and recording medium thereof
CN114077373A (en) Interaction method between electronic devices and electronic devices
US11283937B1 (en) Sharing images based on face matching in a network
US10541826B2 (en) Communications control method, communications terminal, and storage medium
CN114157659B (en) File sharing method and terminal equipment
EP4114045A1 (en) Device positioning method and relevant apparatus
KR102425624B1 (en) Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal
US20230239218A1 (en) Data Transmission Method and Electronic Device
US11330651B2 (en) Electronic device using bluetooth communication and operating method thereof
WO2020083178A1 (en) Digital image display method, apparatus, electronic device, and storage medium
CN105849734B (en) Control method and device of portable device
EP4250238A1 (en) Three-dimensional model reconstruction method, device, and storage medium
CN112291133B (en) Method, device, equipment and medium for sending files in cross-terminal mode
US10855731B2 (en) Information processing apparatus, data processing method thereof, and program
CN114071652A (en) Method for establishing binding relationship and related equipment
CN114189946A (en) Data sharing method, electronic device and system
CN114007202A (en) Method for establishing binding relationship and related equipment
US8548451B2 (en) Information processing system, apparatus, and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant