KR102487289B1 - Interface system and method according to provision of gesture guide interface - Google Patents

Interface system and method according to provision of gesture guide interface Download PDF

Info

Publication number
KR102487289B1
KR102487289B1 KR1020200144202A KR20200144202A KR102487289B1 KR 102487289 B1 KR102487289 B1 KR 102487289B1 KR 1020200144202 A KR1020200144202 A KR 1020200144202A KR 20200144202 A KR20200144202 A KR 20200144202A KR 102487289 B1 KR102487289 B1 KR 102487289B1
Authority
KR
South Korea
Prior art keywords
motion
dance
user terminal
user
video
Prior art date
Application number
KR1020200144202A
Other languages
Korean (ko)
Other versions
KR20220032443A (en
Inventor
박성민
Original Assignee
주식회사 트리플
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 트리플 filed Critical 주식회사 트리플
Publication of KR20220032443A publication Critical patent/KR20220032443A/en
Application granted granted Critical
Publication of KR102487289B1 publication Critical patent/KR102487289B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23103Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion using load balancing strategies, e.g. by placing or distributing content on different disks, different memories or different servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23895Multiplex stream processing, e.g. multiplex stream encrypting involving multiplex stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26613Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for generating or managing keys in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4353Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving decryption of additional data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6334Control signals issued by server directed to the network components or client directed to client for authorisation, e.g. by transmitting a key
    • H04N21/63345Control signals issued by server directed to the network components or client directed to client for authorisation, e.g. by transmitting a key by transmitting keys
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 인터페이스 시스템은, 사용자 단말기와 네트워크를 통해 연결되는 인터페이스 시스템에 있어서, 복수 개의 댄스 영상을 저장하고, 영상 목록을 생성하는 영상 정보부; 영상 목록을 사용자 단말기로 전송하고, 사용자 단말기로부터 영상 목록에서 선택된 댄스 영상에 따른 선택 신호를 전송받고, 선택 신호에 따른 댄스 영상을 사용자 단말기로 전송하는 영상 제공부; 사용자 단말기에서 출력되는 댄스 영상의 댄스 동작과 사용자의 동작을 비교하고, 사용자의 동작에 따른 점수를 부여하는 동작 처리부; 및 동작 처리부에서 부여된 점수를 사용자별로 합산하여 저장하고, 합산된 점수를 사용자 단말기로 전송하는 처리 관리부를 포함하되, 사용자는 사용자 단말기를 장착한 가상 현실 기기의 헤드셋을 착용하고, 가상 현실 기기의 컨트롤러를 양손에 파지한 상태에서, 댄스 영상을 따라하는 것을 특징으로 할 수 있다.An interface system according to an embodiment of the present invention is an interface system connected to a user terminal through a network, comprising: a video information unit for storing a plurality of dance videos and generating a video list; an image providing unit that transmits a video list to a user terminal, receives a selection signal according to a dance video selected from the video list from the user terminal, and transmits the dance video according to the selection signal to the user terminal; a motion processing unit that compares a dance motion of a dance image output from a user terminal with a user's motion and assigns a score according to the user's motion; and a processing management unit summing and storing the scores given by the motion processing unit for each user and transmitting the summed scores to a user terminal, wherein the user wears a headset of a virtual reality device equipped with the user terminal, and It may be characterized in that the controller is followed by the dance video while holding the controller with both hands.

Description

제스처 가이드 인터페이스 제공에 따른 인터페이스 시스템 및 그 방법{Interface system and method according to provision of gesture guide interface}Interface system and method according to provision of gesture guide interface {Interface system and method according to provision of gesture guide interface}

본 발명은 인터페이스 시스템에 관한 것으로서, 보다 상세하게는, 음악에 맞춰 댄스 동작을 용이하고 정확하게 따라하면서 댄스를 즐길 수 있도록 하는 인터페이스 시스템에 관한 것이다.[0001] The present invention relates to an interface system, and more particularly, to an interface system that enables a user to enjoy dancing while easily and accurately following dance movements in time with music.

사람들은 다양한 음악의 리듬을 맞추어 댄스를 즐기고자 한다. 이로 인해, 사람들은 댄스 아카데미를 통해 직접 댄스를 배우기도 한다. 또한, 사람들은 유튜브 영상을 보고 따라하면서 댄스를 배우기도 하고, 댄스를 즐기면서 배울 수 있도록 다양한 댄스 게임이 출시되기도 하였다. People want to enjoy dancing by matching the rhythm of various music. Because of this, people learn dance directly through dance academies. In addition, people learn dance by watching and following YouTube videos, and various dance games have been released so that people can learn while enjoying dance.

예를 들어, 일반적인 댄스 게임에서 사람들은 댄스 영상을 통해 출력된 동작을 따라하거나, 지시에 따라 스탭을 밟거나 따라하는 등으로 댄스 게임을 즐기고 있다. 이러한 댄스 게임은 출력된 동작과 입력된 동작 사이, 또는 출력된 지시와 입력된 동작 사이의 유사한 정도에 따라 점수를 부여하는 방식으로 이루어진다.For example, in a general dance game, people enjoy the dance game by following the motions output through the dance video, stepping or following instructions. In this dance game, points are given according to the degree of similarity between the output motion and the input motion, or between the output instruction and the input motion.

하지만, 유튜브 영상 또는 댄스 게임을 통해 댄스를 즐기는 데에 있어서, 단순히 정확한 동작으로 댄스가 이루어지는지 확인하는 데에 어려움이 있다. 이로 인해, 지속적으로 댄스에 대한 흥미가 유지되는 데에도 어려움이 있는 실정이다.However, in enjoying a dance through a YouTube video or a dance game, it is difficult to simply check whether the dance is performed with an accurate motion. Due to this, it is difficult to continuously maintain interest in dance.

본 발명의 기술적 사상에 따른 인터페이스 시스템이 이루고자 하는 기술적 과제는, 사용자에게 정확한 동작으로 댄스를 즐길 수 있도록 하여 댄스에 대한 흥미를 지속시킬 수 있도록 하는 인터페이스 시스템을 제공하는 것이다.A technical problem to be achieved by the interface system according to the technical idea of the present invention is to provide an interface system that allows users to enjoy dance with precise motions and thus maintain interest in dance.

또한, 본 발명의 기술적 사상에 따른 인터페이스 시스템이 이루고자 하는 기술적 과제는, 음악 리듬에 맞추어 손쉬우면서도 자연스럽게 댄스를 즐길 수 있도록 하는 인터페이스 시스템을 제공하는 것이다.In addition, a technical problem to be achieved by the interface system according to the technical idea of the present invention is to provide an interface system that allows people to easily and naturally enjoy dancing according to the rhythm of music.

본 발명의 기술적 사상에 따른 인터페이스 시스템이 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Technical tasks to be achieved by the interface system according to the technical idea of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 기술적 사상에 의한 일 실시예에 따른 인터페이스 시스템은, 사용자 단말기와 네트워크를 통해 연결되는 인터페이스 시스템에 있어서, 복수 개의 댄스 영상을 저장하고, 영상 목록을 생성하는 영상 정보부; 영상 목록을 사용자 단말기로 전송하고, 사용자 단말기로부터 영상 목록에서 선택된 댄스 영상에 따른 선택 신호를 전송받고, 선택 신호에 따른 댄스 영상을 사용자 단말기로 전송하는 영상 제공부; 사용자 단말기에서 출력되는 댄스 영상의 댄스 동작과 사용자의 동작을 비교하고, 사용자의 동작에 따른 점수를 부여하는 동작 처리부; 및 동작 처리부에서 부여된 점수를 사용자별로 합산하여 저장하고, 합산된 점수를 사용자 단말기로 전송하는 처리 관리부를 포함하되, 사용자는 사용자 단말기를 장착한 가상 현실 기기의 헤드셋을 착용하고, 가상 현실 기기의 컨트롤러를 양손에 파지한 상태에서, 댄스 영상을 따라하는 것을 특징으로 할 수 있다. An interface system according to an embodiment according to the technical idea of the present invention is an interface system connected to a user terminal through a network, comprising: a video information unit for storing a plurality of dance videos and generating a video list; an image providing unit that transmits a video list to a user terminal, receives a selection signal according to a dance video selected from the video list from the user terminal, and transmits the dance video according to the selection signal to the user terminal; a motion processing unit that compares a dance motion of a dance image output from a user terminal with a user's motion and assigns a score according to the user's motion; and a processing management unit summing and storing the scores given by the motion processing unit for each user and transmitting the summed scores to a user terminal, wherein the user wears a headset of a virtual reality device equipped with the user terminal, and It may be characterized in that the controller is followed by the dance video while holding the controller with both hands.

또한, 댄스 영상은 음악, 음악에 대응되는 댄스 동작에 따른 동영상 및 각각의 댄스 동작에 대응하도록 복수 개의 제스처 가이드를 포함하고, 각각의 제스처 가이드는 댄스 동작의 자세에 대응하는 베이스 가이드 및 댄스 동작의 움직임에 대응하는 움직임 가이드를 포함할 수 있다.In addition, the dance video includes music, a video according to a dance motion corresponding to the music, and a plurality of gesture guides corresponding to each dance motion, and each gesture guide includes a base guide corresponding to a posture of the dance motion and a dance motion. A motion guide corresponding to the motion may be included.

또한, 댄스 영상이 사용자 단말기에 출력될 때, 제스처 가이드는 사용자 단말기에 출력되고 있는 댄스 영상의 댄스 동작 다음의 댄스 동작에 대응하도록 출력될 수 있다.Also, when the dance video is output to the user terminal, the gesture guide may be output to correspond to a dance motion following the dance motion of the dance video being output to the user terminal.

또한, 컨트롤러는 자이로 센서를 포함하고, 사용자에 의해 파지된 상태에서 사용자의 동작에 따라 실시간으로 위치 정보 및 동작 정보를 생성하여 동작 처리부로 전송하며, 동작 처리부는 영상 정보부에 연결되어, 각각의 댄스 영상의 댄스 동작에 따른 위치 정보 및 동작 정보를 추출하여 저장하고, 동작 처리부는 사용자 단말기에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보와 컨트롤러로부터 전송된 위치 정보 및 동작 정보를 비교하고 상호 간에 일치되는 정도를 바탕으로 하여 사용자의 동작에 대한 점수를 부여할 수 있다.In addition, the controller includes a gyro sensor, generates location information and motion information in real time according to the user's motion in a state held by the user, and transmits them to the motion processing unit, and the motion processing unit is connected to the video information unit, so that each dance The location information and motion information according to the dance motion of the video are extracted and stored, and the motion processing unit compares the location information and motion information corresponding to the dance motion of the dance video output from the user terminal with the location information and motion information transmitted from the controller. And based on the degree of agreement between them, it is possible to give a score for the user's motion.

또한, 컨트롤러의 위치 정보는 컨트롤러의 위치에 따른 좌표값을 기초로 하여 생성되고, 컨트롤러의 동작 정보는 컨트롤러의 움직임에 따른 각속도를 기초로 하여 생성될 수 있다.In addition, location information of the controller may be generated based on coordinate values according to the location of the controller, and operation information of the controller may be generated based on angular velocity according to the movement of the controller.

또한, 제스처 가이드의 움직임 가이드는 신체 위치에 따라 상이한 색상으로 출력될 수 있다.Also, the motion guide of the gesture guide may be output in different colors according to the body position.

또한, 처리 관리부는 설정치 이상의 합산된 점수에 따른 쿠폰 이미지를 생성하여 저장하고, 설정치 이상의 합산된 점수에 대응되는 사용자 단말기에 쿠폰 이미지를 전송하고, 처리 관리부는, 쿠폰 이미지 데이터 신호를 분할하여 복수 개의 쿠폰 이미지 데이터 조각들을 생성하고, 쿠폰 이미지 데이터 조각들의 각각에 어드레스를 부여하며, 어드레스를 고려한 조합 규칙을 생성하는 키크리에이팅 모듈; 복수 개의 쿠폰 이미지 데이터 조각들을 임의의 순서로 사용자 단말기로 전송하는 제 1 디스패칭 모듈; 및 조합 규칙을 사용자 단말기로 전송하는 제 2 디스패칭 모듈을 포함할 수 있으며, 사용자 단말기는, 사용자 단말기에 전송된 복수 개의 쿠폰 이미지 데이터 조각들 및 조합 규칙을 전송받고, 조합 규칙에 따라 복수 개의 쿠폰 이미지 데이터 조각들을 조합하여 쿠폰 이미지 데이터를 생성하는 리어셈블링 모듈을 포함할 수 있다.In addition, the processing management unit generates and stores a coupon image according to the summed score equal to or greater than the set value, transmits the coupon image to the user terminal corresponding to the summed score equal to or greater than the set value, and the processing management unit divides the coupon image data signal into a plurality of a key creating module that generates coupon image data pieces, assigns an address to each of the coupon image data pieces, and creates a combination rule considering the addresses; A first dispatching module that transmits a plurality of coupon image data pieces in an arbitrary order to a user terminal; and a second dispatching module for transmitting the combination rule to the user terminal, wherein the user terminal receives the plurality of coupon image data pieces and the combination rule transmitted to the user terminal, and receives the plurality of coupons according to the combination rule A reassembly module for generating coupon image data by combining image data pieces may be included.

또한, 처리 관리부는 설정치 이상의 합산된 점수에 따른 쿠폰 이미지를 생성하여 저장하고, 설정치 이상의 합산된 점수에 대응되는 사용자 단말기에 쿠폰 이미지를 전송하고, 처리 관리부는, 쿠폰 이미지에 가로 방향으로 n개의 제 1 액시스 라인들을 설정하고, 세로 방향으로 m개의 제 2 액시스 라인들을 설정하는 액시스 라이닝 모듈(여기서, n 및 m은 자연수이다); 제 1 액시스 라인들 및 제 2 액시스 라인들 중 어느 하나를 선택하는 단계, 상기 선택된 액시스 라인(이하 "제 1 선택 액시스 라인"이라 한다)을 중심으로 어느 일 측의 쿠폰 이미지를 어느 한 방향으로 회전시켜 상기 제 1 선택 액시스 라인의 양 측의 쿠폰 이미지 영역이 2개의 층으로 중첩되도록 하여 제 1 파일드 이미지를 생성하는 단계, 제 1 액시스 라인들 및 제 2 액시스 라인들 중 다른 하나를 선택하는 단계, 상기 선택된 다른 하나의 액시스 라인(이하 "제 2 선택 액시스 라인"이라 한다)을 중심으로 어느 일 측의 제 1 파일드 이미지를 어느 한 방향으로 회전시켜 상기 제 2 선택 액시스 라인의 양 측의 제 1 파일드 이미지 영역이 2개의 층으로 중첩되도록 하여 제 2 파일드 이미지를 생성하는 단계를 포함하는 파일링 규칙을 수행하는 파일링 모듈; 제 2 파일드 이미지를 사용자 단말기로 전송하는 제 1 디스패칭 모듈; 및 파일링 규칙을 사용자 단말기로 전송하는 제 2 디스패칭 모듈을 포함하고, 사용자 단말기는, 사용자 단말기로 전송된 제 2 파일드 이미지 및 파일링 규칙을 전송받고, 파일링 규칙에 따라 제 2 파일드 이미지를 복원하여 상기 쿠폰 이미지를 생성하는 리어셈블링 모듈을 포함할 수 있다.
본 발명의 기술적 사상에 의한 일 실시예에 따른 인터페이스 시스템은, 사용자 단말기와 네트워크를 통해 연결되는 인터페이스 시스템으로서, 복수 개의 댄스 영상을 저장하고, 영상 목록을 생성하는 영상 정보부; 영상 목록을 사용자 단말기로 전송하고, 사용자 단말기로부터 영상 목록에서 선택된 댄스 영상에 따른 선택 신호를 전송받고, 선택 신호에 따른 댄스 영상을 사용자 단말기로 전송하는 영상 제공부; 사용자 단말기에서 출력되는 댄스 영상의 댄스 동작과 사용자의 동작을 비교하고, 사용자의 동작에 따른 점수를 부여하는 동작 처리부; 및 동작 처리부에서 부여된 점수를 사용자별로 합산하여 저장하고, 합산된 점수를 사용자 단말기로 전송하는 처리 관리부를 포함하되, 사용자는 사용자 단말기를 장착한 가상 현실 기기의 헤드셋을 착용하고, 가상 현실 기기의 컨트롤러를 양손에 파지한 상태에서, 댄스 영상을 따라하며, 처리 관리부는 설정치 이상의 합산된 점수에 따른 쿠폰 이미지를 생성하여 저장하고, 설정치 이상의 합산된 점수에 대응되는 사용자 단말기에 쿠폰 이미지를 전송하고, 처리 관리부는 스토어링 모듈을 포함하며, 스토어링 모듈은 쿠폰 이미지를 임의로 복수 개의 이미지 조각으로 분할하고, 복수 개로 분할된 이미지 조각 각각을 복수 개의 개별 조각 정보들로 설정하는 스니핑 모듈; 및 개별 조각 정보들 각각에 문자와 숫자로 이루어진 상이한 코드들을 부여하는 코드어싸이닝 모듈을 포함하되, 상기 개별 조각 정보들은 서브 데이터베이스들에 각각 나뉘어 저장되며, 스토어링 모듈은 개별 조각 정보들이 서브 데이터베이스들에 각각 나뉘어 저장되기 전에, 기설정된 시간 간격 단위로 생성되는, 문자와 숫자로 이루어진 랜덤 변수를, 개별 조각 정보들에 부여된 상이한 코드들 각각에 소정 시간동안 공유시키는 랜덤 넘버 크리에이팅 모듈; 및 상기 랜덤 변수가 공유된 개별 조각 정보들을, 물리적으로 분할된 서브 데이터베이스들 각각에 분산하여 저장시키는 디스퍼싱 스토어링 모듈을 더 포함하며, 쿠폰 이미지 전체에 대한 호출이 발생하면, 쿠폰 이미지를 구성하는 개별 조각 정보들은 상기 공유된 랜덤 변수를 매개로 하여 재조합될 수 있다.
In addition, the processing management unit generates and stores a coupon image according to the summed score equal to or greater than the set value, transmits the coupon image to the user terminal corresponding to the summed score equal to or greater than the set value, and the processing management unit includes n number of coupon images in the horizontal direction. an axis lining module that sets 1 axis line and sets m second axis lines in the vertical direction (where n and m are natural numbers); Selecting one of the first axis lines and the second axis lines, rotating the coupon image on one side in one direction around the selected axis line (hereinafter referred to as “first selected axis line”). generating a first filed image by overlapping coupon image areas on both sides of the first selected axis line with two layers, selecting the other one of the first axis lines and the second axis lines; , By rotating the first filed image on one side in one direction centering on the other selected axis line (hereinafter referred to as "second selected axis line"), the first field image on both sides of the second selected axis line is rotated. a filing module that performs a filing rule including generating a second filed image by overlapping the first filed image area with two layers; a first dispatching module that transmits a second filed image to a user terminal; and a second dispatching module for transmitting the filing rule to the user terminal, wherein the user terminal receives the second filed image and the filing rule transmitted to the user terminal, and restores the second filed image according to the filing rule. and a reassembly module for generating the coupon image.
An interface system according to an embodiment according to the technical idea of the present invention is an interface system connected to a user terminal through a network, and includes: a video information unit for storing a plurality of dance videos and generating a video list; an image providing unit that transmits a video list to a user terminal, receives a selection signal according to a dance video selected from the video list from the user terminal, and transmits the dance video according to the selection signal to the user terminal; a motion processing unit that compares a dance motion of a dance image output from a user terminal with a user's motion and assigns a score according to the user's motion; and a processing management unit summing and storing the scores given by the motion processing unit for each user and transmitting the summed scores to a user terminal, wherein the user wears a headset of a virtual reality device equipped with the user terminal, and While holding the controller in both hands, follow the dance video, and the processing management unit generates and stores a coupon image according to the summed score above the set value and sends the coupon image to the user terminal corresponding to the summed score above the set value, The processing management unit includes a storage module, wherein the storage module arbitrarily divides the coupon image into a plurality of image pieces, and sets each of the plurality of image pieces to a plurality of individual pieces of information; and a code assigning module that assigns different codes consisting of letters and numbers to each of the individual piece information, wherein the individual piece information is divided into sub databases and stored, and the storage module stores the individual piece information in sub databases. a random number creation module for sharing a random variable composed of letters and numbers, which is generated in units of predetermined time intervals, with each of the different codes assigned to individual pieces of information for a predetermined time before being divided and stored in each of the individual pieces of information; and a dispersing storage module for dispersing and storing the individual piece information shared with the random variable in each of the physically divided sub-databases, and when a call to the entire coupon image occurs, constituting the coupon image Individual pieces of information may be recombined through the shared random variable.

본 발명의 기술적 사상에 의한 실시예들에 따른 인터페이스 시스템은 하기와 같은 효과를 가진다.The interface system according to embodiments according to the technical idea of the present invention has the following effects.

(1) 사용자는 정확한 동작으로 댄스를 즐길 수 있어 댄스에 대한 흥미를 지속할 수 있다.(1) The user can enjoy dancing with precise motions and can maintain interest in dancing.

(2) 사용자는 음악 리듬에 맞추어 손쉬우면서도 자연스럽게 댄스를 즐길 수 있다.(2) The user can easily and naturally enjoy dancing according to the rhythm of the music.

다만, 본 발명의 일 실시예에 따른 인터페이스 시스템이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.However, the effects that can be achieved by the interface system according to an embodiment of the present invention are not limited to those mentioned above, and other effects not mentioned above can be clearly understood by those skilled in the art from the description below. will be.

본 명세서에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 인터페이스 시스템을 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인터페이스 시스템의 실시 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이다.
In order to more fully understand the drawings cited herein, a brief description of each drawing is provided.
1 is a diagram illustrating an interface system according to an embodiment of the present invention.
2 is an implementation flow diagram of an interface system according to an embodiment of the present invention.
3 is a diagram illustrating a dance image output through an interface system according to an embodiment of the present invention.
4 is a diagram illustrating a dance image output through an interface system according to an embodiment of the present invention.
5 is a diagram illustrating a dance image output through an interface system according to an embodiment of the present invention.
6 is a diagram illustrating a dance image output through an interface system according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can make various changes and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that the present invention includes all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, numbers (eg, 1st, 2nd, etc.) used in the description process of this specification are only identifiers for distinguishing one component from another component.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in this specification, when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.

또한, 본 명세서에서 '~부'로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, in the present specification, components expressed as '~ part' may be two or more components combined into one component, or one component may be differentiated into two or more for each more subdivided function. In addition, each of the components to be described below may additionally perform some or all of the functions of other components in addition to its own main function, and some of the main functions of each component may be different from other components. Of course, it may be performed exclusively by a component.

이하, 본 발명의 기술적 사상에 의한 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments according to the technical idea of the present invention will be described in detail in turn.

도 1은 본 발명의 일 실시예에 따른 인터페이스 시스템을 도시하는 도면이고, 도 2는 본 발명의 일 실시예에 따른 인터페이스 시스템의 실시 흐름도이며, 도 3은 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이고, 도 4는 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이며, 도 5는 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이고, 도 6은 본 발명의 일 실시예에 따른 인터페이스 시스템을 통해 출력된 댄스 영상을 도시하는 도면이다.1 is a diagram showing an interface system according to an embodiment of the present invention, FIG. 2 is a flowchart illustrating an interface system according to an embodiment of the present invention, and FIG. 3 is an interface system according to an embodiment of the present invention. 4 is a diagram showing a dance image output through an interface system according to an embodiment of the present invention, and FIG. 5 is an interface system according to an embodiment of the present invention. 6 is a diagram showing a dance image output through an interface system according to an embodiment of the present invention.

도 1과 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인터페이스 시스템(100)은 사용자 단말기(10)와 네트워크(1)를 통해 연결될 수 있으며, 영상 정보부(101), 영상 제공부(102), 동작 처리부(103) 및 처리 관리부(104)를 포함할 수 있다. 여기서, 사용자는 가상 현실(VR: virtual reality) 기기(미도시됨)를 착용한 상태에서 사용자 단말기(10)를 통해 인터페이스 시스템(100)에 연결될 수 있고, 댄스를 즐길 수 있다. 또한, 가상 현실 기기는 사용자 단말기(10)를 장착하면서 사용자의 머리에 착용될 수 있는 헤드셋(headset) 및 사용자의 양손에 파지되고 사용자에 의해 조작되는 컨트롤러(controller)를 포함할 수 있다. 컨트롤러는 자이로 센서를 포함할 수 있다.As shown in FIGS. 1 and 2, the interface system 100 according to an embodiment of the present invention can be connected to the user terminal 10 through the network 1, and includes an image information unit 101 and an image providing unit. (102), an operation processing unit 103 and a processing management unit 104. Here, the user may be connected to the interface system 100 through the user terminal 10 while wearing a virtual reality (VR) device (not shown) and enjoy dancing. In addition, the virtual reality device may include a headset that can be worn on the user's head while mounting the user terminal 10 and a controller that is held by both hands of the user and operated by the user. The controller may include a gyro sensor.

사용자는 사용자 단말기(10)를 이용하여 인터페이스 시스템(100)에 접속하여 인터페이스 시스템(100)과 신호를 주고 받을 수 있다. 인터페이스 시스템(100)은 사용자 단말기(10)에서 구동된 웹 브라우저를 통해 웹 페이지를 표시하고 웹 페이지에서 로그인을 한 후 인터페이스 시스템(100)에 접속하도록 하거나, 사용자 단말기(10)에 인터페이스 시스템(100)에 접속 가능한 어플리케이션이 설치되어 구동될 수도 있다.A user may access the interface system 100 using the user terminal 10 and exchange signals with the interface system 100 . The interface system 100 displays a web page through a web browser operated in the user terminal 10, logs in on the web page, and then accesses the interface system 100, or allows the user terminal 10 to access the interface system 100. ) may be installed and run.

사용자 단말기(10)는 네트워크(1)를 통해 원격지의 서버나 단말에 접속할 수 있는 단말 장치로 구현될 수 있다. 단말 장치는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.The user terminal 10 may be implemented as a terminal device capable of accessing a remote server or terminal through the network 1 . The terminal device is, for example, a wireless communication device that ensures portability and mobility, and includes a personal communication system (PCS), a global system for mobile communications (GSM), a personal digital cellular (PDC), a personal handyphone system (PHS), and a PDA ( Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, All types of handheld-based wireless communication devices such as smartpads and tablet PCs may be included.

여기서, 네트워크(1)는, 복수의 단말기 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network 1 means a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers. Examples of such networks include a 3rd Generation Partnership Project (3GPP) network and a long Term Evolution (Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network) Network), a Bluetooth network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, and the like, but are not limited thereto.

영상 정보부(101)는 복수 개의 댄스 영상(11)을 저장하고, 복수 개의 댄스 영상에 따른 영상 목록을 생성할 수 있다(S101). 여기서, 댄스 영상은 음악 및 음악에 대응하는 댄스 동작에 따른 동영상을 포함하고, 각각의 댄스 동작에 대응하도록 복수 개의 제스처 가이드(12)를 포함할 수 있다. 또한, 제스처 가이드(12)는 각각 댄스 동작의 자세에 대응하는 베이스 가이드(12a) 및 댄스 동작의 움직임(예를 들, 팔 움직임)에 대응하는 움직임 가이드(12b)를 포함할 수 있다. 특히, 움직임 가이드(12b)는 화살표를 포함할 수 있다.The video information unit 101 may store a plurality of dance videos 11 and generate a video list according to the plurality of dance videos (S101). Here, the dance image may include music and a video according to a dance motion corresponding to the music, and may include a plurality of gesture guides 12 corresponding to each dance motion. In addition, the gesture guide 12 may include a base guide 12a corresponding to a posture of a dance motion and a motion guide 12b corresponding to a movement (eg, arm movement) of a dance motion. In particular, the motion guide 12b may include arrows.

본 실시예의 제스처 가이드(12)는 댄스 영상(11)의 우측 상단에 출력되는 것으로 도시되어 있으나, 이에 한정되지 않고, 댄스 동작과 겹쳐지지 않는 다양한 위치에서 출력될 수 있다.The gesture guide 12 of this embodiment is shown as being output at the top right of the dance image 11, but is not limited thereto, and may be output at various positions that do not overlap with the dance motion.

영상 제공부(102)는 영상 목록을 사용자 단말기(10)로 전송할 수 있다. 사용자는 사용자 단말기(10)를 통해 영상 목록을 확인하고, 영상 목록에서 댄스 영상을 선택할 수 있다. 또한, 사용자 단말기(10)는 선택된 댄스 영상에 따른 선택 신호를 생성하여 영상 제공부(102)로 전송할 수 있다(S102).The video providing unit 102 may transmit the video list to the user terminal 10 . The user can check the video list through the user terminal 10 and select a dance video from the video list. In addition, the user terminal 10 may generate a selection signal according to the selected dance video and transmit it to the video providing unit 102 (S102).

영상 제공부(102)는 전송된 선택 신호에 대응되는 댄스 영상을 사용자 단말기(10)로 전송할 수 있다(S103). 이로 인해, 사용자 단말기(10)에는 댄스 영상이 출력될 수 있다. 특히, 사용자 단말기(10)가 사용자의 머리에 착용된 헤드셋에 장착된 경우, 사용자는 헤드셋을 착용한 상태에서 댄스 영상을 가상 공간 영상의 형태로 확인할 수 있다.The video provider 102 may transmit a dance video corresponding to the transmitted selection signal to the user terminal 10 (S103). Due to this, a dance image may be output to the user terminal 10 . In particular, when the user terminal 10 is mounted on a headset worn on the user's head, the user can check the dance image in the form of a virtual space image while wearing the headset.

특히, 댄스 영상(11)이 사용자 단말기(10)에 출력될 때, 제스처 가이드(12)는 댄스 영상(11)에 포함되어 출력되되, 사용자 단말기(10)에 출력되고 있는 댄스 영상(11)의 댄스 동작 다음의 댄스 동작에 대응하도록 출력될 수 있다. 여기서, 사용자는 댄스 영상(11)을 따라 댄스 동작을 취할 때, 제스처 가이드(12)를 통해 다음으로 취해야 할 댄스 동작을 미리 확인하여 준비할 수 있다. 즉, 사용자가 출력되고 있는 댄스 영상(11)의 댄스 동작에 익숙하지 않더라도, 제스처 가이드(12)를 통해 보다 용이하게 출력되고 있는 댄스 영상의 댄스 동작을 따라할 수 잇다. 이로 인해, 사용자는 용이하게 댄스 영상에 맞춰 댄스를 즐기는 효과를 누릴 수 있다.In particular, when the dance video 11 is output to the user terminal 10, the gesture guide 12 is included in the dance video 11 and outputted, and the dance video 11 being output to the user terminal 10 It may be output to correspond to a dance motion following the dance motion. Here, when performing a dance motion along with the dance video 11, the user may check and prepare the next dance motion to be performed through the gesture guide 12 in advance. That is, even if the user is not familiar with the dance motion of the output dance video 11, the user can more easily follow the dance motion of the output dance video through the gesture guide 12. Due to this, the user can easily enjoy the effect of enjoying the dance according to the dance video.

제스처 가이드(12)의 움직임 가이드(12b)는 신체 위치에 따라 상이한 색상으로 출력될 수 있다. 예를 들어, 신체의 왼쪽 부분에 대응되는 움직임 가이드(12b)는 흑색으로 표시될 수 있고, 신체의 오른쪽 부분에 대응되는 움직임 가이드(12b)는 회색으로 표시될 수 있다(도 3 내지 도 6 참조). 사용자는 제스처 가이드(12)의 움직임 가이드(12b)를 통해 다음으로 취해야 할 댄스 동작에서 신체의 왼쪽 부분의 움직임이 이루어져야 하는지, 또는 신체의 왼쪽 부분의 움직임이 이루어져야 하는지를 용이하게 인지할 수 있다.The motion guide 12b of the gesture guide 12 may be output in different colors according to body positions. For example, the motion guide 12b corresponding to the left part of the body may be displayed in black, and the motion guide 12b corresponding to the right part of the body may be displayed in gray (see FIGS. 3 to 6 ). Through the movement guide 12b of the gesture guide 12, the user can easily recognize whether the movement of the left part of the body or the movement of the left part of the body should be performed in the next dance motion to be performed.

동작 처리부(103)는 사용자의 동작 및 사용자 단말기(10)에 출력되는 댄스 영상의 댄스 동작을 비교하고, 사용자의 동작에 따른 점수를 부여할 수 있다(S104).The motion processing unit 103 may compare the user's motion and the dance motion of the dance image output to the user terminal 10, and assign a score according to the user's motion (S104).

또한, 앞서 언급된 바와 같이, 컨트롤러는 자이로 센서를 포함할 수 있고, 동작 처리부(103)에 연결될 수 있다. 컨트롤러는 사용자에 의해 파지된 상태에서 사용자의 동작에 따라 실시간으로 위치 정보 및 동작 정보를 생성할 수 있고, 위치 정보 및 동작 정보를 동작 처리부(103)로 전송할 수 있다. 여기서, 위치 정보는 컨트롤러의 위치에 따른 좌표값을 기초로 한 정보를 의미하고, 동작 정보는 컨트롤러의 움직임에 따른 각속도를 기초로 한 정보를 의미한다.Also, as mentioned above, the controller may include a gyro sensor and may be connected to the motion processing unit 103 . The controller may generate location information and motion information in real time according to the user's motion while being held by the user, and may transmit the location information and motion information to the motion processing unit 103 . Here, the location information refers to information based on coordinate values according to the location of the controller, and the motion information refers to information based on angular velocity according to the movement of the controller.

또한, 동작 처리부(103)는 영상 정보부(101)에 연결되어, 각각의 댄스 영상의 댄스 동작에 따른 위치 정보 및 동작 정보를 추출하여 저장할 수 있다. 동작 처리부(103)는 사용자 단말기(10)에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보를 컨트롤러로부터 전송된 위치 정보 및 동작 정보와 비교할 수 있다. In addition, the motion processing unit 103 may be connected to the video information unit 101 to extract and store location information and motion information according to dance motions of each dance video. The motion processing unit 103 may compare the location information and motion information corresponding to the dance motion of the dance video output from the user terminal 10 with the location information and motion information transmitted from the controller.

동작 처리부(103)는 사용자 단말기(10)에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보와, 컨트롤러로부터 전송된 위치 정보 및 동작 정보를 상호 간에 일치되는 정도를 바탕으로 하여 사용자의 동작에 대한 점수를 부여할 수 있다. 여기서, 일치되는 정도가 클수록, 동작 처리부(103)는 상대적으로 높은 점수를 부여할 수 있다. 즉, 동작 처리부(103)는 컨트롤러로부터 획득될 수 있는 사용자의 동작에 따른 위치 변화 및 동작 속도 등을 댄스 영상을 바탕으로 하여 판정할 수 있다.The motion processing unit 103 determines the user's location information and motion information corresponding to the dance motion of the dance video output from the user terminal 10 and the location information and motion information transmitted from the controller based on the degree of matching between each other. Points can be awarded for actions. Here, as the degree of matching increases, the action processing unit 103 may give a relatively high score. That is, the motion processing unit 103 may determine a positional change and motion speed according to the user's motion, which may be obtained from the controller, based on the dance video.

한편, 동작 처리부(103)는 사용자 단말기(10)에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보와, 컨트롤러로부터 전송된 위치 정보 및 동작 정보를 상호 간에 일치되는 정도를 바탕으로 하여 사용자의 동작에 대한 메시지를 생성하고 사용자 단말기(10)에 출력시킬 수 있다. 여기서, 메시지는 "대단한 춤꾼이시군요!!", "음악이 너무 빨라요?" 등과 같은 내용을 포함할 수 있다.On the other hand, the motion processing unit 103 is based on the degree of agreement between the location information and motion information corresponding to the dance motion of the dance video output from the user terminal 10 and the location information and motion information transmitted from the controller. A message about the user's operation can be generated and output to the user terminal 10 . Here, the messages are "What a great dancer!!", "Is the music too fast?" may include such things as

처리 관리부(104)는 동작 처리부(103)에 부여된 점수를 사용자별로 합산하여 저장하고, 합산된 점수를 사용자에 대응하는 사용자 단말기(10)로 전송할 수 있다(S105). 여기서, 사용자는 사용자 단말기(10)를 통해 합산된 점수를 확인할 수 있다. 즉, 사용자는 댄스 영상을 통해 춤을 즐기면서 획득한 점수를 확인할 수 있다.The processing management unit 104 may sum up and store the scores given to the operation processing unit 103 for each user, and transmit the summed scores to the user terminal 10 corresponding to the user (S105). Here, the user can check the summed scores through the user terminal 10 . That is, the user can check the score obtained while enjoying the dance through the dance video.

본 실시예에 따른 인터페이스 시스템(100)은 헤드셋 및 컨트롤러를 포함한 가상 현실 기기를 착용한 사용자와 헤드셋에 장착된 사용자 단말기(10)를 통해 연결될 수 있다. 사용자 단말기(10)에는 댄스 영상이 전송될 수 있다. 여기서, 사용자는 헤드셋을 통해 가상 현실 공간의 형태로 댄스 영상을 확인할 수 있다. 댄스 영상(11)은 댄스 동작과 함께 현재 출력된 댄스 동작 다음의 댄스 동작에 따른 제스처 가이드(12)를 출력할 수 있다. 여기서, 사용자는 댄스 동작 및 제스처 가이드(12)를 함께 확인할 수 잇고, 현재 출력된 댄스 동작을 따라하면서 제스처 가이드(12)(12)통해 다음에 취해야 할 댄스 동작을 예상하고 준비할 수 있다. 이로 인해, 본 실시예에 따른 인터페이스 시스템(100)은 사용자에게 음악 리듬에 맞추어 보다 손쉬우면서도 자연스럽게 댄스를 즐길 수 있도록 할 수 있다.The interface system 100 according to this embodiment may connect a user wearing a virtual reality device including a headset and a controller through the user terminal 10 mounted on the headset. A dance video may be transmitted to the user terminal 10 . Here, the user can check the dance image in the form of a virtual reality space through a headset. The dance image 11 may output a dance motion and a gesture guide 12 according to a dance motion next to the currently output dance motion. Here, the user can check the dance motion and the gesture guide 12 together, and anticipate and prepare a dance motion to be performed next through the gesture guide 12 (12) while following the currently output dance motion. Due to this, the interface system 100 according to the present embodiment can allow the user to enjoy dancing more easily and naturally according to the rhythm of the music.

또한, 본 실시에 따른 인터페이스 시스템(100)은 동작 처리부(103)를 통해 사용자 단말기(10)에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보와, 컨트롤러로부터 전송된 위치 정보 및 동작 정보를 비교하고 상호 간에 일치되는 정도를 바탕으로 하여 사용자의 동작에 대한 점수를 부여할 수 있다. 즉, 컨트롤러가 사용자에 의해 파지된 상태에서, 컨트롤러의 위치 뿐 아니라 컨트롤러의 움직임까지도 점수를 부여하는 데에 이용될 수 있다. 이로 인해, 본 실시예에 따른 인터페이스 시스템(100)은 사용자에게 보다 정확한 동작으로 댄스를 즐길 수 있도록 하여 댄스에 대한 흥미를 지속적으로 제공할 수 있다.In addition, the interface system 100 according to the present embodiment provides the location information and motion information corresponding to the dance motion of the dance video output from the user terminal 10 through the motion processing unit 103, and the location information and motion information transmitted from the controller. It is possible to compare the information and give a score for the user's motion based on the degree of agreement with each other. That is, in a state where the controller is held by the user, not only the location of the controller but also the movement of the controller can be used to give points. For this reason, the interface system 100 according to the present embodiment can continuously provide interest in dancing by allowing the user to enjoy dancing with more precise motions.

한편, 본 실시예에 따른 인터페이스 시스템(100)에서 처리 관리부(104)는 설정치 이상의 합산된 점수에 따른 쿠폰 이미지를 생성하여 저장할 수 있다. 여기서, 쿠폰 이미지는 도형, 숫자, 문자 등의 조합일 수 있으며, QR 코드의 형태일 수 있다.Meanwhile, in the interface system 100 according to the present embodiment, the processing management unit 104 may generate and store a coupon image according to the summed score equal to or greater than a set value. Here, the coupon image may be a combination of shapes, numbers, letters, etc., and may be in the form of a QR code.

또한, 처리 관리부(104)는 설정치 이상의 합산된 점수에 대응되는 사용자 단말기(10)에 쿠폰 이미지를 전송할 수 있다. 사용자는 사용자 단말기(10)로 전송된 쿠폰 이미지를 출력시킬 수 있고, 쿠폰 이미지를 이용하여 물품을 제공받을 수 있거나, 서비스를 이용할 수 있다. 즉, 사용자는 인터페이스 시스템(100)을 통해 상대적으로 높은 점수를 획득한 경우에 쿠폰 이미지를 통한 보상을 제공받을 수 있다.In addition, the processing management unit 104 may transmit a coupon image to the user terminal 10 corresponding to the summed score equal to or greater than the set value. The user may output a coupon image transmitted to the user terminal 10, and may receive a product or use a service using the coupon image. That is, when the user obtains a relatively high score through the interface system 100, a reward through a coupon image may be provided.

쿠폰 이미지 전송의 보안화를 위해, 처리 관리부(104)는 쿠폰 이미지 데이터 신호를 분할하여 복수 개의 쿠폰 이미지 데이터 조각들을 생성하고, 쿠폰 이미지 데이터 조각들의 각각에 어드레스를 부여하며, 어드레스를 고려한 조합 규칙을 생성하는 키크리에이팅 모듈; 복수 개의 쿠폰 이미지 데이터 조각들을 임의의 순서로 사용자 단말기(10)로 전송하는 제 1 디스패칭 모듈; 및 조합 규칙을 사용자 단말기(10)로 전송하는 제 2 디스패칭 모듈을 포함할 수 있다. 사용자 단말기(10)는, 사용자 단말기(10)에 전송된 복수 개의 쿠폰 이미지 데이터 조각들 및 조합 규칙을 전송받고, 조합 규칙에 따라 복수 개의 쿠폰 이미지 데이터 조각들을 조합하여 쿠폰 이미지 데이터를 생성하는 리어셈블링 모듈을 포함할 수 있다.In order to secure coupon image transmission, the processing management unit 104 divides the coupon image data signal to generate a plurality of coupon image data pieces, assigns an address to each of the coupon image data pieces, and sets a combination rule considering the address. Key creation module to generate; A first dispatching module for transmitting a plurality of pieces of coupon image data to the user terminal 10 in an arbitrary order; and a second dispatching module for transmitting the combination rule to the user terminal 10 . The user terminal 10 receives the plurality of coupon image data pieces transmitted to the user terminal 10 and the combination rule, and combines the plurality of coupon image data pieces according to the combination rule to generate coupon image data Reassembly A ring module may be included.

대안적으로, 처리 관리부(104)는, 쿠폰 이미지에 가로 방향으로 n개의 제 1 액시스 라인들을 설정하고, 세로 방향으로 m개의 제 2 액시스 라인들을 설정하는 액시스 라이닝 모듈(여기서, n 및 m은 자연수이다); 제 1 액시스 라인들 및 제 2 액시스 라인들 중 어느 하나를 선택하는 단계, 상기 선택된 액시스 라인(이하 "제 1 선택 액시스 라인"이라 한다)을 중심으로 어느 일 측의 쿠폰 이미지를 어느 한 방향으로 회전시켜 제 1 선택 액시스 라인의 양 측의 쿠폰 이미지 영역들이 2개의 층으로 중첩되도록 하여 제 1 파일드 이미지를 생성하는 단계, 제 1 액시스 라인들 및 제 2 액시스 라인들 중 다른 하나를 선택하는 단계, 상기 선택된 다른 하나의 액시스 라인(이하 "제 2 선택 액시스 라인"이라 한다)을 중심으로 어느 일 측의 제 1 파일드 이미지를 어느 한 방향으로 회전시켜 제 2 선택 액시스 라인의 양 측의 제 1 파일드 이미지 영역들이 2개의 층으로 중첩되도록 하여 제 2 파일드 이미지를 생성하는 단계를 포함하는 파일링 규칙을 수행하는 파일링 모듈; 제 2 파일드 이미지를 사용자 단말기(10)로 전송하는 제 1 디스패칭 모듈; 및 파일링 규칙을 사용자 단말기(10)로 전송하는 제 2 디스패칭 모듈을 포함할 수 있다. 사용자 단말기(10)는, 사용자 단말기(10)에 전송된 제 2 파일드 이미지 및 파일링 규칙을 전송받고, 파일링 규칙에 따라 제 2 파일드 이미지를 복원하여 쿠폰 이미지를 생성하는 리어셈블링 모듈을 포함할 수 있다.Alternatively, the processing management unit 104 may set n first axis lines in the horizontal direction and set m second axis lines in the vertical direction in the coupon image (where n and m are natural numbers). to be); Selecting one of the first axis lines and the second axis lines, rotating the coupon image on one side in one direction around the selected axis line (hereinafter referred to as “first selected axis line”). generating a first filed image by overlapping coupon image regions on both sides of the first selected axis line with two layers, selecting the other one of the first axis lines and the second axis lines; The first files on both sides of the second selected axis line are obtained by rotating the first filed image on one side in one direction with the other selected axis line (hereinafter referred to as “second selected axis line”) as the center. a filing module that performs a filing rule including creating a second filed image by overlapping the raw image regions in two layers; a first dispatching module that transmits the second filed image to the user terminal 10; and a second dispatching module that transmits filing rules to the user terminal 10 . The user terminal 10 includes a reassembly module that receives the second filed image and filing rules transmitted to the user terminal 10, and restores the second filed image according to the filing rules to generate a coupon image can do.

처리 관리부(104)는 쿠폰 이미지를 생성할 수 있다. 처리 관리부(104)는 스토어링 모듈을 포함하며, 스토어링 모듈은 쿠폰 이미지를 데이터베이스에 저장할 수 있다. 데이터베이스는 복수 개의 서브 데이터베이스들의 집합체로 이루어지며, 이러한 서브 데이터베이스들은 물리적으로 분할된 상태로 이루어지는 것이 바람직할 수 있다. 스토어링 모듈은 스니핑 모듈, 코드어싸이닝 모듈, 랜덤 넘버 크리에이팅 모듈 및 디스퍼싱 스토어링 모듈을 포함할 수 있다.The processing management unit 104 may generate a coupon image. The processing management unit 104 includes a storage module, and the storage module may store a coupon image in a database. A database consists of an aggregate of a plurality of sub-databases, and it may be preferable that these sub-databases are physically divided. The storage module may include a sniffing module, a code assigning module, a random number creating module, and a dispersing storage module.

스니핑 모듈은 쿠폰 이미지를 임의로 복수 개의 쿠폰 이미지 조각으로 분할하고, 복수 개로 분할된 쿠폰 이미지 조각 각각을 복수 개의 개별 조각 정보로 설정하게 된다. 예를 들어, 개별 조각 정보는 W1, W2, W3, W4, W5 등으로 이루어질 수 있다. 쿠폰 이미지는 X자 형태 또는 지그재그 형태로 분할되어 분리될 수 있다.The sniffing module arbitrarily divides the coupon image into a plurality of coupon image pieces, and sets each of the divided coupon image pieces as a plurality of individual pieces of information. For example, individual pieces of information may include W1, W2, W3, W4, and W5. The coupon image may be divided and separated in an X-shape or zigzag shape.

코드어싸이닝 모듈은 스니핑 모듈이 상술한 바와 같이 분할한 복수 개의 개별 조각 정보에 상이한 코드를 부여하게 된다. 이러한 코드는 일종의 ID와 같은 것으로서, 예를 들어, W1에는 xfd312, W2에는 yga187, W3에는 frh443, W4에는 eiw451, W5에는 ctj323 등의 코드를 부여하게 된다.The code assigning module assigns different codes to a plurality of individual pieces of information divided by the sniffing module as described above. These codes are a kind of ID, and for example, codes such as xfd312 for W1, yga187 for W2, frh443 for W3, eiw451 for W4, and ctj323 for W5 are given.

이러한 개별 조각 정보인 각각의 W1 내지 W5 들은 개별적인 물리공간인 서브 데이터베이스에 각각 나뉘어 저장되는데, 저장되기 전에 랜덤 넘버 크리에이팅 모듈이 이러한 개별 조각 정보의 코드 즉, W1에는 xfd312, W2에는 yga187, W3에는 frh443, W4에는 eiw451, W5에는 ctj323 각각에 동일한 랜덤 변수를 소정시간 동안 공유시키게 된다.Each of W1 to W5, which is individual piece information, is divided and stored in a sub-database, which is an individual physical space. Before being stored, the random number creating module generates the codes of these individual pieces of information, that is, xfd312 for W1, yga187 for W2, and yga187 for W3. The same random variable is shared for a predetermined time by frh443 in W4, eiw451 in W4, and ctj323 in W5.

예를 들어, i) 11시 30분 00초부터 11시 30분 20초 사이에는 이들 W1의 코드 xfd312, W2의 코드 yga187, W3의 코드 frh443, W4의 코드 eiw451, W5의 코드 ctj323 각각에 동일한 랜덤 변수 wesdispdy2471738를 공유시키며, ii) 11시 30분 20초부터 11시 30분 40초 사이에는 이들 W1의 코드 xfd312, W2의 코드 yga187, W3의 코드 frh443, W4의 코드 eiw451, W5의 코드 ctj323 각각에 동일한 랜덤 변수 qartfrebh5243421를 공유시키게 된다. 이후 반복된다.For example, i) from 11:30:00 to 11:30:20, the same randomness for each of W1's code xfd312, W2's code yga187, W3's code frh443, W4's code eiw451, and W5's code ctj323 It shares the variable wesdispdy2471738, ii) between 11:30:20 and 11:30:40, the code xfd312 of W1, the code yga187 of W2, the code frh443 of W3, the code eiw451 of W4, and the code ctj323 of W5 respectively They share the same random variable qartfrebh5243421. It repeats after that.

쿠폰 이미지 전체에 대한 호출이 있게 되면, 쿠폰 이미지를 구성하는 W1 내지 W5는 재조합의 과정이 필요한데, 이러한 재조합은 해당 순간에 공유하는 랜덤 변수를 통해 매개하여 재조합된다.When the entire coupon image is called, W1 to W5 constituting the coupon image require a recombination process, and this recombination is mediated through a random variable shared at that moment.

디스퍼싱 스토어링 모듈은 상술한 바와 같이, 복수 개의 개별 조각 정보, 예를 들어, W1 내지 W5를 물리적으로 분할된 데이터베이스 각각에 분산하여 저장하게 된다.As described above, the dispersing storage module distributes and stores a plurality of individual pieces of information, for example, W1 to W5, in each physically divided database.

이상 본 명세서에서 설명한 기능적 동작과 본 주제에 관한 실시형태들은 본 명세서에서 개시한 구조들 및 그들의 구조적인 등가물을 포함하여 디지털 전자 회로나 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 혹은 이들 중 하나 이상의 조합에서 구현 가능하다.The functional operations described in this specification and the embodiments related to the present subject matter can be implemented in digital electronic circuits, computer software, firmware, or hardware, including the structures disclosed in this specification and their structural equivalents, or in a combination of one or more of them. Do.

본 명세서에서 기술하는 주제의 실시형태는 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 데이터 처리 장치에 의한 실행을 위하여 또는 그 동작을 제어하기 위하여 유형의 프로그램 매체 상에 인코딩되는 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 유형의 프로그램 매체는 전파형 신호이거나 컴퓨터로 판독 가능한 매체일 수 있다. 전파형 신호는 컴퓨터에 의한 실행을 위하여 적절한 수신기 장치로 전송하기 위한 정보를 인코딩하기 위하여 생성되는 예컨대 기계가 생성한 전기적, 광학적 혹은 전자기 신호와 같은 인공적으로 생성된 신호이다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조합 혹은 이들 중 하나 이상의 조합일 수 있다.Embodiments of the subject matter described herein are directed to one or more computer program products, namely one or more modules of computer program instructions encoded on a tangible program medium for execution by or controlling the operation of a data processing device. can be implemented A tangible program medium may be a propagated signal or a computer readable medium. A propagated signal is an artificially generated signal, eg a machine generated electrical, optical or electromagnetic signal, generated to encode information for transmission by a computer to an appropriate receiver device. The computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a combination of materials that affect a machine readable propagating signal, or a combination of one or more of these.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language, a priori or procedural language, and may be a stand-alone program or module; It may be deployed in any form including components, subroutines, or other units suitable for use in a computer environment.

컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다.A computer program does not necessarily correspond to a file in a file system. A program may be in a single file provided to the requested program, or in multiple interacting files (e.g., one or more modules, subprograms, or files that store portions of code), or parts of files that hold other programs or data. (eg, one or more scripts stored within a markup language document).

컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터 또는 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program may be deployed to be executed on one computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network.

부가적으로, 본 명세서에서 기술하는 논리 흐름과 구조적인 블록도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다. Additionally, the logic flows and structural block diagrams described herein describe corresponding actions and/or specific methods supported by corresponding functions and steps supported by the disclosed structural means, and corresponding software. It can also be used to build structures and algorithms and their equivalents.

본 명세서에서 기술하는 프로세스와 논리 흐름은 입력 데이터 상에서 동작하고 출력을 생성함으로써 기능을 수행하기 위하여 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그래머블 프로세서에 의하여 수행 가능하다.The processes and logic flows described herein can be performed by one or more programmable processors executing one or more computer programs to perform functions by operating on input data and generating output.

컴퓨터 프로그램의 실행에 적합한 프로세서는, 예컨대 범용 및 특수 목적의 마이크로프로세서 양자 및 어떤 종류의 디지털 컴퓨터의 어떠한 하나 이상의 프로세서라도 포함한다. 일반적으로, 프로세서는 읽기 전용 메모리나 랜덤 액세스 메모리 혹은 양자로부터 명령어와 데이터를 수신할 것이다. Processors suitable for the execution of computer programs include, for example, both general and special purpose microprocessors and any one or more processors of any kind of digital computer. Generally, a processor will receive instructions and data from either read-only memory or random access memory or both.

컴퓨터의 핵심적인 요소는 명령어와 데이터를 저장하기 위한 하나 이상의 메모리 장치 및 명령을 수행하기 위한 프로세서이다. 또한, 컴퓨터는 일반적으로 예컨대 자기, 자기광학 디스크나 광학 디스크와 같은 데이터를 저장하기 위한 하나 이상의 대량 저장 장치로부터 데이터를 수신하거나 그것으로 데이터를 전송하거나 혹은 그러한 동작 둘 다를 수행하기 위하여 동작가능 하도록 결합되거나 이를 포함할 것이다. 그러나, 컴퓨터는 그러한 장치를 가질 필요가 없다.The core elements of a computer are one or more memory devices for storing instructions and data and a processor for executing instructions. A computer is also generally coupled to be operable to receive data from or transfer data to one or more mass storage devices for storing data, such as magnetic, magneto-optical or optical disks, or to perform both. will be or will contain However, a computer need not have such a device.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. The present description presents the best mode of the invention and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The specification thus prepared does not limit the invention to the specific terms presented.

따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있다는 점을 밝힌다.Therefore, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art may make alterations, changes, and modifications to the present examples without departing from the scope of the present invention. In short, it is not necessary to separately include all the functional blocks shown in the drawings or follow all the steps shown in the drawings in the order shown in order to achieve the intended effect of the present invention, even if not, the technical skills of the present invention described in the claims Indicate that it may fall within the range.

100: 인터페이스 시스템
101: 영상 정보부
102: 영상 제공부
103: 동작 처리부
104: 처리 관리부
100: interface system
101: image information unit
102: video providing unit
103: motion processing unit
104: processing management unit

Claims (8)

사용자 단말기와 네트워크를 통해 연결되는 인터페이스 시스템에 있어서,
복수 개의 댄스 영상을 저장하고, 영상 목록을 생성하는 영상 정보부;
영상 목록을 사용자 단말기로 전송하고, 사용자 단말기로부터 영상 목록에서 선택된 댄스 영상에 따른 선택 신호를 전송받고, 선택 신호에 따른 댄스 영상을 사용자 단말기로 전송하는 영상 제공부;
사용자 단말기에서 출력되는 댄스 영상의 댄스 동작과 사용자의 동작을 비교하고, 사용자의 동작에 따른 점수를 부여하는 동작 처리부; 및
동작 처리부에서 부여된 점수를 사용자별로 합산하여 저장하고, 합산된 점수를 사용자 단말기로 전송하는 처리 관리부를 포함하되,
사용자는 사용자 단말기를 장착한 가상 현실 기기의 헤드셋을 착용하고, 가상 현실 기기의 컨트롤러를 양손에 파지한 상태에서, 댄스 영상을 따라하며,
처리 관리부는 설정치 이상의 합산된 점수에 따른 쿠폰 이미지를 생성하여 저장하고, 설정치 이상의 합산된 점수에 대응되는 사용자 단말기에 쿠폰 이미지를 전송하고,
사용자는 사용자 단말기로 전송된 쿠폰 이미지를 출력시킬 수 있고, 쿠폰 이미지를 이용하여 물품을 제공받을 수 있으며,
처리 관리부는 스토어링 모듈을 포함하며,
스토어링 모듈은 쿠폰 이미지를 임의로 복수 개의 이미지 조각으로 분할하고, 복수 개로 분할된 이미지 조각 각각을 복수 개의 개별 조각 정보들로 설정하는 스니핑 모듈; 및 개별 조각 정보들 각각에 문자와 숫자로 이루어진 상이한 코드들을 부여하는 코드어싸이닝 모듈을 포함하되, 상기 개별 조각 정보들은 서브 데이터베이스들에 각각 나뉘어 저장되며,
스토어링 모듈은 개별 조각 정보들이 서브 데이터베이스들에 각각 나뉘어 저장되기 전에, 기설정된 시간 간격 단위로 생성되는, 문자와 숫자로 이루어진 랜덤 변수를, 개별 조각 정보들에 부여된 상이한 코드들 각각에 소정 시간동안 공유시키는 랜덤 넘버 크리에이팅 모듈; 및 상기 랜덤 변수가 공유된 개별 조각 정보들을, 물리적으로 분할된 서브 데이터베이스들 각각에 분산하여 저장시키는 디스퍼싱 스토어링 모듈을 더 포함하며, 쿠폰 이미지 전체에 대한 호출이 발생하면, 쿠폰 이미지를 구성하는 개별 조각 정보들은 상기 공유된 랜덤 변수를 매개로 하여 재조합되는 것을 특징으로 하는 인터페이스 시스템.
In the interface system connected to the user terminal through a network,
An image information unit for storing a plurality of dance images and generating an image list;
an image providing unit that transmits a video list to a user terminal, receives a selection signal according to a dance video selected from the video list from the user terminal, and transmits the dance video according to the selection signal to the user terminal;
a motion processing unit that compares a dance motion of a dance image output from a user terminal with a user's motion and assigns a score according to the user's motion; and
Including a processing management unit for summing and storing the scores given by the motion processing unit for each user and transmitting the summed scores to the user terminal,
The user wears a headset of a virtual reality device equipped with a user terminal, and follows the dance video while holding the controller of the virtual reality device with both hands.
The processing management unit generates and stores a coupon image according to the summed score equal to or greater than the set value, and transmits the coupon image to the user terminal corresponding to the summed score equal to or greater than the set value;
The user can output the coupon image transmitted to the user terminal and receive the product using the coupon image,
The processing management unit includes a storage module,
The storage module includes a sniffing module that arbitrarily divides a coupon image into a plurality of image pieces and sets each of the divided image pieces as a plurality of individual pieces of information; and a code assigning module for assigning different codes consisting of letters and numbers to individual pieces of information, wherein the individual pieces of information are divided into sub databases and stored,
The storing module assigns random variables consisting of letters and numbers, generated in units of predetermined time intervals, to each of the different codes assigned to the individual pieces of information for a predetermined time before the individual pieces of information are divided and stored in the sub-databases. Random number creation module to share while; and a dispersing storage module for dispersing and storing the individual pieces of information shared with the random variable in each of the physically divided sub-databases, and when a call to the entire coupon image occurs, constituting the coupon image The interface system, characterized in that the individual pieces of information are recombined through the shared random variable.
제1항에 있어서,
댄스 영상은 음악, 음악에 대응되는 댄스 동작에 따른 동영상 및 각각의 댄스 동작에 대응하도록 복수 개의 제스처 가이드를 포함하고,
각각의 제스처 가이드는 댄스 동작의 자세에 대응하는 베이스 가이드 및 댄스 동작의 움직임에 대응하는 움직임 가이드를 포함하는 것을 특징으로 하는 것을 특징으로 하는 인터페이스 시스템.
According to claim 1,
The dance video includes music, a video according to a dance motion corresponding to the music, and a plurality of gesture guides corresponding to each dance motion,
Each gesture guide includes a base guide corresponding to a posture of a dance motion and a movement guide corresponding to a movement of the dance motion.
제2항에 있어서,
댄스 영상이 사용자 단말기에 출력될 때, 제스처 가이드는 사용자 단말기에 출력되고 있는 댄스 영상의 댄스 동작 다음의 댄스 동작에 대응하도록 출력되는 것을 특징으로 하는 인터페이스 시스템.
According to claim 2,
When the dance video is output to the user terminal, the interface system characterized in that the gesture guide is output to correspond to the next dance motion of the dance video being output to the user terminal.
제2항에 있어서,
컨트롤러는 자이로 센서를 포함하고, 사용자에 의해 파지된 상태에서 사용자의 동작에 따라 실시간으로 위치 정보 및 동작 정보를 생성하여 동작 처리부로 전송하며,
동작 처리부는 영상 정보부에 연결되어, 각각의 댄스 영상의 댄스 동작에 따른 위치 정보 및 동작 정보를 추출하여 저장하고,
동작 처리부는 사용자 단말기에서 출력되는 댄스 영상의 댄스 동작에 대응되는 위치 정보 및 동작 정보와 컨트롤러로부터 전송된 위치 정보 및 동작 정보를 비교하고 상호 간에 일치되는 정도를 바탕으로 하여 사용자의 동작에 대한 점수를 부여하는 것을 특징으로 하는 인터페이스 시스템.
According to claim 2,
The controller includes a gyro sensor, generates location information and motion information in real time according to the user's motion in a state held by the user, and transmits them to the motion processing unit;
The motion processing unit is connected to the video information unit, extracts and stores location information and motion information according to the dance motion of each dance video,
The motion processing unit compares the location information and motion information corresponding to the dance motion of the dance video output from the user terminal and the location information and motion information transmitted from the controller and scores the user's motion based on the degree of agreement between them. An interface system characterized in that for imparting.
제4항에 있어서,
컨트롤러의 위치 정보는 컨트롤러의 위치에 따른 좌표값을 기초로 하여 생성되고, 컨트롤러의 동작 정보는 컨트롤러의 움직임에 따른 각속도를 기초로 하여 생성되는 것을 특징으로 하는 인터페이스 시스템.
According to claim 4,
The interface system characterized in that the location information of the controller is generated based on the coordinate value according to the position of the controller, and the operation information of the controller is generated based on the angular velocity according to the movement of the controller.
제2항에 있어서,
제스처 가이드의 움직임 가이드는 신체 위치에 따라 상이한 색상으로 출력되는 것을 특징으로 하는 인터페이스 시스템.
According to claim 2,
The interface system characterized in that the motion guide of the gesture guide is output in different colors according to the body position.
삭제delete 삭제delete
KR1020200144202A 2020-09-07 2020-11-02 Interface system and method according to provision of gesture guide interface KR102487289B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200114106 2020-09-07
KR20200114106 2020-09-07

Publications (2)

Publication Number Publication Date
KR20220032443A KR20220032443A (en) 2022-03-15
KR102487289B1 true KR102487289B1 (en) 2023-01-11

Family

ID=80817072

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200144202A KR102487289B1 (en) 2020-09-07 2020-11-02 Interface system and method according to provision of gesture guide interface
KR1020210019330A KR102528526B1 (en) 2020-09-07 2021-02-10 Product processing process application system according to application of 3d modeling fbx automation transformation technology

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210019330A KR102528526B1 (en) 2020-09-07 2021-02-10 Product processing process application system according to application of 3d modeling fbx automation transformation technology

Country Status (2)

Country Link
KR (2) KR102487289B1 (en)
WO (1) WO2022173084A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102577793B1 (en) * 2022-07-22 2023-09-12 주식회사 트리플 System for generating 3D product showcase

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102156243B1 (en) * 2020-03-10 2020-09-15 피기용 Villa management system
KR102166516B1 (en) * 2020-07-27 2020-10-15 김밀알 Automatic document creation system based on artificial intelligence

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4096803B2 (en) * 2003-05-01 2008-06-04 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing program, and recording medium
KR20110121451A (en) * 2010-04-30 2011-11-07 김구동 Automatic mold desing system using 3 dimension cad data
KR101909925B1 (en) * 2016-01-20 2018-10-22 한국전자통신연구원 Smart manufacturing system and method for mass personalization
KR20170140496A (en) * 2016-06-13 2017-12-21 이현희 Mold design system using cad data
CN108629850B (en) * 2017-03-24 2021-06-22 长沙眸瑞网络科技有限公司 Mobile terminal display interaction realization method of 3D model
KR102097534B1 (en) * 2018-07-25 2020-04-06 주식회사 키네틱랩 Method and apparatus for providing user’s motion recognition based dance game
US10984579B2 (en) * 2018-08-27 2021-04-20 Microsoft Technology Licensing, Llc Playback for embedded and preset 3D animations
KR101966040B1 (en) * 2019-01-25 2019-04-04 정주선 Apparatus for dance game and method for dance game using thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102156243B1 (en) * 2020-03-10 2020-09-15 피기용 Villa management system
KR102166516B1 (en) * 2020-07-27 2020-10-15 김밀알 Automatic document creation system based on artificial intelligence

Also Published As

Publication number Publication date
KR20220032454A (en) 2022-03-15
WO2022173084A1 (en) 2022-08-18
KR102528526B1 (en) 2023-05-04
KR20220032443A (en) 2022-03-15

Similar Documents

Publication Publication Date Title
Chang et al. 6G-enabled edge AI for metaverse: Challenges, methods, and future research directions
Fu et al. A survey of blockchain and intelligent networking for the metaverse
Satyanarayanan et al. An open ecosystem for mobile-cloud convergence
Ren et al. Edge ar x5: An edge-assisted multi-user collaborative framework for mobile web augmented reality in 5g and beyond
Bhattacharya et al. Coalition of 6G and blockchain in AR/VR space: Challenges and future directions
KR102487289B1 (en) Interface system and method according to provision of gesture guide interface
CN113079216A (en) Cloud application implementation method and device, electronic equipment and readable storage medium
Zawish et al. AI and 6G into the metaverse: Fundamentals, challenges and future research trends
Cheng Metaverse
Chen et al. Analysis of augmented reality application based on cloud computing
Han et al. CoMIC: A collaborative mobile immersive computing infrastructure for conducting multi-user XR research
KR102470837B1 (en) Spatial analysis method using cctv image range in 3d space
KR20220031977A (en) Untact sports community system
Prendinger et al. Evaluation of 2D and 3D interest management techniques in the distributed virtual environment DiVE
CN103701681A (en) Information processing method and electronic equipment
KR20220159968A (en) Conference handling method and system using avatars
Ahn et al. Personalized augmented reality via fog-based imitation learning
CN101895586A (en) B/S mode-based multimedia remote seamless transfer method
Ismail et al. Metaverse: A Vision, Architectural Elements, and Future Directions for Scalable and Realtime Virtual Worlds
Peng The research and design Of 3D Web guide system based On WebGL
KR101564090B1 (en) Method and system for providing online game
KR102467051B1 (en) Exercise system for allowing user to exercise in the correct posture
AT&T
Grohmann et al. Catch me if you can: Demonstration of publicly remote controlled robots
Lemic et al. User mobility simulator for full-immersive multiuser virtual reality with redirected walking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right