KR101715651B1 - System for providing interaction contents users location-based using virtual cloud - Google Patents

System for providing interaction contents users location-based using virtual cloud Download PDF

Info

Publication number
KR101715651B1
KR101715651B1 KR1020160010667A KR20160010667A KR101715651B1 KR 101715651 B1 KR101715651 B1 KR 101715651B1 KR 1020160010667 A KR1020160010667 A KR 1020160010667A KR 20160010667 A KR20160010667 A KR 20160010667A KR 101715651 B1 KR101715651 B1 KR 101715651B1
Authority
KR
South Korea
Prior art keywords
user
character
content
wearable device
image
Prior art date
Application number
KR1020160010667A
Other languages
Korean (ko)
Inventor
최이권
김은진
정현철
김유화
Original Assignee
모젼스랩(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩(주) filed Critical 모젼스랩(주)
Priority to KR1020160010667A priority Critical patent/KR101715651B1/en
Application granted granted Critical
Publication of KR101715651B1 publication Critical patent/KR101715651B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a system for providing multiple user location-based content interaction by using virtual cloud. More specifically, the present invention relates to a system for providing a multiple user location-based content interaction by using a vertical cloud, which generates three-dimension (3D) content by receiving an input from a user wearing a wearable device and outputs the generated 3D content according to a location of the user. According to the present invention, a system for providing multiple user location-based content interaction by using virtual cloud includes a sub-device, a main processing unit, and an image projection device. The sub-device generates a 3D character by receiving an input from a user. The main processing unit generates output content including the 3D content received from the sub-device. The image projection apparatus receives the output content from the main processing unit and projects the received output content. Therefore, according to the present invention, the 3D character, which is generated by correcting a line inputted from the user, is outputted according to a location of a wearable device worn by the user, so that multiple users simultaneously enjoy their contents.

Description

가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템 { SYSTEM FOR PROVIDING INTERACTION CONTENTS USERS LOCATION-BASED USING VIRTUAL CLOUD }TECHNICAL FIELD [0001] The present invention relates to a system for providing a content interaction according to a multi-user location using a virtualization cloud,

본 발명은 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템에 관한 것으로, 더욱 상세하게는, 웨어러블 디바이스를 착용한 사용자로부터 입력을 수신받아 3차원 컨텐츠를 생성하고, 생성된 3차원 컨텐츠를 사용자의 위치에 따라 출력하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템에 관한 것이며, 미래창조과학부의 첨단융복합콘텐츠기술개발사업 ‘가상화기반 실감형 창의 체험 기능성 콘텐츠 교육 서비스 기술 개발’ 과제 (수행기간 2015.03.01 ~ 2017.02.28)를 수행함에 있어 산출된 결과물에 대한 발명이다.
The present invention relates to a system for providing a content interaction according to a multi-user location using a virtual cloud, and more particularly, to a system for providing content interaction with a user by receiving input from a user wearing a wearable device and generating three- The present invention relates to a system for providing content interaction according to a location of a multi-user using a virtualized cloud outputting according to a location of a virtual reality cloud, And the execution period from 2015.03.01 to 2017.02.28).

최근에는 2차원(2-dimensional: 2D) 컨텐츠에 비해 보다 현실감과 입체감을 주는 3차원(3-dimensional: 3D) 컨텐츠에 대한 관심이 증가하여, 3차원 컨텐츠가 많이 제작되고, 다양한 응용 분야에서 사용되고 있다. In recent years, there has been a growing interest in 3-dimensional (3D) content providing more realism and stereoscopic feeling than 2-dimensional (2D) content, and a large amount of 3-dimensional content is produced and used in various applications have.

특히, 옷이나 시계, 안경, 액세서리처럼 자연스럽게 몸에 착용하고 다닐 수 있는 디바이스인 웨어러블 디바이스와 접목되어 사용되는 경우가 많아, 웨어러블 디바이스와 접목된 3차원 컨텐츠에 대한 기술이 많이 개발되고 있는 실정이다.In particular, many wearable devices, such as clothes, watches, glasses, and accessories, are often used in connection with a wearable device, which is a device that can be worn on the wearer's body.

이에 따른 결과로, 종래기술 등록특허 10-1577216호에는 3축 이상의 방향으로 거리를 측정하고, 측정된 거리 및 3차원 공간 정보를 이용하여 해당 위치 기반 컨텐츠 제공 장치의 위치를 계산한 후, 계산된 위치에 대응하는 정보를 디스플레이 위에 표시하는 기술이 개발된 바 있다.As a result, in the prior art 10-1577216, the distance is measured in three or more axes directions, the position of the position-based content providing apparatus is calculated using the measured distance and the three-dimensional spatial information, A technique has been developed in which information corresponding to a position is displayed on a display.

그러나 종래기술은, 안경 형태의 웨어러블 디바이스에 컨텐츠가 디스플레이되는 것이므로, 상기 웨어러블 디바이스 착용자만이 컨텐츠를 제공받을 수 있는 문제점이 있었다.
However, in the related art, content is displayed on a wearable device in the form of glasses, so that only the wearable wearer can receive the content.

(001) 대한민국 등록특허 10-1577216호(001) Korean Patent No. 10-1577216

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 3차원 캐릭터를 사용자로부터 입력받은 선을 보정하여 생성하고, 상기 3차원 캐릭터를 사용자가 착용한 웨어러블 디바이스의 위치에 따라 출력할 수 있는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems of the prior art, and it is an object of the present invention to provide an apparatus and method for generating a 3D character by correcting a line received from a user, And to provide a system for providing a content interaction according to a multi-user location using an output virtualization cloud.

그리고 본 발명은 개방지점 쌍 선정과 교차점 판별을 통해 사용자로부터 입력된 개곡선을 폐곡선으로 보정하여 이미지를 생성할 수 있는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템을 제공하는 것이다.
The present invention also provides a system for providing a content interaction according to a multi-user location using an virtual cloud capable of generating an image by correcting an open curve input from a user into a closed curve through selection of an open point pair and an intersection determination.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면 본 발명은, 사용자로부터 입력을 수신받아 3D 캐릭터를 생성하는 서브디바이스와; 상기 서브디바이스로부터 수신받은 상기 3D 캐릭터가 포함된 출력컨텐츠를 생성하는 메인처리유닛; 그리고 상기 메인처리유닛으로부터 상기 출력컨텐츠를 수신받아 투사하는 영상투사장치를 포함하여 구성되는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템을 포함한다.According to an aspect of the present invention, there is provided a sub-device comprising: a sub-device for receiving an input from a user and generating a 3D character; A main processing unit for generating output contents including the 3D characters received from the sub-device; And an image projecting device for receiving the output content from the main processing unit and projecting the output content, and a system for providing a content interaction according to a multi-user location using a virtual cloud.

그리고 상기 메인처리유닛은, 상기 서브디바이스로부터 3D 캐릭터를 수신받고, 상기 영상투사장치와 통신하는 송수신모듈과; 배경영상에 상기 서브디바이스로부터 수신받은 3D 캐릭터가 포함된 상기 출력컨텐츠를 생성하는 영상구성모듈과; 상기 배경영상을 저장하는 배경영상DB와 상기 배경영상과 3D 캐릭터가 포함된 출력컨텐츠를 저장하는 출력컨텐츠DB를 포함하여 구성되는 데이터베이스; 그리고 상기 데이터베이스에 저장된 배경영상을 독출하여 분할 영상을 생성하고, 상기 영상구성모듈로 하여금 투사할 출력컨텐츠를 생성하여, 상기 출력컨텐츠를 상기 영상투사장치로 전달하는 제어모듈을 포함하여 구성될 수 있다.The main processing unit includes a transmission / reception module that receives a 3D character from the sub device and communicates with the image projection device; An image configuration module for generating the output content including a 3D character received from the sub-device in a background image; A background image DB for storing the background image, and an output content DB for storing the background image and output contents including the 3D character; And a control module for reading the background image stored in the database to generate a divided image, generating an output content to be projected by the image configuration module, and transmitting the output content to the image projection apparatus .

또한, 상기 서브디바이스는, 2D 캐릭터 또는 2D 오브젝트 이미지와 사용자의 입력에 따라 생성된 3D 캐릭터를 출력하는 출력부와; 사용자로부터 원하는 2D 캐릭터 선택 입력 또는 2D 오브젝트 이미지 입력선을 입력받는 입력부와; 사용자로부터 입력된 입력선을 폐곡선 생성, 벡터보정, 기준단면 산출을 통해 3D 오브젝트를 산출하여 3D 캐릭터를 생성하는 생성부와; 상기 생성부에서 생성한 3D 캐릭터를 상기 메인처리유닛으로 송신하는 송수신부와; 3D 오브젝트를 산출하기 위해 개방지점의 존재 여부, 교차점 존재 여부, 교차점 거리 증감 여부, 다수 교차 연장선 존재 여부 그리고 시작점 도착 여부를 판별하는 제어부; 그리고 사용자로부터 입력된 입력선을 보정하여 3D오브젝트로 생성된 결과물을 저장하는 3D오브젝트저장부와 상기 3D오브젝트들로 구성된 3D 캐릭터들을 저장하는 3D캐릭터저장부를 포함하여 구성되는 저장부를 포함하여 구성될 수 있다.The sub-device may include an output unit for outputting a 2D character or a 2D object image and a 3D character generated according to a user's input; An input unit for inputting a desired 2D character selection input or a 2D object image input line from a user; A generation unit for generating a 3D character by calculating a 3D object through a closed curve generation, a vector correction, and a calculation of a reference section input line input from a user; A transmission / reception unit for transmitting the 3D character generated by the generation unit to the main processing unit; A control unit for determining existence of an open point, presence or absence of an intersection point, whether or not an intersection distance is increased or decreased, existence of a multiple intersection extension line, and arrival of a starting point to calculate a 3D object; And a storage unit configured to include a 3D object storage unit for storing an output result created by the 3D object by correcting an input line input from a user and a 3D character storage unit for storing 3D characters composed of the 3D objects. have.

한편, 상기 메인처리유닛은, 상기 서브디바이스로부터 3D 캐릭터를 수신받고; 배경영상에 3D 캐릭터를 포함한 출력컨텐츠를 생성하여 저장한 후; 상기 영상투사장치로 상기 출력컨텐츠를 전달할 수 있다.On the other hand, the main processing unit may include: receiving 3D characters from the sub device; Generating and storing output content including a 3D character in a background image; And may transmit the output content to the image projection apparatus.

그리고 본 발명은 사용자의 신체 일부에 착용되고, 이동 위치를 측정하기 위한 가속도 센서가 내장되며, 디바이스 식별코드가 부여된 웨어러블디바이스와; 사용자의 움직임과 형태 그리고 상기 웨어러블디바이스의 초기 위치를 인식하는 동작감지장치를 더 포함하여 구성될 수 있다.The present invention also provides a wearable device that is worn on a part of a user's body and has an acceleration sensor for measuring a movement position and is given a device identification code; And a motion detection device for recognizing the movement and the shape of the user and the initial position of the wearable device.

또한, 상기 서브디바이스는, 상기 디바이스 식별코드와 상기 웨어러블디바이스 사용자로부터 부여된 사용자 식별코드를 매칭하여 저장하고; 상기 사용자 식별코드는, E-mail 또는 SNS(Social Network Services)계정 중 어느 하나 이상을 포함하여 구성될 수 있다.In addition, the sub-device may match the device identification code with a user identification code assigned from the wearable device user and store the same; The user identification code may be configured to include at least one of an E-mail or an SNS (Social Network Services) account.

한편, 상기 메인처리유닛은, 상기 웨어러블디바이스의 위치에 따라 배경영상에서의 3D 캐릭터 위치정보를 산출하는 산출모듈을 더 포함하여 구성되고: 상기 영상구성모듈은 상기 산출모듈이 산출한 3D 캐릭터의 위치정보에 따라 상기 배경영상에 3D 캐릭터가 포함된 영상을 구성될 수 있다.The main processing unit may further include a calculation module for calculating 3D character position information in the background image according to the position of the wearable device. The image composition module may calculate the position of the 3D character calculated by the calculation module, According to the information, the background image may include the 3D character.

그리고 상기 메인처리유닛은, 상기 동작감지장치로부터 상기 웨어러블디바이스의 초기 위치를 수신받고; 상기 웨어러블디바이스로부터 3차원 공간에서의 이동값을 수신받아; 상기 웨어러블디바이스의 초기 위치와 상기 이동값을 병합하여 상기 웨어러블디바이스의 위치를 산출할 수 있다.And the main processing unit receives an initial position of the wearable device from the motion detection device; Receiving a movement value in the three-dimensional space from the wearable device; The position of the wearable device can be calculated by merging the initial position of the wearable device and the movement value.

또한, 상기 메인처리유닛은, 사용자 별 컨텐츠를 저장하는 사용자 별 컨텐츠DB를 더 포함하여 구성되고: 상기 사용자 별 컨텐츠는, 상기 동작감지장치로부터 사용자가 인식된 시간부터 상기 웨어러블디바이스가 종료되기 전까지의 상기 출력컨텐츠를 포함하여 생성될 수 있다.The main processing unit may further include a content DB for each user storing content for each user. The content for each user may include at least one of a time from when the user is recognized by the motion sensing device, And may include the output content.

그리고 상기 사용자 별 컨텐츠는, 상기 서브디바이스에서 3D 캐릭터를 생성하는 과정 영상을 더 포함하여 생성될 수 있다.The user-specific content may be generated by further including a process of generating a 3D character in the sub-device.

한편, 본 발명은 (A) 출력부가 2D 캐릭터 및 2D 오브젝트를 출력하여, 입력부가 사용자로부터 입력선을 수신받는 단계와; (B) 생성부가 3D 오브젝트를 생성하는 단계와; (C) 상기 생성부가 상기 3D 오브젝트를 포함하여 3D 캐릭터를 생성하는 단계; 그리고 (D) 상기 제어부가 가상 공간에서 생성된 상기 3D 캐릭터를 상기 출력부 상에 구현하는 단계를 포함하여 수행되는 방법을 포함한다.According to another aspect of the present invention, there is provided an image processing method comprising the steps of: (A) outputting a 2D character and a 2D object, the input unit receiving an input line from a user; (B) generating a 3D object by the generating unit; (C) generating the 3D character by the generating unit including the 3D object; And (D) the control unit implementing the 3D character generated in the virtual space on the output unit.

그리고 제(B)단계의 3D 오브젝트 생성은, 상기 입력선의 폐곡선 생성, 벡터보정, 기준단면 산출 및 3D 오브젝트 산출을 통해 생성될 수 있다.The 3D object generation in the step (B) may be performed through the generation of a closed curve of the input line, a vector correction, a calculation of a reference section, and a calculation of a 3D object.

또한, 상기 폐곡선 생성은, 상기 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 각 개방지점이 동일 교차점으로부터 연장된 입력선 단부인 경우, 상기 교차점과 개방지점 간의 연장선을 삭제하여 폐곡선이 생성될 수 있다.In the closed curve generation, when there is an open point pair connectable to the input line, and each open point is an input line end extending from the same intersection point, an extension line between the intersection point and the open point is deleted to generate a closed curve .

한편, 상기 폐곡선 생성은, 상기 입력선에 대하여 개방지점이 존재하고, 상기 개방지점과 근접거리 내에 속한 타 개방지점이 존재하지 않는 경우, 상기 교차점과 개방지점 간의 연장선을 삭제하여 폐곡선이 생성될 수 있다.The closed curve generation may include generating a closed curve by deleting an extension line between the intersection point and the open point when there is an open point with respect to the input line and there is no other open point belonging to a close distance from the open point have.

그리고 상기 폐곡선 생성은, 상기 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 상기 개방지점 타단부 상에 교차점이 존재하지 않는 경우, 상기 개방지점 사이를 벡터보정에 의해 연결하여 폐곡선이 생성될 수 있다.In the closed curve generation, there is an open point pair connectable to the input line, and when there is no intersection point on the other open end point, a closed curve may be generated by connecting the open points by vector correction have.

또한, 상기 폐곡선 생성은, 상기 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 각 개방지점의 입력선이 서로 다른 교차점으로부터 연장된 경우, 상기 개방지점 사이를 벡터보정에 의해 연결하여 폐곡선이 생성될 수 있다.In the closed curve generation, when there is an open point pair connectable to the input line and the input lines of the open points extend from different intersections, a closed curve is generated by connecting the open points by vector correction .

한편, 상기 벡터보정은, 상기 개방지점과 연결된 연장선의 벡터 방향으로 상기 개방지점을 연장하여, 상기 개방지점 간의 거리를 최소화하는 것일 수 있다.On the other hand, the vector correction may be to extend the open point in the vector direction of the extension line associated with the open point, to minimize the distance between the open points.

그리고 상기 벡터보정은, (B21) 상기 생성부가 최초 벡터를 연장하는 단계와; (B22) 상기 제어부가 개방지점 간의 거리 감소 여부를 판단하는 단계와; (B23) 상기 제B22단계의 판단 결과, 상기 개방지점 간의 거리가 감소한 경우, 상기 생성부가 순방향으로 벡터를 연장하는 단계와; (B24) 상기 제B23단계 이후, 상기 제어부가 상기 개방지점 간의 거리의 증가 여부를 판단하는 단계; 그리고 (B25) 상기 제B24단계의 판단 결과, 상기 개방지점 간의 거리가 증가한 경우, 상기 생성부가 최종 연장 단부 지점을 선형 연결하는 단계를 포함하여 수행될 수 있다.(B21) the generating unit extends the initial vector; (B22) determining whether the control unit decreases the distance between the open points; (B23) if the distance between the open points is decreased as a result of step B22, the generator extends the vector in the forward direction; (B24) after the step B23, the controller determines whether the distance between the open points is increased or not; And (B25) when the distance between the open points is increased as a result of the determination in step B24, the generating unit may linearly connect the last extension end point.

또한, 상기 벡터보정은, (B26) 상기 제B22단계의 판단 결과, 상기 개방지점 간의 거리가 증가한 경우, 상기 생성부가 역방향으로 벡터를 단축하는 단계를 더 포함하여 수행될 수 있다.In addition, the vector correction may further include: (B26) shortening the vector in the reverse direction when the distance between the open points is increased as a result of the determination in step B22.

한편, 상기 기준단면 산출은, (B31) 상기 제어부가 입력선의 교차점을 산출하고 저장하는 단계와; (B32) 상기 제어부가 시작점을 설정하는 단계와; (B33) 상기 제어부가 시작점과 교차점 사이의 연장선을 따라 이동하여 경계선을 설정하는 단계와; (B34) 상기 제어부가 경계선의 시작점 도착 여부를 판단하는 단계와; (B35) 상기 제B34단계의 판단 결과, 상기 경계선이 시작점에 도착하지 않은 경우, 다수 교차 연장선의 존재 여부를 판단하는 단계와; (B36) 상기 제B35단계의 판단 결과, 다수 교차 연장선이 존재하는 경우, 상기 제어부가 외측 연장선을 따라 이동하여 경계선을 설정하는 단계; 그리고 (B37) 상기 제B34단계의 판단 결과, 상기 경계선이 시작점에 도착한 경우, 상기 제어부가 기준단면을 산출하는 단계를 포함하여 수행될 수 있다.Meanwhile, the reference section calculation may include: (B31) calculating and storing an intersection point of the input line by the control unit; (B32) the control unit setting a starting point; (B33) moving the control unit along an extension line between a start point and an intersection point to set a boundary line; (B34) determining whether the control unit has arrived at a starting point of a boundary line; (B35) if it is determined in step B34 that the boundary line does not arrive at the starting point, determining whether there is a multiple intersection extension line; (B36) if it is determined in step B35 that there is a plurality of intersection extension lines, the controller moves along the outer extension line to set a boundary line; And (B37) if the boundary line has arrived at the start point as a result of the determination in step B34, the control section may calculate the reference cross section.

그리고 상기 3D 오브젝트 산출은, (B41) 상기 제어부가 중심점을 산출하는 단계와; (B42) 상기 제어부가 상기 중심점의 수직 상승값을 산출하는 단계와; (B43) 상기 제어부가 상기 중심점의 수직 기준점을 산출하는 단계와; (B44) 상기 제어부가 분할평면들을 산출하는 단계와; (B45) 상기 분할평면들에 대해 상기 제B41단계 내지 제B44단계가 반복해서 수행될 수 있다.The 3D object calculation may include: (B41) calculating the center point by the control unit; (B42) the control unit calculating a vertical rising value of the center point; (B43) the control unit calculating a vertical reference point of the center point; (B44) the control section calculating division planes; (B45) The steps B41 to B44 may be repeatedly performed on the divided planes.

한편, 본 발명에 의한 폐곡선 생성은, 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 각 개방지점이 동일 교차점으로부터 연장된 입력선 단부인 경우, 상기 교차점과 개방지점 간의 연장선을 삭제하여 폐곡선을 생성하는 단계를 포함하여 수행되는 방법을 포함한다.On the other hand, in the closed curve generation according to the present invention, when there is an open point pair connectable to the input line, and each open point is an input line end extending from the same intersection point, the extension line between the intersection point and the open point is deleted, The method comprising the steps of:

그리고 상기 폐곡선 생성은, 상기 입력선에 대하여 개방지점이 존재하고, 상기 개방지점과 근접거리 내에 속한 타 개방지점이 존재하지 않는 경우, 상기 교차점과 개방지점 간의 연장선을 삭제하여 폐곡선이 생성될 수 있다.The closed curve generation may be such that a closed curve is generated by deleting an extension line between the intersection point and the open point when there is an open point with respect to the input line and there is no other open point belonging to a close distance from the open point .

또한, 상기 폐곡선 생성은, 상기 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 상기 개방지점 타단부 상에 교차점이 존재하지 않는 경우, 상기 개방지점 사이를 벡터보정에 의해 연결하여 폐곡선이 생성될 수 있다.In the closed curve generation, there is an open point pair connectable to the input line, and when there is no intersection point on the other open end point, a closed curve is generated by connecting the open points by vector correction .

그리고 상기 폐곡선 생성은, 상기 입력선에 대하여 서로 연결 가능한 개방지점 쌍이 존재하고, 각 개방지점의 입력선이 서로 다른 교차점으로부터 연장된 경우, 상기 개방지점 사이를 벡터보정에 의해 연결하여 폐곡선이 생성될 수 있다.In the closed curve generation, when there is an open point pair connectable to the input line and the input lines of the open points extend from different intersections, a closed curve is generated by connecting the open points by vector correction .

한편, 본 발명에 의한 벡터보정은, 개방지점과 연결된 연장선의 벡터 방향으로 상기 개방지점을 연장하여, 상기 개방지점 간의 거리를 최소화하는 방법을 포함한다.On the other hand, the vector correction according to the present invention includes a method of extending the open point in the vector direction of the extension line connected to the open point, thereby minimizing the distance between the open points.

그리고 상기 벡터보정은, (a) 상기 생성부가 최초 벡터를 연장하는 단계와; (b) 상기 제어부가 개방지점 간의 거리 감소 여부를 판단하는 단계와; (c) 상기 제b단계의 판단 결과, 상기 개방지점 간의 거리가 감소한 경우, 상기 생성부가 순방향으로 벡터를 연장하는 단계와; (d) 상기 제c단계 이후, 상기 제어부가 상기 개방지점 간의 거리의 증가 여부를 판단하는 단계; 그리고 (e) 상기 제d단계의 판단 결과, 상기 개방지점 간의 거리가 증가한 경우, 상기 생성부가 최종 연장 단부 지점을 선형 연결하는 단계를 포함하여 수행될 수 있다.And the vector correction comprises: (a) extending the initial vector by the generator; (b) determining whether the control unit decreases the distance between the open points; (c) if the distance between the open points is decreased as a result of the determination in step (b), the generator extends the vector in the forward direction; (d) determining whether the control unit increases the distance between the opening points after the step (c); And (e) when the distance between the open points is increased as a result of the determination in the step (d), the generating unit linearly connects the last extended end point.

또한, 상기 벡터보정은, (f) 상기 제b단계의 판단 결과, 상기 개방지점 간의 거리가 증가한 경우, 상기 생성부가 역방향으로 벡터를 단축하는 단계를 더 포함하여 수행될 수 있다.
The vector correction may further include: (f) shortening the vector in a reverse direction in the case where the distance between the open points is increased as a result of the determining in step (b).

위에서 살핀 바와 같은 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템은 다음과 같은 효과를 기대할 수 있다.The system for providing the content interaction according to the multi-user location using the virtual cloud according to the present invention as described above can be expected to have the following effects.

본 발명은 사용자가 착용한 웨어러블 디바이스의 위치에 따라 사용자로부터 입력받은 선을 보정하여 생성된 3차원 캐릭터를 출력하여, 다수의 사용자가 각자의 컨텐츠를 함께 즐길 수 있는 효과가 있다.The present invention has the effect of allowing a plurality of users to enjoy their contents together by outputting the generated three-dimensional character by correcting a line received from the user according to the position of the wearable device worn by the user.

그리고 본 발명은 사용자로부터 개곡선이 입력되어도, 개방지점 쌍 선정과 교차점 판별을 통해 상기 개곡선을 폐곡선으로 보정할 수 있는 효과가 있다.
Also, even when the open curve is inputted from the user, the open curve can be corrected to the closed curve by selecting the open point pair and determining the intersection.

도 1은 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템의 구성을 도시한 블록도.
도 2는 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 방법을 도시한 흐름도.
도 3은 본 발명에 의한 3차원 캐릭터 생성 방법을 도시한 흐름도.
도 4는 본 발명에 의한 폐곡선 생성 방법을 도시한 흐름도.
도 5는 본 발명에 의한 벡터보정 방법을 도시한 흐름도.
도 6은 본 발명에 의한 기준단면 산출 방법을 도시한 흐름도.
도 7은 본 발명에 의한 3차원 오브젝트 생성 방법을 도시한 흐름도.
도 8은 본 발명에 의한 3차원 캐릭터 출력 예시도.
1 is a block diagram showing a configuration of a content interaction providing system according to a multi-user location using a virtual cloud according to the present invention.
2 is a flowchart illustrating a method of providing a content interaction according to a multi-user location using a virtual cloud according to the present invention.
FIG. 3 is a flowchart illustrating a method of generating a three-dimensional character according to the present invention. FIG.
4 is a flow chart illustrating a closed curve generation method according to the present invention.
5 is a flowchart showing a vector correction method according to the present invention.
6 is a flowchart showing a reference section calculating method according to the present invention.
FIG. 7 is a flowchart showing a method for generating a three-dimensional object according to the present invention; FIG.
8 is a diagram illustrating an example of a three-dimensional character output according to the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예를 구성하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템의 구성을 살펴보기로 한다.Hereinafter, a configuration of a content interaction providing system according to a multi-user location using a virtual cloud constituting a specific embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템의 구성을 도시한 블록도이다.1 is a block diagram illustrating a system for providing a content interaction according to a multi-user location using a virtual cloud according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템은 동작감지장치(100), 메인처리유닛(200), 서브디바이스(300), 웨어러블디바이스(400), 영상투사장치(500) 그리고 투사객체(600)를 포함하여 구성된다.1, a system for providing a content interaction according to a multi-user location using a virtual cloud according to the present invention includes a motion sensing device 100, a main processing unit 200, a sub device 300, a wearable device 400 An image projecting apparatus 500, and a projection object 600. The image projecting apparatus 500 includes a projection screen 600,

먼저, 상기 동작감지장치(100)는 물체의 움직임을 인식할 수 있는 장치로, 기본적으로 움직임뿐만 아니라 물체의 형태를 인식할 수 있도록 구성된다. 그리고 상기 동작감지장치(100)는 상기 웨어러블디바이스(400)를 착용한 사용자의 움직임뿐만 아니라, 상기 웨어러블디바이스(400)의 초기 위치를 감지하는 역할을 한다.First, the motion sensing device 100 is a device capable of recognizing the movement of an object, and is basically configured to recognize motion as well as the shape of an object. The motion sensing device 100 senses an initial position of the wearable device 400 as well as a movement of a user wearing the wearable device 400.

따라서, 상기 동작감지장치(100)는 마이크로소프트사에서 2010년 11월에 출시한 xbox360의 움직임 감지 카메라로 깊이 영상과 색상 영상을 획득할 수 있는 키넥트 카메라로 구성될 수 있다.Accordingly, the motion sensing device 100 may be a Kinect camera capable of acquiring a depth image and a color image with a motion-sensing camera of xbox 360, which was launched by Microsoft in November 2010. [

상기 키넥트 카메라는 특정한 라이트패턴을 방사하여, 카메라로 왜곡된 라이트패턴을 찍어서 3D 구조물을 인지하는 방식으로, 대략 유효거리 3.5m 내에서, 비교적 큰 640*480의 Depth 해상도, 30FPS 및 저렴한 가격이라는 장점이 있다. The Kinect camera radiates a specific light pattern, and a distorted light pattern is photographed by a camera to recognize a 3D structure. The Kinect camera has a relatively large Depth resolution of 640 * 480, a 30 FPS and an affordable price within a range of about 3.5 m There are advantages.

그리고 상기 메인처리유닛(200)은 본 발명에서 수행되는 과정을 모두 가상화 클라우드 기술을 기반으로 처리되도록 가상화 클라우드 시스템 상에 구현된다.The main processing unit 200 is implemented on a virtualized cloud system such that all processes performed in the present invention are processed based on virtualized cloud technology.

여기서, 상기 가상화는 기존에 사용하던 하드웨어, CPU, 디스크, 메모리 등을 가상화하는 것으로, 상기 가상화 클라우드 시스템은 물리적인 장비에서 논리적인 영역을 분리하여 컴퓨팅 자원을 가장 효율적인 방식으로 하는 활용 및 관리 시스템을 의미한다. Here, the virtualization virtualizes the hardware, CPU, disk, memory, and the like that are used in the past. The virtual cloud system separates the logical area from the physical equipment and uses and manages the computing resources in the most efficient manner. it means.

이를 통해, 본 발명의 상기 메인처리유닛(200)은 컴퓨팅 리소스에 대한 접근 및 인프라관리를 간소화할 수 있다.Thus, the main processing unit 200 of the present invention can simplify access to computing resources and infrastructure management.

또한, 상기 메인처리유닛(200)은 상기 동작감지장치(100), 서브디바이스(300), 웨어러블디바이스(400) 그리고 영상투사장치(500)와 연결되어, 사용자의 모션에 따라 상기 영상투사장치(500)로 투사되는 출력컨텐츠를 변화시키기 위한 디바이스로, 이를 위해, 상기 메인처리유닛(200)은 산출모듈(210), 영상구성모듈(220), 송수신모듈(230), 제어모듈(240) 그리고 데이터베이스(250)를 포함하여 구성된다.The main processing unit 200 is connected to the motion sensing device 100, the sub device 300, the wearable device 400, and the image projection device 500, The main processing unit 200 includes a calculation module 210, an image configuration module 220, a transmission / reception module 230, a control module 240, and a control module 240. [ And a database (250).

먼저, 상기 산출모듈(210)은 통신 연결된 상기 웨어러블디바이스(400)의 위치에 따라 배경영상에서의 3D 캐릭터의 위치정보를 산출하는 역할을 한다. 여기서, 상기 3D 캐릭터는 상기 서브디바이스(300)로부터 수신받은 것으로, 상기 3D 캐릭터에 대해서는 상기 서브디바이스(300)를 설명함에 있어 상세히 설명하기로 한다.First, the calculation module 210 calculates the position information of the 3D character in the background image according to the position of the wearable device 400 connected to the communication. Here, the 3D character is received from the sub-device 300 and the sub-device 300 for the 3D character will be described in detail.

이때, 상기 웨어러블디바이스(400)의 위치는 상기 동작감지장치(100)로부터 상기 웨어러블디바이스(400)의 초기 위치를 수신받은 후, 상기 웨어러블디바이스(400)에 내장된 가속도 센서로부터 서로 직각인 X, Y, Z방향을 포함하는 3축으로 측정된 이동값을 수신받아 산출된다.The position of the wearable device 400 may be determined based on the position of the wearable device 400 after receiving the initial position of the wearable device 400 from the motion sensing device 100, Y, and Z directions, as shown in FIG.

그리고, 상기 웨어러블디바이스(400)는 내장된 자이로 센서를 이용하여 상기 가속도 센서가 측정하는 상기 Z축을 중력을 받는 방향으로 설정하도록 한다. 이를 통해, 상기 가속도 센서와 자이로 센서가 서로 상호작용하도록 하여, 상기 웨어러블디바이스(400)의 이동값을 산출함에 있어 오차를 줄일 수 있는 효과가 있다.The wearable device 400 uses the built-in gyro sensor to set the Z axis measured by the acceleration sensor in a direction to receive gravity. Accordingly, the acceleration sensor and the gyro sensor are allowed to interact with each other, thereby reducing an error in calculating the movement value of the wearable device 400. [

그리고 상기 3D 캐릭터의 위치정보는 상기 웨어러블디바이스(400)의 위치로부터 설정된 거리만큼 이격되어 산출된다.The position information of the 3D character is calculated by being spaced from the position of the wearable device 400 by a predetermined distance.

한편, 상기 영상구성모듈(220)은 상기 산출모듈(210)이 산출한 3D 캐릭터의 위치정보에 따라 3D 캐릭터가 상기 배경영상에 포함된 출력컨텐츠를 구성하는 역할을 한다.Meanwhile, the image configuration module 220 forms a 3D character based on the 3D character position information calculated by the calculation module 210, and composes the output content included in the background image.

또한, 상기 송수신모듈(230)은 상기 서브디바이스(300)로부터 사용자 식별코드에 따른 3D 캐릭터를 수신받고, 상기 웨어러블디바이스(400)와 통신하는 역할을 한다.In addition, the transmission / reception module 230 receives a 3D character according to a user identification code from the sub-device 300 and communicates with the wearable device 400.

한편, 상기 제어모듈(240)은 상기 데이터베이스(250)에 저장된 배경영상을 독출하여, 분할 영상을 생성하고, 상기 분할 영상을 상기 영상투사장치(500)로 전송하며, 상기 산출모듈(210)이 산출한 상기 배경영상에서의 3D 캐릭터 위치정보에 따라 상기 영상구성모듈(220)로 하여금 출력컨텐츠를 생성하게 하고, 상기 출력컨텐츠를 상기 영상투사장치(300)로 전달하는 역할을 한다. The control module 240 reads the background image stored in the database 250 to generate a divided image and transmits the divided image to the image projection apparatus 500. The calculation module 210 The image forming module 220 generates the output content according to the 3D character position information in the background image and transmits the output content to the image projection apparatus 300.

그리고 상기 데이터베이스(250)는 상기 영상투사장치(500)로 투사되는 배경영상과 상기 출력컨텐츠 그리고 사용자 별 컨텐츠를 저장하는 역할로, 이를 위해, 기준영상DB(252)와 출력컨텐츠DB(254) 그리고 사용자 별 컨텐츠DB(256)를 포함하여 구성된다.The database 250 stores a background image, output content, and user-specific content to be projected on the image projection apparatus 500. For this purpose, the reference image DB 252, the output content DB 254, And a content DB 256 for each user.

먼저, 상기 배경영상DB(252)는 상기 영상투사장치(500)로 투사되는 배경영상을 저장하는 역할을 하고, 상기 출력컨텐츠DB(254)는 사용자의 동작에 따라 변화하는 출력컨텐츠를 저장하는 역할을 한다. First, the background image DB 252 stores a background image projected on the image projection apparatus 500, and the output content DB 254 stores output contents that change according to a user's operation .

이때, 상기 출력컨텐츠는 3D 캐릭터가 포함된 배경영상으로, 사용자가 착용한 상기 웨어러블디바이스(400)의 위치 변화에 따라 변화된 3D 캐릭터가 상기 배경영상과 함께 저장된 것을 말한다. 즉, 상기 출력컨텐츠는 상기 배경영상에 상기 3D 캐릭터가 포함된 영상을 의미한다.Here, the output content is a background image including a 3D character, and the 3D character changed according to a change in the position of the wearable device 400 worn by the user is stored together with the background image. That is, the output content refers to an image including the 3D character in the background image.

그리고 상기 사용자 별 컨텐츠DB(256)는 사용자 별 컨텐츠를 저장하기 위한 부분으로, 상기 사용자 별 컨텐츠는 상기 동작감지장치(100)로부터 사용자의 위치가 인식되어 상기 출력컨텐츠를 출력한 이후의 시간부터 상기 웨어러블디바이스(400)가 종료되기 전까지의 시간 동안 저장된 출력컨텐츠를 포함하여 생성될 수 있다. 그리고 사용자가 상기 서브디바이스(300)에서 3D 캐릭터를 생성한 과정을 더 포함하여 생성될 수도 있다.The per-user contents DB 256 is a part for storing per-user contents. The per-user contents are stored in the per-user contents DB 256 from the time since the position of the user is recognized from the motion sensing device 100, May be generated including the output content stored for a period of time before the wearable device 400 is terminated. And generating a 3D character in the sub-device 300 by the user.

한편, 상기 서브디바이스(300)는 사용자로부터 입력을 수신받아 3차원 컨텐츠를 생성하여 상기 메인처리유닛(200)로 송신하는 역할을 하고, 이를 위해, 출력부(310), 입력부(320), 생성부(330), 송수신부(340), 제어부(350) 그리고 저장부(360)를 포함하여 구성된다.The sub-device 300 receives input from a user and generates three-dimensional content and transmits the generated content to the main processing unit 200. To this end, the sub-device 300 includes an output unit 310, an input unit 320, A transmitter 330, a transmitter / receiver 340, a controller 350, and a storage 360. [

먼저, 상기 출력부(310)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 등의 다양한 디스플레이 장치로 구성될 수 있으며, 상기 출력부(310)는 제어부(350)로부터 2D 캐릭터 또는 2D 오브젝트 이미지를 전달받아 사용자에게 제공하고, 사용자의 입력으로 생성된 가상 공간의 움직이는 3D 캐릭터를 출력하는 역할을 한다.The output unit 310 may include a display device such as a liquid crystal display (LCD) or a light emitting diode (LED) Receives the image and provides it to the user, and outputs the moving 3D character of the virtual space created by the user's input.

또한, 상기 입력부(320)는 터치스크린, 키패드 등으로 구성될 수 있으며, 사용자로부터 사용자 식별코드, 원하는 2D 캐릭터 선택 입력 또는 2D 오브젝트 이미지 입력선을 입력받는 역할을 한다. The input unit 320 may be a touch screen, a keypad, or the like, and receives a user identification code, a desired 2D character selection input, or a 2D object image input line from a user.

그리고 상기 생성부(330)는 사용자로부터 입력된 입력선을 폐곡선 생성, 벡터보정, 기준단면 산출을 통해 3D 오브젝트를 산출하고, 모션과 이동구간, 사운드가 설정된 3D 캐릭터를 생성하는 역할을 한다.The generator 330 calculates a 3D object through a closed curve generation, a vector correction, a reference section calculation, and generates a 3D character in which a motion, a moving interval, and a sound are set.

한편, 상기 송수신부(340)는 상기 웨어러블디바이스(400)로부터 디바이스 식별코드와 사용자 식별코드를 수신하고, 상기 생성부(330)에서 생성한 3D 캐릭터를 상기 메인처리유닛(200)으로 송신하는 역할을 한다. 이때, 상기 디바이스 식별코드와 사용자 식별코드는 매칭되어 저장된다.The transmitting and receiving unit 340 receives the device identification code and the user identification code from the wearable device 400 and transmits the 3D character generated by the generating unit 330 to the main processing unit 200 . At this time, the device identification code and the user identification code are matched and stored.

그리고 상기 제어부(350)는 3D 오브젝트를 산출하기 위해 개방지점의 존재 여부, 교차점 존재 여부, 교차점 거리 증감 여부, 다수 교차 연장선 존재 여부 그리고 시작점 도착 여부 등과 같은 판별을 하고, 모션과 이동구간을 산출하며, 사운드를 매핑하는 역할을 한다.In order to calculate the 3D object, the controller 350 determines whether there is an open point, whether an intersection exists, whether the intersection distance is increased or decreased, whether a multiple intersection is present, whether the intersection is present or not, , And is responsible for mapping the sound.

또한, 상기 저장부(360)는 3D 오브젝트와 3D 캐릭터를 생성하기 위한 정보들을 저장하는 역할을 하는데, 이를 위해, 3D오브젝트저장부(362)와 3D캐릭터저장부(364)를 포함하여 구성된다.The storage unit 360 stores information for generating a 3D object and a 3D character. For this purpose, the storage unit 360 includes a 3D object storage unit 362 and a 3D character storage unit 364.

먼저, 상기 3D오브젝트저장부(362)는 사용자로부터 입력된 입력선을 보정하여 3D오브젝트로 생성된 결과물을 저장하고, 상기 3D캐릭터저장부(364)는 상기 3D오브젝트들로 구성된 3D 캐릭터들을 저장한다.First, the 3D object storage unit 362 stores the 3D object generated by correcting the input line input from the user, and the 3D character storage unit 364 stores 3D characters composed of the 3D objects .

한편, 상기 웨어러블디바이스(400)는 안경, 시계, 팔찌, 의복 등과 같이 착용할 수 있는 형태로 사용자가 거부감 없이 신체의 일부처럼 항상 착용하여 사용할 수 있는 디바이스를 말하며, 본 발명에서는 사용자의 손목에 착용할 수 있는 팔찌형태의 디바이스를 예로 들어 설명한다.Meanwhile, the wearable device 400 is a device that can be worn like a pair of glasses, a watch, a bracelet, clothes, and the like, A bracelet-type device that can be used as an example will be described.

그리고 상기 웨어러블디바이스(400)는 상기 메인처리유닛(200) 및 상기 서브디바이스(300)와 통신하며, 상기 통신 방법은 근거리 무선통신 규격의 하나로 2.45GHz 주파수를 이용하여 반경 10~100m 범위 안에서 각종 전자, 정보통신 기기를 무선으로 연결ㆍ제어하는 블루투스 통신일 수 있다.The wearable device 400 is in communication with the main processing unit 200 and the sub-device 300. The communication method is a short-range wireless communication standard that uses a frequency of 2.45 GHz to transmit various electronic , And Bluetooth communication for wirelessly connecting / controlling the information communication device.

또한, 상기 웨어러블디바이스(400)는 기본적으로 디바이스 식별코드를 가지며, 상기 디바이스 식별코드는 0001과 같은 기기 식별코드일 수 있다.Also, the wearable device 400 basically has a device identification code, and the device identification code may be a device identification code such as 0001.

한편, 상기 영상투사장치(500)는 상기 메인처리유닛(200)으로부터 영상을 수신받아 상기 투사객체(600)에 투사하는 장치이고, 상기 투사객체(600)는 영상투사장치(500)로부터 영상이 투사되는 객체로, 다각형 플레이트, 스크린 등의 다양한 종류로 형성될 수 있으며, 전방에 설치되는 객체를 기준으로 좌측면, 우측면, 하면으로 배치되는 것이 바람직하다.The image projection apparatus 500 is a device for receiving an image from the main processing unit 200 and projecting the image to the projection object 600. The projection object 600 is a device for receiving an image from the image projection apparatus 500 A projected object, a polygon plate, a screen, and the like, and it is preferable that the object is disposed on the left side, the right side, and the bottom side with respect to an object installed in the front.

이하에서는 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 방법의 구체적인 실시예를 도 2를 참고하여 상세히 설명하도록 한다.Hereinafter, a method of providing a content interaction according to a multi-user location using a virtual cloud according to an embodiment of the present invention will be described in detail with reference to FIG.

도 2는 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 방법을 도시한 흐름도이다.FIG. 2 is a flowchart illustrating a method of providing a content interaction according to a multi-user location using a virtual cloud according to the present invention.

도 2에 도시된 바와 같이, 본 발명에 의한 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 방법은 상기 웨어러블디바이스(400)를 착용한 사용자가 상기 서브디바이스(300)에 사용자 식별코드를 등록하는 것으로 시작된다(S1000). As shown in FIG. 2, a method for providing a content interaction according to a multi-user location using a virtual cloud according to the present invention includes: registering a user identification code in the sub device 300 by a user wearing the wearable device 400 (S1000).

이때, 상기 사용자 식별코드는 사용자의 E-mail, SNS(Social Network Services)계정 등으로 사용자로부터 입력된다. 또한, 상기 사용자 식별코드는 상기 웨어러블디바이스(400)의 디바이스 식별코드와 매칭되어 저장된다.At this time, the user identification code is inputted from the user through the user's E-mail, Social Network Services (SNS) account, or the like. In addition, the user identification code is matched with the device identification code of the wearable device 400 and stored.

이후, 상기 웨어러블디바이스(400)와 통신 연결된 상기 서브디바이스(300)는 사용자로부터 입력을 수신받아 3D 캐릭터를 생성한다(S2000). 그리고 전술한 바와 같이, 상기 웨어러블디바이스(400)와 상기 서브디바이스(300)는 블루투스 통신으로 연결될 수 있다.Then, the sub-device 300 connected to the wearable device 400 receives input from a user and creates a 3D character (S2000). As described above, the wearable device 400 and the sub-device 300 may be connected by Bluetooth communication.

여기서 상기 3D 캐릭터를 생성하는 방법에 대하여는 도 3을 참고하여 상세히 설명하기로 한다.Hereinafter, a method of generating the 3D character will be described in detail with reference to FIG.

도 3에 도시된 바와 같이, 본 발명에 의한 3D 캐릭터 구현 방법 중 3D 캐릭터 생성 방법의 구체적인 실시예는 상기 출력부(310)가 2D 캐릭터를 출력하는 것으로 시작된다(S2100).As shown in FIG. 3, a 3D character generating method according to an embodiment of the present invention starts with the output unit 310 outputting a 2D character (S2100).

이때, 상기 출력부(310)는 사용자가 3D 캐릭터로 만들 수 있는 자동차, 로봇 등과 같은 2D 캐릭터를 출력한다.At this time, the output unit 310 outputs a 2D character such as an automobile, a robot, etc., which the user can make as a 3D character.

이후, 상기 출력부(310)는 2D 캐릭터를 구성하는 2D 오브젝트 이미지를 출력한다(S2200). 구체적으로, 상기 2D 오브젝트 이미지는 로봇을 구성하는 로봇 머리, 로봇 몸, 로봇 팔, 로봇 다리 등 캐릭터를 생성하기 위한 오브젝트를 따라 그릴 수 있도록 그려놓은 이미지를 말한다.Thereafter, the output unit 310 outputs a 2D object image constituting the 2D character (S2200). Specifically, the 2D object image refers to an image drawn such that a robot head, a robot body, a robot arm, a robot leg, etc. constituting the robot can be drawn along with an object for creating a character.

그리고 상기 입력부(320)가 출력부(310)를 통해 출력된 2D 오브젝트 이미지 위로 입력된 사용자의 입력선을 수신받는다(S2300).The input unit 320 receives the input line of the user input on the 2D object image output through the output unit 310 (S2300).

사용자로부터 입력선을 수신받은 이후, 상기 제어부(350)는 3D 오브젝트 생성 단계를 수행하는데(S2400), 상기 3D 오브젝트 생성 단계는 폐곡선 생성 단계, 기준단면 산출 단계 그리고 3D 오브젝트 산출 단계를 포함하여 수행된다.After receiving the input line from the user, the control unit 350 performs a 3D object creation step (S2400), and the 3D object creation step is performed including a closed curve generation step, a reference section calculation step, and a 3D object calculation step .

먼저, 상기 폐곡선 생성 단계는 도 4를 참고하여 상세히 설명하기로 한다.First, the closed curve generating step will be described in detail with reference to FIG.

도 4에 도시된 바와 같이, 본 발명에 의한 상기 폐곡선 생성 단계의 구체적인 실시예는 상기 제어부(350)가 개방지점의 존재 여부를 판단하는 것으로 시작된다(S110).As shown in FIG. 4, the closed curve generating step according to the present invention starts with the control unit 350 determining whether an open point exists (S110).

이때, 상기 개방지점이란, 사용자로부터 입력된 입력선의 단부를 말하는 것으로, 폐곡선으로 입력되지 않은 경우에 홀로 또는 쌍으로 이루어진 개방지점이 존재하게 된다.In this case, the open point refers to the end of the input line input by the user, and when the closed line is not inputted, there is an open point formed by a single hole or a pair.

이후, 제110단계의 판단 결과, 개방지점이 존재하는 경우, 상기 제어부(350)가 개방지점을 서로 연결 가능한 쌍으로 선정할 수 있는지 여부를 판단한다(S120).If it is determined in operation 110 that there is an open point, the control unit 350 determines whether the open points can be selected as connectable pairs (S120).

상기 제120단계의 판단은 기본적으로 두 개방지점 사이의 거리에 따라 판단된다.The determination of step 120 is basically determined according to the distance between the two opening points.

한편, 개방지점이 쌍으로 선정되지 않는 경우는, 사용자로부터 입력된 입력선이 개방지점의 타단부 상에 존재하는 교차점 이후 연장된 경우이기 때문에, 상기 제어부(350)가 교차점 이후 개방지점에 연장된 입력선을 삭제한다(S130).On the other hand, when the open point is not selected as a pair, since the input line input from the user is extended after the intersection point on the other end of the open point, The input line is deleted (S130).

그리고 개방지점이 쌍으로 선정되는 경우는, 사용자로부터 입력되는 입력선이 중간에 끊어진 경우이거나, 교차점 이후 입력선이 연장된 경우이기 때문에, 상기 제어부(350)가 개방지점의 타단부 상에 교차점이 존재하는지 여부를 판단한다(S140).In the case where the open point is selected as a pair, since the input line input from the user is interrupted in the middle or the input line is extended after the intersection, the control unit 350 determines that the cross point is on the other end of the open point (S140).

이때, 상기 제140단계의 판단 결과, 각 개방지점에 대한 입력선의 타단부 상에 교차점이 존재하지 않으면 벡터보정 단계를 수행하게 되는데(S150), 이는 후술할 도 5를 참조하여 설명함에 있어 상세히 설명하기로 한다.As a result of the determination in operation 140, if there is no intersection on the other end of the input line for each of the opening points, the vector correction step is performed (S150), which will be described in detail with reference to FIG. .

한편, 상기 제140단계의 판단 결과, 각 개방지점에 대한 입력선의 타단부 상에 교차점이 존재한다면, 상기 교차점이 동일한 교차점인지 판별한다(S160).If it is determined in step 140 that there is an intersection on the other end of the input line for each of the openings, it is determined whether the intersection is the same intersection (S160).

상기 제160단계의 판단 결과, 각 개방지점에 대한 입력선의 타단부 상에 존재하는 교차점이 동일한 교차점이라면(S170), 교차점 이후 입력선이 연장된 경우이기 때문에, 해당 교차점 이후에 연장된 입력선을 삭제한다(S180).If it is determined in step 160 that the intersection points existing on the other end of the input line to the respective open points are the same intersection point (S170), the input line is extended after the intersection point. (S180).

그리고 상기 제160단계의 판단 결과, 각 개방지점에 대한 입력선의 타단부 상에 존재하는 교차점이 별개의 교차점이라면(S190), 상기 벡터보정 단계를 수행하여 폐곡선을 생성하게 된다(S200).If it is determined in operation 160 that the intersections existing on the other end of the input line for each of the open positions are different intersections (S190), the closed curve is generated by performing the vector correction operation (S200).

여기서, 상기 벡터보정 단계는 도 5를 참고하여 상세히 설명하기로 한다.Here, the vector correction step will be described in detail with reference to FIG.

도 5에 도시된 바와 같이, 본 발명에 의한 벡터보정 단계는 상기 생성부(330)가 최초 벡터를 연장하는 것으로 시작된다(S210).As shown in FIG. 5, the vector correction step according to the present invention starts with the generation unit 330 extending the initial vector (S210).

먼저, 벡터보정이 필요한 경우는 입력선의 교차점이 존재하지 않으며, 폐곡선이 아닌 경우를 예를 들 수 있다. 이때, 개곡선으로 존재하는 입력선을 폐곡선으로 만들기 위해, 전술한 제110단계에서 판별된 개방지점을 최초 벡터 방향으로 소정의 길이를 연장시킨다.First, when vector correction is required, there is no intersection of the input lines, and the case where the vector is not a closed curve is exemplified. At this time, in order to make the input line existing as the open curve a closed curve, the open point determined in step 110 is extended to a predetermined length in the initial vector direction.

이때, 상기 최초 벡터는 개방지점 이전 연장선의 평균벡터를 산출하여 기준으로 삼는다.At this time, the initial vector is used as a reference by calculating an average vector of extension lines extending before the opening point.

그리고 최초 벡터를 연장한 후, 상기 제어부(350)가 상기 개방지점 간의 거리가 감소하는 지를 판단한다(S220).After the initial vector is extended, the control unit 350 determines whether the distance between the open points decreases (S220).

상기 제220단계의 판단 결과, 상기 개방지점 간의 거리가 감소했다면, 상기 생성부(330)가 상기 최초 벡터로부터 순방향으로 벡터를 연장시킨다(S230).If it is determined in operation 220 that the distance between the open points has decreased, the generator 330 extends the vector from the initial vector in step S230.

한편, 상기 제220단계의 판단 결과, 상기 개방지점 간의 거리가 증가했다면, 상기 생성부(330)가 상기 최초 벡터로부터 역방향으로 벡터를 단축시킨다(S240).If it is determined in operation 220 that the distance between the open points has increased, the generator 330 shortens the vector in the opposite direction from the initial vector in operation S240.

상기 제230단계와 제240단계에서 벡터를 지속적으로 연장 또는 단축시키면서, 상기 제어부(350)가 상기 개방지점 간의 거리가 증가하는지 여부를 판단하여(S250), 상기 개방지점 간의 거리가 감소했다면, 상기 생성부(330)는 상기 제230단계와 제240단계를 계속해서 수행한다.In step 230 and step 240, the control unit 350 determines whether the distance between the open points increases (S250). If the distance between the open points decreases, The generating unit 330 continues to perform steps 230 and 240.

한편, 상기 개방지점 간의 거리가 증가했다면, 상기 개방지점간의 최단 거리 이상이 된 것이므로, 상기 생성부(330)는 최종 연장 단부 지점을 선형으로 연결한 후 벡터보정을 종료한다(S260).If the distance between the open points is increased, it is more than the shortest distance between the open points. Therefore, the generator 330 ends the vector correction after linearly connecting the end points of the extended end (S260).

이때, 최종 연장 단부 지점이라 함은, 최종적으로 연장된 단부 지점일 수도 있고, 최종 바로 직전에 연장된 단부 지점을 의미할 수도 있다.At this time, the last extending end point may be the last extending end point, or may be an end point extending just before the last.

한편, 상기 폐곡선 생성 단계를 수행한 이후에는, 기준단면 산출 단계를 수행하게 된다.On the other hand, after performing the closed curve generation step, the reference section calculation step is performed.

도 6에 도시된 바와 같이, 본 발명에 의한 기준단면 산출 단계는 상기 제어부(350)가 입력선 간의 교차점을 산출하고 저장하는 것으로 시작된다(S310).As shown in FIG. 6, the reference section calculation step according to the present invention starts with the control unit 350 calculating and storing the intersection points between the input lines (S310).

여기서, 상기 입력선은 입력부(320)에 사용자로부터 입력된 선을 의미한다.Here, the input line refers to a line input from the user to the input unit 320.

그리고 상기 제어부(350)가 상기 정점들 중 시작점을 설정하고(S320), 상기 제어부(350)가 상기 시작점을 기준으로 가장 가까운 연장선을 따라 이동한다(S330).In step S320, the control unit 350 sets a starting point of the vertices in step S320, and the controller 350 moves along the closest extension line in step S330.

여기에서, 상기 시작점은 정점들 중 가장 오른쪽 밑에 있는 정점으로 하는 것이 바람직하며, 상기 연장선은 입력선 중 교차점과 교차점 사이의 선 또는 정점과 교차점 사이의 선을 의미한다.Here, it is preferable that the starting point be a vertex located at the bottom right corner among the vertices, and the extension line means a line between an intersection and an intersection of the input lines or a line between an intersection and a vertex.

이후, 상기 제어부(350)가 연장선을 경계선으로 설정하고(S340), 시작점에 도착하였는지 판별한다(S350).Thereafter, the controller 350 sets the extension line as a boundary line (S340) and determines whether it reaches the starting point (S350).

이때, 상기 경계선은 연장선 중 가장 외측에 위치한 선을 이은 기준단면을 이루는 선을 의미하고, 상기 기준단면은 경계선 내측의 면을 뜻한다.In this case, the boundary line refers to a line forming the reference cross-section including the outermost line, and the reference cross-section refers to the inner side of the boundary line.

상기 제350단계의 판단 결과, 시작점에 도착하지 않은 경우, 다수 교차 연장선이 존재하는지 여부를 판별하고(S370), 상기 다수 교차 연장선이 존재하는 경우, 외측 연장선을 따라 이동하여(S380) 경계선으로 설정한다(S340).If it is determined in step 350 that there is no multiple extension line (S370), it is determined whether there is a multiple extension extension line (S370). If the multiple extension extension line exists, (S340).

예를 들어, 시작점을 가장 오른쪽 밑에 있는 정점으로 정하고, 가장 가까운 연장선을 이어 경계선으로 설정한 후, 상기 연장선과 연결된 다수 교차 연장선이 존재하므로 오른쪽의 외측 연장선을 따라 이동하여 경계선을 설정한다.For example, the starting point is set as the apex at the bottom right corner, and the nearest extension line is set as the following boundary line, and since there are a plurality of extension lines connected to the extension line, the boundary line is set along the outer extension line on the right side.

한편, 상기 제370단계의 판단 결과, 상기 다수 교차 연장선이 존재하지 않는 경우, 상기 경계선과 같은 방향의 가장 가까운 연장선을 따라 이동하며 경계선을 지속적으로 설정한다.As a result of the determination in step 370, if the multiple intersection extension line does not exist, the boundary line is continuously set along the nearest extension line in the same direction as the boundary line.

그리고 상기 제350단계의 판단 결과, 시작점에 도착한 경우, 기준단면을 산출한다(S360).As a result of the determination in step 350, if a start point is reached, a reference cross-section is calculated (S360).

한편, 상기 기준단면을 산출한 이후에는, 3D 오브젝트 산출 단계를 수행한다.On the other hand, after calculating the reference section, the 3D object calculating step is performed.

도 7에 도시된 바와 같이, 본 발명에 의한 3차원 오브젝트 생성 방법은 상기 제어부(350)가 중심점을 산출하는 것으로 시작된다(S410).As shown in FIG. 7, the method for generating a three-dimensional object according to the present invention starts with the control unit 350 calculating a center point (S410).

여기에서, 상기 중심점은 경계선에 있는 모든 정점(x,y)의 평균값으로 구한다.Here, the center point is obtained as an average value of all the vertexes (x, y) in the boundary line.

상기 중심점을 산출한 이후, 상기 제어부(350)가 상기 중심점으로부터 수직 상승값을 산출하고(S420), 상기 제어부(350)는 상기 수직 상승값에 따른 수직 기준점을 산출한다(S430).After the center point is calculated, the controller 350 calculates a vertical upward value from the center point in step S420, and the controller 350 calculates a vertical reference point based on the vertical upward value in step S430.

그리고 상기 제어부(350)는 상기 수직 기준점과 상기 중심점 및 모든 정점들을 연결하여 분할 평면(제1분할면, 제2분할면 등)들을 산출한다(S440).The controller 350 calculates the division plane (the first division plane, the second division plane, and the like) by connecting the vertical reference point, the center point, and all the vertices at step S440.

이후, 상기 제어부(350)가 산출된 모든 분할 평면들에 대하여 중심점, 수직 상승값, 수직 기준점을 산출하고, 이를 이용하여 또 다른 분할 평면들을 산출하는 단계를 반복하여 3D 오브젝트를 생성한다.Then, the control unit 350 calculates a center point, a vertical rise value, and a vertical reference point with respect to all of the divided planes calculated, and calculates another divided planes using the calculated center plan, vertical rise value, and vertical reference point.

이후, 상기 제어부(350)가 전체 3D 오브젝트를 모두 생성하였는지 판별하여(S2500), 전체 3D 오브젝트를 생성할 때까지 수행하고, 3D 오브젝트들을 조합하여 3D 캐릭터를 생성한다(S2600). Then, the control unit 350 determines whether all the 3D objects have been created (S2500). The control unit 350 performs operations until all the 3D objects are generated, and combines the 3D objects to generate 3D characters (S2600).

이때, 생성된 3D 캐릭터는 상기 출력부(310)를 통해 사용자에게 미리보기로 제공된다.At this time, the generated 3D character is provided to the user through the output unit 310 in a preview mode.

한편, 상기 제2000단계에서 3D 캐릭터를 생성한 이후에는, 상기 동작감지장치(100)가 상기 투사객체(600) 내 존재하는 사용자의 위치를 인식한다(S3000).After the 3D character is created in operation 2000, the motion sensing apparatus 100 recognizes the position of the user in the projection object 600 (S3000).

구체적으로, 상기 동작감지장치(100)가 사용자의 위치와 사용자가 장착한 상기 웨어러블디바이스(400)의 초기 위치를 인식하고, 사용자가 장착한 상기 웨어러블디바이스(400)의 디바이스 식별코드로 사용자를 식별하여, 사용자가 상기 서브디바이스(300)에서 생성한 3D 캐릭터를 독출한다.Specifically, the motion sensing device 100 recognizes the position of the user and the initial position of the wearable device 400 mounted by the user, identifies the user with the device identification code of the wearable device 400 installed by the user, And the 3D character created by the user in the sub-device 300 is read.

그리고 사용자의 위치에 따른 출력컨텐츠를 출력한다(S4000).The output content according to the location of the user is output (S4000).

이때, 상기 출력컨텐츠는 사용자가 착용한 상기 웨어러블디바이스(400)로부터 설정거리만큼 이격되어 출력된다. 여기서, 상기 설정거리는 관리자로부터 입력되어 지정될 수 있다.At this time, the output contents are output from the wearable device 400 worn by the user by a set distance. Here, the setting distance may be input from the manager and designated.

또한, 상기 출력컨텐츠는 상기 배경영상과 상기 3D 캐릭터의 조합으로, 상기 동작감지장치(100)가 인식한 초기 위치를 이용하여 상기 배경영상 내에 상기 3D 캐릭터를 배치하여 생성된다.The output content is generated by arranging the 3D character in the background image using a combination of the background image and the 3D character using the initial position recognized by the motion sensing device 100. [

그리고 사용자의 위치가 이동된 경우, 사용자가 착용한 상기 웨어러블디바이스(400)에 내장된 가속도 센서로부터 서로 직각인 X축, Y축, Z축을 포함하는 3축으로 측정된 이동값을 수신받아, 상기 웨어러블디바이스(400)의 이동거리를 산출하며, 상기 이동거리에 따른 3D 캐릭터 위치정보를 산출한 후, 상기 배경영상에 산출된 3D 캐릭터 위치정보에 3D 캐릭터를 배치한 출력컨텐츠를 생성하여 출력한다.When the position of the user is moved, a movement value measured in three axes including X-axis, Y-axis, and Z-axis orthogonal to each other is received from an acceleration sensor built in the wearable device 400 worn by the user, Calculates the movement distance of the wearable device 400, calculates 3D character position information according to the movement distance, and generates and outputs output content in which 3D characters are arranged in the 3D character position information calculated in the background image.

이때, 상기 웨어러블디바이스(400)는 내장된 자이로 센서를 이용하여 상기 가속도 센서가 측정하는 상기 Z축을 중력을 받는 방향으로 설정하도록 한다. 이를 통해, 상기 가속도 센서와 자이로 센서가 서로 상호작용하도록 하여, 상기 웨어러블디바이스(400)의 이동값을 산출함에 있어 오차를 줄일 수 있는 효과가 있다.At this time, the wearable device 400 uses the built-in gyro sensor to set the Z axis measured by the acceleration sensor in a direction to receive gravity. Accordingly, the acceleration sensor and the gyro sensor are allowed to interact with each other, thereby reducing an error in calculating the movement value of the wearable device 400. [

이후, 배경영상과 3D 캐릭터가 함께 출력된 출력컨텐츠를 저장한다(S5000).Thereafter, the output content in which the background image and the 3D character are output together is stored (S5000).

그리고 상기 웨어러블디바이스(400)가 종료되는지 인식하여(S6000), 상기 웨어러블디바이스(400)가 종료되기 전까지 상기 제3000단계 내지 제5000단계를 반복해서 수행한다. The wearable device 400 recognizes that the wearable device 400 is terminated (S6000), and repeats the steps 3000 to 5000 until the wearable device 400 is terminated.

한편, 상기 웨어러블디바이스(400)가 종료된 경우, 사용자 별 컨텐츠를 생성한다(S7000).On the other hand, if the wearable device 400 is terminated, content for each user is generated (S7000).

구체적으로, 상기 사용자 별 컨텐츠는 상기 투사객체(600) 내에서 사용자의 위치가 인식되어 상기 출력컨텐츠를 출력한 이후의 시간부터 상기 웨어러블디바이스(400)가 종료되기 전까지의 시간동안 상기 제5000단계에서 저장된 출력컨텐츠를 포함하여 생성될 수 있다. 그리고 상기 제2000단계에서 사용자가 3D 캐릭터를 생성한 과정을 더 포함하여 생성될 수도 있다.Specifically, the user-specific content is recognized in the projected object 600 from the time after the user's location is recognized and the output content is output until the wearable device 400 is terminated, May be generated including stored output content. In operation 2000, the 3D character may be generated by the user.

이후, 상기 사용자 식별코드로 등록된 E-mail, SNS계정 등으로 상기 사용자 별 컨텐츠를 전송한다(S8000). 이때, 상기 사용자 별 컨텐츠는 상기 사용자 식별코드로 등록된 계정뿐만 아니라, 사용자로부터 전송받을 계정을 입력받아 전송될 수도 있다.Then, the per-user content is transmitted to an E-mail, an SNS account registered in the user identification code (S8000). At this time, the per-user content may be received not only by the account registered with the user identification code but also by an account to be received from the user.

한편, 도 8에 도시된 바와 같이, 상기 웨어러블디바이스(400)를 착용한 사용자가 상기 투사객체(600) 내 위치하게 되면, 상기 웨어러블디바이스(400)의 사용자 식별코드에 해당하는 3D 캐릭터가 배경영상과 함께 출력된다.8, when a user wearing the wearable device 400 is positioned within the projection object 600, a 3D character corresponding to the user identification code of the wearable device 400 is displayed on the background image 500. [ .

본 발명의 권리는 이상에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리 범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
It will be understood by those skilled in the art that various changes and modifications may be made without departing from the scope of the invention as defined in the appended claims. It is self-evident.

본 발명은 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템에 관한 것으로, 더욱 상세하게는, 웨어러블 디바이스를 착용한 사용자로부터 입력을 수신받아 3차원 컨텐츠를 생성하고, 생성된 3차원 컨텐츠를 사용자의 위치에 따라 출력하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템에 관한 것이며, 본 발명은 사용자가 착용한 웨어러블 디바이스의 위치에 따라 사용자로부터 입력받은 선을 보정하여 생성된 3차원 캐릭터를 출력하여, 다수의 사용자가 각자의 컨텐츠를 함께 즐길 수 있는 효과가 있다.
The present invention relates to a system for providing a content interaction according to a multi-user location using a virtual cloud, and more particularly, to a system for providing content interaction with a user by receiving input from a user wearing a wearable device and generating three- The present invention relates to a system and method for providing a content interaction based on a location of a wearable device worn by a user and a 3D character generated by correcting a line input from a user, There is an effect that a plurality of users can enjoy their contents together.

100 : 동작감지장치 200 : 메인처리유닛
210 : 산출모듈 220 : 영상구성모듈
230 : 송수신모듈 240 : 제어모듈
250 : 데이터베이스 252 : 배경영상DB
254 : 출력컨텐츠DB 256 : 사용자 별 컨텐츠DB
300 : 서브디바이스 310 : 출력부
320 : 입력부 330 : 생성부
340 : 송수신부 350 : 제어부
360 : 저장부 362 : 3D오브젝트저장부
364 : 3D캐릭터저장부 400 : 웨어러블디바이스
500 : 영상투사장치 600 : 투사객체
100: motion detection device 200: main processing unit
210: calculation module 220: image composition module
230: Transmitting / receiving module 240: Control module
250: Database 252: Background Video DB
254: output content DB 256: content DB per user
300: Sub-device 310: Output section
320: input unit 330:
340: Transmitting / receiving unit 350:
360: storage unit 362: 3D object storage unit
364: 3D character storage unit 400: Wearable device
500: image projection device 600: projection object

Claims (10)

사용자로부터 입력을 수신받아 3D 캐릭터를 생성하는 서브디바이스와;
가상화 클라우드 시스템으로 구현되어, 상기 서브디바이스로부터 수신받은 상기 3D 캐릭터가 포함된 출력컨텐츠를 생성하는 메인처리유닛; 그리고
상기 메인처리유닛으로부터 상기 출력컨텐츠를 수신받아 투사하는 영상투사장치를 포함하여 구성되고:
상기 메인처리유닛은,
상기 서브디바이스로부터 3D 캐릭터를 수신받고, 상기 영상투사장치와 통신하는 송수신모듈과;
배경영상에 상기 서브디바이스로부터 수신받은 3D 캐릭터가 포함된 상기 출력컨텐츠를 생성하는 영상구성모듈과;
상기 배경영상을 저장하는 배경영상DB와 상기 배경영상과 3D 캐릭터가 포함된 출력컨텐츠를 저장하는 출력컨텐츠DB를 포함하여 구성되는 데이터베이스; 그리고
상기 데이터베이스에 저장된 배경영상을 독출하여 분할 영상을 생성하고, 상기 영상구성모듈로 하여금 투사할 출력컨텐츠를 생성하여, 상기 출력컨텐츠를 상기 영상투사장치로 전달하는 제어모듈을 포함하여 구성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
A sub-device for receiving an input from a user and generating a 3D character;
A main processing unit, implemented as a virtualization cloud system, for generating output contents including the 3D character received from the sub device; And
And an image projecting device for receiving and projecting the output content from the main processing unit,
The main processing unit,
A transmission / reception module for receiving a 3D character from the sub device and communicating with the image projection device;
An image configuration module for generating the output content including a 3D character received from the sub-device in a background image;
A background image DB for storing the background image, and an output content DB for storing the background image and output contents including the 3D character; And
And a control module for generating a divided image by reading the background image stored in the database and generating output contents to be projected by the image configuration module and transmitting the output contents to the image projection apparatus A system for providing content interaction based on multi - user location using virtualization cloud.
삭제delete 제 1 항에 있어서,
상기 서브디바이스는,
2D 캐릭터 또는 2D 오브젝트 이미지와 사용자의 입력에 따라 생성된 3D 캐릭터를 출력하는 출력부와;
사용자로부터 원하는 2D 캐릭터 선택 입력 또는 2D 오브젝트 이미지 입력선을 입력받는 입력부와;
사용자로부터 입력된 입력선을 폐곡선 생성, 벡터보정, 기준단면 산출을 통해 3D 오브젝트를 산출하여 3D 캐릭터를 생성하는 생성부와;
상기 생성부에서 생성한 3D 캐릭터를 상기 메인처리유닛으로 송신하는 송수신부와;
3D 오브젝트를 산출하기 위해 개방지점의 존재 여부, 교차점 존재 여부, 교차점 거리 증감 여부, 다수 교차 연장선 존재 여부 그리고 시작점 도착 여부를 판별하는 제어부; 그리고
사용자로부터 입력된 입력선을 보정하여 3D오브젝트로 생성된 결과물을 저장하는 3D오브젝트저장부와 상기 3D오브젝트들로 구성된 3D 캐릭터들을 저장하는 3D캐릭터저장부를 포함하여 구성되는 저장부를 포함하여 구성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
The method according to claim 1,
The sub-
An output unit for outputting a 2D character or 2D object image and a 3D character generated according to a user input;
An input unit for inputting a desired 2D character selection input or a 2D object image input line from a user;
A generation unit for generating a 3D character by calculating a 3D object through a closed curve generation, a vector correction, and a calculation of a reference section input line input from a user;
A transmission / reception unit for transmitting the 3D character generated by the generation unit to the main processing unit;
A control unit for determining existence of an open point, presence or absence of an intersection point, whether or not an intersection distance is increased or decreased, existence of a multiple intersection extension line, and arrival of a starting point to calculate a 3D object; And
A storage unit configured to store a 3D object stored in the 3D object by correcting an input line input from a user and a 3D character storage unit to store 3D characters composed of the 3D objects, A system for providing multi-user location-based content interaction using a virtualized cloud.
제 1 항에 있어서,
상기 메인처리유닛은,
상기 서브디바이스로부터 3D 캐릭터를 수신받고;
배경영상에 3D 캐릭터를 포함한 출력컨텐츠를 생성하여 저장한 후;
상기 영상투사장치로 상기 출력컨텐츠를 전달함을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
The method according to claim 1,
The main processing unit,
Receiving a 3D character from the sub-device;
Generating and storing output content including a 3D character in a background image;
And the output content is delivered to the image projection apparatus.
제 1 항에 있어서,
사용자의 신체 일부에 착용되고, 이동 위치를 측정하기 위한 가속도 센서가 내장되며, 디바이스 식별코드가 부여된 웨어러블디바이스와;
사용자의 움직임과 형태 그리고 상기 웨어러블디바이스의 초기 위치를 인식하는 동작감지장치를 더 포함하여 구성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
The method according to claim 1,
A wearable device worn on a part of a user's body and equipped with an acceleration sensor for measuring a movement position, and provided with a device identification code;
And a motion detection device for recognizing the user's motion and shape and the initial position of the wearable device.
제 5 항에 있어서,
상기 서브디바이스는,
상기 디바이스 식별코드와 상기 웨어러블디바이스 사용자로부터 부여된 사용자 식별코드를 매칭하여 저장하고;
상기 사용자 식별코드는,
E-mail 또는 SNS(Social Network Services)계정 중 어느 하나 이상을 포함하여 구성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
6. The method of claim 5,
The sub-
Storing the device identification code and the user identification code assigned by the user of the wearable device;
Wherein the user identification code comprises:
E-mail, or Social Network Services (SNS) account. The present invention provides a system for providing content interaction according to a multi-user location using a virtual cloud.
제 5 항에 있어서,
상기 메인처리유닛은,
상기 웨어러블디바이스의 위치에 따라 배경영상에서의 3D 캐릭터 위치정보를 산출하는 산출모듈과;
상기 산출모듈이 산출한 3D 캐릭터의 위치정보에 따라 상기 배경영상에 3D 캐릭터가 포함된 영상을 구성하는 영상구성모듈을 포함하여 구성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
6. The method of claim 5,
The main processing unit,
A calculation module for calculating 3D character position information in the background image according to the position of the wearable device;
And a video composition module for composing an image including a 3D character in the background image according to position information of the 3D character calculated by the calculation module. .
제 7 항에 있어서,
상기 메인처리유닛은,
상기 동작감지장치로부터 상기 웨어러블디바이스의 초기 위치를 수신받고; 상기 웨어러블디바이스로부터 3차원 공간에서의 이동값을 수신받아;
상기 웨어러블디바이스의 초기 위치와 상기 이동값을 병합하여 상기 웨어러블디바이스의 위치를 산출함을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
8. The method of claim 7,
The main processing unit,
Receiving an initial position of the wearable device from the motion sensing device; Receiving a movement value in the three-dimensional space from the wearable device;
Wherein the position of the wearable device is calculated by merging the initial position of the wearable device and the movement value, thereby calculating the location of the wearable device.
제 5 항에 있어서,
상기 메인처리유닛은,
사용자 별 컨텐츠를 저장하는 사용자 별 컨텐츠DB를 더 포함하여 구성되고:
상기 사용자 별 컨텐츠는,
동작감지장치로부터 사용자가 인식된 시간부터 상기 웨어러블디바이스가 종료되기 전까지의 상기 출력컨텐츠를 포함하여 생성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
6. The method of claim 5,
The main processing unit,
And a user-specific content DB for storing content for each user:
The user-
Wherein the output content is generated from a time when the user is recognized by the motion sensing device to when the wearable device is terminated.
제 9 항에 있어서,
상기 사용자 별 컨텐츠는,
상기 서브디바이스에서 3D 캐릭터를 생성하는 과정 영상을 더 포함하여 생성됨을 특징으로 하는 가상화 클라우드를 이용한 다중 사용자 위치에 따른 컨텐츠 인터렉션 제공 시스템.
10. The method of claim 9,
The user-
And generating a 3D character in the sub-device. The system of claim 1, further comprising:
KR1020160010667A 2016-01-28 2016-01-28 System for providing interaction contents users location-based using virtual cloud KR101715651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160010667A KR101715651B1 (en) 2016-01-28 2016-01-28 System for providing interaction contents users location-based using virtual cloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160010667A KR101715651B1 (en) 2016-01-28 2016-01-28 System for providing interaction contents users location-based using virtual cloud

Publications (1)

Publication Number Publication Date
KR101715651B1 true KR101715651B1 (en) 2017-03-14

Family

ID=58460069

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160010667A KR101715651B1 (en) 2016-01-28 2016-01-28 System for providing interaction contents users location-based using virtual cloud

Country Status (1)

Country Link
KR (1) KR101715651B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615580B1 (en) * 2023-02-06 2023-12-21 주식회사 에이치디엠 Character motion control apparatus and method for controlling motion of character depending on the user's movement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110006465A (en) * 2009-07-14 2011-01-20 주식회사 프라이머스코즈 3-d virtual-reality aquarium device
KR20150025365A (en) * 2013-08-29 2015-03-10 주식회사 엘지유플러스 Method for Producing 3-Dimensional Contents in Terminal, and the Terminal thereof
KR101577216B1 (en) 2014-02-27 2015-12-14 서울시립대학교 산학협력단 Apparatus and method of providing location based content, wearble device and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110006465A (en) * 2009-07-14 2011-01-20 주식회사 프라이머스코즈 3-d virtual-reality aquarium device
KR20150025365A (en) * 2013-08-29 2015-03-10 주식회사 엘지유플러스 Method for Producing 3-Dimensional Contents in Terminal, and the Terminal thereof
KR101577216B1 (en) 2014-02-27 2015-12-14 서울시립대학교 산학협력단 Apparatus and method of providing location based content, wearble device and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615580B1 (en) * 2023-02-06 2023-12-21 주식회사 에이치디엠 Character motion control apparatus and method for controlling motion of character depending on the user's movement

Similar Documents

Publication Publication Date Title
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP7297028B2 (en) Systems and methods for augmented reality
US10558048B2 (en) Image display system, method for controlling image display system, image distribution system and head-mounted display
KR101670147B1 (en) Portable device, virtual reality system and method
CN104380347B (en) Video processing equipment, method for processing video frequency and processing system for video
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
CN102274633B (en) Image display system, image display apparatus, and image display method
US8952956B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
CN109643014A (en) Head-mounted display tracking
CN105190703A (en) Using photometric stereo for 3D environment modeling
KR20140008510A (en) Using a three-dimensional environment model in gameplay
EP2565848B1 (en) Program, information processing apparatus, information processing system, and information processing method
EP3109833B1 (en) Information processing device and information processing method
US20200294265A1 (en) Information processing apparatus, method for processing information, and computer program
CN106950534B (en) Spatial position detection method and system and VR (virtual reality) wearable equipment
CN103520921A (en) Cursor control method and system and control device
KR101715651B1 (en) System for providing interaction contents users location-based using virtual cloud
JP2018032102A (en) Method for providing virtual space, method for providing virtual experience, program and recording medium
WO2018179254A1 (en) Image generation device, image generation method, and program
JP2017142816A (en) Synchronization server and synchronization method
JP5698028B2 (en) Program and stereoscopic image generation apparatus
JP6114848B1 (en) Synchronization server and synchronization method
CN109917904A (en) The spatial position computing system of object in virtual reality or augmented reality environment
US20240087156A1 (en) Information processing system, information processing device, control method of information processing device, and program
US12026831B2 (en) Electronic device and method for spatial mapping using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200212

Year of fee payment: 4