KR20200031259A - System for sharing of image data or video data for interaction contents and the method thereof - Google Patents

System for sharing of image data or video data for interaction contents and the method thereof Download PDF

Info

Publication number
KR20200031259A
KR20200031259A KR1020180110036A KR20180110036A KR20200031259A KR 20200031259 A KR20200031259 A KR 20200031259A KR 1020180110036 A KR1020180110036 A KR 1020180110036A KR 20180110036 A KR20180110036 A KR 20180110036A KR 20200031259 A KR20200031259 A KR 20200031259A
Authority
KR
South Korea
Prior art keywords
user
content
distance
movement
unit
Prior art date
Application number
KR1020180110036A
Other languages
Korean (ko)
Inventor
윤재승
Original Assignee
(주)더나기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)더나기술 filed Critical (주)더나기술
Priority to KR1020180110036A priority Critical patent/KR20200031259A/en
Publication of KR20200031259A publication Critical patent/KR20200031259A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a system for sharing image data for interaction content changed by movements of a user and a method thereof. The system for sharing image data for interaction content provides realistic and sophisticated interaction content between a shape of a user and a game image by keeping a first distance between a display and a mirror, and a second distance between the mirror and the user the same, and shares image data for the interaction content in a short time at low cost.

Description

인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법{SYSTEM FOR SHARING OF IMAGE DATA OR VIDEO DATA FOR INTERACTION CONTENTS AND THE METHOD THEREOF}System and method for video data sharing for interactive content {SYSTEM FOR SHARING OF IMAGE DATA OR VIDEO DATA FOR INTERACTION CONTENTS AND THE METHOD THEREOF}

본 발명은 인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자의 움직임에 의해 발생하는 인터랙션 콘텐츠에 대한 영상 데이터를 공유하는 기술에 관한 것이다.The present invention relates to a video data sharing system and method for interactive content, and more particularly, to a technique for sharing video data for interactive content generated by a user's movement.

최근 디지털 영상 미디어의 발전으로 인해 입체 콘텐츠 또는 인터랙션 콘텐츠에 대한 관심이 높아지고 있으며, 입체 콘텐츠 또는 인터랙션 콘텐츠 제작에 관련된 많은 기술들이 연구, 개발되고 있다.Due to the recent development of digital video media, interest in stereoscopic content or interactive content has increased, and many technologies related to the production of stereoscopic content or interactive content have been researched and developed.

입체 콘텐츠 또는 인터랙션 콘텐츠의 제작 기술은 기존의 2차원 평면 영상과는 달리 사람이 보고 느끼는 실제 영상과 유사하여 시각정보의 질적 수준을 한층 높여주는 새로운 개념의 실감형 영상미디어로서 차세대 디지털 영상 문화를 주도하고 있다. 이러한 입체 콘텐츠 또는 인터랙션 콘텐츠의 제작 기술은 차세대 영상 가시화 분야 개발의 핵심기술로 자리매김을 하고 있다.Unlike conventional 2D flat images, the production technology of stereoscopic contents or interactive contents is similar to the real images seen and felt by humans, and is a new concept of realistic image media that enhances the quality of visual information and leads the next generation of digital image culture. Doing. Such stereoscopic content or interactive content production technology has established itself as a core technology in the development of next-generation image visualization.

기존의 대다수의 사용자들은 입체 콘텐츠 또는 인터랙션 콘텐츠를 제작하기 위해서, 사용자의 움직임에 대한 영상 데이터를 획득하고, 영상 데이터에 다양한 콘텐츠 및 컴퓨터 그래픽(Computer Graphics; CG) 효과를 적용하는 방법을 사용하였다.In order to produce stereoscopic content or interactive content, the majority of existing users used a method of acquiring video data of a user's movement and applying various contents and computer graphics (CG) effects to the video data.

이로 인하여, 기존에는 입체 콘텐츠 또는 인터랙션 콘텐츠를 제작하기 위해 많은 시간 및 비용이 소요되었으며, 입체 콘텐츠 또는 인터랙션 콘텐츠에 사용자의 움직임과 콘텐츠 간의 불완전한 요소가 포함된다는 문제점이 존재하였다. For this reason, in the past, it took a lot of time and money to produce three-dimensional content or interactive content, and there existed a problem that the incomplete element between the user's movement and the content was included in the three-dimensional content or interactive content.

전술한 기존 기술의 한계를 극복하기 위해서, 고도의 현실감을 느낄 수 있는 인터랙션 콘텐츠를 비교적 짧은 시간에 그리고 비교적 저비용으로 생성 및 제공할 수 있는 시스템의 개발이 요구된다.In order to overcome the limitations of the above-described existing technology, there is a need to develop a system capable of generating and providing interactive content capable of feeling highly realistic in a relatively short time and at a relatively low cost.

본 발명의 목적은 사용자의 움직임에 따른 인터랙션 콘텐츠를 촬영하며, 획득되는 영상 데이터를 사용자에게 제공하여 짧은 시간에 저비용으로 인터랙션 콘텐츠에 대한 영상 데이터를 공유하고자 한다.An object of the present invention is to capture the interaction content according to the user's movement, and to provide the obtained image data to the user to share the image data for the interaction content at a low cost in a short time.

또한, 본 발명의 목적은 디스플레이 및 미러 사이의 제1 거리와, 미러 및 사용자 사이의 제2 거리를 동일하게 유지하여 사용자의 형상과 게임 영상 간의 효율적이고 현실적인 인터랙션 콘텐츠를 제공하고자 한다. In addition, an object of the present invention is to provide an efficient and realistic interaction content between a user's shape and a game image by keeping the first distance between the display and the mirror and the second distance between the mirror and the user the same.

또한, 본 발명의 목적은 사용자의 움직임을 게임 영상에 적용함으로써, 3차원 게임 영상, 홀로그램 영상, 증강현실 영상과 같은 다양한 게임 영상을 제공하고자 한다. Also, an object of the present invention is to provide various game images, such as a 3D game image, a hologram image, and an augmented reality image, by applying a user's movement to a game image.

인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법.Video data sharing system and method for interaction content.

본 발명의 실시예에 따르면, 사용자의 움직임에 따른 인터랙션 콘텐츠를 촬영하며, 획득되는 영상 데이터를 사용자에게 제공하여 짧은 시간에 저비용으로 인터랙션 콘텐츠에 대한 영상 데이터를 공유할 수 있다. According to an embodiment of the present invention, the interaction content according to the user's movement is photographed, and the obtained image data is provided to the user, so that the image data for the interaction content can be shared in a short time and at a low cost.

또한, 본 발명의 실시예에 따르면, 디스플레이 및 미러 사이의 제1 거리와, 미러 및 사용자 사이의 제2 거리를 동일하게 유지하여 사용자의 형상과 게임 영상 간의 효율적이고 현실적인 인터랙션 콘텐츠를 제공할 수 있다. In addition, according to an embodiment of the present invention, the first distance between the display and the mirror and the second distance between the mirror and the user are kept the same, thereby providing efficient and realistic interaction content between the user's shape and the game image. .

또한, 본 발명의 실시예에 따르면, 사용자의 움직임을 게임 영상에 적용함으로써, 3차원 게임 영상, 홀로그램 영상, 증강현실 영상과 같은 다양한 게임 영상을 제공할 수 있다. Further, according to an embodiment of the present invention, by applying the user's movement to the game image, it is possible to provide various game images such as a 3D game image, a hologram image, and an augmented reality image.

도 1은 본 발명의 실시예에 따른 인터랙션 콘텐츠의 데이터 공유 시스템에 대한 구성도를 도시한 것이다.
도 2 및 도 3은 본 발명의 실시예에 따른 위치 감지 모듈 및 모션 인식 모듈의 예를 도시한 것이다.
도 4 내지 도 6은 본 발명의 실시예에 따른 데이터 공유 시스템의 상면도를 도시한 것이다.
도 7은 본 발명의 실시예에 따른 인터랙션 콘텐츠에 대한 영상 데이터를 공유하는 데이터 공유 방법의 흐름도를 도시한 것이다.
1 is a block diagram of a data sharing system for interaction content according to an embodiment of the present invention.
2 and 3 show examples of the position sensing module and the motion recognition module according to an embodiment of the present invention.
4 to 6 show a top view of a data sharing system according to an embodiment of the present invention.
7 is a flowchart of a data sharing method for sharing image data for interaction content according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. In addition, the same reference numerals shown in each drawing denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, terms used in the present specification (terminology) are terms used to properly express a preferred embodiment of the present invention, which may vary depending on viewers, operator's intentions, or customs in the field to which the present invention pertains. Therefore, definitions of these terms should be made based on the contents throughout the present specification.

도 1은 본 발명의 실시예에 따른 인터랙션 콘텐츠의 데이터 공유 시스템에 대한 구성도를 도시한 것이다.1 is a block diagram of a data sharing system for interaction content according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템은 사용자의 움직임에 의해 발생하는 인터랙션 콘텐츠(interaction contents)에 대한 영상 데이터를 공유한다.Referring to FIG. 1, a data sharing system according to an embodiment of the present invention shares image data on interaction contents generated by a user's movement.

이를 위해, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 콘텐츠 제공부(110), 모션 감지부(120), 데이터 획득부(130) 및 데이터 전송부(140)를 포함한다. To this end, the data sharing system 100 according to an embodiment of the present invention includes a content providing unit 110, a motion detection unit 120, a data acquisition unit 130, and a data transmission unit 140.

콘텐츠 제공부(110)는 콘텐츠를 디스플레이하는 디스플레이부(111)와, 디스플레이부(111)에서 제1 거리(101)만큼 이격되어 형성되어 디스플레이부(111)에서 디스플레이되는 콘텐츠 및 사용자의 형상(10)을 반사적이고 부분적으로 제공하는 미러부(112)를 포함한다. The content providing unit 110 is formed by a display unit 111 for displaying content and a first distance 101 apart from the display unit 111 to display the content and the user's shape 10 displayed on the display unit 111. ), Which is reflective and partially provided.

디스플레이부(111)는 게임 영상 또는 콘텐츠를 디스플레이한다.The display 111 displays a game image or content.

예를 들면, 디스플레이부(111)는 게임 영상 중 전경 영상(foreground image) 및 배경 영상(background image)의 전시 영상을 디스플레이할 수 있으며, 메뉴버튼이나 텍스트 정보를 포함하는 텍스트 영상, 사용자에게 게임 영상, 광고를 제공하기 위한 다양한 이미지, 캐릭터, 게임 영상에 관련된 콘텐츠 또는 컴퓨터 그래픽 효과의 콘텐츠 영상을 디스플레이할 수 있다.For example, the display 111 may display an exhibition image of a foreground image and a background image among game images, a text image including menu buttons or text information, and a game image to a user. , Contents related to various images, characters, game images, or computer graphic effects for providing advertisements may be displayed.

실시예에 따라서, 디스플레이부(111)는 영상을 출력하는 패널로 LCD 패턴(TFT-LCD)일 수 있으나, LED 또는 OLED 모니터일 수 있고, 플렉서블(Flexible)하거나 투명한 디스플레이일 수도 있다. 나아가, 디스플레이부(111)는 프로젝터 빔일 수 있으며, 빔을 통해 미러부(112)로 게임 영상을 디스플레이 또는 조사할 수도 있다.According to an embodiment, the display 111 may be an LCD pattern (TFT-LCD) as a panel for outputting an image, but may be an LED or OLED monitor, or may be a flexible or transparent display. Furthermore, the display unit 111 may be a projector beam, and a game image may be displayed or irradiated to the mirror unit 112 through the beam.

미러부(112)는 디스플레이부(111)에서 디스플레이되는 게임 영상과 같은 콘텐츠를 투과하고, 사용자의 움직임에 따른 형상을 반사하며, 콘텐츠와 사용자의 형상(10) 간의 인터랙션 콘텐츠를 제공한다. 이 때, 미러부(112)는 디스플레이부(111)와 제1 거리(101)만큼 이격되어 형성되며, 제1 거리(101)에 동일한 거리 값을 나타내는 제2 거리(102)만큼 모션 감지부(120) 또는 사용자(10)가 위치하므로, 미러부(112)는 투과되는 콘텐츠(또는 게임 영상) 및 반사되는 사용자의 형상(10) 간의 인터랙션 콘텐츠를 제공할 수 있다. The mirror unit 112 transmits content such as a game image displayed on the display unit 111, reflects a shape according to a user's movement, and provides interaction content between the content and the user's shape 10. At this time, the mirror unit 112 is formed by being spaced apart from the display unit 111 by a first distance 101, and a motion detection unit by a second distance 102 indicating the same distance value to the first distance 101 ( 120) or the user 10 is located, the mirror unit 112 may provide an interactive content between the transmitted content (or game image) and the reflected user shape 10.

실시예에 따라서, 미러부(112)는 가로, 세로, 높이는 디스플레이부(111)와 동일한 것을 기본으로 하나, 디스플레이부(111)가 프로젝터 빔인 경우, 디스플레이 또는 조사되는 콘텐츠의 크기가 미러부(112)와 동일한 사이즈일 수도 있다. According to an embodiment, the mirror unit 112 is horizontal, vertical, and height based on the same thing as the display unit 111, but when the display unit 111 is a projector beam, the size of the display or irradiated content is the mirror unit 112 It may be the same size as).

본 발명의 실시예에 따른 데이터 공유 시스템(100)에 의해 인터랙션 콘텐츠가 제공되는 예를 구체적으로 설명하자면, 디스플레이부(111)에서 게임 영상에 관련된 콘텐츠가 디스플레이되고, 사용자(10)는 미러부(112)를 통해 투과되는 콘텐츠에 따른 행동을 수행하며, 콘텐츠는 사용자의 움직임에 따라 변화될 수 있다. 이로 인하여, 미러부(112)는 사용자의 움직임에 의해 변화되어 디스플레이부(111)를 통해 디스플레이되는 콘텐츠를 투과하고, 콘텐츠에 따라 움직이는 사용자(10)의 형상을 반사하며, 변화되어 디스플레이되는 콘텐츠 및 움직임이 발생하는 사용자(10)의 형상 간의 인터랙션 콘텐츠를 제공할 수 있다. To specifically describe an example in which interactive content is provided by the data sharing system 100 according to an embodiment of the present invention, content related to a game image is displayed on the display unit 111, and the user 10 displays a mirror unit ( 112) performs the action according to the content transmitted through, the content may be changed according to the user's movement. Due to this, the mirror unit 112 is changed by the user's movement, transmits the content displayed through the display unit 111, reflects the shape of the user 10 moving according to the content, changes the displayed content, and It is possible to provide interaction content between the shapes of the user 10 where the movement occurs.

여기서, 인터랙션 콘텐츠(interaction contents)란, 사용자의 형상(10)에 대응하는 게임 영상, 콘텐츠 및 서비스를 나타내는 것으로, 예를 들어, 사용자의 머리 크기에 맞는 왕관, 사용자의 손 위에 올려진 사과의 크기, 사용자에게 다가오는 장애물 또는 사용자에게서 멀어지는 장애물과 같이 사용자의 움직임 동작에 의해 변화하거나 발생하는 게임 영상에 관련된 컴퓨터 그래픽 효과, 및 사용자의 형상에 따라 변화되는 콘텐츠를 일컫을 수 있다. 또한, 인터랙션 콘텐츠는 게임 영상, 콘텐츠, 아이콘 외에 진동, 연기, 냄새, 바람, 조명 및 사운드 중 적어도 어느 하나 이상의 효과를 더 포함할 수 있다.Here, the interaction content refers to a game image, content, and service corresponding to the user's shape 10, for example, a crown that fits the user's head size, and the size of an apple placed on the user's hand. , Computer graphic effects related to game images that are changed or generated by the user's motion, such as obstacles approaching the user or obstacles away from the user, and content that changes according to the shape of the user. In addition, the interaction content may further include at least one or more effects of vibration, smoke, smell, wind, lighting, and sound, in addition to game images, content, and icons.

모션 감지부(120)는 미러부(112)에서 제2 거리(102)만큼 이격되어 위치하는 사용자의 움직임을 감지한다. The motion detection unit 120 detects a user's movement located at a distance from the mirror 112 by a second distance 102.

모션 감지부(120)는 복수의 카메라, 센서 및 프로젝터 중 적어도 어느 하나 이상을 이용하여 미러부(112)에서 제2 거리(102)만큼 이격되어 위치하는 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 감지할 수 있다. 여기서, 사용자의 움직임을 감지하는 것은 사용자의 팔, 손, 다리, 발, 머리, 몸통 등의 움직임과 사용자의 위치를 감지하는 것, 사용자의 신체에 부착된 물건의 움직임을 감지하는 것, 사용자가 입고 있는 물건(예를 들면, 헬멧, 모자, 옷, 장갑 등)의 움직임을 감지하는 것, 사용자가 잡고 있는 물건(예를 들면, 리모트 컨트롤러, 게임용 도구, 운동 도구 등)의 움직임을 감지하는 것을 의미할 수 있다.The motion detector 120 uses the at least one of a plurality of cameras, sensors, and projectors to position, move, and shape the user 10 to be spaced apart by a second distance 102 from the mirror 112. Can detect the movement of. Here, detecting the user's movement is detecting the movement of the user's arm, hand, leg, foot, head, torso, etc., and the user's location, detecting the movement of an object attached to the user's body, Detecting the movement of an object (e.g., helmet, hat, clothes, gloves, etc.) or detecting the movement of an object (e.g., remote controller, game tool, exercise tool, etc.) being held by the user. Can mean

예를 들면, 미러부(112)에서 제2 거리(102)만큼 이격된 지점에 사용자(10)가 위치하여 움직이는 경우, 모션 감지부(120)는 복수의 카메라, 센서 및 프로젝터 중 적어도 어느 하나 이상을 이용하여 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 감지할 수 있다.For example, when the user 10 is located and moved at a point spaced apart by the second distance 102 from the mirror unit 112, the motion detector 120 may include at least one of a plurality of cameras, sensors, and projectors. It is possible to detect the position, motion, and movement of a three-dimensional shape of the user 10 using.

실시예에 따라서, 모션 감지부(120)는 동일한 거리 값을 나타내는 제1 거리(101) 및 제2 거리(102)에 따라, 미러부(112)에서 제2 거리(102)만큼 이격된 지점에 위치하며, 사용자를 위치시키는 위치 지점일 수 있다. 더욱이, 모션 감지부(120)는 디스플레이부(111) 및 미러부(112)와 같은 패널 또는 기기를 나타내는 것이 아닌, 지점, 위치 또는 공간을 지정할 수 있다. According to an embodiment, the motion detection unit 120 is at a point spaced apart by the second distance 102 from the mirror unit 112 according to the first distance 101 and the second distance 102 indicating the same distance value. It is located, and may be a location point that positions the user. Moreover, the motion detector 120 may designate a point, location, or space, rather than indicating a panel or device such as the display 111 and the mirror 112.

모션 감지부(120)의 부근에는 복수의 카메라, 센서 및 프로젝터 중 적어도 어느 하나 이상을 포함하는 모션 인식 모듈이 위치할 수 있다. 일 예로, 모션 감지부(120)는 사용자(10)의 측면, 위 또는 아래에 위치하는 모션 인식 모듈로부터 센싱 정보를 수신하여 사용자의 움직임을 감지할 수 있다. 다른 예로, 모션 감지부(120)는 미러부(112)에 부착되어 사용자의 정면에 위치하는 모션 인식 모듈로부터 센싱 정보를 수신하여 사용자의 움직임을 감지할 수도 있다.A motion recognition module including at least one of a plurality of cameras, sensors, and projectors may be located in the vicinity of the motion detector 120. For example, the motion detector 120 may sense the user's movement by receiving sensing information from a motion recognition module located on the side, top, or bottom of the user 10. As another example, the motion detection unit 120 may be attached to the mirror unit 112 to receive sensing information from a motion recognition module located in front of the user to detect the user's movement.

데이터 획득부(130)는 영상 촬영 기기(131)를 이용하여, 사용자의 움직임에 따라 변화되어 콘텐츠 제공부(110)를 통해 제공되는 인터랙션 콘텐츠에 대한 영상 데이터를 획득한다. The data acquisition unit 130 acquires image data for interaction content that is changed according to a user's movement and is provided through the content providing unit 110 using the image photographing device 131.

데이터 획득부(130)는 영상 촬영 기기(131)를 이용하여 사용자의 움직임에 따라 변화하는 인터랙션 콘텐츠의 과정을 촬영하며, 기 설정된 크기, 이미지(image) 또는 비디오(video) 형태의 영상 데이터를 획득할 수 있다.The data acquisition unit 130 photographs a process of interaction content that changes according to a user's movement using the image photographing device 131, and acquires image data in a predetermined size, image, or video format can do.

이 때, 영상 촬영 기기(131)는 카메라일 수 있으며, 미러부(112)에 투과 또는 반사되는 인터랙션 콘텐츠를 촬영할 수 있다. 예를 들면, 디스플레이부(111)를 통해 디스플레이되는 콘텐츠(또는 게임 영상) 및 콘텐츠에 대응하는 사용자의 움직임에 의해 인터랙션 콘텐츠가 발생될 수 있으며, 영상 촬영 기기(131)는 미러부(112)에 의해 투과 또는 반사되는 콘텐츠 및 사용자의 형상 간의 인터랙션 콘텐츠를 촬영하며, 데이터 획득부(130)는 영상 촬영 기기(131)를 통해 인터랙션 콘텐츠에 대한 영상 데이터를 획득할 수 있다. In this case, the image photographing device 131 may be a camera, and may capture interaction content that is transmitted or reflected by the mirror unit 112. For example, content (or game images) displayed through the display unit 111 and interaction content may be generated by a user's movement corresponding to the content, and the image photographing device 131 is connected to the mirror unit 112. The interaction content between the transmitted or reflected content and the shape of the user is photographed, and the data acquisition unit 130 may acquire the image data for the interaction content through the image photographing device 131.

일 예로, 데이터 획득부(130)는 사용자(10)에 의해 설정된 시간, 디스플레이부(111)를 통해 디스플레이되는 콘텐츠의 재생 시간 또는 인터랙션 콘텐츠의 재생 시간에 대응하는 시간의 길이만큼 비디오 형태의 영상 데이터를 획득할 수 있다. 이 때, 영상 데이터는 사용자(10)의 형상을 제외한 인터랙션 콘텐츠를 포함한 것일 수 있으며, 움직임에 따른 사용자(10)의 신체 일부를 포함한 인터랙션 콘텐츠를 포함한 것일 수도 있다. For example, the data acquisition unit 130 is video data in the form of video by a length of time corresponding to a time set by the user 10, a playback time of content displayed through the display unit 111, or a playback time of interactive content. Can be obtained. In this case, the image data may include interaction content excluding the shape of the user 10, or may include interaction content including a body part of the user 10 according to movement.

데이터 전송부(140)는 영상 데이터를 사용자(10)가 소지하는 모바일 단말로 전송한다. The data transmission unit 140 transmits image data to a mobile terminal possessed by the user 10.

데이터 전송부(140)는 영상 데이터를 사용자가 소지하는 모바일 단말 또는 외부 서버로 전송할 수 있다. 이 때, 상기 외부 서버는 소셜 네트워크 서비스(Social Network Services/Sites) 서버 또는 동영상 서버이며, 수신되는 영상 데이터를 사용자가 소지하는 모바일 단말로 전송할 수 있다. 나아가, 모바일 단말은 도 1에 도시된 사용자(10) 외에 제3의 사용자가 소지할 수도 있다. The data transmission unit 140 may transmit image data to a mobile terminal or an external server owned by the user. At this time, the external server is a Social Network Services / Sites server or a video server, and may transmit the received image data to a mobile terminal possessed by the user. Furthermore, the mobile terminal may be carried by a third user in addition to the user 10 shown in FIG. 1.

상기 모바일 단말은 사용자가 소지하는 단말 기기로, 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 예를 들면, 상기 모바일 단말은 스마트폰(smart phone), 휴대폰, 컴퓨터, 노트북, 웨어러블 기기(wearable device) 및 태블릿 PC(table PC) 중 적어도 어느 하나일 수 있다. 일 예로, 상기 모바일 단말은 무선 또는 유선 통신 방식을 이용하여 네트워크(예를 들면, 인터넷)을 통해 다른 단말들 및/또는 서버와 통신할 수 있다. The mobile terminal is a terminal device possessed by a user, and may be a fixed terminal or a mobile terminal implemented as a computer device. For example, the mobile terminal may be at least one of a smart phone, a mobile phone, a computer, a laptop, a wearable device, and a tablet PC. For example, the mobile terminal may communicate with other terminals and / or servers through a network (eg, the Internet) using a wireless or wired communication method.

도 1을 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 인터랙션 콘텐츠로 인한 사용자의 위치를 변경하기 위해 출력 정보를 제공하는 제어부(150)를 더 포함할 수 있다. Referring to FIG. 1, the data sharing system 100 according to an embodiment of the present invention may further include a control unit 150 that provides output information to change a user's location due to interaction content.

제어부(150)는 사용자의 움직임에 의해 변화하는 인터랙션 콘텐츠 또는 사용자의 이동에 따라 변동되는 제2 거리(102)에 따라 사용자에게 위치 이동을 안내하기 위한 출력 정보를 제공하거나, 변동되는 제2 거리(102)에 대응하도록 제1 거리(101)를 이동시켜, 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지할 수 있다.The control unit 150 provides output information for guiding the movement of the position to the user according to the interaction content changing according to the user's movement or the second distance 102 that changes according to the user's movement, or the variable second distance ( By moving the first distance 101 to correspond to 102, the same distance values of the first distance 101 and the second distance 102 may be maintained.

예를 들면, 사용자(10)의 움직임에 따라 변동되는 경우, 제어부(150)는 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지하기 위해 오디오 모듈, 스피커 모듈 또는 부저의 출력부(미도시)를 통해 경고음을 출력하거나, LED(Light Emitting Diode)를 이용하여 경고등을 점멸할 수 있으며, 진동 모듈을 이용하여 진동을 출력함으로써, 사용자(10)에게 앞, 뒤, 좌, 우의 이동을 유도할 수 있다. For example, in case of fluctuation according to the movement of the user 10, the control unit 150 may control the audio module, speaker module, or buzzer to maintain the same distance value between the first distance 101 and the second distance 102. A warning sound may be output through an output unit (not shown), or a warning light may be blinked using a LED (Light Emitting Diode), and vibration may be output using a vibration module, so that the user 10 is provided with front, rear, left, It can induce the movement of the right.

제어부(150)는 복수의 게임 영상 중 사용자(10)에 의해 선택되는 콘텐츠에 따라, 사용자에게 위치 이동을 안내하기 위한 출력 정보를 제공하고, 제1 거리(101)를 이동시켜, 제1 거리(101) 및 제2 거리(102)의 거리 값을 제어할 수 있다. The controller 150 provides output information for guiding the user to move the location according to the content selected by the user 10 among the plurality of game images, and moves the first distance 101 to move the first distance ( 101) and the distance values of the second distance 102 can be controlled.

본 발명의 실시예에 따른 데이터 공유 시스템(100)은 디스플레이부(111)를 통해 다양한 종류, 크기 및 형태의 콘텐츠를 제공하며, 콘텐츠 각각의 적정 거리 또는 적정 위치가 존재할 수 있다. 이에, 각 콘텐츠의 정적 거리 또는 적정 위치에 따라 제어부(150)는 디스플레이부(111)와 미러부(112) 간의 제1 거리(101) 및 미러부(112)와 사용자(10) 간의 제2 거리(102)의 거리 값을 제어하여 미러부(112)에 의해 투과 또는 반사되는 인터랙션 콘텐츠를 보다 현실감 있고, 역동적으로 제공할 수 있다.The data sharing system 100 according to an embodiment of the present invention provides contents of various types, sizes, and shapes through the display unit 111, and an appropriate distance or an appropriate location for each of the contents may exist. Accordingly, according to a static distance or an appropriate position of each content, the controller 150 may include a first distance 101 between the display 111 and the mirror 112 and a second distance between the mirror 112 and the user 10. By controlling the distance value of (102), the interaction content transmitted or reflected by the mirror unit 112 can be provided more realistically and dynamically.

예를 들면, 디스플레이부(111)에서 디스플레이되는 콘텐츠의 크기 및 효과에 따라 제1 거리(101) 및 제2 거리(102) 간의 거리 값이 변동될 수 있다. 이 때, 제어부(150)는 출력부(미도시)를 통해 사용자(10)에게 앞, 뒤, 좌, 우의 이동을 유도할 수 있다. For example, a distance value between the first distance 101 and the second distance 102 may vary according to the size and effect of the content displayed on the display 111. At this time, the controller 150 may induce movement of the front, back, left, and right to the user 10 through the output unit (not shown).

보다 구체적으로, 디스플레이부(111)와 미러부(112) 간의 제1 거리(101) 및 미러부(112)와 사용자(10) 간의 제2 거리(102)가 동일한 거리 값을 나타내는 경우, 사용자(10)는 미러부(112)를 통해 투과 및 반사되는 인터랙션 콘텐츠를 보다 현실감 있게 체험할 수 있다. 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값은 디스플레이되는 콘텐츠의 종류, 크기 및 효과에 의해 변동될 수 있으며, 예를 들어, 디스플레이되는 콘텐츠가 원거리 콘텐츠인 경우, 제1 거리(101) 및 제2 거리(102)의 거리 값이 증가되고, 디스플레이되는 콘텐츠가 근거리 콘텐츠인 경우, 제1 거리(101) 및 제2 거리(102)의 거리 값이 감소될 수 있다. More specifically, when the first distance 101 between the display unit 111 and the mirror unit 112 and the second distance 102 between the mirror unit 112 and the user 10 indicate the same distance value, the user ( 10) can more realistically experience the interaction content that is transmitted and reflected through the mirror unit 112. The same distance value of the first distance 101 and the second distance 102 may be varied by the type, size, and effect of the displayed content. For example, when the displayed content is remote content, the first distance ( 101) and the distance values of the second distance 102 are increased, and when the displayed content is short range content, the distance values of the first distance 101 and the second distance 102 may be decreased.

제어부(150)는 모션 감지부(120)에 의해 감지되는 사용자의 움직임에 따라 디스플레이부(111)로 인한 게임 영상을 제어할 수 있다.The controller 150 may control a game image caused by the display 111 according to a user's movement detected by the motion detector 120.

예를 들면, 제어부(150)는 모션 감지부(120)에 의해 감지되는 사용자의 움직임에 대응하여 콘텐츠의 크기, 형태, 색상 및 위치를 적용하고, 사용자의 움직임에 맞춤형으로 3차원 게임 영상, 홀로그램 영상, 증강현실 영상과 같은 다양한 게임 영상 또는 서비스가 디스플레이부(111)를 통해 디스플레이되도록 제어할 수 있다. For example, the controller 150 applies the size, shape, color, and location of the content in response to the user's movement detected by the motion detector 120, and the 3D game image and hologram customized to the user's movement. Various game images or services such as images and augmented reality images may be controlled to be displayed through the display unit 111.

실시예에 따라서, 사용자(10)가 미러부(112)를 향해 손을 뻗는 동작을 하는 경우, 제어부(150)는 사용자의 움직임에 대응하여, 뻗은 손 위에 사과의 콘텐츠를 디스플레이부(111)를 통해 디스플레이되도록 제어할 수 있다. 또 다른 실시예에 따라서, 사용자(10)가 점프, 뛰기, 걷기 등의 움직임을 하는 경우, 제어부(150)는 사용자의 점프에 대응하는 줄넘기의 콘텐츠 및 게임 영상을 포함하는 콘텐츠를 디스플레이부(111)를 통해 디스플레이되도록 제어할 수 있다. According to an embodiment, when the user 10 moves the hand toward the mirror 112, the controller 150 displays the content of the apple on the extended hand in response to the user's movement. It can be controlled to be displayed through. According to another embodiment, when the user 10 moves, such as jumping, jumping, walking, the controller 150 displays the content including the content of the jump rope and the game image corresponding to the user's jump 111 ) To be displayed.

제어부(150)는 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 위치 감지 모듈로부터 수신되는 위치를 감지하여 동일한 거리 값을 나타내도록 제1 거리(101) 및 제2 거리(102)를 제어할 수 있다.The control unit 150 detects a position received from each of the position sensing module of the display unit 111, the mirror unit 112, and the motion detection unit 120, so that the first distance 101 and the second distance are displayed. The distance 102 can be controlled.

예를 들면, 디스플레이부(111)의 측면, 미러부(112)의 측면 및 모션 감지부(120)의 측면 각각에는 디스플레이부(111), 미러부(112) 및 모션 감지부(120)의 위치 및 이동을 감지하는 위치 감지 모듈이 존재할 수 있다. 이에, 제어부(150)는 위치 감지 모듈로부터 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 위치 및 이동 여부를 감지할 수 있으며, 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나의 이동이 감지되는 경우, 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지하도록 위치를 제어할 수 있다.For example, the position of the display unit 111, the mirror unit 112 and the motion detection unit 120 on each side of the display unit 111, the side of the mirror unit 112, and the side of the motion detection unit 120 And there may be a position detection module for detecting the movement. Accordingly, the control unit 150 may detect whether the display unit 111, the mirror unit 112, and the motion detection unit 120 are respectively positioned and moved from the location sensing module, and the display unit 111 and the mirror unit ( If the movement of at least one of the 112 and the motion detection unit 120 is detected, the position may be controlled to maintain the same distance value between the first distance 101 and the second distance 102.

일 예로, 사용자(10)가 모션 감지부(120) 지점이 아닌, 미러부(112)에 근접하거나, 더 멀리 위치하는 경우, 제어부(150)는 사용자의 이동에 따른 제2 거리(102)의 변동에 대응하도록, 디스플레이부(111) 및 미러부(112) 간의 제1 거리(101)를 이동시켜, 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지할 수 있다. For example, when the user 10 is located closer to or closer to the mirror unit 112 than the motion detection unit 120 point, the control unit 150 determines the second distance 102 according to the user's movement. To correspond to the fluctuation, the first distance 101 between the display unit 111 and the mirror unit 112 may be moved to maintain the same distance value between the first distance 101 and the second distance 102.

다른 예로, 디스플레이부(111)의 기기 변동 또는 이동에 의해 제1 거리(101)가 변동되는 경우, 변동된 제1 거리(101)에 대응하도록, 미러부(112) 및 모션 감지부(120) 간의 제2 거리(102)를 이동시켜, 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지할 수 있다.As another example, when the first distance 101 changes due to device variation or movement of the display unit 111, the mirror unit 112 and the motion detection unit 120 correspond to the changed first distance 101. By moving the second distance 102 between, it is possible to maintain the same distance values of the first distance 101 and the second distance 102.

이 때, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 레일 및 모터에 의한 일직선 상에 위치하는 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 이동을 제어할 수 있다. At this time, the data sharing system 100 according to an embodiment of the present invention controls the movement of each of the display unit 111, the mirror unit 112, and the motion detection unit 120 positioned in a straight line by a rail and a motor. can do.

제어부(150)는 사용자(10)가 소지하는 모바일 단말로 영상 데이터에 대한 과금 정보를 청구할 수 있다.The control unit 150 may request charging information for image data to the mobile terminal possessed by the user 10.

제어부(150)는 인터랙션 콘텐츠에 대한 영상 데이터의 건당 과금 정보를 생성할 수 있다. 보다 구체적으로, 제어부(150)는 영상 데이터에 대한 재생 시간, 화질, 크기 및 개수의 옵션에 대해 각기 다른 과금 비율을 적용하여 과금 정보를 생성할 수 있으며, 생성된 과금 정보를 사용자가 소지하는 모바일 단말로 청구할 수 있다. The controller 150 may generate billing information per case of image data for interaction content. More specifically, the control unit 150 may generate billing information by applying different billing ratios to options of playback time, image quality, size, and number for the video data, and the mobile that the user possesses the generated billing information It can be charged to the terminal.

예를 들면, 재생 시간 2분, 일반 화질, 비디오 형태, 1개의 영상 데이터를 기본 옵션(이 때, 기본 과금 정보를 1,000원이라 가정함)이라 가정하고, 사용자(10)에 의해 생성된 영상 데이터의 옵션이 재생 시간 3분, 일반 화질, 비디오(video) 형태 및 1개의 데이터인 경우, 제어부(150)는 사용자(10)가 소지하는 모바일 단말로 전송되는 영상 데이터에 대한 과금 비율로, 재생 시간 초과에 대한 30%를 적용하여 과금 정보로 1,300원을 생성하며, 1,300원의 과금 정보를 사용자(10)에게 청구할 수 있다. For example, the video data generated by the user 10, assuming that the playback time is 2 minutes, the normal image quality, the video format, and one video data are basic options (in this case, the basic billing information is assumed to be 1,000 won). If the option of the playback time is 3 minutes, normal image quality, video (video) form and 1 data, the control unit 150 is the charging rate for the video data transmitted to the mobile terminal carried by the user 10, the playback time 30% of the excess is applied to generate 1,300 won as billing information, and the billing information of 1,300 won can be charged to the user 10.

또한, 제어부(150)는 디스플레이부(111)를 통해 디스플레이되는 콘텐츠의 종류 또는 컴퓨터 그래픽의 효과에 따라 각기 다른 과금 비율을 적용하여 영상 데이터의 건당 과금 정보를 생성할 수도 있다. In addition, the controller 150 may generate billing information per image data by applying different billing ratios according to types of content displayed through the display 111 or effects of computer graphics.

나아가, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 디스플레이되는 콘텐츠 및 사용자의 형상에 따라 변화되는 인터랙션 콘텐츠에 의해 서로 다른 옵션의 영상 데이터를 획득할 수 있으며, 각 옵션에 부가되는 가중치를 기반으로 옵션, 과금 비율 및 과금 정보를 전술한 바 외에 다양하게 적용할 수 있음은 당연하다. Furthermore, the data sharing system 100 according to an embodiment of the present invention may acquire image data of different options by the displayed content and the interactive content changed according to the shape of the user, and the weight added to each option may be obtained. Based on this, it is natural that options, billing ratios, and billing information can be applied in various ways other than those described above.

도 2 및 도 3은 본 발명의 실시예에 따른 위치 감지 모듈 및 모션 인식 모듈의 예를 도시한 것이다.2 and 3 show examples of the position sensing module and the motion recognition module according to an embodiment of the present invention.

보다 상세하게는, 도 2는 본 발명의 실시예에 따른 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 위치를 감지하는 위치 감지 모듈(210)의 예를 도시한 것이고, 도 3은 본 발명의 실시예에 따른 사용자(10)의 움직임을 감지하는 모션 인식 모듈(310, 320)의 예를 도시한 것이다.More specifically, FIG. 2 shows an example of a position sensing module 210 that detects the positions of the display unit 111, the mirror unit 112, and the motion sensing unit 120 according to an embodiment of the present invention. 3 shows an example of motion recognition modules 310 and 320 that detect the motion of the user 10 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 위치를 감지하는 위치 감지 모듈(210)을 더 포함할 수 있으며, 위치 감지 모듈(210)로부터 디스플레이부(111), 미러부(112) 및 모션 감지부(120)의 위치 정보를 수신할 수 있다.Referring to FIG. 2, the data sharing system 100 according to an embodiment of the present invention includes a position sensing module 210 that detects the positions of the display 111, the mirror 112, and the motion detector 120, respectively. It may further include, it is possible to receive the location information of the display unit 111, the mirror unit 112 and the motion detection unit 120 from the position detection module 210.

예를 들면, 위치 감지 모듈(210)은 디스플레이부(111), 미러부(112) 및 모션 감지부(120)의 일 측에 단일 개로 위치할 수 있으나, 디스플레이부(111), 미러부(112) 및 모션 감지부(120)의 양 측에 복수 개로 위치할 수도 있으며, 레이저 센서 또는 적외선 센서일 수 있다. 이로 인해, 위치 감지 모듈(210)은 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나 이상의 이동을 감지할 수 있다.For example, the position detection module 210 may be located as a single piece on one side of the display unit 111, the mirror unit 112, and the motion detection unit 120, but the display unit 111, the mirror unit 112 ) And the motion detection unit 120 may be located in plural on both sides, and may be a laser sensor or an infrared sensor. For this reason, the position detection module 210 may detect movement of at least one of the display unit 111, the mirror unit 112, and the motion detection unit 120.

이 때, 모션 감지부(120)의 이동은 사용자(10)의 이동을 일컫을 수 있다. 예를 들면, 모션 감지부(120)는 사용자(10)를 위치시키는 위치 지점일 수 있으므로, 위치 감지 모듈(210)은 해당 위치 지점에서 벗어나는 사용자(10)의 이동 및 움직임을 감지하여 모션 감지부(120)의 이동으로 인식할 수도 있다. At this time, the movement of the motion detector 120 may refer to the movement of the user 10. For example, since the motion detection unit 120 may be a location point where the user 10 is located, the location detection module 210 detects the movement and movement of the user 10 deviating from the corresponding location point, and thus the motion detection unit It can also be recognized as the movement of (120).

실시예에 따라서, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 위치 감지 모듈(210)로부터 수신되는 정보에 기초하여, 제1 거리(101) 또는 제2 거리(102)의 이동을 감지할 수 있고, 감지된 거리에 기반하여 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나의 움직임 또는 이동을 감지할 수 있다.According to an embodiment, the data sharing system 100 according to an embodiment of the present invention detects the movement of the first distance 101 or the second distance 102 based on information received from the position sensing module 210. It is possible to detect movement or movement of at least one of the display unit 111, the mirror unit 112, and the motion detector 120 based on the sensed distance.

이로 인해, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 사용자(10)의 움직임 발생 시, 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지하기 위해 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나를 이동시킬 수 있으며, 출력부(미도시)를 통해 모션 감지부(120)에 위치하는 사용자(10)의 이동을 유도할 수도 있다. For this reason, the data sharing system 100 according to an embodiment of the present invention, when the movement of the user 10 occurs, the display unit to maintain the same distance values of the first distance 101 and the second distance 102 111), at least one of the mirror unit 112 and the motion detector 120 may be moved, and the user 10 located in the motion detector 120 may be moved through an output unit (not shown). You may.

도 3을 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 모션 감지부(120)에 위치하는 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 감지하는 모션 인식 모듈(310, 320)을 더 포함할 수 있다.Referring to FIG. 3, the data sharing system 100 according to an embodiment of the present invention includes a motion recognition module 310 that detects the position, motion, and movement of a three-dimensional shape of the user 10 located in the motion detector 120 , 320).

예를 들면, 모션 인식 모듈(310, 320)은 카메라(310)와 인체감지센서, 모션감지센서, 적외선 센서, 레이더 센서, 광센서 중 적어도 어느 하나의 센서(320)를 포함할 수 있다. 이 때, 카메라(310)는 사용자(10)의 일측 상단에 설치되어 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 위에서 아래로 촬영할 수 있다. 또한, 센서(320)는 사용자의 측면에 설치되어 사용자의 움직임을 감지할 수 있다. For example, the motion recognition modules 310 and 320 may include a camera 310 and at least one sensor 320 of a human body sensor, a motion sensor, an infrared sensor, a radar sensor, and an optical sensor. At this time, the camera 310 is installed at the top of one side of the user 10 to photograph the position, motion, and movement of the three-dimensional shape of the user 10 from top to bottom. In addition, the sensor 320 is installed on the side of the user can detect the movement of the user.

실시예에 따라서, 모션 인식 모듈(310, 320)은 미러부(112)의 표면에 부착된 형태일 수 있다. 또한, 모션 인식 모듈(321, 320)의 카메라(310) 및 센서(320)의 개수는 도시된 바에 한정되지 아니한다. According to an embodiment, the motion recognition modules 310 and 320 may be attached to the surface of the mirror unit 112. In addition, the number of the camera 310 and the sensor 320 of the motion recognition modules 321 and 320 is not limited to the illustrated.

도 4 내지 도 6은 본 발명의 실시예에 따른 데이터 공유 시스템의 상면도를 도시한 것이다. 4 to 6 show a top view of a data sharing system according to an embodiment of the present invention.

보다 상세하게는, 도 4는 본 발명의 실시예에 따른 디스플레이부(111), 미러부(112), 모션 감지부(120) 및 위치 감지 모듈(210)을 포함하는 데이터 공유 시스템(100)의 상면도를 도시한 것이고, 도 5는 본 발명의 실시예에 따른 모션 인식 모듈(310, 320)을 포함하는 데이터 공유 시스템(100)의 상면도를 도시한 것이다. 또한, 도 6은 본 발명의 실시예에 따른 영상 촬영 기기(131)를 이용하여 인터랙션 콘텐츠에 대한 영상 데이터를 획득하는 데이터 공유 시스템(100)의 상면도를 도시한 것이다.More specifically, FIG. 4 illustrates a data sharing system 100 including a display unit 111, a mirror unit 112, a motion detection unit 120, and a position detection module 210 according to an embodiment of the present invention. 5 illustrates a top view of a data sharing system 100 including motion recognition modules 310 and 320 according to an embodiment of the present invention. In addition, FIG. 6 illustrates a top view of a data sharing system 100 for acquiring image data for interaction content using the image photographing device 131 according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 동일한 거리 값을 나타내는 제1 거리(101) 및 제2 거리(102)만큼 이격되어 형성된 디스플레이부(111), 미러부(112) 및 모션 감지부(120)를 포함하며, 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 각각의 위치를 감지하는 복수의 위치 감지 모듈(210)을 더 포함할 수 있다. Referring to FIG. 4, the data sharing system 100 according to an embodiment of the present invention includes a display unit 111 and a mirror unit formed by being spaced apart by a first distance 101 and a second distance 102 indicating the same distance value. It includes 112 and the motion detection unit 120, and further includes a plurality of position detection modules 210 that detect the positions of the display unit 111, the mirror unit 112, and the motion detection unit 120, respectively. You can.

실시예에 따라서, 본 발명의 실시예에 따른 데이터 공유 시스템(100)의 제어부(150)는 위치 감지 모듈(210)로부터 수신되는 정보로부터 제1 거리(101) 또는 제2 거리(102) 각각의 거리 값을 감지하고, 거리 값에 의해 디스플레이부(111), 미러부(112) 및 모션 감지부(120)의 이동을 감지할 수 있다. 또한, 제어부(150)는 감지된 거리 값에 기반하여 디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나의 움직임, 이동 및 위치를 감지할 수 있다.According to an embodiment, the control unit 150 of the data sharing system 100 according to an embodiment of the present invention may each of the first distance 101 or the second distance 102 from information received from the position sensing module 210. The distance value may be detected, and movement of the display unit 111, the mirror unit 112, and the motion detection unit 120 may be detected based on the distance value. In addition, the controller 150 may detect movement, movement, and position of at least one of the display 111, the mirror 112, and the motion detector 120 based on the sensed distance value.

디스플레이부(111), 미러부(112) 및 모션 감지부(120) 중 적어도 어느 하나의 움직임이 발생하는 경우, 제어부(150)는 제1 거리(101) 및 제2 거리(102)의 동일한 거리 값을 유지하기 위해 디스플레이부(111) 또는 미러부(112)를 이동시킬 수 있으며, 경고음, 경고등 또는 진동의 출력 정보를 출력하여 모션 감지부(120)에 위치하는 사용자(10)에게 앞, 뒤, 좌, 우의 이동을 유도할 수도 있다. When at least one of the display unit 111, the mirror unit 112, and the motion detection unit 120 occurs, the control unit 150 has the same distance between the first distance 101 and the second distance 102 In order to maintain the value, the display unit 111 or the mirror unit 112 can be moved, and outputs output information of a warning sound, warning light, or vibration to the user 10 located in the motion detection unit 120, before and after , You can also induce the movement of left and right.

도 5를 참조하면, 본 발명의 실시예에 따른 데이터 공유 시스템(100)은 모션 감지부(120)에 위치하는 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 감지하는 모션 인식 모듈(310, 320, 330)을 더 포함할 수 있다.Referring to FIG. 5, the data sharing system 100 according to an embodiment of the present invention includes a motion recognition module 310 that detects the position, motion, and movement of a three-dimensional shape of the user 10 located in the motion detector 120 , 320, 330).

예를 들면, 모션 인식 모듈(310, 320, 330)은 카메라 또는 센서일 수 있으며, 적외선 카메라, 고화질 카메라, 저화질 카메라, 인체감지센서, 모션감지센서, 적외선 센서, 레이더 센서, 광센서 중 적어도 어느 하나 이상의 카메라 또는 센서를 포함할 수 있다.For example, the motion recognition modules 310, 320, and 330 may be cameras or sensors, and at least one of an infrared camera, a high-definition camera, a low-quality camera, a human body sensor, a motion sensor, an infrared sensor, a radar sensor, and a light sensor. It may include one or more cameras or sensors.

나아가, 모션 인식 모듈(310, 320, 330)은 사용자(10)를 기준으로 상, 하, 좌, 우에 위치할 수 있으며, 미러부(112)의 표면에 위치하여 사용자(10)의 정면에서 움직임을 감지할 수도 있다. Furthermore, the motion recognition modules 310, 320, and 330 may be located up, down, left, and right based on the user 10, and are located on the surface of the mirror 112 to move in front of the user 10 You can also detect

이 때, 모션 인식 모듈(310, 320, 330)의 종류, 배열 형태 및 개수는 도시된 바에 한정되지 않는다.At this time, the type, arrangement type, and number of the motion recognition modules 310, 320, and 330 are not limited to those illustrated.

본 발명의 실시예에 따른 데이터 공유 시스템(100)의 제어부(150)는 모션 인식 모듈(310, 320, 330)로부터 수신되는 정보에 기초하여, 사용자(10)의 위치, 동작 및 입체 형상의 움직임을 감지할 수 있다.The control unit 150 of the data sharing system 100 according to an embodiment of the present invention is based on information received from the motion recognition modules 310, 320, and 330, the location, operation, and movement of a three-dimensional shape of the user 10 Can detect.

이로 인해, 제어부(150)는 모션 인식 모듈(310, 320, 330)로부터 수신되는 사용자의 움직임에 대응하여 게임 영상의 크기, 형태, 색상 및 위치를 적용하고, 사용자의 움직임에 맞춤형으로 3차원 게임 영상, 홀로그램 영상, 증강현실 영상과 같은 다양한 게임 영상 또는 서비스가 디스플레이부(111)를 통해 디스플레이되도록 제어할 수 있다. For this reason, the controller 150 applies the size, shape, color, and position of the game image in response to the user's motion received from the motion recognition modules 310, 320, and 330, and is customized to the user's motion to make a 3D game. Various game images or services such as images, hologram images, and augmented reality images may be controlled to be displayed through the display unit 111.

도 6을 참조하면, 복수 개의 영상 촬영 기기(131)는 미러부(112)에 반사 및 투과되는 인터랙션 콘텐츠를 촬영한다. 예를 들면, 복수 개의 영상 촬영 기기(131)는 카메라일 수 있으며, 미러부(112)의 측면, 정면 또는 후면에 위치하여 디스플레이되는 콘텐츠와 사용자의 형상에 의해 발생되는 인터랙션 콘텐츠를 촬영하며, 데이터 획득부(130)는 복수 개의 영상 촬영 기기(131)에 의해 촬영되는 인터랙션 콘텐츠에 대한 영상 데이터를 획득할 수 있다. Referring to FIG. 6, the plurality of image photographing devices 131 photograph interaction content reflected and transmitted through the mirror unit 112. For example, the plurality of image photographing devices 131 may be cameras, and are located on the side, front, or rear of the mirror 112 to capture displayed content and interaction content generated by a user's shape, and data The acquisition unit 130 may acquire image data for interaction content photographed by the plurality of image photographing devices 131.

이 때, 복수 개의 영상 촬영 기기(131)는 단일 개일 수 있으며, 적어도 두 개 이상일 수도 있다. 나아가, 복수 개의 영상 촬영 기기(131)는 미러부(112)에 반사 및 투과되는 인터랙션 콘텐츠의 측면, 정면 또는 후면을 촬영할 수 있으며, 사용자(10)의 형상이 포함되거나, 포함되지 않은 인터랙션 콘텐츠를 촬영할 수도 있다. At this time, the plurality of image photographing devices 131 may be a single number, or may be at least two or more. Furthermore, the plurality of image photographing devices 131 may photograph side, front, or rear surfaces of the interaction content reflected and transmitted through the mirror unit 112, and include or may not include interaction content of the shape of the user 10. You can also shoot.

데이터 획득부(130)는 복수 개의 영상 촬영 기기(131)를 이용하여 미러부(112)에 의해 투과 또는 반사되는 콘텐츠 및 사용자의 형상 간의 인터랙션 콘텐츠를 촬영하여 기 설정된 크기, 이미지(image) 또는 비디오(video) 형태의 영상 데이터를 획득할 수 있다. The data acquisition unit 130 photographs an interaction content between the content transmitted or reflected by the mirror unit 112 and the shape of the user by using a plurality of image photographing devices 131 and a predetermined size, image, or video It is possible to acquire video data in the form of (video).

도 7은 본 발명의 실시예에 따른 인터랙션 콘텐츠에 대한 영상 데이터를 공유하는 데이터 공유 방법의 흐름도를 도시한 것이다.7 is a flowchart of a data sharing method for sharing image data for interaction content according to an embodiment of the present invention.

도 7의 방법은 도 1에 도시된 본 발명의 실시예에 따른 인터랙션 콘텐츠의 데이터 공유 시스템(100)에 의해 수행된다.The method of FIG. 7 is performed by the data sharing system 100 of interaction content according to the embodiment of the present invention shown in FIG. 1.

도 7을 참조하면, 단계 710에서, 미러부를 통해 감지되는 사용자의 형상과, 디스플레이부를 통해 디스플레이되는 콘텐츠를 반사적이고 부분적으로 제공한다. 이 때, 디스플레이부와 미러부 사이의 제1 거리, 및 미러부와 사용자의 위치 사이의 제2 거리는 동일한 거리 값을 나타내는 것을 특징으로 한다.Referring to FIG. 7, in step 710, a shape of a user sensed through the mirror unit and content displayed through the display unit are reflected and partially provided. At this time, the first distance between the display unit and the mirror unit, and the second distance between the mirror unit and the user's location are characterized by indicating the same distance value.

디스플레이부는 게임 영상 중 전경 영상(foreground image) 및 배경 영상(background image)의 전시 영상을 디스플레이할 수 있으며, 메뉴버튼이나 텍스트 정보를 포함하는 텍스트 영상, 사용자에게 게임 영상, 광고를 제공하기 위한 다양한 이미지, 캐릭터, 게임 영상에 관련된 콘텐츠 또는 컴퓨터 그래픽 효과의 콘텐츠 영상을 디스플레이할 수 있다.The display unit can display an exhibition image of a foreground image and a background image among game images, and a text image including a menu button or text information, a game image for users, and various images for providing advertisements. , It can display contents related to characters, game images, or computer graphic effects.

미러부는 디스플레이부에서 디스플레이되는 게임 영상과 같은 콘텐츠를 투과하고, 사용자의 움직임에 따른 형상을 반사하며, 콘텐츠와 사용자의 형상 간의 인터랙션 콘텐츠를 제공할 수 있다. 이 때, 미러부는 디스플레이부와 제1 거리만큼 이격되어 형성되며, 제1 거리에 동일한 거리 값을 나타내는 제2 거리만큼 모션 감지부 또는 사용자가 위치하므로, 미러부는 투과되는 콘텐츠(또는 게임 영상) 및 반사되는 사용자의 형상 간의 인터랙션 콘텐츠를 제공할 수 있다. The mirror unit may transmit content such as a game image displayed on the display unit, reflect a shape according to a user's movement, and provide interaction content between the content and the user's shape. At this time, the mirror unit is formed to be spaced apart from the display unit by a first distance, and since the motion sensing unit or the user is positioned by a second distance indicating the same distance value at the first distance, the mirror unit transmits content (or game image) and It is possible to provide interaction content between the reflected user's shapes.

여기서, 인터랙션 콘텐츠(interaction contents)란, 사용자의 형상에 대응하는 게임 영상, 콘텐츠 및 서비스를 나타내는 것으로, 예를 들어, 사용자의 머리 크기에 맞는 왕관, 사용자의 손 위에 올려진 사과의 크기, 사용자의 움직임 동작에 의해 변화 또는 발생하는 게임 영상에 관련된 컴퓨터 그래픽 효과와 같이 사용자의 형상에 따라 변화되며, 이질감 없는 콘텐츠를 일컫을 수 있다. 또한, 인터랙션 콘텐츠는 게임 영상, 콘텐츠, 아이콘 외에 진동, 연기, 냄새, 바람, 조명 및 사운드 중 적어도 어느 하나 이상의 효과를 더 포함할 수 있다.Here, the interaction contents (interaction contents) refers to a game image, content and service corresponding to the shape of the user, for example, the crown fits the size of the user's head, the size of the apple placed on the user's hand, the user's It can be changed according to the shape of the user, such as computer graphic effects related to game images generated or changed by movement, and refers to content without heterogeneity. In addition, the interaction content may further include at least one or more effects of vibration, smoke, smell, wind, lighting, and sound, in addition to game images, content, and icons.

단계 720에서, 모션 감지부를 통해 감지되는 사용자의 움직임에 따른 콘텐츠를 제어한다.In step 720, content according to a user's movement detected through the motion detector is controlled.

단계 720은 모션 감지부에 의해 감지되는 사용자의 움직임에 대응하여 콘텐츠의 크기, 형태, 색상 및 위치를 적용하고, 사용자의 움직임에 맞춤형으로 3차원 게임 영상, 홀로그램 영상, 증강현실 영상과 같은 다양한 게임 영상 또는 서비스가 디스플레이부를 통해 디스플레이되도록 제어할 수 있다. Step 720 applies the size, shape, color, and position of the content in response to the user's movement detected by the motion detector, and various games such as 3D game images, hologram images, and augmented reality images tailored to the user's movement The video or service may be controlled to be displayed through the display unit.

모션 감지부는 복수의 카메라, 센서 및 프로젝터 중 적어도 어느 하나 이상을 이용하여 미러부에서 제2 거리만큼 이격되어 위치하는 사용자의 위치, 동작 및 입체 형상의 움직임을 감지할 수 있다.The motion detection unit may detect a user's position, motion, and movement of a three-dimensional shape located at a distance from the mirror unit by using at least one of a plurality of cameras, sensors, and projectors.

단계 730에서, 영상 촬영 기기를 이용하여 사용자의 움직임에 따라 변화되어 제공되는 인터랙션 콘텐츠에 대한 영상 데이터를 획득한다.In step 730, image data for interaction content provided by being changed according to a user's movement is acquired using an image photographing device.

단계 730은 카메라의 영상 촬영 기기를 이용하여 미러부에 의해 투과 또는 반사되는 콘텐츠 및 사용자의 형상 간의 인터랙션 콘텐츠를 촬영하며, 기 설정된 크기, 이미지(image) 또는 비디오(video) 형태의 영상 데이터를 획득할 수 있다.In step 730, the content transmitted or reflected by the mirror unit and the interaction content between the user's shape are captured by using the camera's image capture device, and image data in a predetermined size, image, or video form is acquired. can do.

단계 740에서, 영상 데이터를 사용자가 소지하는 모바일 단말로 전송한다. In step 740, the image data is transmitted to the mobile terminal possessed by the user.

단계 740은 영상 데이터를 사용자가 소지하는 모바일 단말 또는 외부 서버로 전송할 수 있다. 이 때, 상기 외부 서버는 소셜 네트워크 서비스(Social Network Services/Sites) 서버 또는 동영상 서버이며, 수신되는 영상 데이터를 사용자가 소지하는 모바일 단말로 전송할 수 있다.In step 740, the image data may be transmitted to a mobile terminal or external server owned by the user. At this time, the external server is a Social Network Services / Sites server or a video server, and may transmit the received image data to a mobile terminal possessed by the user.

상기 모바일 단말은 사용자가 소지하는 단말 기기로, 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 예를 들면, 상기 모바일 단말은 스마트폰(smart phone), 휴대폰, 컴퓨터, 노트북, 웨어러블 기기(wearable device) 및 태블릿 PC(table PC) 중 적어도 어느 하나일 수 있다. 일 예로, 상기 모바일 단말은 무선 또는 유선 통신 방식을 이용하여 네트워크(예를 들면, 인터넷)을 통해 다른 단말들 및/또는 서버와 통신할 수 있다. The mobile terminal is a terminal device possessed by a user, and may be a fixed terminal or a mobile terminal implemented as a computer device. For example, the mobile terminal may be at least one of a smart phone, a mobile phone, a computer, a laptop, a wearable device, and a tablet PC. For example, the mobile terminal may communicate with other terminals and / or servers through a network (eg, the Internet) using a wireless or wired communication method.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor (micro signal processor), microcomputer, field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may perform an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

10: 사용자
100: 인터랙션 콘텐츠의 데이터 공유 시스템(또는 데이터 공유 시스템)
101: 제1 거리
102: 제2 거리
111: 디스플레이부
112: 미러부
120: 모션 감지부
131: 영상 촬영 기기
210: 위치 감지 모듈
310, 320, 330: 모션 인식 모듈
10: User
100: data sharing system of interaction content (or data sharing system)
101: 1st street
102: second street
111: display unit
112: mirror unit
120: motion detector
131: video recording device
210: position detection module
310, 320, 330: motion recognition module

Claims (1)

인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법.Video data sharing system and method for interaction content.
KR1020180110036A 2018-09-14 2018-09-14 System for sharing of image data or video data for interaction contents and the method thereof KR20200031259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180110036A KR20200031259A (en) 2018-09-14 2018-09-14 System for sharing of image data or video data for interaction contents and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180110036A KR20200031259A (en) 2018-09-14 2018-09-14 System for sharing of image data or video data for interaction contents and the method thereof

Publications (1)

Publication Number Publication Date
KR20200031259A true KR20200031259A (en) 2020-03-24

Family

ID=70004480

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180110036A KR20200031259A (en) 2018-09-14 2018-09-14 System for sharing of image data or video data for interaction contents and the method thereof

Country Status (1)

Country Link
KR (1) KR20200031259A (en)

Similar Documents

Publication Publication Date Title
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
CN110300909B (en) Systems, methods, and media for displaying an interactive augmented reality presentation
US10496910B2 (en) Inconspicuous tag for generating augmented reality experiences
RU2754991C2 (en) System of device for viewing mixed reality and method for it
US11887258B2 (en) Dynamic integration of a virtual environment with a physical environment
US8388146B2 (en) Anamorphic projection device
EP2887322B1 (en) Mixed reality holographic object development
JP6558839B2 (en) Intermediary reality
US20160343173A1 (en) Acousto-optical display for augmented reality
JP2016522463A5 (en)
JP2023510455A (en) A Position Tracking System for Head-Mounted Display Systems Containing Sensitive Angle Detectors
JP6022709B1 (en) Program, recording medium, content providing apparatus, and control method
KR101770188B1 (en) Method for providing mixed reality experience space and system thereof
CN113194329B (en) Live interaction method, device, terminal and storage medium
KR20200031259A (en) System for sharing of image data or video data for interaction contents and the method thereof
KR20200031255A (en) System for sharing of image data or video data for interaction contents and the method thereof
JP2017097854A (en) Program, recording medium, content providing device, and control method
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays
KR20200031256A (en) Contents display apparatus using mirror display and the method thereof
KR20200031260A (en) Contents display apparatus using mirror display and the method thereof
KR20190142857A (en) Game apparatus using mirror display and the method thereof
CN117435039A (en) Information display method, device, storage medium and equipment
Ishikawa et al. Dynamic Information Space Based on High-Speed Sensor Technology
KR20240087480A (en) Electronic device, method, and computer-readable storage media for displaying visual objects included in critical distance