KR20200008196A - System for providing special effect based on motion recognition and method thereof - Google Patents

System for providing special effect based on motion recognition and method thereof Download PDF

Info

Publication number
KR20200008196A
KR20200008196A KR1020180082032A KR20180082032A KR20200008196A KR 20200008196 A KR20200008196 A KR 20200008196A KR 1020180082032 A KR1020180082032 A KR 1020180082032A KR 20180082032 A KR20180082032 A KR 20180082032A KR 20200008196 A KR20200008196 A KR 20200008196A
Authority
KR
South Korea
Prior art keywords
user
special effect
motion
display unit
content
Prior art date
Application number
KR1020180082032A
Other languages
Korean (ko)
Other versions
KR102167066B1 (en
Inventor
김광진
Original Assignee
(주)젠트정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)젠트정보기술 filed Critical (주)젠트정보기술
Priority to KR1020180082032A priority Critical patent/KR102167066B1/en
Publication of KR20200008196A publication Critical patent/KR20200008196A/en
Application granted granted Critical
Publication of KR102167066B1 publication Critical patent/KR102167066B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/26Automatic controllers electric in which the output signal is a pulse-train
    • G05B11/28Automatic controllers electric in which the output signal is a pulse-train using pulse-height modulation; using pulse-width modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a system for providing a special effect by using an air fan based on motion recognition and a method thereof. The system for providing a special effect by using an air fan based on motion recognition recognizes a motion of a user to control an operation of an object displayed in a display part according to the recognized motion, provides a special effect related to the corresponding object to maximize a sensory index of the user, and miniaturizes equipment and improves the mobility of the equipment to increase user convenience as well as overall operation efficiency thereof.

Description

모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법{System for providing special effect based on motion recognition and method thereof}System for providing special effect based on motion recognition based air fan and method thereof

본 발명은 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것으로, 특히 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것이다.The present invention relates to a special effect providing system and a method using a motion recognition-based air fan, and in particular, after recognizing a user's motion, controlling the operation of the object displayed on the display unit according to the recognized motion, The present invention relates to a special effect providing system using a motion recognition-based air fan that provides related special effects, and a method thereof.

가상현실(Virtual Reality: VR)은 현실의 특정한 환경이나 상황을 컴퓨터를 통해 그대로 모방하여 사용자가 마치 실제 주변 상황·환경과 상호작용을 하고 있는 것처럼 만드는 기술이다.Virtual Reality (VR) is a technology that emulates a specific environment or situation of reality through a computer as if the user is interacting with the surrounding environment and environment.

이러한 가상현실이 적용된 가상현실 서비스 산업은 디바이스(예를 들어 삼성 기어 VR, Oculus Rift, HTC VIVE 등 포함)의 고성장세에도 대중화에 일정한 한계에 부딪히고 있다.The virtual reality service industry using virtual reality is facing a limit to popularization despite the high growth of devices (including Samsung Gear VR, Oculus Rift, HTC VIVE, etc.).

즉, 사용자가 교육, 학습, 게임, 군사 시뮬레이션 분야 등에서 가상현실 서비스를 이용할 수 있는 가상현실 서비스 산업은 대기수요는 많지만 1대당 가상현실 공간의 구축 단가가 비싸고, 단순히 HMD(Head Mounted Display) 등을 이용한 가상현실 환경 제공에 그치고 있어, 사용자의 체감 확장에 한계가 있는 상태이고, 이동성과 콘텐츠의 재사용성에서 사용상의 불편함이 존재한다.In other words, the virtual reality service industry in which users can use virtual reality services in the fields of education, learning, games, military simulation, etc. has high atmospheric demand, but the cost of constructing a virtual reality space per unit is high, and simply a head mounted display (HMD) is used. In addition to providing the virtual reality environment used, there is a limit in expanding the user's experience, and there are inconveniences in terms of mobility and reuse of content.

한국공개특허 제10-2018-0077588호Korean Patent Publication No. 10-2018-0077588

본 발명의 목적은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention, after recognizing the user's motion, controls the operation of the object displayed on the display according to the recognized motion, and provides a special effect providing system using a motion recognition-based air fan to provide a special effect associated with the object And a method thereof.

본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템은 HMD(Head Mounted Display)를 포함하며, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 표시부; 사용자의 동작을 감지하는 센서부; 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부; 및 상기 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬을 포함할 수 있다.A system for providing a special effect using a motion recognition-based air fan according to an embodiment of the present invention includes a display unit including a head mounted display (HMD) and displaying a 3D content including an object whose movement is controlled according to a user input; A sensor unit detecting a user's motion; The operation of the object in the 3D content displayed on the display unit is checked based on the detected user's motion, and it is determined whether a preset special effect exists in relation to the object in the 3D content. Operation of an object in 3D content displayed on the identified display unit while generating a control signal for controlling the operation of a plurality of air fans disposed at different positions around the user when a preset special effect exists in relation to the object A control unit for controlling the operation of the object and displaying the object on the display unit; And the plurality of air fans providing a special effect based on the control signal.

본 발명과 관련된 일 예로서 상기 센서부는, 상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및 사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동장 인식 센서 중 적어도 하나를 포함할 수 있다.As an example related to the present invention, the sensor unit may include a 360 degree camera that detects a motion of the user based on image information including the user; And a plurality of copper field recognition sensors which are worn on a user's body and detect the motion of the user according to the movement of the user.

본 발명과 관련된 일 예로서 상기 사용자의 동작은, 양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함할 수 있다.As an example related to the present invention, the user's motion may include the direction of both legs, the movement of the legs, the direction of the arm, the rotation of the arm clockwise or counterclockwise, the fist-squeezing motion, the finger-finding motion, the finger spreading motion, Palm touch gestures, finger spread gestures, finger bend gestures, drawing shapes using hands or arms, shaking hands in either the left, right, up, down, or diagonal directions with the hands or arms, and combinations of these operations It may include at least one of the operation by.

본 발명과 관련된 일 예로서 상기 제어부는, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시할 수 있다.As an example related to the present invention, the control unit may determine that the object is in accordance with an operation of an object in 3D content displayed on the identified display unit when there is no preset special effect in relation to the object in the 3D content. The operation of the control panel may be displayed on the display unit.

본 발명과 관련된 일 예로서 상기 제어부는, PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제어 신호를 생성할 수 있다.As an example related to the present invention, the control unit may generate the control signal including step-by-step wind intensity control information by pulse width modulation (PWM).

본 발명과 관련된 일 예로서 상기 복수의 에어팬은, 상기 생성된 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공할 수 있다.As an example related to the present invention, the plurality of air fans operate on the basis of the generated control signal, and the wind speed and the direction in which the wind is blown to the user according to the moving direction and the speed of the object in the virtual reality environment. It can provide special effects in the form of surround.

본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법은 표시부에 의해, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 단계; 센서부에 의해, 사용자의 동작을 감지하는 단계; 제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계; 상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계; 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계; 및 상기 복수의 에어팬에 의해, 상기 제어 신호를 근거로 특수 효과를 제공하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for providing a special effect using a motion recognition-based air fan, including: displaying, by a display unit, 3D content including an object whose movement is controlled according to a user input; Sensing, by the sensor unit, a user's motion; Confirming, by the controller, an operation of an object in 3D content displayed on the display unit based on the detected user's motion; Determining, by the controller, whether a preset special effect exists in relation to an object in the 3D content; As a result of the determination, when a predetermined special effect exists in relation to an object in the 3D content, the control unit generates a control signal for controlling the operation of a plurality of air fans arranged at different locations around the user; Simultaneously controlling the operation of the object in accordance with the operation of the object in the 3D content displayed on the confirmed display unit and displaying it on the display unit; And providing, by the plurality of air fans, a special effect based on the control signal.

본 발명과 관련된 일 예로서 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when there is no preset special effect in relation to the object in the 3D content, the control unit according to the operation of the object in the 3D content displayed on the confirmed display unit, The method may further include controlling an operation of the object and displaying the same on the display unit.

본 발명은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공함으로써, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있는 효과가 있다.The present invention, after recognizing the user's motion, by controlling the operation of the object displayed on the display according to the recognized motion, by providing a special effect related to the object, to maximize the user's sensory index, miniaturization and mobility of the equipment By enhancing the efficiency of the system, the overall system operation efficiency can be improved and the usability can be improved.

도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 제어 신호의 예를 나타낸 도이다.
도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.
1 is a block diagram showing the configuration of a special effect providing system using a motion recognition-based air fan according to an embodiment of the present invention.
2 is a diagram illustrating an example of a control signal according to an embodiment of the present invention.
3 is a flowchart illustrating a special effect providing method using an air fan based on motion recognition according to an exemplary embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are merely used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those skilled in the art unless the present invention is defined in any other meaning in the present invention, and is excessively comprehensive. It shall not be construed in the sense of or in the sense of being excessively reduced. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be properly understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms used in the present invention include the plural forms unless the context clearly indicates otherwise. Terms such as “consisting of” or “comprising” in the present invention should not be construed as necessarily including all of the various components or steps described in the present invention, and some of the components or some steps may not be included. It should be construed that it may further include, or further include, additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but the components should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a special effect providing system 10 using a motion recognition-based air fan according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 통신부(100), 저장부(200), 표시부(300), 음성 출력부(400), 센서부(500), 제어부(600) 및 에어팬(700)으로 구성된다. 도 1에 도시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있다.As shown in FIG. 1, the special effect providing system 10 using a motion recognition-based air fan includes a communication unit 100, a storage unit 200, a display unit 300, a voice output unit 400, and a sensor unit ( 500), the control unit 600 and the air fan 700. Not all components of the special effect providing system 10 using the motion recognition-based air fan shown in FIG. 1 are essential components, and the motion recognition-based air may be replaced by more components than those shown in FIG. The special effect providing system 10 using the fan may be implemented, or the special effect providing system 10 using the motion recognition-based air fan may be implemented using fewer components.

상기 통신부(100)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(100)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 100 communicates with any component inside or any at least one terminal outside via a wired / wireless communication network. In this case, the external arbitrary terminal may include a server (not shown), another terminal (not shown), and the like. Here, the wireless Internet technologies include Wireless LAN (WLAN), Digital Living Network Alliance (DLNA), Wireless Broadband (Wibro), WiMAX (World Interoperability for Microwave Access (Wimax), HSDPA (High Speed Downlink Packet Access). ), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In this case, the communication unit 100 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above. In addition, near field communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and the like may be included. Also, the wired communication technology may include power line communication (PLC), USB communication, Ethernet, serial communication, optical / coaxial cable, and the like.

또한, 상기 통신부(100)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the communication unit 100 may mutually transmit information with an arbitrary terminal through a universal serial bus (USB).

또한, 상기 통신부(100)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the communication unit 100 may include technical standards or communication schemes (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV, etc.) for mobile communication. Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced) and the like to transmit and receive a radio signal with a base station, the server, the other terminal and the like on a mobile communication network.

또한, 상기 통신부(100)는 상기 제어부(600)의 제어에 의해 상기 서버로부터 전송되는 가상현실 시스템을 구현하기 위한 소프트웨어(또는 프로그램) 등을 수신한다.In addition, the communication unit 100 receives software (or a program) for implementing a virtual reality system transmitted from the server under the control of the control unit 600.

상기 저장부(200)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 200 stores various user interfaces (UIs), graphical user interfaces (GUIs), and the like.

또한, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 200 stores data and programs necessary for operating the special effect providing system 10 using the motion recognition-based air fan.

즉, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 기본적인 기능을 위하여 출고 당시부터 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(200)에 저장되고, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치되어, 제어부(600)에 의하여 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 200 uses a plurality of application programs or applications driven by the special effect providing system 10 using the motion recognition-based air fan or the motion recognition-based air fan. Data and instructions for the operation of the special effect providing system 10 may be stored. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these applications exist on the special effects providing system 10 using the motion recognition based air fan from the time of shipment for the basic functions of the special effects providing system using the motion recognition based air fan. Can be. On the other hand, the application program is stored in the storage unit 200, is installed in the special effect providing system 10 using the motion recognition-based air fan, by the control unit 600 using the special motion recognition-based air fan It may be driven to perform an operation (or function) of the effect providing system 10.

또한, 상기 저장부(200)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 인터넷(internet)상에서 저장부(200)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the storage unit 200 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD). Memory, etc.), magnetic memory, magnetic disk, optical disk, random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), It may include at least one storage medium of PROM (Programmable Read-Only Memory). In addition, the special effect providing system 10 using the motion recognition-based air fan operates a web storage that performs a storage function of the storage unit 200 on the Internet, or is associated with the web storage. It can also work.

또한, 상기 저장부(200)는 상기 통신부(100)를 통해 수신된 가상현실 시스템을 구현(또는 재생/실행)하기 위한 프로그램 등을 저장(또는 설치)한다.In addition, the storage unit 200 stores (or installs) a program for implementing (or playing / executing) a virtual reality system received through the communication unit 100.

상기 표시부(또는 디스플레이부)(300)는 상기 제어부(600)의 제어에 의해 상기 저장부(200)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(300)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(300)는 터치 스크린 일 수 있다.The display unit (or display unit) 300 may display various contents such as various menu screens by using a user interface and / or a graphic user interface stored in the storage unit 200 under the control of the controller 600. have. Here, the content displayed on the display unit 300 includes various text or image data (including various information data) and a menu screen including data such as an icon, a list menu, a combo box, and the like. In addition, the display unit 300 may be a touch screen.

또한, 상기 표시부(300)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.The display unit 300 may include a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. The display device may include at least one of a flexible display, a 3D display, an e-ink display, and a light emitting diode (LED).

또한, 상기 표시부(300)는 3차원 콘텐츠를 표시할 수 있는 HMD(Head Mounted Display), 안경 형태의 디스플레이 등을 포함할 수도 있다.In addition, the display unit 300 may include a head mounted display (HMD) capable of displaying three-dimensional content, a display in the form of glasses, and the like.

또한, 상기 표시부(300)는 상기 제어부(600)의 제어에 의해 특정 프로그램과 관련한 2D 객체가 포함된 2D 콘텐츠, 3D 객체가 포함된 3D 콘텐츠 등을 표시한다.In addition, the display unit 300 displays 2D content including 2D objects related to a specific program, 3D content including 3D objects, etc. under the control of the controller 600.

상기 음성 출력부(400)는 상기 제어부(600)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(400)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The voice output unit 400 outputs voice information included in a signal processed by the controller 600 by a predetermined signal. In this case, the voice output unit 400 may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit 400 outputs the guide voice generated by the controller 600.

또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 상기 2D 콘텐츠, 3D 콘텐츠 등에 대응하는 음성 정보(또는 음향 효과)를 출력한다.In addition, the voice output unit 400 outputs voice information (or sound effect) corresponding to the 2D content, 3D content, etc. by the control unit 600.

상기 센서부(또는 동작 인식부)(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 인접한 사용자의 동작(또는 움직임)을 감지하기 위한 360도 카메라, 동작 인식 센서(Motion Recognition Sensor) 등을 포함한다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.The sensor unit (or motion recognition unit) 500 is a 360-degree camera for detecting a motion (or movement) of a user adjacent to the special effect providing system 10 using the motion recognition-based air fan (motion recognition sensor ( Motion Recognition Sensor). Here, the user's motion (or movement) is the direction of both legs, the movement of the legs (for example, movement, rotation, etc.), the direction of the arm, the rotation of the arm clockwise / counterclockwise, the clenching movement, the finger Pinch gesture, spread finger gesture, palm touch gesture, finger spread gesture, finger flex gesture, hand / arm figure drawing, shaking hand / arm in left, right, up and down directions, and between these gestures Operation by combination, and the like.

즉, 상기 센서부(500)는 상기 360도 카메라(또는 카메라)를 통해 획득되는 영상 정보(예를 들어 연속된 복수의 이미지, 동영상 등 포함)를 근거로 공지된 다양한 객체(또는 사용자) 인식 방법을 적용하여 사용자의 동작을 감지한다.That is, the sensor unit 500 recognizes various known objects (or users) based on image information (eg, including a plurality of consecutive images, videos, etc.) acquired through the 360 degree camera (or camera). Apply to detect the user's motion.

또한, 상기 센서부(500)는 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지한다. 여기서, 상기 동작 인식 센서는 물체의 움직임이나 위치를 인식하는 센서, 지자기 센서(Geomagnetism Sensor), 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서 등의 센서를 포함하며, 동작 인식에 관련된 센서들이 추가로 포함될 수 있다. 이때, 상기 센서부(500)는 상기 사용자의 움직임, 예를 들면, 상기 사용자의 신체 일부(예를 들어 팔, 손, 손가락 등 포함)의 기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 상하/좌우/대각선 등의 방향으로의 진동 방향 및/또는 진동 횟수 등을 포함하는 정보를 감지한다. 여기서, 상기 감지되는 정보들(기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 진동 방향 및/또는 진동 횟수)은 디지털 신호 처리 과정을 통해 디지털화되어, 상기 디지털화된 정보들이 상기 제어부(600)에 전달된다.In addition, the sensor unit 500 detects a user's motion based on sensing information obtained through a plurality of motion recognition sensors worn (or attached) to the user's body. The motion recognition sensor may include a sensor for recognizing a motion or a position of an object, a geomagnetism sensor, an acceleration sensor, a gyro sensor, an inertial sensor, an altimeter, Sensors, such as vibration sensors, may further include sensors related to motion recognition. In this case, the sensor unit 500 may move the user, for example, an inclined direction, an inclined angle, and / or the inclined speed of a part of the user's body (including an arm, a hand, a finger, etc.). It detects the information including the vibration direction and / or the number of vibrations in the direction, such as up, down, left, right, diagonal. Here, the detected information (the tilted direction, the tilted angle and / or the tilted speed, the vibration direction and / or the number of vibrations) are digitized through a digital signal processing process, so that the digitized information is stored in the controller 600. Is delivered).

또한, 상기 센서부(500)는 웨어러블 디바이스 형태로 제공되어, 사용자의 신체(예를 들어 손, 손가락, 팔, 다리 등 포함)에 착용된 상태에서 해당 사용자의 움직임에 따른 정보를 인식할 수도 있다.In addition, the sensor unit 500 may be provided in the form of a wearable device, and may recognize information according to the movement of the user while being worn on the user's body (including a hand, finger, arm, leg, etc.). .

또한, 상기 센서부(500)는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 사용자)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센서부(500)는 근접 센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서, RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.In addition, the sensor unit 500 may include one or more sensors for sensing at least one of surrounding environment information and user information surrounding the special effect providing system 10 (or user) using a motion recognition-based air fan. have. For example, the sensor unit 500 may include a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor G-. sensor, gyroscope sensor, motion sensor, inertial sensor, altimeter, vibration sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor finger scan sensors, ultrasonic sensors, optical sensors (eg cameras), microphones, battery gauges, environmental sensors (eg barometers, hygrometers, thermometers, Radiation detection sensor, heat detection sensor, gas detection sensor, etc.) and a chemical sensor (eg, electronic nose, healthcare sensor, biometric sensor, etc.). Meanwhile, the special effect providing system 10 using the motion recognition-based air fan disclosed herein may use a combination of information sensed by at least two or more of these sensors.

또한, 상기 센서부(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 주변(또는 VR 시스템 내의 미리 설정된 영역)에 위치한 사용자의 동작(또는 모션) 인식 기능, 음성 인식 기능, 입술 움직임 인식 기능, 눈동자의 움직임 인식 기능(또는 시선 추적 기능) 등을 수행할 수도 있다.In addition, the sensor unit 500 is a user's motion (or motion) recognition function, the voice recognition function located near the special effect providing system 10 using the motion recognition-based air fan (or a predetermined area in the VR system) The lip motion recognition function and the eye movement recognition function (or eye tracking function) may be performed.

또한, 상기 센서부(500)는 상기 사용자의 동작이나 입술 움직임이나 눈동자의 움직임을 인식하기 위한 동작 인식 모듈, 음성 인식을 위한 음성 인식 모듈 등을 포함한다.In addition, the sensor unit 500 may include a motion recognition module for recognizing the motion of the user, the movement of the lips, and the movement of the eyes, and a voice recognition module for voice recognition.

상기 제어부(controller, 또는 MCU(microcontroller unit)(600)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 전반적인 제어 기능을 실행한다.The controller or microcontroller unit 600 executes an overall control function of the special effect providing system 10 using the motion recognition-based air fan.

또한, 상기 제어부(600)는 상기 저장부(200)에 저장된 프로그램 및 데이터를 이용하여 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(600)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(200)에 액세스하여, 상기 저장부(200)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(200)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the controller 600 executes the overall control function of the special effect providing system 100 using the motion recognition-based air fan by using the program and data stored in the storage unit 200. The controller 600 may include a RAM, a ROM, a CPU, a GPU, a bus, and the RAM, a ROM, a CPU, a GPU, and the like may be connected to each other through a bus. The CPU may access the storage unit 200 to boot using the O / S stored in the storage unit 200, and use various programs, contents, data, etc. stored in the storage unit 200. Various operations can be performed.

또한, 상기 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다.In addition, the controller 600 outputs 3D content according to a user selection through the display unit 300 and / or the voice output unit 400.

즉, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치된 프로그램 중 특정 가상현실 기능을 제공하기 위한 프로그램이 선택(또는 실행)되는 경우, 상기 제어부(600)는 해당 프로그램과 관련한 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.That is, when a program for providing a specific virtual reality function is selected (or executed) among programs installed in the special effect providing system 10 using the motion recognition based air fan, the controller 600 is associated with the corresponding program. The 3D content is output through the display unit 300 and / or the audio output unit 400. Here, the 3D content may include one or more objects whose movement is controlled according to a user's motion or a user input through an input unit (not shown).

이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the controller 600 may provide (or display / output) the corresponding 3D content displayed on the display unit 300 through the HMD. Here, the 3D content includes a 3D image / video, an associated sound effect (or voice information), and the like.

또한, 상기 제어부(600)는 상기 센서부(500)에 포함된 360도 카메라 또는 동작 인식 센서로부터 획득한 사용자의 손의 모션 정보를 영상 처리하여 손바닥 또는 손가락이 x축을 중심으로 회전하는 x축 회전값, 손바닥 또는 손가락이 y축을 중심으로 회전하는 y축 회전값, 및 손바닥 또는 손가락이 z축을 중심으로 회전하는 z축 회전값을 포함하는 위치 정보를 추출한 후, 해당 위치 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 모션 기준 정보에 대응되는 값으로 변환하여, 변환된 값을 앞서 표시 중(또는 실행 중)인 3D 콘텐츠 내의 특정 객체의 동작과 연동할 수 있다.In addition, the controller 600 processes the motion information of the user's hand obtained from the 360 degree camera or the motion recognition sensor included in the sensor unit 500 to rotate the x-axis in which the palm or the finger rotates about the x-axis. After extracting the position information including the value, the y-axis rotation value in which the palm or finger rotates about the y-axis, and the z-axis rotation value in which the palm or finger is rotated about the z-axis, In operation, the converted value may be converted into a value corresponding to the motion reference information, and the converted value may be linked with an operation of a specific object in the 3D content which is being displayed (or executed).

또한, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.In addition, the controller 600 confirms an operation (or movement) of an object in 3D content displayed on the display unit 300 (or the HMD) based on the detected user's motion.

또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the controller 600 determines whether a preset special effect exists in relation to an object in the 3D content (or whether a preset special effect exists so as to interact with the operation of the object).

판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, when there is no preset special effect in relation to the object in the 3D content according to the detected user's motion, the controller 600 is displayed on the confirmed display unit 300 (or the HMD). The motion of the object is controlled according to the motion (or movement) of the object in the 3D content, and the control result (or the motion / movement result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). do.

상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다.As a result of the determination, when a preset special effect exists in relation to an object in the 3D content according to the detected user's motion, the controller 600 controls the plurality of air fans 700 disposed at different locations around the user. To generate a control signal for controlling the operation.

이때, 도 2에 도시된 바와 같이, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.In this case, as shown in FIG. 2, the control unit 600 may generate a control signal including stepwise wind strength control information by pulse width modulation (PWM).

또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the controller 600 controls at least one or more of the plurality of air fans 700 to provide a special effect to the user, and at the same time, the 3D displayed on the identified display unit 300 (or the HMD). The operation of the object is controlled according to the operation (or movement) of the object in the content, and the control result (or the operation / movement result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). .

또한, 상기 제어부(600)는 서버(미도시)로부터 제공되는 업데이트된 프로그램 정보를 근거로 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 상기 저장부(200))에 설치된 프로그램을 업데이트할 수 있다.In addition, the controller 600 is installed in the special effect providing system 10 (or the storage unit 200) using the motion recognition-based air fan based on updated program information provided from a server (not shown). You can update the program.

이와 같이, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 부스 형태 등으로 설치된 공간상에 위치하는 사용자의 동작(또는 움직임)에 따라 가상현실 체험을 위한 객체의 동작을 제어하여, 멀티 모달리티 시스템(multimodality system)을 적용한 실감형 정보를 제공하며, 해당 가상현실에 대한 체험감을 극대화할 수 있다.As such, the special effect providing system 10 using the motion recognition-based air fan controls the operation of an object for a virtual reality experience according to a user's motion (or movement) located in a space installed in a booth shape or the like. In addition, it provides realistic information applying a multimodality system and maximizes the experience of the virtual reality.

상기 에어팬(air foil fan)(700)은 단일 또는 복수로 구성할 수 있다.The air foil fan 700 may be configured as a single or a plurality.

상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변을 이동할 수 있는 레일(미도시)을 통해 상기 제어부(600)에 의해 생성된 제어 신호에 따라 이동하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.When the air fan 700 is configured in a single shape, the air fan 700 is located around a preset area where a user in the special effect providing system 10 using the motion recognition based air fan in a booth shape is to be located. While moving in accordance with the control signal generated by the control unit 600 through a movable rail (not shown) to provide a special effect (including wind, etc.) to the user.

또한, 상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 특정 위치에 고정된 후, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변에 위치한 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공할 수도 있다.In addition, when the air fan 700 is configured in a single form, after the air fan 700 is fixed at a specific position, the air fan based on the motion recognition according to the control signal generated by the controller 600 The special effect providing system 10 may provide a special effect (including wind, etc.) to a corresponding user located near a preset area where the user in the special effect providing system 10 is to be located.

또한, 상기 에어팬(700)이 복수 형태로 구성되는 경우, 상기 복수의 에어팬(700) 각각은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변의 미리 설정된 위치에 각각 설치되며, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 복수의 에어팬(700) 중 적어도 하나의 에어팬(700)이 동작하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.In addition, when the air fan 700 is configured in a plurality of forms, each of the plurality of air fans 700 may be located within the special effect providing system 10 using the motion recognition-based air fan in a booth form. Each of the air fans 700 of the plurality of air fans 700 operates in accordance with a control signal generated by the controller 600, and is installed at a predetermined position around a preset area. Provide effects (such as wind, etc.).

이와 같이, 상기 에어팬(700)이 단일 형태로 구성되는 경우에는 상기 에어팬(700)이 사용자 주변을 이동 가능하게 구성하여 360도 중 어느 하나의 방향 및 각도에서 해당 사용자에게 특수 효과를 제공할 수 있다.As such, when the air fan 700 is configured in a single form, the air fan 700 may be configured to move around the user to provide a special effect to the user in any one direction and angle of 360 degrees. Can be.

또한, 이와 같이, 상기 에어팬(700)이 서라운드 형태로 복수 형태로 구성되는 경우에는 해당 복수의 에어팬(700)이 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태의 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공할 수 있다.In addition, when the air fan 700 is configured in a plural form in a surround form, the plurality of air fans 700 may move to a user in accordance with the moving direction, speed, etc. of an object in a virtual reality environment. You can provide surround-type special effects (e.g. special effects that take into account the speed of the wind, the direction the wind is blowing, etc.) to feel similar.

본 발명의 실시예에서는 가상현실 기반에서의 특수 효과를 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 혼합 현실(Mixed Reality: MR) 기반에서도 본 발명에 따른 특수 효과를 제공할 수도 있다.Although an embodiment of the present invention has been described to provide a special effect based on virtual reality, the present invention is not limited thereto, and a special effect according to the present invention may be provided even on a mixed reality (MR) basis.

본 발명의 실시예에서는 특수 효과로 에어팬(700)을 이용한 서라운드 형태의 바람을 사용자에게 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 에어팬(700) 외에 다른 특수 효과를 위한 특수 효과 제공부(미도시)를 구성할 수도 있다.In the embodiment of the present invention has been described to provide the user with the wind of the surround form using the air fan 700 as a special effect, but is not limited to this, special effects for other special effects other than the air fan 700. A providing unit (not shown) may be configured.

상기 특수 효과 제공부는 햅틱 인터페이스(미도시) 등을 더 포함하며, 상기 햅틱 인터페이스를 통해서 사용자에게 바람뿐만 아니라, 해당 객체와 관련한 근감각(kinesthesia)에 대한 정보(예를 들어 해당 객체와 관련한 질량, 굳고 말랑말랑한 정도, 반력 등에 대한 정보 포함), 해당 객체와 관련한 질감(tactility)에 대한 정보(예를 들어 해당 객체와 관련한 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대한 정보 포함) 등을 포함하는 촉각 정보를 제공할 수도 있다.The special effect providing unit may further include a haptic interface (not shown) and the like, and not only a desire for the user through the haptic interface, but also information about the kinesthesia associated with the object (for example, a mass associated with the object, Information about the firmness, softness, reaction, etc., and the texture associated with the object (e.g. surface pattern, small shapes, softness and roughness of the surface related to the object, etc.) Tactile information), and the like.

상기 햅틱 인터페이스(Haptic Interface)(또는 햅틱부/촉각 인터페이스)는 넓은 의미로는 사용자에게 촉감을 전달하는 시스템 전체를 가리키며, 사용자가 직접 접촉하게 함으로써 사용자에게 물리력 전달을 통해 촉감을 발생시키는 하드웨어 장치인 햅틱 장치(Haptic Device)와, 원격 접촉(Teletaction) 환경 또는 컴퓨터 그래픽과 물리적 특성 등으로 이루어진 가상 환경, 햅틱 장치의 움직임을 가상 환경에 전달하고 가상 환경과의 접촉력을 햅틱 장치로 전달하는 역할을 하는 제어기(미도시)(또는 상기 제어부(600))로 구성할 수 있다.The haptic interface (or haptic unit / tactile interface) refers to a whole system that transmits a tactile sense to a user in a broad sense, and is a hardware device that generates a tactile sense by transmitting a physical force to the user by directly contacting the user. A haptic device, a virtual environment consisting of a remote contact environment or a computer graphic and physical characteristics, and a haptic device that transmits movement of the haptic device to the virtual environment and transmits contact force with the virtual environment to the haptic device. It may be configured as a controller (not shown) (or the control unit 600).

이러한 상기 햅틱 인터페이스의 궁극적인 목적은 모델링되어 있는 가상 환경(예를 들어, AR 환경, VR 환경, MR 환경 등 포함) 또는 실제 환경의 물리적 특성을 사용자가 상기 햅틱 장치를 통해 똑같이 느끼게 하는 것이다.The ultimate purpose of the haptic interface is to make the user feel the same through the haptic device through the physical characteristics of the modeled virtual environment (including AR environment, VR environment, MR environment, etc.) or real environment.

또한, 상기 햅틱 인터페이스는 상기 햅틱 장치와 가상 환경이 하나의 환경에 존재할 수 있도록 상기 햅틱 장치의 위치 변화를 표현하는 가상의 대리자가 가상 환경 속에 존재한다. 상기 가상의 대리자가 가상의 물체에 부딪혀서 발생한 힘이 Fe이고, 사람이 햅틱 장치를 통해서 느끼는 힘이 Fm이라면, 두 값이 똑같이 되도록 제어하는 것이 이상적인 햅틱 인터페이스 시스템이다.In addition, the haptic interface includes a virtual agent representing a change in position of the haptic device in the virtual environment so that the haptic device and the virtual environment exist in one environment. If the force generated by the virtual delegate hitting the virtual object is Fe and the force felt by the haptic device is Fm, then it is an ideal haptic interface system to control the two values to be equal.

이상적인 햅틱 인터페이스의 구현을 위해서는 정확한 모델링 방법과 모델을 구현할 수 있는 하드웨어 및 제어 방법에 관한 연구가 뒷받침되어야 한다.In order to implement an ideal haptic interface, research on accurate modeling methods and hardware and control methods for implementing the model should be supported.

또한, 상기 햅틱 인터페이스는 좁은 의미로 하드웨어적인 부분만으로 제한되어 상기 햅틱 장치와 동일한 의미로 사용될 수도 있다.In addition, the haptic interface may be used in the same sense as the haptic device because the haptic interface is limited to only a hardware part in a narrow sense.

또한, 상기 햅틱 인터페이스는 하드웨어 개발 관점, 즉 상기 햅틱 장치를 개발하는 관점에서 크게 두 분야로 나눌 수 있다.In addition, the haptic interface can be roughly divided into two fields in terms of hardware development, that is, in terms of developing the haptic device.

즉, 사람은 촉각을 두 가지 주요 경로를 통해 느끼며, 상기 햅틱 인터페이스도 이러한 두 가지 주요 분야로 나누어 개발되고 있다.In other words, a person feels the sense of touch through two main paths, and the haptic interface is also developed in two main areas.

이러한 햅틱 인터페이스의 분야 중 하나는 근감각에 관련된 것으로, 우리가 물체의 질량이나, 굳고 말랑말랑한 정도, 물체의 외형 등을 느낄 때, 근육과 관절의 움직임을 통해 촉감을 느끼는 현상이다. 이 과정은 물리적으로는 힘과 연관되어 있으므로, 상기 햅틱 장치는 힘을 생성하기에 유리한 로봇 모양과 같은 기구적 구조를 띠고 있으며, 이와 같은 목적으로 만들어진 햅틱 장치를 힘 피드백 장치(Force Feedback Device)라고 한다.One of the fields of the haptic interface is related to muscle sensation, and when we feel the mass of an object, the degree of firmness and softness, and the appearance of the object, the haptic interface feels the touch through the movement of muscles and joints. Since this process is physically related to force, the haptic device has a mechanical structure such as a robot shape that is advantageous for generating a force, and the haptic device made for this purpose is called a force feedback device. do.

또한, 햅틱 인터페이스의 분야 중 다른 하나는 질감에 관련된 것으로, 접촉하고 있는 표면의 무늬 또는 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등을 느낄 때 피부를 표면에 직접 접촉하여 느끼는 현상이다. 이 과정은 여러 가지 복잡한 물리적 요소들로 이루어져 있어서 질감을 재현하고자 하는 햅틱 장치들의 모양도 매우 다양하며, 이와 같은 질감을 전달하는 목적으로 만들어진 장치를 질감 제시 장치(Tactile Display)라고 한다.In addition, one of the fields of the haptic interface is related to the texture, and is a phenomenon in which the skin is directly contacted with the surface when the pattern or small shapes of the surface being contacted, the softness and roughness of the surface, and the sense of warmth and the like are felt. This process is composed of many complex physical elements, and the shape of haptic devices to reproduce the texture is very diverse. The device made for the purpose of conveying the texture is called a texture display device.

또한, 상기 햅틱 인터페이스는 촉감의 전달을 통해 원거리 환경 또는 가상 환경의 사실성을 크게 증대시키고, 네트워크 기반의 환경에서 눈으로만 보던 온라인 쇼핑몰에서 상품을 만져보고 살 수 있는 기능을 제공할 수 있으며, 실제 유물을 만져볼 수 있는 온라인 박물관 기능을 제공할 수 있으며, 문자를 기반으로 하는 메신저 환경에서 서로 악수를 하고 어깨를 두드리는 등 촉감을 통한 감정의 전달 기능 등을 제공하는 바와 같이, 임의의 단말과 사용자 간의 상호작용형 기능을 제공할 수 있다.In addition, the haptic interface greatly increases the realism of a remote environment or a virtual environment through the transmission of touch, and provides a function of touching and buying a product in an online shopping mall that was only visible in a network-based environment. Any terminal and user can provide an online museum function that can touch the relics, and provide a function of conveying emotions through the touch such as shaking hands and tapping each other in a text-based messenger environment. It can provide an interactive function between them.

이와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공할 수 있다.As such, after recognizing the motion of the user, the motion of the object displayed on the display unit may be controlled according to the recognized motion, and a special effect related to the object may be provided.

이하에서는, 본 발명에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 도 1 내지 도 3을 참조하여 상세히 설명한다.Hereinafter, a method for providing a special effect using a motion recognition based air fan according to the present invention will be described in detail with reference to FIGS. 1 to 3.

도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a special effect providing method using an air fan based on motion recognition according to an exemplary embodiment of the present invention.

먼저, 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.First, the controller 600 outputs 3D content according to a user's selection through the display unit 300 and / or the voice output unit 400. Here, the 3D content may include one or more objects whose movement is controlled according to a user's motion or a user input through an input unit (not shown).

이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the controller 600 may provide (or display / output) the corresponding 3D content displayed on the display unit 300 through the HMD. Here, the 3D content includes a 3D image / video, an associated sound effect (or voice information), and the like.

일 예로, 레이싱 게임(racing game)을 위한 VR 시스템에서 사용자 입력을 근거로 레이싱 게임을 실행할 때, 상기 제어부(600)는 상기 사용자가 착용한 제 1 HMD에 상기 레이싱 게임과 관련한 제 1 차량과 관련한 객체를 포함하는 제1 3D 콘텐츠를 표시하고, 해당 제1 3D 콘텐츠를 상기 표시부(300)에 표시하고, 상기 제1 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다.For example, when executing a racing game based on a user input in a VR system for a racing game, the control unit 600 is associated with a first vehicle associated with the racing game in a first HMD worn by the user. The first 3D content including the object is displayed, the first 3D content is displayed on the display unit 300, and the voice information (or sound effect) corresponding to the first 3D content is output to the voice output unit 400. Output through

다른 일 예로, 드론(drone) 조정을 위한 VR 시스템에서 사용자 입력을 근거로 드론 조정을 실행할 때, 상기 제어부(600)는 상기 표시부(300)를 통해 상기 드론 조정과 관련한 제 1 드론과 관련한 객체를 포함하는 제2 3D 콘텐츠를 표시하고, 상기 제2 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다(S310).As another example, when executing a drone adjustment based on a user input in a VR system for drone adjustment, the controller 600 may display an object related to the first drone related to the drone adjustment through the display unit 300. The second 3D content is included and the voice information (or sound effect) corresponding to the second 3D content is output through the voice output unit 400 (S310).

이후, 센서부(500)는 사용자의 동작(또는 움직임)을 감지한다. 이때, 상기 센서부(500)는 360도 카메라(미도시)를 통해 획득되는 영상 정보를 근거로 사용자의 동작을 감지하거나, 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서(미도시)를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지할 수 있다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.Thereafter, the sensor unit 500 detects a user's motion (or movement). In this case, the sensor unit 500 detects a user's motion based on image information obtained through a 360 degree camera (not shown), or a plurality of motion recognition sensors (not shown) worn on (or attached to) the user's body. Based on the sensing information obtained through the) can detect the user's motion. Here, the user's motion (or movement) is the direction of both legs, the movement of the legs (for example, movement, rotation, etc.), the direction of the arm, the rotation of the arm clockwise / counterclockwise, the clenching movement, the finger Pinch gesture, spread finger gesture, palm touch gesture, finger spread gesture, finger flex gesture, hand / arm figure drawing, shaking hand / arm in left, right, up and down directions, and between these gestures Operation by combination, and the like.

일 예로, 상기 센서부(500)에 포함된 카메라는 사용자의 왼손 및 오른손의 움직임(예를 들어 사용자의 왼손이 9시 방향에 위치하고 사용자의 오른손이 3시 방향에 위치한 상태에서, 상기 사용자의 왼손이 9시 방향에서 12시 방향으로 회전하고 상기 사용자의 오른손이 3시 방향에서 6시 방향으로 회전/상기 사용자의 왼손과 오른손의 시계 방향으로 일정 각도(예를 들어 30도)/거리만큼의 회전)을 감지한다.For example, the camera included in the sensor unit 500 is a user's left and right hand movements (for example, the user's left hand is in the 9 o'clock position and the user's right hand is in the 3 o'clock position, the left hand of the user). Rotate from 9 o'clock to 12 o'clock and the user's right hand rotates from 3 o'clock to 6 o'clock / clockwise rotation of the user's left and right hand by a certain angle (eg 30 degrees) / distance ).

다른 일 예로, 사용자의 손가락 관절과 팔 등 복수의 위치에 부착된 복수의 동작 인식 센서를 통해 사용자의 손가락의 제스처/움직임(예를 들어 사용자의 오른 손가락의 검지가 기준점에서 방향/12시 방향으로 약 20cm 정도 올라가는 움직임)을 감지한다(S320).As another example, a gesture / movement of a user's finger through a plurality of motion recognition sensors attached to a plurality of positions such as a user's finger joint and an arm (for example, the index finger of the user's right finger moves from the reference point to the direction / 12 o'clock direction). It detects the movement up to about 20cm (S320).

이후, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.Thereafter, the controller 600 checks the motion (or movement) of the object in the 3D content displayed on the display unit 300 (or the HMD) based on the detected user's motion.

또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the controller 600 determines whether a preset special effect exists in relation to an object in the 3D content (or whether a preset special effect exists so as to interact with the operation of the object).

일 예로, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량에 대한 시계 방향으로의 30도 방향 회전 동작을 확인한다.For example, the controller 600 may be configured to rotate the clockwise direction of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left and right hands of the user by 30 degrees in the clockwise direction. Check the rotation direction in degrees.

또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다.In addition, the controller 600 determines whether a special effect is preset in response to the rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left and right hands of the user. Determine whether or not.

다른 일 예로, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향(또는 수직방향/위쪽방향)으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론에 대한 수직 방향으로의 상승 동작을 확인한다.As another example, the control unit 600 is based on a movement of about 20 cm in the upward direction (or vertical direction / upward direction), which is the gesture of the detected user's finger, in the first 3D content related to the drone adjustment. Check the upward movement of the drone in the vertical direction.

또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다(S330).In addition, the controller 600 generates a special effect in response to the upward movement of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is the gesture of the detected user's finger. It is determined whether the state is a preset state (S330).

판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, when there is no preset special effect in relation to the object in the 3D content according to the detected user's motion, the controller 600 is displayed on the confirmed display unit 300 (or the HMD). The motion of the object is controlled according to the motion (or movement) of the object in the 3D content, and the control result (or the motion / movement result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). do.

일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응하여 화면 상에서 회전하도록 구성할 수 있다.For example, when the special effect is not set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game, based on the clockwise rotation of the left and right hands of the detected user. The controller 600 controls the first vehicle in the first 3D content related to the racing game to rotate 30 degrees clockwise based on the detected rotation of the left and right hands of the user by 30 degrees clockwise. The first 3D content including the first vehicle rotated in the clockwise direction is displayed on the first HMD worn by the user and the display unit 300, respectively. In this case, the rotation angle of the first vehicle may be variously set according to the design of the designer, and may be configured to rotate on the screen corresponding to the detected rotation angle of the left and right hands of the user in the clockwise direction.

다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 상승하도록 제어하고, 상기 수직 방향으로 상승(또는 이륙)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다(S340).As another example, the special effect is not preset in response to the upward movement of the first drone in the second 3D content related to the drone adjustment based on the upward movement which is the gesture of the detected user's finger. In the non-state state, the control unit 600 is configured to raise the first drone in the second 3D content related to the drone adjustment in the vertical direction based on a 20 cm upward movement, which is a gesture of the detected user's finger. The display unit 300 displays the second 3D content including the first drone that controls and rises (or takes off) in the vertical direction. In this case, the rising distance in the vertical direction of the first drone may be variously set according to a designer's design, and the preset distance (for example, 1/5) is proportional to the movement (for example, 20 cm) of the gesture of the finger. 4 cm) may be configured to rise on the screen (S340).

상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다. 이때, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.As a result of the determination, when a preset special effect exists in relation to an object in the 3D content according to the detected user's motion, the controller 600 controls the plurality of air fans 700 disposed at different locations around the user. To generate a control signal for controlling the operation. In this case, the control unit 600 may generate a control signal including the step-by-step wind strength control information by PWM (Pulse Width Modulation).

또한, 상기 복수의 에어팬(700)은 상기 생성된 제어 신호를 근거로 동작하여, 해당 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태로 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공한다.In addition, the plurality of air fans 700 operate based on the generated control signal, so that the user can feel similar to the actual movement according to the moving direction, speed, etc. of the object in the virtual reality environment. It provides special effects (e.g. special effects that take into account wind speed, direction of wind blowing, etc.).

또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the controller 600 controls at least one or more of the plurality of air fans 700 to provide a special effect to the user, and at the same time, the 3D displayed on the identified display unit 300 (or the HMD). The operation of the object is controlled according to the operation (or movement) of the object in the content, and the control result (or the operation / movement result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). .

일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 1시 방향에 위치한 제 1 에어팬의 동작 상태를 미리 설정된 제 1 레벨로 제어하기 위한 제 1 제어 신호 및 11시 방향에 위치한 제 4 에어팬의 동작 상태를 미리 설정된 제 2 레벨로 제어하기 위한 제 2 제어 신호를 각각 생성하고, 상기 생성된 제 1 제어 신호 및 제 2 제어 신호를 각각 대응하는 제 1 에어팬 및 제 4 에어팬에 제공한다.For example, when the special effect is preset in response to the rotation of the first vehicle in the first 3D content related to the racing game, based on the clockwise rotation of the left and right hands of the detected user, the controller ( 600 is an operation state of the first air fan located at 1 o'clock position among the first to fourth air fans 700 installed at the 1 o'clock, 5 o'clock, 7 o'clock and 11 o'clock directions with respect to the user Generate a first control signal for controlling the control signal to a preset first level and a second control signal for controlling the operating state of the fourth air fan located at the 11 o'clock position to a second preset level, respectively, The first control signal and the second control signal are provided to corresponding first and fourth air fans, respectively.

또한, 상기 제 1 에어팬은 상기 제 1 제어 신호를 근거로 제 1 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하고, 상기 제 4 에어팬은 상기 제 2 제어 신호를 근거로 제 2 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하여 해당 사용자가 우회전을 하면서 바람을 느낄 수 있도록 할 수 있다.In addition, the first air fan provides the user with wind corresponding to the intensity of the first level based on the first control signal, and the fourth air fan is based on the second control signal. The wind corresponding to the intensity may be provided to the user so that the user may feel the wind while making a right turn.

또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응할 수 있다.In addition, the controller 600 rotates the first vehicle in the first 3D content related to the racing game by 30 degrees clockwise based on the detected rotation of the left and right hands of the user by 30 degrees clockwise. The first 3D content including the first vehicle rotated in the clockwise direction is displayed on the first HMD and the display unit 300 worn by the user. In this case, the rotation angle of the first vehicle may correspond to the detected rotation angle of the left and right hands of the user in the clockwise direction.

이와 같이, 상기 제어부(600)는 상기 제1 3D 콘텐츠 내의 제 1 차량의 시계 방향으로의 회전에 따라 해당 제 1 차량의 시계 방향으로 회전하는 3D 콘텐츠를 상기 제 1 HMD 및 상기 표시부(300)에 각각 표시함과 동시에 해당 제 1 차량의 시계 방향으로의 회전에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다.As described above, the controller 600 transmits 3D content that is rotated in the clockwise direction of the first vehicle according to the clockwise rotation of the first vehicle in the first 3D content to the first HMD and the display unit 300. At the same time, the user may be provided with the wind, which is a special effect according to the clockwise rotation of the first vehicle.

다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 상기 제 1 드론의 수직 방향으로의 상승 동작에 따른 수직 기류 효과를 제공하기 위해서 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 제 1, 2, 3 및 4 에어팬의 동작을 각각 제어하기 위한 제 11 제어 신호 내지 제 14 제어 신호를 각각 생성하고, 상기 생성된 제 11 제어 신호 내지 제 14 제어 신호를 각각 대응하는 제 1 에어팬 내지 제 4 에어팬에 각각 제공한다.As another example, a state in which a special effect is preset in response to an upward movement of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is the gesture of the detected user's finger. When the control unit 600 is in the 1 o'clock, 5 o'clock, 7 o'clock and 11 o'clock directions with respect to the user in order to provide a vertical air flow effect according to the upward movement of the first drone in the vertical direction, respectively The eleventh and fourteenth control signals are respectively generated for controlling the operations of the first, second, third and fourth air fans among the installed first to fourth air fans 700, respectively, Control signals to fourteenth control signals are respectively provided to the corresponding first to fourth air fans.

또한, 상기 제 1 에어팬 내지 제 4 에어팬 각각은 상기 제 11 제어 신호 내지 제 14 제어 신호를 근거로 상기 제 1 드론의 상승 동작에 따른 상승 기류 효과를 사용자에게 제공한다.In addition, each of the first air fan to the fourth air fan provides the user with an upward airflow effect according to the rising operation of the first drone based on the eleventh to fourteenth control signals.

또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 이륙하도록 제어하고, 상기 수직 방향으로 이륙(또는 상승)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다.In addition, the controller 600 controls the first drone in the second 3D content related to the drone adjustment to take off in the vertical direction based on a movement of about 20 cm in the upward direction, which is a gesture of the detected user's finger. The 2D 3D content including the first drone taking off (or rising) in the vertical direction is displayed on the display unit 300. In this case, the rising distance in the vertical direction of the first drone may be configured to rise on the screen by a predetermined distance (for example, 4/5 which is 1/5) in proportion to the movement of the finger gesture (for example, 20 cm). .

이와 같이, 상기 제어부(600)는 상기 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 따라 해당 제 1 드론의 수직 방향으로 상승하는 3D 콘텐츠를 상기 표시부(300)에 표시함과 동시에 해당 제 1 드론의 수직 방향으로의 상승 동작에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다(S350).As described above, the controller 600 displays 3D content rising in the vertical direction of the first drone in the vertical direction of the first drone in the second 3D content on the display unit 300. The wind may be provided to the user as a special effect according to the upward movement of the first drone in the vertical direction (S350).

본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하여, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있다.As described above, after recognizing a user's motion, an embodiment of the present invention controls the operation of an object displayed on the display unit according to the recognized motion, and provides a special effect related to the object, thereby providing a user's haptic index. Maximum efficiency, miniaturization and mobility of equipment can improve overall system operation efficiency and improve usability.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description may be modified and modified by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템
100: 통신부 200: 저장부
300: 표시부 400: 음성 출력부
500: 센서부 600: 제어부
700: 에어팬
10: special effect providing system using motion fan based on motion recognition
100: communication unit 200: storage unit
300: display unit 400: audio output unit
500: sensor unit 600: control unit
700: air fan

Claims (8)

HMD(Head Mounted Display)를 포함하며, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 표시부;
사용자의 동작을 감지하는 센서부;
상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부; 및
상기 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬을 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
A display unit including a head mounted display (HMD) and displaying 3D content including an object whose movement is controlled according to a user input;
A sensor unit detecting a user's motion;
The operation of the object in the 3D content displayed on the display unit is checked based on the detected user's motion, and it is determined whether there is a preset special effect related to the object in the 3D content. Operation of an object in 3D content displayed on the identified display unit while generating a control signal for controlling the operation of a plurality of air fans disposed at different positions around the user when a preset special effect exists in relation to the object A control unit for controlling the operation of the object and displaying the object on the display unit; And
A special effect providing system using a motion recognition-based air fan including the plurality of air fans to provide a special effect based on the control signal.
제 1 항에 있어서,
상기 센서부는,
상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및
사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동장 인식 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The sensor unit,
A 360 degree camera that detects a motion of the user based on image information including the user; And
A special effect providing system using a motion recognition-based air fan, characterized in that it comprises at least one of a plurality of copper field recognition sensors worn on the user's body to detect the user's motion according to the user's movement.
제 1 항에 있어서,
상기 사용자의 동작은,
양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The operation of the user,
The direction of both legs, the movement of the legs, the direction of the arms, the rotation of the arm clockwise or counterclockwise, the fist-squeezing motion, the pinching motion, the finger spreading motion, the palm touch action, the finger spread action, the finger bend motion, the hand Or at least one of a drawing operation using an arm, a shaking operation in one of a left and right direction, a vertical direction and a diagonal direction using a hand or an arm, and an operation by a combination of these operations. Special effect providing system using motion recognition based air fan.
제 1 항에 있어서,
상기 제어부는,
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The control unit,
As a result of the determination, when there is no preset special effect in relation to the object in the 3D content, controlling the operation of the object according to the operation of the object in the 3D content displayed on the confirmed display unit to display the display unit on the display unit. A special effect providing system using a motion recognition based air fan.
제 1 항에 있어서,
상기 제어부는,
PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제어 신호를 생성하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The control unit,
A special effect providing system using a motion recognition-based air fan, characterized in that for generating the control signal including the step-by-step wind strength control information by PWM (Pulse Width Modulation).
제 1 항에 있어서,
상기 복수의 에어팬은,
상기 생성된 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The plurality of air fans,
It operates based on the generated control signal, characterized in that to provide the user with a special effect in consideration of the wind speed and the direction of the wind blowing in accordance with the moving direction and speed of the object in the virtual reality environment Special effect providing system using motion recognition based air fan.
표시부에 의해, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 단계;
센서부에 의해, 사용자의 동작을 감지하는 단계;
제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계;
상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계;
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계; 및
상기 복수의 에어팬에 의해, 상기 제어 신호를 근거로 특수 효과를 제공하는 단계를 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.
Displaying, by the display unit, 3D content including an object whose movement is controlled according to a user input;
Sensing, by the sensor unit, a user's motion;
Confirming, by the controller, an operation of an object in 3D content displayed on the display unit based on the detected user's motion;
Determining, by the controller, whether a preset special effect exists in relation to an object in the 3D content;
As a result of the determination, when a predetermined special effect exists in relation to an object in the 3D content, the control unit generates a control signal for controlling the operation of a plurality of air fans arranged at different locations around the user; Simultaneously controlling the operation of the object in accordance with the operation of the object in the 3D content displayed on the confirmed display unit and displaying it on the display unit; And
And providing a special effect by the plurality of air fans based on the control signal.
제 7 항에 있어서,
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.
The method of claim 7, wherein
As a result of the determination, when there is no preset special effect in relation to the object in the 3D content, the control unit controls the operation of the object according to the operation of the object in the 3D content displayed on the confirmed display unit. The method for providing a special effect using a motion recognition-based air fan further comprises the step of displaying on the display.
KR1020180082032A 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof KR102167066B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Publications (2)

Publication Number Publication Date
KR20200008196A true KR20200008196A (en) 2020-01-28
KR102167066B1 KR102167066B1 (en) 2020-11-23

Family

ID=69370329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Country Status (1)

Country Link
KR (1) KR102167066B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150031389A (en) * 2013-09-13 2015-03-24 한국기계연구원 Virtual reality ststem having providing inertial force part and method for providing inertial force
KR20180005024A (en) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 Walkable virtual reality apparatus
KR20180056306A (en) * 2016-11-18 2018-05-28 삼성전자주식회사 Virtual reality device
KR20180077588A (en) 2016-12-29 2018-07-09 주식회사 한울네오텍 Game based disaster safety virtual trainig system using virtual reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150031389A (en) * 2013-09-13 2015-03-24 한국기계연구원 Virtual reality ststem having providing inertial force part and method for providing inertial force
KR20180005024A (en) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 Walkable virtual reality apparatus
KR20180056306A (en) * 2016-11-18 2018-05-28 삼성전자주식회사 Virtual reality device
KR20180077588A (en) 2016-12-29 2018-07-09 주식회사 한울네오텍 Game based disaster safety virtual trainig system using virtual reality

Also Published As

Publication number Publication date
KR102167066B1 (en) 2020-11-23

Similar Documents

Publication Publication Date Title
US10551964B2 (en) Systems and methods for manipulating a graphical user interface through gestures in real space and providing associated haptic effects
US10974138B2 (en) Haptic surround functionality
EP3588250A1 (en) Real-world haptic interactions for a virtual reality user
EP2942693B1 (en) Systems and methods for viewport-based augmented reality haptic effects
EP2904588A1 (en) Augmented reality system
KR20170076534A (en) Virtual reality interface apparatus and method for controlling the apparatus
WO2023250267A1 (en) Robotic learning of tasks using augmented reality
WO2017061890A1 (en) Wireless full body motion control sensor
US20230274460A1 (en) Ar data simulation with gaitprint imitation
US20150084848A1 (en) Interaction between generic interaction devices and an interactive display
KR102167066B1 (en) System for providing special effect based on motion recognition and method thereof
KR20220057388A (en) Terminal for providing virtual augmented reality and control method thereof
US11948237B2 (en) System and method for mimicking user handwriting or other user input using an avatar
JP7372717B1 (en) Program, information processing device and method
US11663738B2 (en) AR data simulation with gaitprint imitation
US20240077935A1 (en) Virtual interfaces for controlling iot devices
US20240077983A1 (en) Interaction recording tools for creating interactive ar stories
US20240077984A1 (en) Recording following behaviors between virtual objects and user avatars in ar experiences
US20240173618A1 (en) User-customized flat computer simulation controller
US20230410441A1 (en) Generating user interfaces displaying augmented reality graphics
US20240119928A1 (en) Media control tools for managing communications between devices
US20240079031A1 (en) Authoring tools for creating interactive ar experiences
CN110083226B (en) Virtual space positioning method and device
KR20230124363A (en) Electronic apparatus and method for controlling thereof
KR20200017812A (en) Apparatus for setting password using piano clavier user interface and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right