KR102167066B1 - System for providing special effect based on motion recognition and method thereof - Google Patents

System for providing special effect based on motion recognition and method thereof Download PDF

Info

Publication number
KR102167066B1
KR102167066B1 KR1020180082032A KR20180082032A KR102167066B1 KR 102167066 B1 KR102167066 B1 KR 102167066B1 KR 1020180082032 A KR1020180082032 A KR 1020180082032A KR 20180082032 A KR20180082032 A KR 20180082032A KR 102167066 B1 KR102167066 B1 KR 102167066B1
Authority
KR
South Korea
Prior art keywords
motion
user
content
special effect
display unit
Prior art date
Application number
KR1020180082032A
Other languages
Korean (ko)
Other versions
KR20200008196A (en
Inventor
김광진
Original Assignee
(주)젠트정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)젠트정보기술 filed Critical (주)젠트정보기술
Priority to KR1020180082032A priority Critical patent/KR102167066B1/en
Publication of KR20200008196A publication Critical patent/KR20200008196A/en
Application granted granted Critical
Publication of KR102167066B1 publication Critical patent/KR102167066B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/26Automatic controllers electric in which the output signal is a pulse-train
    • G05B11/28Automatic controllers electric in which the output signal is a pulse-train using pulse-height modulation; using pulse-width modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

본 발명은 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법을 개시한다. 즉, 본 발명은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하여, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있다.The present invention discloses a system and method for providing special effects using an air fan based on motion recognition. That is, after recognizing the user's motion, the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, thereby maximizing the user's experience index and miniaturization of equipment. And, by enhancing mobility, the overall system operation efficiency can be improved, and usability can be improved.

Description

모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법{System for providing special effect based on motion recognition and method thereof}TECHNICAL FIELD [System for providing special effect based on motion recognition and method thereof]

본 발명은 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것으로, 특히 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for providing a special effect using an air fan based on motion recognition. In particular, after recognizing a user's motion, the motion of an object displayed on a display unit is controlled according to the recognized motion, and The present invention relates to a system and method for providing special effects using an air fan based on motion recognition that provides related special effects.

가상현실(Virtual Reality: VR)은 현실의 특정한 환경이나 상황을 컴퓨터를 통해 그대로 모방하여 사용자가 마치 실제 주변 상황·환경과 상호작용을 하고 있는 것처럼 만드는 기술이다.Virtual Reality (VR) is a technology that mimics a specific environment or situation in reality through a computer, making it as if the user is interacting with the actual surrounding situation or environment.

이러한 가상현실이 적용된 가상현실 서비스 산업은 디바이스(예를 들어 삼성 기어 VR, Oculus Rift, HTC VIVE 등 포함)의 고성장세에도 대중화에 일정한 한계에 부딪히고 있다.The virtual reality service industry to which such virtual reality is applied is facing certain limits in its popularization despite the high growth of devices (eg, Samsung Gear VR, Oculus Rift, HTC VIVE, etc.).

즉, 사용자가 교육, 학습, 게임, 군사 시뮬레이션 분야 등에서 가상현실 서비스를 이용할 수 있는 가상현실 서비스 산업은 대기수요는 많지만 1대당 가상현실 공간의 구축 단가가 비싸고, 단순히 HMD(Head Mounted Display) 등을 이용한 가상현실 환경 제공에 그치고 있어, 사용자의 체감 확장에 한계가 있는 상태이고, 이동성과 콘텐츠의 재사용성에서 사용상의 불편함이 존재한다.In other words, the virtual reality service industry, where users can use virtual reality services in the fields of education, learning, games, and military simulations, has high atmospheric demand, but the cost of constructing a virtual reality space per unit is expensive, and simply uses HMD (Head Mounted Display). As it is limited to providing a virtual reality environment that has been used, there is a limit to the expansion of the user's experience, and there are inconveniences in use in terms of mobility and reusability of contents.

한국공개특허 제10-2018-0077588호Korean Patent Publication No. 10-2018-0077588

본 발명의 목적은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention is a system for providing special effects using an air fan based on motion recognition that recognizes a user's motion, controls the motion of an object displayed on a display unit according to the recognized motion, and provides special effects related to the object And to provide the method.

본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템은 HMD(Head Mounted Display)를 포함하며, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 표시부; 사용자의 동작을 감지하는 센서부; 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부; 및 상기 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬을 포함할 수 있다.A system for providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention includes a display unit including a head mounted display (HMD) and displaying 3D content including an object whose movement is controlled according to a user input; A sensor unit for detecting a user's motion; Based on the detected user's motion, the motion of the object in the 3D content displayed on the display is checked, it is determined whether a special effect preset in relation to the object in the 3D content exists, and as a result of the determination, in the 3D content When there is a pre-set special effect in relation to the object, the motion of the object in the 3D content displayed on the checked display unit while generating a control signal for controlling the operation of a plurality of air fans arranged at different locations around the user A controller configured to control an operation of the object and display the object on the display; And the plurality of air fans providing special effects based on the control signal.

본 발명과 관련된 일 예로서 상기 센서부는, 상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및 사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동작 인식 센서 중 적어도 하나를 포함할 수 있다.As an example related to the present invention, the sensor unit may include a 360 degree camera that detects a motion of the user based on image information including the user; And at least one of a plurality of motion recognition sensors worn on the user's body to sense the user's motion according to the user's motion.

본 발명과 관련된 일 예로서 상기 사용자의 동작은, 양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함할 수 있다.As an example related to the present invention, the user's motion may include a direction of both legs, a motion of a leg, a direction of an arm, a rotation of the arm in a clockwise or counterclockwise direction, a fist clenching motion, a pinching motion, a finger spreading motion, Palm touch operation, finger spreading operation, finger bending operation, drawing operation using hand or arm, shaking operation in any one of left and right direction using hand or arm, vertical direction and diagonal direction, and combinations of these operations At least one of the following operations may be included.

본 발명과 관련된 일 예로서 상기 제어부는, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시할 수 있다.As an example related to the present invention, when, as a result of the determination, there is no pre-set special effect in relation to the object in the 3D content, the control unit may determine the object according to the operation of the object in the 3D content displayed on the By controlling the operation of the display can be displayed on the display.

본 발명과 관련된 일 예로서 상기 제어부는, PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제어 신호를 생성할 수 있다.As an example related to the present invention, the controller may generate the control signal including step-by-step wind intensity control information by PWM (Pulse Width Modulation).

본 발명과 관련된 일 예로서 상기 복수의 에어팬은, 상기 생성된 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공할 수 있다.As an example related to the present invention, the plurality of air fans operate based on the generated control signal, and the speed of the wind and the direction in which the wind blows according to the moving direction and speed of the object in the virtual reality environment to the user It can provide a special effect taking into account in a surround form.

본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법은 표시부에 의해, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 단계; 센서부에 의해, 사용자의 동작을 감지하는 단계; 제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계; 상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계; 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계; 및 상기 복수의 에어팬에 의해, 상기 제어 신호를 근거로 특수 효과를 제공하는 단계를 포함할 수 있다.A method of providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention includes, by a display unit, displaying 3D content including an object whose movement is controlled according to a user input; Detecting a user's motion by a sensor unit; Checking, by a control unit, an operation of an object in the 3D content displayed on the display unit based on the detected user's motion; Determining, by the control unit, whether there is a special effect preset in relation to the object in the 3D content; As a result of the determination, when there is a preset special effect in relation to the object in the 3D content, the control unit generates a control signal for controlling the operation of a plurality of air fans disposed at different locations around the user; and Simultaneously controlling the motion of the object according to the motion of the object in the 3D content displayed on the checked display and displaying it on the display; And providing a special effect based on the control signal by the plurality of air fans.

본 발명과 관련된 일 예로서 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when, as a result of the determination, there is no pre-set special effect with respect to the object in the 3D content, the control unit determines the operation of the object in the 3D content displayed on the checked display unit. The method may further include controlling the operation of the object and displaying it on the display.

본 발명은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공함으로써, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있는 효과가 있다.After recognizing the user's motion, the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, thereby maximizing the user's experience index, miniaturization and mobility of the device. It has the effect of enhancing overall system operation efficiency and improving user convenience.

도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 제어 신호의 예를 나타낸 도이다.
도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.
1 is a block diagram showing the configuration of a system for providing special effects using an air fan based on motion recognition according to an embodiment of the present invention.
2 is a diagram showing an example of a control signal according to an embodiment of the present invention.
3 is a flowchart illustrating a method of providing special effects using an air fan based on motion recognition according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are used only to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It should be construed that it may or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the constituent elements, but the constituent elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a system 10 for providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 통신부(100), 저장부(200), 표시부(300), 음성 출력부(400), 센서부(500), 제어부(600) 및 에어팬(700)으로 구성된다. 도 1에 도시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있다.As shown in FIG. 1, the system 10 for providing a special effect using an air fan based on motion recognition includes a communication unit 100, a storage unit 200, a display unit 300, a voice output unit 400, and a sensor unit ( 500), a control unit 600 and an air fan 700. Not all components of the special effect providing system 10 using the motion recognition-based air fan shown in FIG. 1 are essential components, and motion recognition-based air is generated by more components than the components shown in FIG. 1. A special effect providing system 10 using a fan may be implemented, or a special effect providing system 10 using an air fan based on motion recognition may be implemented with fewer components.

상기 통신부(100)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(100)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 100 communicates with an internal element or at least one external terminal through a wired/wireless communication network. In this case, the external terminal may include a server (not shown), another terminal (not shown), and the like. Here, as the wireless Internet technology, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet Access) ), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In addition, the communication unit 100 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above. In addition, short-range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). , Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and the like may be included. In addition, wired communication technologies may include power line communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cable, and the like.

또한, 상기 통신부(100)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the communication unit 100 may mutually transmit information with an arbitrary terminal through a universal serial bus (USB).

또한, 상기 통신부(100)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the communication unit 100 includes technical standards or communication methods for mobile communication (for example, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000)), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.), transmits and receives radio signals to and from the base station, the server, and the other terminal.

또한, 상기 통신부(100)는 상기 제어부(600)의 제어에 의해 상기 서버로부터 전송되는 가상현실 시스템을 구현하기 위한 소프트웨어(또는 프로그램) 등을 수신한다.In addition, the communication unit 100 receives software (or program) for implementing a virtual reality system transmitted from the server under the control of the controller 600.

상기 저장부(200)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 200 stores various user interfaces (UI), graphic user interfaces (GUI), and the like.

또한, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 200 stores data and programs necessary for the operation of the special effect providing system 10 using the motion recognition-based air fan.

즉, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 기본적인 기능을 위하여 출고 당시부터 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(200)에 저장되고, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치되어, 제어부(600)에 의하여 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 200 uses a plurality of application programs (application programs or applications) driven by the special effect providing system 10 using the motion recognition-based air fan, and the motion recognition-based air fan. Data and instructions for the operation of the special effect providing system 10 may be stored. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs exist on the special effect providing system 10 using a motion recognition-based air fan from the time of shipment for the basic function of the special effect providing system 10 using a motion recognition-based air fan. I can. On the other hand, the application program is stored in the storage unit 200 and installed in the special effect providing system 10 using the motion recognition-based air fan, and the motion recognition-based air fan is used by the control unit 600. It may be driven to perform an operation (or function) of the effect providing system 10.

또한, 상기 저장부(200)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 인터넷(internet)상에서 저장부(200)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the storage unit 200 is a flash memory type (Flash Memory Type), a hard disk type (Hard Disk Type), a multimedia card micro type (Multimedia Card Micro Type), a card type memory (e.g., SD or XD Memory, etc.), magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory: RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), It may include at least one storage medium among Programmable Read-Only Memory (PROM). In addition, the motion recognition-based special effect providing system 10 using an air fan operates a web storage that performs a storage function of the storage unit 200 on the Internet, or is related to the web storage. It may work.

또한, 상기 저장부(200)는 상기 통신부(100)를 통해 수신된 가상현실 시스템을 구현(또는 재생/실행)하기 위한 프로그램 등을 저장(또는 설치)한다.In addition, the storage unit 200 stores (or installs) a program for implementing (or playing/executing) the virtual reality system received through the communication unit 100.

상기 표시부(또는 디스플레이부)(300)는 상기 제어부(600)의 제어에 의해 상기 저장부(200)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(300)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(300)는 터치 스크린 일 수 있다.The display unit (or display unit) 300 may display various contents such as various menu screens using a user interface and/or a graphic user interface stored in the storage unit 200 under the control of the controller 600. have. Here, the content displayed on the display unit 300 includes various text or image data (including various information data) and a menu screen including data such as icons, list menus, and combo boxes. In addition, the display unit 300 may be a touch screen.

또한, 상기 표시부(300)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the display unit 300 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may include at least one of (Flexible Display), 3D display, e-ink display, and LED (Light Emitting Diode).

또한, 상기 표시부(300)는 3차원 콘텐츠를 표시할 수 있는 HMD(Head Mounted Display), 안경 형태의 디스플레이 등을 포함할 수도 있다.In addition, the display unit 300 may include a head mounted display (HMD) capable of displaying 3D content, a display in the form of glasses, and the like.

또한, 상기 표시부(300)는 상기 제어부(600)의 제어에 의해 특정 프로그램과 관련한 2D 객체가 포함된 2D 콘텐츠, 3D 객체가 포함된 3D 콘텐츠 등을 표시한다.In addition, the display unit 300 displays 2D content including 2D objects related to a specific program, 3D content including 3D objects, and the like under the control of the controller 600.

상기 음성 출력부(400)는 상기 제어부(600)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(400)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 400 outputs audio information included in a signal processed by a predetermined signal by the control unit 600. Here, the audio output unit 400 may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit 400 outputs a guide voice generated by the control unit 600.

또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 상기 2D 콘텐츠, 3D 콘텐츠 등에 대응하는 음성 정보(또는 음향 효과)를 출력한다.In addition, the audio output unit 400 outputs audio information (or sound effect) corresponding to the 2D content, 3D content, etc. by the control unit 600.

상기 센서부(또는 동작 인식부)(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 인접한 사용자의 동작(또는 움직임)을 감지하기 위한 360도 카메라, 동작 인식 센서(Motion Recognition Sensor) 등을 포함한다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.The sensor unit (or motion recognition unit) 500 includes a 360-degree camera for detecting a motion (or movement) of a user adjacent to the special effect providing system 10 using the motion recognition-based air fan, and a motion recognition sensor ( Motion Recognition Sensor). Here, the user's motion (or movement) is the direction of both legs, the movement of the legs (including movement, rotation, etc.), the direction of the arm, the rotation of the arm clockwise/counterclockwise, the fist clenching motion, and the finger Pinch operation, finger spreading operation, palm touch operation, finger spreading operation, finger bending operation, drawing operation using hand/arm, shaking operation in left/right/up/down direction/diagonal direction using hand/arm, between these movements It includes actions by combination, etc.

즉, 상기 센서부(500)는 상기 360도 카메라(또는 카메라)를 통해 획득되는 영상 정보(예를 들어 연속된 복수의 이미지, 동영상 등 포함)를 근거로 공지된 다양한 객체(또는 사용자) 인식 방법을 적용하여 사용자의 동작을 감지한다.That is, the sensor unit 500 is a method for recognizing known various objects (or users) based on image information (eg, including a plurality of consecutive images, videos, etc.) acquired through the 360-degree camera (or camera). To detect the user's motion.

또한, 상기 센서부(500)는 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지한다. 여기서, 상기 동작 인식 센서는 물체의 움직임이나 위치를 인식하는 센서, 지자기 센서(Geomagnetism Sensor), 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서 등의 센서를 포함하며, 동작 인식에 관련된 센서들이 추가로 포함될 수 있다. 이때, 상기 센서부(500)는 상기 사용자의 움직임, 예를 들면, 상기 사용자의 신체 일부(예를 들어 팔, 손, 손가락 등 포함)의 기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 상하/좌우/대각선 등의 방향으로의 진동 방향 및/또는 진동 횟수 등을 포함하는 정보를 감지한다. 여기서, 상기 감지되는 정보들(기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 진동 방향 및/또는 진동 횟수)은 디지털 신호 처리 과정을 통해 디지털화되어, 상기 디지털화된 정보들이 상기 제어부(600)에 전달된다.In addition, the sensor unit 500 detects the user's motion based on sensing information acquired through a plurality of motion recognition sensors worn (or attached) to the user's body. Here, the motion recognition sensor is a sensor that recognizes the motion or position of an object, a geomagnetism sensor, an acceleration sensor, a gyro sensor, an inertial sensor, an altimeter, It includes a sensor such as a vibration sensor, and sensors related to motion recognition may be additionally included. At this time, the sensor unit 500 is the movement of the user, for example, the inclined direction, the inclined angle and/or the inclined speed of the user's body part (including, for example, arm, hand, finger, etc.) , It detects information including the vibration direction and/or the number of vibrations in the vertical/left/right/diagonal directions. Here, the sensed information (inclined direction, inclined angle and/or inclined speed, vibration direction and/or number of vibrations) is digitized through a digital signal processing process, and the digitized information is converted to the controller 600 ).

또한, 상기 센서부(500)는 웨어러블 디바이스 형태로 제공되어, 사용자의 신체(예를 들어 손, 손가락, 팔, 다리 등 포함)에 착용된 상태에서 해당 사용자의 움직임에 따른 정보를 인식할 수도 있다.In addition, the sensor unit 500 may be provided in the form of a wearable device and may recognize information according to the user's movement while worn on the user's body (eg, including hands, fingers, arms, legs, etc.) .

또한, 상기 센서부(500)는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 사용자)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센서부(500)는 근접 센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서, RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.In addition, the sensor unit 500 may include one or more sensors for sensing at least one of surrounding environment information and user information surrounding the special effect providing system 10 (or user) using a motion recognition-based air fan. have. For example, the sensor unit 500 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor (G- sensor), gyroscope sensor, motion sensor, inertial sensor, altimeter, vibration sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint recognition sensor ( finger scan sensor), ultrasonic sensor (ultrasonic sensor), optical sensor (for example, camera), microphone, battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, It may include at least one of a radiation sensor, a heat sensor, a gas sensor, and the like), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the system 10 for providing a special effect using an air fan based on motion recognition disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.

또한, 상기 센서부(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 주변(또는 VR 시스템 내의 미리 설정된 영역)에 위치한 사용자의 동작(또는 모션) 인식 기능, 음성 인식 기능, 입술 움직임 인식 기능, 눈동자의 움직임 인식 기능(또는 시선 추적 기능) 등을 수행할 수도 있다.In addition, the sensor unit 500 has a motion (or motion) recognition function, a voice recognition function located around the special effect providing system 10 using the motion recognition-based air fan (or a preset area in the VR system) , Lip movement recognition function, eye movement recognition function (or gaze tracking function), etc. may be performed.

또한, 상기 센서부(500)는 상기 사용자의 동작이나 입술 움직임이나 눈동자의 움직임을 인식하기 위한 동작 인식 모듈, 음성 인식을 위한 음성 인식 모듈 등을 포함한다.In addition, the sensor unit 500 includes a motion recognition module for recognizing the user's motion, lip motion, or pupil motion, and a voice recognition module for voice recognition.

상기 제어부(controller, 또는 MCU(microcontroller unit)(600)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 전반적인 제어 기능을 실행한다.The controller or microcontroller unit (MCU) 600 executes the overall control function of the special effect providing system 10 using the motion recognition-based air fan.

또한, 상기 제어부(600)는 상기 저장부(200)에 저장된 프로그램 및 데이터를 이용하여 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(600)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(200)에 액세스하여, 상기 저장부(200)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(200)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the controller 600 executes an overall control function of the special effect providing system 100 using an air fan based on motion recognition by using programs and data stored in the storage unit 200. The control unit 600 may include RAM, ROM, CPU, GPU, and bus, and RAM, ROM, CPU, GPU, etc. may be connected to each other through a bus. The CPU can access the storage unit 200 and perform booting using the O/S stored in the storage unit 200, and use various programs, contents, data, etc. stored in the storage unit 200 Thus, various operations can be performed.

또한, 상기 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다.In addition, the control unit 600 outputs 3D content according to the user's selection through the display unit 300 and/or the audio output unit 400.

즉, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치된 프로그램 중 특정 가상현실 기능을 제공하기 위한 프로그램이 선택(또는 실행)되는 경우, 상기 제어부(600)는 해당 프로그램과 관련한 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.That is, when a program for providing a specific virtual reality function is selected (or executed) among programs installed in the special effect providing system 10 using the motion recognition-based air fan, the controller 600 The 3D content is output through the display unit 300 and/or the audio output unit 400. Here, in the 3D content, one or more objects whose movement is controlled according to a user's motion or a user input through an input unit (not shown) may be included.

이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the controller 600 may provide (or display/output) the corresponding 3D content displayed on the display unit 300 through the HMD. Here, the 3D content includes a 3D image/video, related sound effects (or audio information), and the like.

또한, 상기 제어부(600)는 상기 센서부(500)에 포함된 360도 카메라 또는 동작 인식 센서로부터 획득한 사용자의 손의 모션 정보를 영상 처리하여 손바닥 또는 손가락이 x축을 중심으로 회전하는 x축 회전값, 손바닥 또는 손가락이 y축을 중심으로 회전하는 y축 회전값, 및 손바닥 또는 손가락이 z축을 중심으로 회전하는 z축 회전값을 포함하는 위치 정보를 추출한 후, 해당 위치 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 모션 기준 정보에 대응되는 값으로 변환하여, 변환된 값을 앞서 표시 중(또는 실행 중)인 3D 콘텐츠 내의 특정 객체의 동작과 연동할 수 있다.In addition, the control unit 600 processes the motion information of the user's hand acquired from a 360-degree camera or a motion recognition sensor included in the sensor unit 500 to rotate the x-axis in which the palm or finger rotates around the x-axis. After extracting the location information including the value, the y-axis rotation value in which the palm or finger rotates around the y-axis, and the z-axis rotation value in which the palm or finger rotates around the z-axis, the corresponding location information is preset motion reference information Compared with, the converted value may be converted into a value corresponding to the motion reference information, and the converted value may be linked with a motion of a specific object in the 3D content previously being displayed (or being executed).

또한, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.In addition, the controller 600 checks the motion (or movement) of an object in the 3D content displayed on the display unit 300 (or the HMD) based on the sensed user's motion.

또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the control unit 600 determines whether there is a special effect preset in relation to the object in the 3D content (or whether there is a special effect preset to interact with the motion of the object).

판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, if there is no special effect set in advance in relation to the object in the 3D content according to the detected user's motion, the controller 600 is displayed on the identified display unit 300 (or the HMD). Controls the motion of the object according to the motion (or movement) of the object in the 3D content, and displays the control result (or the motion/motion result of the object in the 3D content) on the display unit 300 (or the HMD) do.

상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다.As a result of the determination, when there is a preset special effect in relation to the object in the 3D content according to the detected user's motion, the control unit 600 includes a plurality of air fans 700 disposed at different locations around the user. Generate a control signal to control the operation of ).

이때, 도 2에 도시된 바와 같이, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.In this case, as shown in FIG. 2, the control unit 600 may generate a control signal including step-by-step wind intensity adjustment information by PWM (Pulse Width Modulation).

또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the control unit 600 controls at least one of the plurality of air fans 700 so that a special effect is provided to the corresponding user, and at the same time, a 3D display unit displayed on the identified display unit 300 (or the HMD) The motion of the object is controlled according to the motion (or movement) of the object in the content, and the control result (or the motion/motion result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). .

또한, 상기 제어부(600)는 서버(미도시)로부터 제공되는 업데이트된 프로그램 정보를 근거로 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 상기 저장부(200))에 설치된 프로그램을 업데이트할 수 있다.In addition, the control unit 600 is installed in the special effect providing system 10 (or the storage unit 200) using the motion recognition-based air fan based on updated program information provided from a server (not shown). You can update the program.

이와 같이, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 부스 형태 등으로 설치된 공간상에 위치하는 사용자의 동작(또는 움직임)에 따라 가상현실 체험을 위한 객체의 동작을 제어하여, 멀티 모달리티 시스템(multimodality system)을 적용한 실감형 정보를 제공하며, 해당 가상현실에 대한 체험감을 극대화할 수 있다.In this way, the motion recognition-based special effect providing system 10 using the air fan controls the motion of the object for virtual reality experience according to the motion (or movement) of the user located in the space installed in the form of a booth, etc. , It provides realistic information applying a multimodality system, and can maximize the experience of the virtual reality.

상기 에어팬(air foil fan)(700)은 단일 또는 복수로 구성할 수 있다.The air fan (air foil fan) 700 may be configured as single or plural.

상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변을 이동할 수 있는 레일(미도시)을 통해 상기 제어부(600)에 의해 생성된 제어 신호에 따라 이동하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.When the air fan 700 is configured in a single form, the air fan 700 is located around a predetermined area in the system 10 for providing a special effect using the motion recognition-based air fan in the form of a booth. A special effect (including, for example, wind) is provided to a corresponding user while moving according to a control signal generated by the controller 600 through a movable rail (not shown).

또한, 상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 특정 위치에 고정된 후, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변에 위치한 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공할 수도 있다.In addition, when the air fan 700 is configured in a single shape, the air fan 700 is fixed to a specific position and then the motion recognition-based air fan according to a control signal generated by the controller 600 A special effect (including, for example, wind) may be provided to a corresponding user located around a preset area in which the user in the special effect providing system 10 is located.

또한, 상기 에어팬(700)이 복수 형태로 구성되는 경우, 상기 복수의 에어팬(700) 각각은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변의 미리 설정된 위치에 각각 설치되며, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 복수의 에어팬(700) 중 적어도 하나의 에어팬(700)이 동작하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.In addition, when the air fan 700 is configured in a plurality of forms, each of the plurality of air fans 700 may be located by a user in the special effect providing system 10 using the motion recognition-based air fan in the form of a booth. Each is installed at a preset location around a preset area, and at least one of the plurality of air fans 700 operates according to a control signal generated by the control unit 600 to provide a special It provides effects (including wind, etc.).

이와 같이, 상기 에어팬(700)이 단일 형태로 구성되는 경우에는 상기 에어팬(700)이 사용자 주변을 이동 가능하게 구성하여 360도 중 어느 하나의 방향 및 각도에서 해당 사용자에게 특수 효과를 제공할 수 있다.In this way, when the air fan 700 is configured in a single shape, the air fan 700 is configured to move around the user, thereby providing a special effect to the user in any one direction and angle of 360 degrees. I can.

또한, 이와 같이, 상기 에어팬(700)이 서라운드 형태로 복수 형태로 구성되는 경우에는 해당 복수의 에어팬(700)이 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태의 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공할 수 있다.In addition, as described above, when the air fan 700 is configured in a plurality of forms in a surround form, the plurality of air fans 700 provide the user with an actual movement in accordance with the movement direction and speed of the object in a virtual reality environment. In order to feel the similarity, special effects in the form of surround (for example, special effects that take into account the speed of the wind and the direction the wind is blowing) can be provided.

본 발명의 실시예에서는 가상현실 기반에서의 특수 효과를 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 혼합 현실(Mixed Reality: MR) 기반에서도 본 발명에 따른 특수 효과를 제공할 수도 있다.In the embodiment of the present invention, providing a special effect based on virtual reality is described, but the present invention is not limited thereto, and a special effect according to the present invention may also be provided based on a mixed reality (MR).

본 발명의 실시예에서는 특수 효과로 에어팬(700)을 이용한 서라운드 형태의 바람을 사용자에게 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 에어팬(700) 외에 다른 특수 효과를 위한 특수 효과 제공부(미도시)를 구성할 수도 있다.In the embodiment of the present invention, it is described that a surround type of wind using the air fan 700 is provided to the user as a special effect, but the present invention is not limited thereto, and a special effect for special effects other than the air fan 700 It is also possible to configure a providing unit (not shown).

상기 특수 효과 제공부는 햅틱 인터페이스(미도시) 등을 더 포함하며, 상기 햅틱 인터페이스를 통해서 사용자에게 바람뿐만 아니라, 해당 객체와 관련한 근감각(kinesthesia)에 대한 정보(예를 들어 해당 객체와 관련한 질량, 굳고 말랑말랑한 정도, 반력 등에 대한 정보 포함), 해당 객체와 관련한 질감(tactility)에 대한 정보(예를 들어 해당 객체와 관련한 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대한 정보 포함) 등을 포함하는 촉각 정보를 제공할 수도 있다.The special effect providing unit further includes a haptic interface (not shown), and the like, and information about not only wind to the user through the haptic interface, but also kinesthesia related to the object (for example, mass related to the object, Information on the texture (tactility, etc.) associated with the object (e.g., information on the surface pattern, small shapes, smoothness and roughness of the surface, feeling of coolness, etc. related to the object) Including), etc. may be provided.

상기 햅틱 인터페이스(Haptic Interface)(또는 햅틱부/촉각 인터페이스)는 넓은 의미로는 사용자에게 촉감을 전달하는 시스템 전체를 가리키며, 사용자가 직접 접촉하게 함으로써 사용자에게 물리력 전달을 통해 촉감을 발생시키는 하드웨어 장치인 햅틱 장치(Haptic Device)와, 원격 접촉(Teletaction) 환경 또는 컴퓨터 그래픽과 물리적 특성 등으로 이루어진 가상 환경, 햅틱 장치의 움직임을 가상 환경에 전달하고 가상 환경과의 접촉력을 햅틱 장치로 전달하는 역할을 하는 제어기(미도시)(또는 상기 제어부(600))로 구성할 수 있다.The haptic interface (or haptic part/tactile interface) refers to the entire system that transmits tactile sensation to the user in a broad sense, and is a hardware device that generates tactile sensation through physical force transmission to the user by direct contact with the user. Haptic device, remote contact (Teletaction) environment, or a virtual environment consisting of computer graphics and physical characteristics, and the role of transmitting the movement of the haptic device to the virtual environment and the contact force with the virtual environment to the haptic device. It may be configured as a controller (not shown) (or the controller 600).

이러한 상기 햅틱 인터페이스의 궁극적인 목적은 모델링되어 있는 가상 환경(예를 들어, AR 환경, VR 환경, MR 환경 등 포함) 또는 실제 환경의 물리적 특성을 사용자가 상기 햅틱 장치를 통해 똑같이 느끼게 하는 것이다.The ultimate purpose of the haptic interface is to allow the user to feel the same physical characteristics of the virtual environment (eg, AR environment, VR environment, MR environment, etc.) or the real environment through the haptic device.

또한, 상기 햅틱 인터페이스는 상기 햅틱 장치와 가상 환경이 하나의 환경에 존재할 수 있도록 상기 햅틱 장치의 위치 변화를 표현하는 가상의 대리자가 가상 환경 속에 존재한다. 상기 가상의 대리자가 가상의 물체에 부딪혀서 발생한 힘이 Fe이고, 사람이 햅틱 장치를 통해서 느끼는 힘이 Fm이라면, 두 값이 똑같이 되도록 제어하는 것이 이상적인 햅틱 인터페이스 시스템이다.In addition, in the haptic interface, a virtual agent representing a position change of the haptic device exists in the virtual environment so that the haptic device and the virtual environment exist in one environment. If the force generated by the virtual delegate hitting the virtual object is Fe, and the force felt through the haptic device by a person is Fm, it is an ideal haptic interface system to control the two values to be the same.

이상적인 햅틱 인터페이스의 구현을 위해서는 정확한 모델링 방법과 모델을 구현할 수 있는 하드웨어 및 제어 방법에 관한 연구가 뒷받침되어야 한다.In order to implement an ideal haptic interface, research on an accurate modeling method and hardware and control method that can implement the model should be supported.

또한, 상기 햅틱 인터페이스는 좁은 의미로 하드웨어적인 부분만으로 제한되어 상기 햅틱 장치와 동일한 의미로 사용될 수도 있다.In addition, the haptic interface is limited to a hardware part in a narrow sense and may be used in the same meaning as the haptic device.

또한, 상기 햅틱 인터페이스는 하드웨어 개발 관점, 즉 상기 햅틱 장치를 개발하는 관점에서 크게 두 분야로 나눌 수 있다.In addition, the haptic interface can be broadly divided into two fields from the viewpoint of hardware development, that is, from the viewpoint of developing the haptic device.

즉, 사람은 촉각을 두 가지 주요 경로를 통해 느끼며, 상기 햅틱 인터페이스도 이러한 두 가지 주요 분야로 나누어 개발되고 있다.That is, a person feels the sense of touch through two main paths, and the haptic interface is also being developed by dividing into these two main fields.

이러한 햅틱 인터페이스의 분야 중 하나는 근감각에 관련된 것으로, 우리가 물체의 질량이나, 굳고 말랑말랑한 정도, 물체의 외형 등을 느낄 때, 근육과 관절의 움직임을 통해 촉감을 느끼는 현상이다. 이 과정은 물리적으로는 힘과 연관되어 있으므로, 상기 햅틱 장치는 힘을 생성하기에 유리한 로봇 모양과 같은 기구적 구조를 띠고 있으며, 이와 같은 목적으로 만들어진 햅틱 장치를 힘 피드백 장치(Force Feedback Device)라고 한다.One of the fields of such a haptic interface is related to muscle sensation, and when we feel the mass of an object, the degree of firmness and softness, the appearance of an object, etc., it is a phenomenon in which the sense of touch is felt through the movement of muscles and joints. Since this process is physically related to force, the haptic device has a mechanical structure such as a robot shape that is advantageous for generating force, and a haptic device made for this purpose is called a force feedback device. do.

또한, 햅틱 인터페이스의 분야 중 다른 하나는 질감에 관련된 것으로, 접촉하고 있는 표면의 무늬 또는 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등을 느낄 때 피부를 표면에 직접 접촉하여 느끼는 현상이다. 이 과정은 여러 가지 복잡한 물리적 요소들로 이루어져 있어서 질감을 재현하고자 하는 햅틱 장치들의 모양도 매우 다양하며, 이와 같은 질감을 전달하는 목적으로 만들어진 장치를 질감 제시 장치(Tactile Display)라고 한다.In addition, one of the fields of haptic interfaces is related to texture, which is a phenomenon in which the skin is directly in contact with the surface when feeling the pattern or small shapes of the surface in contact, the smooth and roughness of the surface, and the feeling of cold and warmth. Since this process is composed of various complex physical elements, the shapes of haptic devices to reproduce textures are also very diverse, and a device made for the purpose of delivering such textures is called a texture display device.

또한, 상기 햅틱 인터페이스는 촉감의 전달을 통해 원거리 환경 또는 가상 환경의 사실성을 크게 증대시키고, 네트워크 기반의 환경에서 눈으로만 보던 온라인 쇼핑몰에서 상품을 만져보고 살 수 있는 기능을 제공할 수 있으며, 실제 유물을 만져볼 수 있는 온라인 박물관 기능을 제공할 수 있으며, 문자를 기반으로 하는 메신저 환경에서 서로 악수를 하고 어깨를 두드리는 등 촉감을 통한 감정의 전달 기능 등을 제공하는 바와 같이, 임의의 단말과 사용자 간의 상호작용형 기능을 제공할 수 있다.In addition, the haptic interface greatly increases the realism of a remote environment or a virtual environment through the delivery of tactile sensation, and provides a function to touch and buy a product in an online shopping mall that has only been seen with the eye in a network-based environment. It is possible to provide an online museum function to touch relics, and to provide a function of conveying emotions through tactile sensations such as shaking hands and tapping shoulders in a messenger environment based on text. It can provide an interactive function between.

이와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공할 수 있다.In this way, after recognizing the user's motion, the motion of the object displayed on the display unit can be controlled according to the recognized motion, and special effects related to the object can be provided.

이하에서는, 본 발명에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 도 1 내지 도 3을 참조하여 상세히 설명한다.Hereinafter, a method of providing a special effect using an air fan based on motion recognition according to the present invention will be described in detail with reference to FIGS. 1 to 3.

도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention.

먼저, 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.First, the control unit 600 outputs 3D content according to a user selection through the display unit 300 and/or the audio output unit 400. Here, in the 3D content, one or more objects whose movement is controlled according to a user's motion or a user input through an input unit (not shown) may be included.

이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the controller 600 may provide (or display/output) the corresponding 3D content displayed on the display unit 300 through the HMD. Here, the 3D content includes a 3D image/video, related sound effects (or audio information), and the like.

일 예로, 레이싱 게임(racing game)을 위한 VR 시스템에서 사용자 입력을 근거로 레이싱 게임을 실행할 때, 상기 제어부(600)는 상기 사용자가 착용한 제 1 HMD에 상기 레이싱 게임과 관련한 제 1 차량과 관련한 객체를 포함하는 제1 3D 콘텐츠를 표시하고, 해당 제1 3D 콘텐츠를 상기 표시부(300)에 표시하고, 상기 제1 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다.As an example, when executing a racing game based on a user input in a VR system for a racing game, the controller 600 attaches the first HMD worn by the user to a first vehicle related to the racing game. The first 3D content including an object is displayed, the corresponding first 3D content is displayed on the display unit 300, and the audio information (or sound effect) corresponding to the first 3D content is output to the audio output unit 400 Output through

다른 일 예로, 드론(drone) 조정을 위한 VR 시스템에서 사용자 입력을 근거로 드론 조정을 실행할 때, 상기 제어부(600)는 상기 표시부(300)를 통해 상기 드론 조정과 관련한 제 1 드론과 관련한 객체를 포함하는 제2 3D 콘텐츠를 표시하고, 상기 제2 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다(S310).As another example, when performing drone adjustment based on a user input in a VR system for drone control, the controller 600 displays an object related to the first drone related to the drone control through the display unit 300. The included second 3D content is displayed, and audio information (or sound effect) corresponding to the second 3D content is output through the audio output unit 400 (S310).

이후, 센서부(500)는 사용자의 동작(또는 움직임)을 감지한다. 이때, 상기 센서부(500)는 360도 카메라(미도시)를 통해 획득되는 영상 정보를 근거로 사용자의 동작을 감지하거나, 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서(미도시)를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지할 수 있다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.Thereafter, the sensor unit 500 detects a user's motion (or movement). In this case, the sensor unit 500 detects a user's motion based on image information acquired through a 360-degree camera (not shown), or a plurality of motion recognition sensors (not shown) worn (or attached) to the user's body. Based on the sensing information acquired through ), the motion of the corresponding user may be detected. Here, the user's motion (or movement) is the direction of both legs, the movement of the legs (including movement, rotation, etc.), the direction of the arm, the rotation of the arm clockwise/counterclockwise, the fist clenching motion, and the finger Pinch operation, finger spreading operation, palm touch operation, finger spreading operation, finger bending operation, drawing operation using hand/arm, shaking operation in left/right/up/down direction/diagonal direction using hand/arm, between these movements It includes actions by combination, etc.

일 예로, 상기 센서부(500)에 포함된 카메라는 사용자의 왼손 및 오른손의 움직임(예를 들어 사용자의 왼손이 9시 방향에 위치하고 사용자의 오른손이 3시 방향에 위치한 상태에서, 상기 사용자의 왼손이 9시 방향에서 12시 방향으로 회전하고 상기 사용자의 오른손이 3시 방향에서 6시 방향으로 회전/상기 사용자의 왼손과 오른손의 시계 방향으로 일정 각도(예를 들어 30도)/거리만큼의 회전)을 감지한다.As an example, the camera included in the sensor unit 500 moves the user's left hand and right hand (for example, when the user's left hand is at 9 o'clock and the user's right hand is at 3 o'clock, the left hand of the user This rotates from 9 o'clock to 12 o'clock, and the user's right hand rotates from 3 o'clock to 6 o'clock/clockwise rotation of the user's left and right hands by a certain angle (for example, 30 degrees)/distance ).

다른 일 예로, 사용자의 손가락 관절과 팔 등 복수의 위치에 부착된 복수의 동작 인식 센서를 통해 사용자의 손가락의 제스처/움직임(예를 들어 사용자의 오른 손가락의 검지가 기준점에서 방향/12시 방향으로 약 20cm 정도 올라가는 움직임)을 감지한다(S320).As another example, gesture/movement of the user's finger through a plurality of motion recognition sensors attached to a plurality of locations such as the user's finger joint and arm (for example, the index finger of the user's right finger is A movement that rises about 20cm) is sensed (S320).

이후, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.Thereafter, the controller 600 checks the motion (or movement) of the object in the 3D content displayed on the display unit 300 (or the HMD) based on the sensed user's motion.

또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the control unit 600 determines whether there is a special effect preset in relation to the object in the 3D content (or whether there is a special effect preset to interact with the motion of the object).

일 예로, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량에 대한 시계 방향으로의 30도 방향 회전 동작을 확인한다.As an example, the control unit 600 is based on the detected rotation of the user's left hand and right hand by 30 degrees in the clockwise direction, based on the clockwise direction 30 for the first vehicle in the first 3D content related to the racing game. Check the rotational motion in the road direction.

또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다.In addition, the control unit 600 determines whether a special effect is set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left hand and the right hand in the clockwise direction of the user. Judge whether or not.

다른 일 예로, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향(또는 수직방향/위쪽방향)으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론에 대한 수직 방향으로의 상승 동작을 확인한다.As another example, the control unit 600 is based on a movement of about 20 cm in the upward direction (or vertical direction/upward direction), which is the detected gesture of the user's finger, and the first 3D content in the second 3D content related to the drone adjustment. Check the vertical movement of the drone.

또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다(S330).In addition, the control unit 600 has a special effect in response to the upward motion of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is a gesture of the user's finger detected. It is determined whether is a preset state (S330).

판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, if there is no special effect set in advance in relation to the object in the 3D content according to the detected user's motion, the controller 600 is displayed on the identified display unit 300 (or the HMD). Controls the motion of the object according to the motion (or movement) of the object in the 3D content, and displays the control result (or the motion/motion result of the object in the 3D content) on the display unit 300 (or the HMD) do.

일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응하여 화면 상에서 회전하도록 구성할 수 있다.For example, when a special effect is not set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left hand and the right hand in the clockwise direction, the The controller 600 controls the first vehicle in the first 3D content related to the racing game to rotate in the clockwise direction by 30 degrees based on the detected rotation of the user's left hand and right hand by 30 degrees in the clockwise direction. , The first 3D content including the first vehicle rotated in the clockwise direction is displayed on the first HMD worn by the user and the display unit 300, respectively. In this case, the rotation angle of the first vehicle may be variously set according to the design of the designer, and may be configured to rotate on the screen in response to the detected rotation angle of the left and right hands of the user in the clockwise direction.

다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 상승하도록 제어하고, 상기 수직 방향으로 상승(또는 이륙)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다(S340).As another example, a special effect is not preset in response to the upward motion of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is a gesture of the user's finger. When not in a state, the controller 600 causes the first drone in the second 3D content related to the drone adjustment to rise in the vertical direction based on the detected movement of the user's finger, which is about 20 cm upward. Control and display the second 3D content including the first drone rising (or taking off) in the vertical direction on the display unit 300. In this case, the ascending distance in the vertical direction of the first drone may be variously set according to a designer's design, and a preset distance (for example, 1/5) in proportion to the movement of the finger's gesture (for example, 20 cm). 4cm) can be configured to rise on the screen (S340).

상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다. 이때, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.As a result of the determination, when there is a preset special effect in relation to the object in the 3D content according to the detected user's motion, the control unit 600 includes a plurality of air fans 700 disposed at different locations around the user. Generate a control signal to control the operation of ). In this case, the control unit 600 may generate a control signal including information on adjusting wind intensity by step by PWM (Pulse Width Modulation).

또한, 상기 복수의 에어팬(700)은 상기 생성된 제어 신호를 근거로 동작하여, 해당 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태로 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공한다.In addition, the plurality of air fans 700 are operated based on the generated control signal, so that the user can feel the similarity of moving according to the moving direction and speed of the object in a virtual reality environment. It provides special effects (for example, special effects that take into account the speed of the wind and the direction the wind is blowing in).

또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the control unit 600 controls at least one of the plurality of air fans 700 so that a special effect is provided to the corresponding user, and at the same time, a 3D display unit displayed on the identified display unit 300 (or the HMD) The motion of the object is controlled according to the motion (or movement) of the object in the content, and the control result (or the motion/motion result of the object in the 3D content) is displayed on the display unit 300 (or the HMD). .

일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 1시 방향에 위치한 제 1 에어팬의 동작 상태를 미리 설정된 제 1 레벨로 제어하기 위한 제 1 제어 신호 및 11시 방향에 위치한 제 4 에어팬의 동작 상태를 미리 설정된 제 2 레벨로 제어하기 위한 제 2 제어 신호를 각각 생성하고, 상기 생성된 제 1 제어 신호 및 제 2 제어 신호를 각각 대응하는 제 1 에어팬 및 제 4 에어팬에 제공한다.For example, when a special effect is set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left hand and the right hand in the clockwise direction, the control unit ( 600) is the operation state of the first air fan located at 1 o'clock among the first to fourth air fans 700 installed at 1 o'clock, 5 o'clock, 7 o'clock, and 11 o'clock, respectively, centered on the user. Each of the first control signals for controlling the power to the first preset level and the second control signals for controlling the operation state of the fourth air fan located at 11 o'clock to the second preset level are respectively generated, The first control signal and the second control signal are provided to the corresponding first and fourth air fans, respectively.

또한, 상기 제 1 에어팬은 상기 제 1 제어 신호를 근거로 제 1 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하고, 상기 제 4 에어팬은 상기 제 2 제어 신호를 근거로 제 2 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하여 해당 사용자가 우회전을 하면서 바람을 느낄 수 있도록 할 수 있다.In addition, the first air fan provides wind corresponding to the intensity of a first level to the user based on the first control signal, and the fourth air fan provides a second level of wind based on the second control signal. The wind corresponding to the intensity may be provided to the user so that the user can feel the wind while turning right.

또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응할 수 있다.In addition, the control unit 600 rotates the first vehicle in the first 3D content related to the racing game in the clockwise direction by 30 degrees based on the detected rotation of the user's left hand and right hand by 30 degrees in the clockwise direction. And the first 3D content including the first vehicle rotated in the clockwise direction is displayed on the first HMD worn by the user and the display unit 300, respectively. In this case, the rotation angle of the first vehicle may correspond to a clockwise rotation angle of the detected user's left and right hands.

이와 같이, 상기 제어부(600)는 상기 제1 3D 콘텐츠 내의 제 1 차량의 시계 방향으로의 회전에 따라 해당 제 1 차량의 시계 방향으로 회전하는 3D 콘텐츠를 상기 제 1 HMD 및 상기 표시부(300)에 각각 표시함과 동시에 해당 제 1 차량의 시계 방향으로의 회전에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다.In this way, the controller 600 transmits 3D content that rotates clockwise of the first vehicle in the clockwise direction of the first vehicle in the first 3D content to the first HMD and the display unit 300. At the same time as each display, wind, which is a special effect according to the clockwise rotation of the corresponding first vehicle, may be provided to the user.

다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 상기 제 1 드론의 수직 방향으로의 상승 동작에 따른 수직 기류 효과를 제공하기 위해서 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 제 1, 2, 3 및 4 에어팬의 동작을 각각 제어하기 위한 제 11 제어 신호 내지 제 14 제어 신호를 각각 생성하고, 상기 생성된 제 11 제어 신호 내지 제 14 제어 신호를 각각 대응하는 제 1 에어팬 내지 제 4 에어팬에 각각 제공한다.As another example, a state in which a special effect is preset in response to the upward motion of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is a gesture of the user's finger detected. In this case, the control unit 600 operates at 1 o'clock, 5 o'clock, 7 o'clock, and 11 o'clock, respectively, in order to provide a vertical airflow effect according to the upward motion of the first drone. Generate 11th to 14th control signals respectively for controlling the operation of the 1st, 2nd, 3rd and 4th air fans among the installed 1st to 4th air fans 700, and the generated 11th Control signals to 14th control signals are provided to the corresponding first to fourth air fans, respectively.

또한, 상기 제 1 에어팬 내지 제 4 에어팬 각각은 상기 제 11 제어 신호 내지 제 14 제어 신호를 근거로 상기 제 1 드론의 상승 동작에 따른 상승 기류 효과를 사용자에게 제공한다.In addition, each of the first to fourth air fans provides the user with an upward airflow effect according to the ascending operation of the first drone based on the eleventh to fourteenth control signals.

또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 이륙하도록 제어하고, 상기 수직 방향으로 이륙(또는 상승)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다.In addition, the controller 600 controls the first drone in the second 3D content related to the drone adjustment to take off in the vertical direction based on the detected movement of the user's finger, which is about 20 cm upward, The second 3D content including the first drone taking off (or ascending) in the vertical direction is displayed on the display unit 300. In this case, the ascending distance of the first drone in the vertical direction may be configured to rise on the screen by a preset distance (for example, 1/5, 4 cm) in proportion to the movement of the finger gesture (for example, 20 cm). .

이와 같이, 상기 제어부(600)는 상기 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 따라 해당 제 1 드론의 수직 방향으로 상승하는 3D 콘텐츠를 상기 표시부(300)에 표시함과 동시에 해당 제 1 드론의 수직 방향으로의 상승 동작에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다(S350).In this way, the controller 600 displays the 3D content rising in the vertical direction of the first drone in the vertical direction of the first drone in the second 3D content on the display unit 300 Wind, which is a special effect according to the upward motion of the first drone, may be provided to the user (S350).

본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하여, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있다.As described above, after recognizing a user's motion, an embodiment of the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, so that the user's experience index It can maximize the efficiency of operation of the entire system and improve the convenience of use by maximizing the size of the equipment and enhancing the mobility.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention belongs. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

10: 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템
100: 통신부 200: 저장부
300: 표시부 400: 음성 출력부
500: 센서부 600: 제어부
700: 에어팬
10: Motion recognition-based system for providing special effects using an air fan
100: communication unit 200: storage unit
300: display unit 400: audio output unit
500: sensor unit 600: control unit
700: air fan

Claims (8)

HMD(Head Mounted Display)를 포함하며, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 표시부;
사용자의 동작을 감지하는 센서부;
상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제 1 제어 신호를 생성하며 상기 사용자에게 상기 3D 콘텐츠 내의 객체와 관련한 촉각 정보를 제공하기 위한 제 2 제어 신호를 생성하며 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부;
상기 제 1 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬; 및
상기 제 2 제어 신호를 근거로 상기 객체와 관련한 근감각에 대한 정보인 촉각 정보를 사용자에게 제공하는 햅틱 인터페이스를 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
A display unit including a head mounted display (HMD) and displaying 3D content including an object whose movement is controlled according to a user input;
A sensor unit detecting a user's motion;
Based on the detected user's motion, the motion of the object in the 3D content displayed on the display is checked, it is determined whether a special effect preset in relation to the object in the 3D content exists, and as a result of the determination, in the 3D content Generates a first control signal for controlling the operation of a plurality of air fans arranged at different locations around the user when there is a preset special effect in relation to the object, and provides tactile information related to the object in the 3D content to the user. A control unit that generates a second control signal to be provided and controls the operation of the object according to the operation of the object in the 3D content displayed on the identified display unit and displays it on the display unit;
The plurality of air fans providing special effects based on the first control signal; And
A system for providing special effects using a motion recognition-based air fan including a haptic interface that provides tactile information, which is information on a muscular sense related to the object, based on the second control signal.
제 1 항에 있어서,
상기 센서부는,
상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및
사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동작 인식 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The sensor unit,
A 360-degree camera that detects the user's motion based on image information including the user; And
A system for providing special effects using a motion recognition-based air fan, comprising at least one of a plurality of motion recognition sensors worn on a user's body and detecting the user's motion according to the user's motion.
제 1 항에 있어서,
상기 사용자의 동작은,
양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The user's action,
Direction of both legs, movement of the legs, direction of the arm, rotation of the arm clockwise or counterclockwise, a fist-clamping motion, a pinch-up motion, a finger spreading motion, a palm touch motion, a finger straightening motion, a finger bending motion, a hand Or drawing a figure using an arm, a shaking motion in any one of a left-right direction, an up-down direction, and a diagonal direction using a hand or arm, and a motion by a combination of these motions. A system that provides special effects using an air fan based on motion recognition.
제 1 항에 있어서,
상기 제어부는,
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The control unit,
As a result of the determination, when there is no pre-set special effect in relation to the object in the 3D content, the operation of the object is controlled and displayed on the display unit according to the motion of the object in the 3D content displayed on the checked display unit. A system for providing special effects using an air fan based on motion recognition.
제 1 항에 있어서,
상기 제어부는,
PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제 1 제어 신호를 생성하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The control unit,
A system for providing a special effect using an air fan based on motion recognition, characterized in that generating the first control signal including information on stepwise wind intensity adjustment by PWM (Pulse Width Modulation).
제 1 항에 있어서,
상기 복수의 에어팬은,
상기 생성된 제 1 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.
The method of claim 1,
The plurality of air fans,
Operates based on the generated first control signal, and provides the user with a special effect in consideration of the speed of the wind and the direction of blowing according to the moving direction and speed of the object in a virtual reality environment in a surround form. A system for providing special effects using an air fan based on motion recognition.
표시부에 의해, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 단계;
센서부에 의해, 사용자의 동작을 감지하는 단계;
제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계;
상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계;
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제 1 제어 신호를 생성하며 상기 사용자에게 상기 3D 콘텐츠 내의 객체와 관련한 촉각 정보를 제공하기 위한 제 2 제어 신호를 생성하며 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계;
상기 복수의 에어팬에 의해, 상기 제 1 제어 신호를 근거로 특수 효과를 제공하는 단계; 및
햅틱 인터페이스에 의해, 상기 제 2 제어 신호를 근거로 상기 객체와 관련한 근감각에 대한 정보인 촉각 정보를 사용자에게 제공하는 단계를 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.
Displaying, by the display unit, 3D content including an object whose movement is controlled according to a user input;
Detecting a user's motion by the sensor unit;
Checking, by a control unit, an operation of an object in the 3D content displayed on the display unit based on the detected user's motion;
Determining, by the control unit, whether a special effect preset in relation to the object in the 3D content exists;
As a result of the determination, when there is a preset special effect in relation to the object in the 3D content, the control unit generates a first control signal for controlling the operation of a plurality of air fans disposed at different locations around the user And generates a second control signal for providing tactile information related to the object in the 3D content to the user, and controls the operation of the object according to the motion of the object in the 3D content displayed on the identified display unit and displays it on the display unit The step of doing;
Providing a special effect based on the first control signal by the plurality of air fans; And
A method for providing a special effect using an air fan based on motion recognition, comprising the step of providing, by a haptic interface, tactile information, which is information on a muscular sense related to the object, based on the second control signal.
제 7 항에 있어서,
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.
The method of claim 7,
As a result of the determination, when there is no special effect preset in relation to the object in the 3D content, the control unit controls the operation of the object according to the motion of the object in the 3D content displayed on the A method for providing special effects using an air fan based on motion recognition, further comprising displaying on a display unit.
KR1020180082032A 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof KR102167066B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Publications (2)

Publication Number Publication Date
KR20200008196A KR20200008196A (en) 2020-01-28
KR102167066B1 true KR102167066B1 (en) 2020-11-23

Family

ID=69370329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082032A KR102167066B1 (en) 2018-07-16 2018-07-16 System for providing special effect based on motion recognition and method thereof

Country Status (1)

Country Link
KR (1) KR102167066B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101544384B1 (en) * 2013-09-13 2015-08-17 한국기계연구원 Virtual reality ststem having providing inertial force part and method for providing inertial force
KR101827912B1 (en) * 2016-07-05 2018-02-12 주식회사 인디고엔터테인먼트 Walkable virtual reality apparatus
KR20180056306A (en) * 2016-11-18 2018-05-28 삼성전자주식회사 Virtual reality device
KR20180077588A (en) 2016-12-29 2018-07-09 주식회사 한울네오텍 Game based disaster safety virtual trainig system using virtual reality

Also Published As

Publication number Publication date
KR20200008196A (en) 2020-01-28

Similar Documents

Publication Publication Date Title
US20230090086A1 (en) Body pose estimation
US10974138B2 (en) Haptic surround functionality
EP2942693B1 (en) Systems and methods for viewport-based augmented reality haptic effects
JP2022003535A (en) System and method for location based haptic effect
EP3588250A1 (en) Real-world haptic interactions for a virtual reality user
CN110096131B (en) Touch interaction method and device and touch wearable equipment
US20180253152A1 (en) Gesture-controlled augmented reality experience using a mobile communications device
US20150235423A1 (en) Augmented reality system
Sun et al. Augmented reality based educational design for children
US11049325B2 (en) Information processing apparatus, information processing method, and program
KR20170076534A (en) Virtual reality interface apparatus and method for controlling the apparatus
CN108549487A (en) Virtual reality exchange method and device
WO2017061890A1 (en) Wireless full body motion control sensor
KR102167066B1 (en) System for providing special effect based on motion recognition and method thereof
US20150084848A1 (en) Interaction between generic interaction devices and an interactive display
WO2014003949A1 (en) Peripheral device for visual and/or tactile feedback
US20230041294A1 (en) Augmented reality (ar) pen/hand tracking
WO2014119382A1 (en) Tactile force presentation device, information terminal, tactile force presentation method, and computer-readable recording medium
JP7372717B1 (en) Program, information processing device and method
KR101605740B1 (en) Method for recognizing personalized gestures of smartphone users and Game thereof
US20230215069A1 (en) System and method for mimicking user handwriting or other user input using an avatar
KR102520841B1 (en) Apparatus for simulating of billiard method thereof
US20220414962A1 (en) Information processing system, information processing method, and information processing program
US20230410441A1 (en) Generating user interfaces displaying augmented reality graphics
KR102124181B1 (en) Apparatus for setting password using piano clavier user interface and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right