KR102167066B1 - System for providing special effect based on motion recognition and method thereof - Google Patents
System for providing special effect based on motion recognition and method thereof Download PDFInfo
- Publication number
- KR102167066B1 KR102167066B1 KR1020180082032A KR20180082032A KR102167066B1 KR 102167066 B1 KR102167066 B1 KR 102167066B1 KR 1020180082032 A KR1020180082032 A KR 1020180082032A KR 20180082032 A KR20180082032 A KR 20180082032A KR 102167066 B1 KR102167066 B1 KR 102167066B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- user
- content
- special effect
- display unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B11/00—Automatic controllers
- G05B11/01—Automatic controllers electric
- G05B11/26—Automatic controllers electric in which the output signal is a pulse-train
- G05B11/28—Automatic controllers electric in which the output signal is a pulse-train using pulse-height modulation; using pulse-width modulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
Abstract
본 발명은 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법을 개시한다. 즉, 본 발명은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하여, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있다.The present invention discloses a system and method for providing special effects using an air fan based on motion recognition. That is, after recognizing the user's motion, the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, thereby maximizing the user's experience index and miniaturization of equipment. And, by enhancing mobility, the overall system operation efficiency can be improved, and usability can be improved.
Description
본 발명은 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것으로, 특히 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for providing a special effect using an air fan based on motion recognition. In particular, after recognizing a user's motion, the motion of an object displayed on a display unit is controlled according to the recognized motion, and The present invention relates to a system and method for providing special effects using an air fan based on motion recognition that provides related special effects.
가상현실(Virtual Reality: VR)은 현실의 특정한 환경이나 상황을 컴퓨터를 통해 그대로 모방하여 사용자가 마치 실제 주변 상황·환경과 상호작용을 하고 있는 것처럼 만드는 기술이다.Virtual Reality (VR) is a technology that mimics a specific environment or situation in reality through a computer, making it as if the user is interacting with the actual surrounding situation or environment.
이러한 가상현실이 적용된 가상현실 서비스 산업은 디바이스(예를 들어 삼성 기어 VR, Oculus Rift, HTC VIVE 등 포함)의 고성장세에도 대중화에 일정한 한계에 부딪히고 있다.The virtual reality service industry to which such virtual reality is applied is facing certain limits in its popularization despite the high growth of devices (eg, Samsung Gear VR, Oculus Rift, HTC VIVE, etc.).
즉, 사용자가 교육, 학습, 게임, 군사 시뮬레이션 분야 등에서 가상현실 서비스를 이용할 수 있는 가상현실 서비스 산업은 대기수요는 많지만 1대당 가상현실 공간의 구축 단가가 비싸고, 단순히 HMD(Head Mounted Display) 등을 이용한 가상현실 환경 제공에 그치고 있어, 사용자의 체감 확장에 한계가 있는 상태이고, 이동성과 콘텐츠의 재사용성에서 사용상의 불편함이 존재한다.In other words, the virtual reality service industry, where users can use virtual reality services in the fields of education, learning, games, and military simulations, has high atmospheric demand, but the cost of constructing a virtual reality space per unit is expensive, and simply uses HMD (Head Mounted Display). As it is limited to providing a virtual reality environment that has been used, there is a limit to the expansion of the user's experience, and there are inconveniences in use in terms of mobility and reusability of contents.
본 발명의 목적은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention is a system for providing special effects using an air fan based on motion recognition that recognizes a user's motion, controls the motion of an object displayed on a display unit according to the recognized motion, and provides special effects related to the object And to provide the method.
본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템은 HMD(Head Mounted Display)를 포함하며, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 표시부; 사용자의 동작을 감지하는 센서부; 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부; 및 상기 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬을 포함할 수 있다.A system for providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention includes a display unit including a head mounted display (HMD) and displaying 3D content including an object whose movement is controlled according to a user input; A sensor unit for detecting a user's motion; Based on the detected user's motion, the motion of the object in the 3D content displayed on the display is checked, it is determined whether a special effect preset in relation to the object in the 3D content exists, and as a result of the determination, in the 3D content When there is a pre-set special effect in relation to the object, the motion of the object in the 3D content displayed on the checked display unit while generating a control signal for controlling the operation of a plurality of air fans arranged at different locations around the user A controller configured to control an operation of the object and display the object on the display; And the plurality of air fans providing special effects based on the control signal.
본 발명과 관련된 일 예로서 상기 센서부는, 상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및 사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동작 인식 센서 중 적어도 하나를 포함할 수 있다.As an example related to the present invention, the sensor unit may include a 360 degree camera that detects a motion of the user based on image information including the user; And at least one of a plurality of motion recognition sensors worn on the user's body to sense the user's motion according to the user's motion.
본 발명과 관련된 일 예로서 상기 사용자의 동작은, 양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함할 수 있다.As an example related to the present invention, the user's motion may include a direction of both legs, a motion of a leg, a direction of an arm, a rotation of the arm in a clockwise or counterclockwise direction, a fist clenching motion, a pinching motion, a finger spreading motion, Palm touch operation, finger spreading operation, finger bending operation, drawing operation using hand or arm, shaking operation in any one of left and right direction using hand or arm, vertical direction and diagonal direction, and combinations of these operations At least one of the following operations may be included.
본 발명과 관련된 일 예로서 상기 제어부는, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시할 수 있다.As an example related to the present invention, when, as a result of the determination, there is no pre-set special effect in relation to the object in the 3D content, the control unit may determine the object according to the operation of the object in the 3D content displayed on the By controlling the operation of the display can be displayed on the display.
본 발명과 관련된 일 예로서 상기 제어부는, PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제어 신호를 생성할 수 있다.As an example related to the present invention, the controller may generate the control signal including step-by-step wind intensity control information by PWM (Pulse Width Modulation).
본 발명과 관련된 일 예로서 상기 복수의 에어팬은, 상기 생성된 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공할 수 있다.As an example related to the present invention, the plurality of air fans operate based on the generated control signal, and the speed of the wind and the direction in which the wind blows according to the moving direction and speed of the object in the virtual reality environment to the user It can provide a special effect taking into account in a surround form.
본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법은 표시부에 의해, 사용자 입력에 따라 움직임이 제어되는 객체를 포함하는 3D 콘텐츠를 표시하는 단계; 센서부에 의해, 사용자의 동작을 감지하는 단계; 제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계; 상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계; 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제어 신호를 생성함과 동시에 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계; 및 상기 복수의 에어팬에 의해, 상기 제어 신호를 근거로 특수 효과를 제공하는 단계를 포함할 수 있다.A method of providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention includes, by a display unit, displaying 3D content including an object whose movement is controlled according to a user input; Detecting a user's motion by a sensor unit; Checking, by a control unit, an operation of an object in the 3D content displayed on the display unit based on the detected user's motion; Determining, by the control unit, whether there is a special effect preset in relation to the object in the 3D content; As a result of the determination, when there is a preset special effect in relation to the object in the 3D content, the control unit generates a control signal for controlling the operation of a plurality of air fans disposed at different locations around the user; and Simultaneously controlling the motion of the object according to the motion of the object in the 3D content displayed on the checked display and displaying it on the display; And providing a special effect based on the control signal by the plurality of air fans.
본 발명과 관련된 일 예로서 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when, as a result of the determination, there is no pre-set special effect with respect to the object in the 3D content, the control unit determines the operation of the object in the 3D content displayed on the checked display unit. The method may further include controlling the operation of the object and displaying it on the display.
본 발명은 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공함으로써, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있는 효과가 있다.After recognizing the user's motion, the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, thereby maximizing the user's experience index, miniaturization and mobility of the device. It has the effect of enhancing overall system operation efficiency and improving user convenience.
도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 제어 신호의 예를 나타낸 도이다.
도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.1 is a block diagram showing the configuration of a system for providing special effects using an air fan based on motion recognition according to an embodiment of the present invention.
2 is a diagram showing an example of a control signal according to an embodiment of the present invention.
3 is a flowchart illustrating a method of providing special effects using an air fan based on motion recognition according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are used only to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It should be construed that it may or may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the constituent elements, but the constituent elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a
도 1에 도시한 바와 같이, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 통신부(100), 저장부(200), 표시부(300), 음성 출력부(400), 센서부(500), 제어부(600) 및 에어팬(700)으로 구성된다. 도 1에 도시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 구현될 수도 있다.As shown in FIG. 1, the
상기 통신부(100)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(100)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The
또한, 상기 통신부(100)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the
또한, 상기 통신부(100)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the
또한, 상기 통신부(100)는 상기 제어부(600)의 제어에 의해 상기 서버로부터 전송되는 가상현실 시스템을 구현하기 위한 소프트웨어(또는 프로그램) 등을 수신한다.In addition, the
상기 저장부(200)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The
또한, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the
즉, 상기 저장부(200)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 기본적인 기능을 위하여 출고 당시부터 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(200)에 저장되고, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치되어, 제어부(600)에 의하여 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the
또한, 상기 저장부(200)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 인터넷(internet)상에서 저장부(200)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the
또한, 상기 저장부(200)는 상기 통신부(100)를 통해 수신된 가상현실 시스템을 구현(또는 재생/실행)하기 위한 프로그램 등을 저장(또는 설치)한다.In addition, the
상기 표시부(또는 디스플레이부)(300)는 상기 제어부(600)의 제어에 의해 상기 저장부(200)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(300)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(300)는 터치 스크린 일 수 있다.The display unit (or display unit) 300 may display various contents such as various menu screens using a user interface and/or a graphic user interface stored in the
또한, 상기 표시부(300)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the
또한, 상기 표시부(300)는 3차원 콘텐츠를 표시할 수 있는 HMD(Head Mounted Display), 안경 형태의 디스플레이 등을 포함할 수도 있다.In addition, the
또한, 상기 표시부(300)는 상기 제어부(600)의 제어에 의해 특정 프로그램과 관련한 2D 객체가 포함된 2D 콘텐츠, 3D 객체가 포함된 3D 콘텐츠 등을 표시한다.In addition, the
상기 음성 출력부(400)는 상기 제어부(600)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(400)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The
또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 생성된 안내 음성을 출력한다.In addition, the
또한, 상기 음성 출력부(400)는 상기 제어부(600)에 의해 상기 2D 콘텐츠, 3D 콘텐츠 등에 대응하는 음성 정보(또는 음향 효과)를 출력한다.In addition, the
상기 센서부(또는 동작 인식부)(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 인접한 사용자의 동작(또는 움직임)을 감지하기 위한 360도 카메라, 동작 인식 센서(Motion Recognition Sensor) 등을 포함한다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.The sensor unit (or motion recognition unit) 500 includes a 360-degree camera for detecting a motion (or movement) of a user adjacent to the special
즉, 상기 센서부(500)는 상기 360도 카메라(또는 카메라)를 통해 획득되는 영상 정보(예를 들어 연속된 복수의 이미지, 동영상 등 포함)를 근거로 공지된 다양한 객체(또는 사용자) 인식 방법을 적용하여 사용자의 동작을 감지한다.That is, the
또한, 상기 센서부(500)는 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지한다. 여기서, 상기 동작 인식 센서는 물체의 움직임이나 위치를 인식하는 센서, 지자기 센서(Geomagnetism Sensor), 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서 등의 센서를 포함하며, 동작 인식에 관련된 센서들이 추가로 포함될 수 있다. 이때, 상기 센서부(500)는 상기 사용자의 움직임, 예를 들면, 상기 사용자의 신체 일부(예를 들어 팔, 손, 손가락 등 포함)의 기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 상하/좌우/대각선 등의 방향으로의 진동 방향 및/또는 진동 횟수 등을 포함하는 정보를 감지한다. 여기서, 상기 감지되는 정보들(기울어진 방향, 기울어진 각도 및/또는 상기 기울어지는 속도, 진동 방향 및/또는 진동 횟수)은 디지털 신호 처리 과정을 통해 디지털화되어, 상기 디지털화된 정보들이 상기 제어부(600)에 전달된다.In addition, the
또한, 상기 센서부(500)는 웨어러블 디바이스 형태로 제공되어, 사용자의 신체(예를 들어 손, 손가락, 팔, 다리 등 포함)에 착용된 상태에서 해당 사용자의 움직임에 따른 정보를 인식할 수도 있다.In addition, the
또한, 상기 센서부(500)는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 사용자)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센서부(500)는 근접 센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서, RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.In addition, the
또한, 상기 센서부(500)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 주변(또는 VR 시스템 내의 미리 설정된 영역)에 위치한 사용자의 동작(또는 모션) 인식 기능, 음성 인식 기능, 입술 움직임 인식 기능, 눈동자의 움직임 인식 기능(또는 시선 추적 기능) 등을 수행할 수도 있다.In addition, the
또한, 상기 센서부(500)는 상기 사용자의 동작이나 입술 움직임이나 눈동자의 움직임을 인식하기 위한 동작 인식 모듈, 음성 인식을 위한 음성 인식 모듈 등을 포함한다.In addition, the
상기 제어부(controller, 또는 MCU(microcontroller unit)(600)는 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)의 전반적인 제어 기능을 실행한다.The controller or microcontroller unit (MCU) 600 executes the overall control function of the special
또한, 상기 제어부(600)는 상기 저장부(200)에 저장된 프로그램 및 데이터를 이용하여 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(600)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(200)에 액세스하여, 상기 저장부(200)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(200)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the
또한, 상기 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다.In addition, the
즉, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)에 설치된 프로그램 중 특정 가상현실 기능을 제공하기 위한 프로그램이 선택(또는 실행)되는 경우, 상기 제어부(600)는 해당 프로그램과 관련한 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.That is, when a program for providing a specific virtual reality function is selected (or executed) among programs installed in the special
이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the
또한, 상기 제어부(600)는 상기 센서부(500)에 포함된 360도 카메라 또는 동작 인식 센서로부터 획득한 사용자의 손의 모션 정보를 영상 처리하여 손바닥 또는 손가락이 x축을 중심으로 회전하는 x축 회전값, 손바닥 또는 손가락이 y축을 중심으로 회전하는 y축 회전값, 및 손바닥 또는 손가락이 z축을 중심으로 회전하는 z축 회전값을 포함하는 위치 정보를 추출한 후, 해당 위치 정보를 미리 설정된 모션 기준 정보와 비교하여 상기 모션 기준 정보에 대응되는 값으로 변환하여, 변환된 값을 앞서 표시 중(또는 실행 중)인 3D 콘텐츠 내의 특정 객체의 동작과 연동할 수 있다.In addition, the
또한, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.In addition, the
또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the
판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, if there is no special effect set in advance in relation to the object in the 3D content according to the detected user's motion, the
상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다.As a result of the determination, when there is a preset special effect in relation to the object in the 3D content according to the detected user's motion, the
이때, 도 2에 도시된 바와 같이, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.In this case, as shown in FIG. 2, the
또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the
또한, 상기 제어부(600)는 서버(미도시)로부터 제공되는 업데이트된 프로그램 정보를 근거로 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)(또는 상기 저장부(200))에 설치된 프로그램을 업데이트할 수 있다.In addition, the
이와 같이, 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10)은 부스 형태 등으로 설치된 공간상에 위치하는 사용자의 동작(또는 움직임)에 따라 가상현실 체험을 위한 객체의 동작을 제어하여, 멀티 모달리티 시스템(multimodality system)을 적용한 실감형 정보를 제공하며, 해당 가상현실에 대한 체험감을 극대화할 수 있다.In this way, the motion recognition-based special
상기 에어팬(air foil fan)(700)은 단일 또는 복수로 구성할 수 있다.The air fan (air foil fan) 700 may be configured as single or plural.
상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변을 이동할 수 있는 레일(미도시)을 통해 상기 제어부(600)에 의해 생성된 제어 신호에 따라 이동하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.When the
또한, 상기 에어팬(700)이 단일 형태로 구성되는 경우, 상기 에어팬(700)은 특정 위치에 고정된 후, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변에 위치한 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공할 수도 있다.In addition, when the
또한, 상기 에어팬(700)이 복수 형태로 구성되는 경우, 상기 복수의 에어팬(700) 각각은 부스 형태의 상기 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템(10) 내의 사용자가 위치할 미리 설정된 영역 주변의 미리 설정된 위치에 각각 설치되며, 상기 제어부(600)에 의해 생성된 제어 신호에 따라 상기 복수의 에어팬(700) 중 적어도 하나의 에어팬(700)이 동작하면서 해당 사용자에게 특수 효과(예를 들어 바람 등 포함)를 제공한다.In addition, when the
이와 같이, 상기 에어팬(700)이 단일 형태로 구성되는 경우에는 상기 에어팬(700)이 사용자 주변을 이동 가능하게 구성하여 360도 중 어느 하나의 방향 및 각도에서 해당 사용자에게 특수 효과를 제공할 수 있다.In this way, when the
또한, 이와 같이, 상기 에어팬(700)이 서라운드 형태로 복수 형태로 구성되는 경우에는 해당 복수의 에어팬(700)이 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태의 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공할 수 있다.In addition, as described above, when the
본 발명의 실시예에서는 가상현실 기반에서의 특수 효과를 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 혼합 현실(Mixed Reality: MR) 기반에서도 본 발명에 따른 특수 효과를 제공할 수도 있다.In the embodiment of the present invention, providing a special effect based on virtual reality is described, but the present invention is not limited thereto, and a special effect according to the present invention may also be provided based on a mixed reality (MR).
본 발명의 실시예에서는 특수 효과로 에어팬(700)을 이용한 서라운드 형태의 바람을 사용자에게 제공하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 에어팬(700) 외에 다른 특수 효과를 위한 특수 효과 제공부(미도시)를 구성할 수도 있다.In the embodiment of the present invention, it is described that a surround type of wind using the
상기 특수 효과 제공부는 햅틱 인터페이스(미도시) 등을 더 포함하며, 상기 햅틱 인터페이스를 통해서 사용자에게 바람뿐만 아니라, 해당 객체와 관련한 근감각(kinesthesia)에 대한 정보(예를 들어 해당 객체와 관련한 질량, 굳고 말랑말랑한 정도, 반력 등에 대한 정보 포함), 해당 객체와 관련한 질감(tactility)에 대한 정보(예를 들어 해당 객체와 관련한 표면의 무늬, 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등에 대한 정보 포함) 등을 포함하는 촉각 정보를 제공할 수도 있다.The special effect providing unit further includes a haptic interface (not shown), and the like, and information about not only wind to the user through the haptic interface, but also kinesthesia related to the object (for example, mass related to the object, Information on the texture (tactility, etc.) associated with the object (e.g., information on the surface pattern, small shapes, smoothness and roughness of the surface, feeling of coolness, etc. related to the object) Including), etc. may be provided.
상기 햅틱 인터페이스(Haptic Interface)(또는 햅틱부/촉각 인터페이스)는 넓은 의미로는 사용자에게 촉감을 전달하는 시스템 전체를 가리키며, 사용자가 직접 접촉하게 함으로써 사용자에게 물리력 전달을 통해 촉감을 발생시키는 하드웨어 장치인 햅틱 장치(Haptic Device)와, 원격 접촉(Teletaction) 환경 또는 컴퓨터 그래픽과 물리적 특성 등으로 이루어진 가상 환경, 햅틱 장치의 움직임을 가상 환경에 전달하고 가상 환경과의 접촉력을 햅틱 장치로 전달하는 역할을 하는 제어기(미도시)(또는 상기 제어부(600))로 구성할 수 있다.The haptic interface (or haptic part/tactile interface) refers to the entire system that transmits tactile sensation to the user in a broad sense, and is a hardware device that generates tactile sensation through physical force transmission to the user by direct contact with the user. Haptic device, remote contact (Teletaction) environment, or a virtual environment consisting of computer graphics and physical characteristics, and the role of transmitting the movement of the haptic device to the virtual environment and the contact force with the virtual environment to the haptic device. It may be configured as a controller (not shown) (or the controller 600).
이러한 상기 햅틱 인터페이스의 궁극적인 목적은 모델링되어 있는 가상 환경(예를 들어, AR 환경, VR 환경, MR 환경 등 포함) 또는 실제 환경의 물리적 특성을 사용자가 상기 햅틱 장치를 통해 똑같이 느끼게 하는 것이다.The ultimate purpose of the haptic interface is to allow the user to feel the same physical characteristics of the virtual environment (eg, AR environment, VR environment, MR environment, etc.) or the real environment through the haptic device.
또한, 상기 햅틱 인터페이스는 상기 햅틱 장치와 가상 환경이 하나의 환경에 존재할 수 있도록 상기 햅틱 장치의 위치 변화를 표현하는 가상의 대리자가 가상 환경 속에 존재한다. 상기 가상의 대리자가 가상의 물체에 부딪혀서 발생한 힘이 Fe이고, 사람이 햅틱 장치를 통해서 느끼는 힘이 Fm이라면, 두 값이 똑같이 되도록 제어하는 것이 이상적인 햅틱 인터페이스 시스템이다.In addition, in the haptic interface, a virtual agent representing a position change of the haptic device exists in the virtual environment so that the haptic device and the virtual environment exist in one environment. If the force generated by the virtual delegate hitting the virtual object is Fe, and the force felt through the haptic device by a person is Fm, it is an ideal haptic interface system to control the two values to be the same.
이상적인 햅틱 인터페이스의 구현을 위해서는 정확한 모델링 방법과 모델을 구현할 수 있는 하드웨어 및 제어 방법에 관한 연구가 뒷받침되어야 한다.In order to implement an ideal haptic interface, research on an accurate modeling method and hardware and control method that can implement the model should be supported.
또한, 상기 햅틱 인터페이스는 좁은 의미로 하드웨어적인 부분만으로 제한되어 상기 햅틱 장치와 동일한 의미로 사용될 수도 있다.In addition, the haptic interface is limited to a hardware part in a narrow sense and may be used in the same meaning as the haptic device.
또한, 상기 햅틱 인터페이스는 하드웨어 개발 관점, 즉 상기 햅틱 장치를 개발하는 관점에서 크게 두 분야로 나눌 수 있다.In addition, the haptic interface can be broadly divided into two fields from the viewpoint of hardware development, that is, from the viewpoint of developing the haptic device.
즉, 사람은 촉각을 두 가지 주요 경로를 통해 느끼며, 상기 햅틱 인터페이스도 이러한 두 가지 주요 분야로 나누어 개발되고 있다.That is, a person feels the sense of touch through two main paths, and the haptic interface is also being developed by dividing into these two main fields.
이러한 햅틱 인터페이스의 분야 중 하나는 근감각에 관련된 것으로, 우리가 물체의 질량이나, 굳고 말랑말랑한 정도, 물체의 외형 등을 느낄 때, 근육과 관절의 움직임을 통해 촉감을 느끼는 현상이다. 이 과정은 물리적으로는 힘과 연관되어 있으므로, 상기 햅틱 장치는 힘을 생성하기에 유리한 로봇 모양과 같은 기구적 구조를 띠고 있으며, 이와 같은 목적으로 만들어진 햅틱 장치를 힘 피드백 장치(Force Feedback Device)라고 한다.One of the fields of such a haptic interface is related to muscle sensation, and when we feel the mass of an object, the degree of firmness and softness, the appearance of an object, etc., it is a phenomenon in which the sense of touch is felt through the movement of muscles and joints. Since this process is physically related to force, the haptic device has a mechanical structure such as a robot shape that is advantageous for generating force, and a haptic device made for this purpose is called a force feedback device. do.
또한, 햅틱 인터페이스의 분야 중 다른 하나는 질감에 관련된 것으로, 접촉하고 있는 표면의 무늬 또는 작은 모양들, 표면의 부드럽고 거친 정도, 냉온감 등을 느낄 때 피부를 표면에 직접 접촉하여 느끼는 현상이다. 이 과정은 여러 가지 복잡한 물리적 요소들로 이루어져 있어서 질감을 재현하고자 하는 햅틱 장치들의 모양도 매우 다양하며, 이와 같은 질감을 전달하는 목적으로 만들어진 장치를 질감 제시 장치(Tactile Display)라고 한다.In addition, one of the fields of haptic interfaces is related to texture, which is a phenomenon in which the skin is directly in contact with the surface when feeling the pattern or small shapes of the surface in contact, the smooth and roughness of the surface, and the feeling of cold and warmth. Since this process is composed of various complex physical elements, the shapes of haptic devices to reproduce textures are also very diverse, and a device made for the purpose of delivering such textures is called a texture display device.
또한, 상기 햅틱 인터페이스는 촉감의 전달을 통해 원거리 환경 또는 가상 환경의 사실성을 크게 증대시키고, 네트워크 기반의 환경에서 눈으로만 보던 온라인 쇼핑몰에서 상품을 만져보고 살 수 있는 기능을 제공할 수 있으며, 실제 유물을 만져볼 수 있는 온라인 박물관 기능을 제공할 수 있으며, 문자를 기반으로 하는 메신저 환경에서 서로 악수를 하고 어깨를 두드리는 등 촉감을 통한 감정의 전달 기능 등을 제공하는 바와 같이, 임의의 단말과 사용자 간의 상호작용형 기능을 제공할 수 있다.In addition, the haptic interface greatly increases the realism of a remote environment or a virtual environment through the delivery of tactile sensation, and provides a function to touch and buy a product in an online shopping mall that has only been seen with the eye in a network-based environment. It is possible to provide an online museum function to touch relics, and to provide a function of conveying emotions through tactile sensations such as shaking hands and tapping shoulders in a messenger environment based on text. It can provide an interactive function between.
이와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공할 수 있다.In this way, after recognizing the user's motion, the motion of the object displayed on the display unit can be controlled according to the recognized motion, and special effects related to the object can be provided.
이하에서는, 본 발명에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 도 1 내지 도 3을 참조하여 상세히 설명한다.Hereinafter, a method of providing a special effect using an air fan based on motion recognition according to the present invention will be described in detail with reference to FIGS. 1 to 3.
도 3은 본 발명의 실시예에 따른 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of providing a special effect using an air fan based on motion recognition according to an embodiment of the present invention.
먼저, 제어부(600)는 사용자 선택에 따른 3D 콘텐츠를 표시부(300) 및/또는 음성 출력부(400)를 통해 출력한다. 여기서, 상기 3D 콘텐츠 내에는 사용자의 동작 또는 입력부(미도시)를 통한 사용자 입력에 따라 그 움직임이 제어되는 하나 이상의 객체가 포함될 수 있다.First, the
이때, 해당 사용자가 HMD를 착용한 상태인 경우, 상기 제어부(600)는 상기 표시부(300)에 표시되는 해당 3D 콘텐츠를 상기 HMD를 통해 제공(또는 표시/출력)할 수도 있다. 여기서, 상기 3D 콘텐츠는 3D 형태의 이미지/영상, 관련 효과음(또는 음성 정보) 등을 포함한다.In this case, when the user is wearing the HMD, the
일 예로, 레이싱 게임(racing game)을 위한 VR 시스템에서 사용자 입력을 근거로 레이싱 게임을 실행할 때, 상기 제어부(600)는 상기 사용자가 착용한 제 1 HMD에 상기 레이싱 게임과 관련한 제 1 차량과 관련한 객체를 포함하는 제1 3D 콘텐츠를 표시하고, 해당 제1 3D 콘텐츠를 상기 표시부(300)에 표시하고, 상기 제1 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다.As an example, when executing a racing game based on a user input in a VR system for a racing game, the
다른 일 예로, 드론(drone) 조정을 위한 VR 시스템에서 사용자 입력을 근거로 드론 조정을 실행할 때, 상기 제어부(600)는 상기 표시부(300)를 통해 상기 드론 조정과 관련한 제 1 드론과 관련한 객체를 포함하는 제2 3D 콘텐츠를 표시하고, 상기 제2 3D 콘텐츠에 대응하는 음성 정보(또는 음향 효과)를 상기 음성 출력부(400)를 통해 출력한다(S310).As another example, when performing drone adjustment based on a user input in a VR system for drone control, the
이후, 센서부(500)는 사용자의 동작(또는 움직임)을 감지한다. 이때, 상기 센서부(500)는 360도 카메라(미도시)를 통해 획득되는 영상 정보를 근거로 사용자의 동작을 감지하거나, 사용자의 신체에 착용(또는 부착)되는 복수의 동작 인식 센서(미도시)를 통해 획득되는 센싱 정보를 근거로 해당 사용자의 동작을 감지할 수 있다. 여기서, 상기 사용자의 동작(또는 움직임)은 양쪽 다리의 방향, 다리의 움직임(예를 들어 이동, 회전 등 포함), 팔의 방향, 팔의 시계/반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손/팔을 이용한 도형 그리기 동작, 손/팔을 이용한 좌우 방향/상하 방향/대각선 방향으로의 흔들기 동작, 이들 동작들 간의 조합에 의한 동작 등을 포함한다.Thereafter, the
일 예로, 상기 센서부(500)에 포함된 카메라는 사용자의 왼손 및 오른손의 움직임(예를 들어 사용자의 왼손이 9시 방향에 위치하고 사용자의 오른손이 3시 방향에 위치한 상태에서, 상기 사용자의 왼손이 9시 방향에서 12시 방향으로 회전하고 상기 사용자의 오른손이 3시 방향에서 6시 방향으로 회전/상기 사용자의 왼손과 오른손의 시계 방향으로 일정 각도(예를 들어 30도)/거리만큼의 회전)을 감지한다.As an example, the camera included in the
다른 일 예로, 사용자의 손가락 관절과 팔 등 복수의 위치에 부착된 복수의 동작 인식 센서를 통해 사용자의 손가락의 제스처/움직임(예를 들어 사용자의 오른 손가락의 검지가 기준점에서 방향/12시 방향으로 약 20cm 정도 올라가는 움직임)을 감지한다(S320).As another example, gesture/movement of the user's finger through a plurality of motion recognition sensors attached to a plurality of locations such as the user's finger joint and arm (for example, the index finger of the user's right finger is A movement that rises about 20cm) is sensed (S320).
이후, 상기 제어부(600)는 상기 감지된 사용자의 동작을 근거로 상기 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)을 확인한다.Thereafter, the
또한, 상기 제어부(600)는 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지 여부(또는 해당 객체의 동작과 인터랙션되도록 하기 위하여 미리 설정된 특수 효과가 존재하는지 여부)를 판단한다.In addition, the
일 예로, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량에 대한 시계 방향으로의 30도 방향 회전 동작을 확인한다.As an example, the
또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다.In addition, the
다른 일 예로, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향(또는 수직방향/위쪽방향)으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론에 대한 수직 방향으로의 상승 동작을 확인한다.As another example, the
또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태인지 여부를 판단한다(S330).In addition, the
판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않은 경우, 상기 제어부(600)는 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.As a result of the determination, if there is no special effect set in advance in relation to the object in the 3D content according to the detected user's motion, the
일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응하여 화면 상에서 회전하도록 구성할 수 있다.For example, when a special effect is not set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left hand and the right hand in the clockwise direction, the The
다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정되지 않은 상태일 때, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 상승하도록 제어하고, 상기 수직 방향으로 상승(또는 이륙)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 설계자의 설계에 따라 다양하게 설정될 수 있으며, 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다(S340).As another example, a special effect is not preset in response to the upward motion of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is a gesture of the user's finger. When not in a state, the
상기 판단 결과, 상기 감지된 사용자의 동작에 따른 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는 경우, 상기 제어부(600)는 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬(700)의 동작을 제어하기 위한 제어 신호를 생성한다. 이때, 상기 제어부(600)는 PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 제어 신호를 생성할 수 있다.As a result of the determination, when there is a preset special effect in relation to the object in the 3D content according to the detected user's motion, the
또한, 상기 복수의 에어팬(700)은 상기 생성된 제어 신호를 근거로 동작하여, 해당 사용자에게 가상현실 환경에서의 객체의 이동 방향, 속도 등에 맞춰 실제 움직이는 것과 같은 유사함을 느낄 수 있도록 서라운드 형태로 특수 효과(예를 들어 바람의 속도, 바람이 불어오는 방향 등을 고려한 특수 효과)를 제공한다.In addition, the plurality of
또한, 상기 제어부(600)는 해당 사용자에게 특수 효과가 제공되도록 상기 복수의 에어팬(700) 중 적어도 하나 이상을 제어함과 동시에, 상기 확인된 표시부(300)(또는 상기 HMD)에 표시되는 3D 콘텐츠 내의 객체의 동작(또는 움직임)에 따라 해당 객체의 동작을 제어하여, 해당 제어 결과(또는 3D 콘텐츠 내에서의 객체의 동작/움직임 결과)를 상기 표시부(300)(또는 상기 HMD)에 표시한다.In addition, the
일 예로, 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량의 방향 회전에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 1시 방향에 위치한 제 1 에어팬의 동작 상태를 미리 설정된 제 1 레벨로 제어하기 위한 제 1 제어 신호 및 11시 방향에 위치한 제 4 에어팬의 동작 상태를 미리 설정된 제 2 레벨로 제어하기 위한 제 2 제어 신호를 각각 생성하고, 상기 생성된 제 1 제어 신호 및 제 2 제어 신호를 각각 대응하는 제 1 에어팬 및 제 4 에어팬에 제공한다.For example, when a special effect is set in advance in response to the direction rotation of the first vehicle in the first 3D content related to the racing game based on the detected rotation of the left hand and the right hand in the clockwise direction, the control unit ( 600) is the operation state of the first air fan located at 1 o'clock among the first to
또한, 상기 제 1 에어팬은 상기 제 1 제어 신호를 근거로 제 1 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하고, 상기 제 4 에어팬은 상기 제 2 제어 신호를 근거로 제 2 레벨의 세기에 대응하는 바람을 상기 사용자에게 제공하여 해당 사용자가 우회전을 하면서 바람을 느낄 수 있도록 할 수 있다.In addition, the first air fan provides wind corresponding to the intensity of a first level to the user based on the first control signal, and the fourth air fan provides a second level of wind based on the second control signal. The wind corresponding to the intensity may be provided to the user so that the user can feel the wind while turning right.
또한, 상기 제어부(600)는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 30도만큼의 회전을 근거로 상기 레이싱 게임과 관련한 제1 3D 콘텐츠 내의 제 1 차량이 시계 방향으로 30도 방향 회전하도록 제어하고, 상기 시계 방향으로 방향 회전한 제 1 차량을 포함하는 제1 3D 콘텐츠를 상기 사용자가 착용한 제 1 HMD 및 상기 표시부(300)에 각각 표시한다. 이때, 상기 제 1 차량의 회전 각도는 상기 감지된 사용자의 왼손 및 오른손의 시계 방향으로의 회전 각도에 대응할 수 있다.In addition, the
이와 같이, 상기 제어부(600)는 상기 제1 3D 콘텐츠 내의 제 1 차량의 시계 방향으로의 회전에 따라 해당 제 1 차량의 시계 방향으로 회전하는 3D 콘텐츠를 상기 제 1 HMD 및 상기 표시부(300)에 각각 표시함과 동시에 해당 제 1 차량의 시계 방향으로의 회전에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다.In this way, the
다른 일 예로, 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 대응하여 특수 효과가 미리 설정된 상태일 때, 상기 제어부(600)는 상기 제 1 드론의 수직 방향으로의 상승 동작에 따른 수직 기류 효과를 제공하기 위해서 사용자를 중심으로 1시 방향, 5시 방향, 7시 방향 및 11시 방향에 각각 설치된 제 1 에어팬 내지 제 4 에어팬(700) 중에서 제 1, 2, 3 및 4 에어팬의 동작을 각각 제어하기 위한 제 11 제어 신호 내지 제 14 제어 신호를 각각 생성하고, 상기 생성된 제 11 제어 신호 내지 제 14 제어 신호를 각각 대응하는 제 1 에어팬 내지 제 4 에어팬에 각각 제공한다.As another example, a state in which a special effect is preset in response to the upward motion of the first drone in the second 3D content related to the drone adjustment based on the upward movement, which is a gesture of the user's finger detected. In this case, the
또한, 상기 제 1 에어팬 내지 제 4 에어팬 각각은 상기 제 11 제어 신호 내지 제 14 제어 신호를 근거로 상기 제 1 드론의 상승 동작에 따른 상승 기류 효과를 사용자에게 제공한다.In addition, each of the first to fourth air fans provides the user with an upward airflow effect according to the ascending operation of the first drone based on the eleventh to fourteenth control signals.
또한, 상기 제어부(600)는 상기 감지된 사용자의 손가락의 제스처인 상방향으로의 20cm 정도의 움직임을 근거로 상기 드론 조정과 관련한 제2 3D 콘텐츠 내의 제 1 드론이 수직 방향으로 이륙하도록 제어하고, 상기 수직 방향으로 이륙(또는 상승)하는 제 1 드론을 포함하는 제2 3D 콘텐츠를 상기 표시부(300)에 표시한다. 이때, 상기 제 1 드론의 수직 방향으로의 상승 거리는 상기 손가락의 제스처의 움직임(예를 들어 20cm)에 비례하여 미리 설정된 거리(예를 들어 1/5인 4cm)만큼 화면 상에서 상승하도록 구성할 수 있다.In addition, the
이와 같이, 상기 제어부(600)는 상기 제2 3D 콘텐츠 내의 제 1 드론의 수직 방향으로의 상승 동작에 따라 해당 제 1 드론의 수직 방향으로 상승하는 3D 콘텐츠를 상기 표시부(300)에 표시함과 동시에 해당 제 1 드론의 수직 방향으로의 상승 동작에 따른 특수 효과인 바람을 사용자에게 제공할 수 있다(S350).In this way, the
본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 모션을 인식한 후, 인식된 모션에 따라 표시부에 표시되는 객체의 동작을 제어하고, 해당 객체와 관련한 특수 효과를 제공하여, 사용자의 체감지수를 극대화하고, 장비의 소형화 및 이동성을 강화하여 전체 시스템 운영 효율을 높이고, 사용편의성을 향상시킬 수 있다.As described above, after recognizing a user's motion, an embodiment of the present invention controls the motion of an object displayed on the display unit according to the recognized motion, and provides special effects related to the object, so that the user's experience index It can maximize the efficiency of operation of the entire system and improve the convenience of use by maximizing the size of the equipment and enhancing the mobility.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention belongs. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
10: 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템
100: 통신부 200: 저장부
300: 표시부 400: 음성 출력부
500: 센서부 600: 제어부
700: 에어팬10: Motion recognition-based system for providing special effects using an air fan
100: communication unit 200: storage unit
300: display unit 400: audio output unit
500: sensor unit 600: control unit
700: air fan
Claims (8)
사용자의 동작을 감지하는 센서부;
상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하고, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하고, 상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제 1 제어 신호를 생성하며 상기 사용자에게 상기 3D 콘텐츠 내의 객체와 관련한 촉각 정보를 제공하기 위한 제 2 제어 신호를 생성하며 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 제어부;
상기 제 1 제어 신호를 근거로 특수 효과를 제공하는 상기 복수의 에어팬; 및
상기 제 2 제어 신호를 근거로 상기 객체와 관련한 근감각에 대한 정보인 촉각 정보를 사용자에게 제공하는 햅틱 인터페이스를 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.A display unit including a head mounted display (HMD) and displaying 3D content including an object whose movement is controlled according to a user input;
A sensor unit detecting a user's motion;
Based on the detected user's motion, the motion of the object in the 3D content displayed on the display is checked, it is determined whether a special effect preset in relation to the object in the 3D content exists, and as a result of the determination, in the 3D content Generates a first control signal for controlling the operation of a plurality of air fans arranged at different locations around the user when there is a preset special effect in relation to the object, and provides tactile information related to the object in the 3D content to the user. A control unit that generates a second control signal to be provided and controls the operation of the object according to the operation of the object in the 3D content displayed on the identified display unit and displays it on the display unit;
The plurality of air fans providing special effects based on the first control signal; And
A system for providing special effects using a motion recognition-based air fan including a haptic interface that provides tactile information, which is information on a muscular sense related to the object, based on the second control signal.
상기 센서부는,
상기 사용자를 포함하는 영상 정보를 근거로 상기 사용자의 동작을 감지하는 360도 카메라; 및
사용자의 신체에 착용되어 사용자의 움직임에 따른 상기 사용자의 동작을 감지하는 복수의 동작 인식 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.The method of claim 1,
The sensor unit,
A 360-degree camera that detects the user's motion based on image information including the user; And
A system for providing special effects using a motion recognition-based air fan, comprising at least one of a plurality of motion recognition sensors worn on a user's body and detecting the user's motion according to the user's motion.
상기 사용자의 동작은,
양쪽 다리의 방향, 다리의 움직임, 팔의 방향, 팔의 시계 방향 또는 반시계 방향으로의 회전, 주먹쥐기 동작, 손가락 모으기 동작, 손가락 벌리기 동작, 손바닥 터치 동작, 손가락 펴기 동작, 손가락 구부리기 동작, 손 또는 팔을 이용한 도형 그리기 동작, 손 또는 팔을 이용한 좌우 방향과 상하 방향과 대각선 방향 중 어느 한 방향으로의 흔들기 동작 및, 이들 동작들 간의 조합에 의한 동작 중 적어도 하나의 동작을 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.The method of claim 1,
The user's action,
Direction of both legs, movement of the legs, direction of the arm, rotation of the arm clockwise or counterclockwise, a fist-clamping motion, a pinch-up motion, a finger spreading motion, a palm touch motion, a finger straightening motion, a finger bending motion, a hand Or drawing a figure using an arm, a shaking motion in any one of a left-right direction, an up-down direction, and a diagonal direction using a hand or arm, and a motion by a combination of these motions. A system that provides special effects using an air fan based on motion recognition.
상기 제어부는,
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.The method of claim 1,
The control unit,
As a result of the determination, when there is no pre-set special effect in relation to the object in the 3D content, the operation of the object is controlled and displayed on the display unit according to the motion of the object in the 3D content displayed on the checked display unit. A system for providing special effects using an air fan based on motion recognition.
상기 제어부는,
PWM(Pulse Width Modulation)에 의한 단계별 바람 세기 조절 정보를 포함하는 상기 제 1 제어 신호를 생성하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.The method of claim 1,
The control unit,
A system for providing a special effect using an air fan based on motion recognition, characterized in that generating the first control signal including information on stepwise wind intensity adjustment by PWM (Pulse Width Modulation).
상기 복수의 에어팬은,
상기 생성된 제 1 제어 신호를 근거로 동작하며, 상기 사용자에게 가상현실 환경에서의 객체의 이동 방향 및 속도에 따라 바람의 속도 및 바람이 불어오는 방향을 고려한 특수 효과를 서라운드 형태로 제공하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템.The method of claim 1,
The plurality of air fans,
Operates based on the generated first control signal, and provides the user with a special effect in consideration of the speed of the wind and the direction of blowing according to the moving direction and speed of the object in a virtual reality environment in a surround form. A system for providing special effects using an air fan based on motion recognition.
센서부에 의해, 사용자의 동작을 감지하는 단계;
제어부에 의해, 상기 감지된 사용자의 동작을 근거로 상기 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작을 확인하는 단계;
상기 제어부에 의해, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하는지를 판단하는 단계;
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재할 때, 상기 제어부에 의해, 사용자 주변의 서로 다른 위치에 배치된 복수의 에어팬의 동작을 제어하기 위한 제 1 제어 신호를 생성하며 상기 사용자에게 상기 3D 콘텐츠 내의 객체와 관련한 촉각 정보를 제공하기 위한 제 2 제어 신호를 생성하며 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계;
상기 복수의 에어팬에 의해, 상기 제 1 제어 신호를 근거로 특수 효과를 제공하는 단계; 및
햅틱 인터페이스에 의해, 상기 제 2 제어 신호를 근거로 상기 객체와 관련한 근감각에 대한 정보인 촉각 정보를 사용자에게 제공하는 단계를 포함하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.Displaying, by the display unit, 3D content including an object whose movement is controlled according to a user input;
Detecting a user's motion by the sensor unit;
Checking, by a control unit, an operation of an object in the 3D content displayed on the display unit based on the detected user's motion;
Determining, by the control unit, whether a special effect preset in relation to the object in the 3D content exists;
As a result of the determination, when there is a preset special effect in relation to the object in the 3D content, the control unit generates a first control signal for controlling the operation of a plurality of air fans disposed at different locations around the user And generates a second control signal for providing tactile information related to the object in the 3D content to the user, and controls the operation of the object according to the motion of the object in the 3D content displayed on the identified display unit and displays it on the display unit The step of doing;
Providing a special effect based on the first control signal by the plurality of air fans; And
A method for providing a special effect using an air fan based on motion recognition, comprising the step of providing, by a haptic interface, tactile information, which is information on a muscular sense related to the object, based on the second control signal.
상기 판단 결과, 상기 3D 콘텐츠 내의 객체와 관련하여 미리 설정된 특수 효과가 존재하지 않을 때, 상기 제어부에 의해, 상기 확인된 표시부에 표시되는 3D 콘텐츠 내의 객체의 동작에 따라 상기 객체의 동작을 제어하여 상기 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 방법.The method of claim 7,
As a result of the determination, when there is no special effect preset in relation to the object in the 3D content, the control unit controls the operation of the object according to the motion of the object in the 3D content displayed on the A method for providing special effects using an air fan based on motion recognition, further comprising displaying on a display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082032A KR102167066B1 (en) | 2018-07-16 | 2018-07-16 | System for providing special effect based on motion recognition and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082032A KR102167066B1 (en) | 2018-07-16 | 2018-07-16 | System for providing special effect based on motion recognition and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200008196A KR20200008196A (en) | 2020-01-28 |
KR102167066B1 true KR102167066B1 (en) | 2020-11-23 |
Family
ID=69370329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180082032A KR102167066B1 (en) | 2018-07-16 | 2018-07-16 | System for providing special effect based on motion recognition and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102167066B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101544384B1 (en) * | 2013-09-13 | 2015-08-17 | 한국기계연구원 | Virtual reality ststem having providing inertial force part and method for providing inertial force |
KR101827912B1 (en) * | 2016-07-05 | 2018-02-12 | 주식회사 인디고엔터테인먼트 | Walkable virtual reality apparatus |
KR20180056306A (en) * | 2016-11-18 | 2018-05-28 | 삼성전자주식회사 | Virtual reality device |
KR20180077588A (en) | 2016-12-29 | 2018-07-09 | 주식회사 한울네오텍 | Game based disaster safety virtual trainig system using virtual reality |
-
2018
- 2018-07-16 KR KR1020180082032A patent/KR102167066B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20200008196A (en) | 2020-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230090086A1 (en) | Body pose estimation | |
US10974138B2 (en) | Haptic surround functionality | |
EP2942693B1 (en) | Systems and methods for viewport-based augmented reality haptic effects | |
JP2022003535A (en) | System and method for location based haptic effect | |
EP3588250A1 (en) | Real-world haptic interactions for a virtual reality user | |
CN110096131B (en) | Touch interaction method and device and touch wearable equipment | |
US20180253152A1 (en) | Gesture-controlled augmented reality experience using a mobile communications device | |
US20150235423A1 (en) | Augmented reality system | |
Sun et al. | Augmented reality based educational design for children | |
US11049325B2 (en) | Information processing apparatus, information processing method, and program | |
KR20170076534A (en) | Virtual reality interface apparatus and method for controlling the apparatus | |
CN108549487A (en) | Virtual reality exchange method and device | |
WO2017061890A1 (en) | Wireless full body motion control sensor | |
KR102167066B1 (en) | System for providing special effect based on motion recognition and method thereof | |
US20150084848A1 (en) | Interaction between generic interaction devices and an interactive display | |
WO2014003949A1 (en) | Peripheral device for visual and/or tactile feedback | |
US20230041294A1 (en) | Augmented reality (ar) pen/hand tracking | |
WO2014119382A1 (en) | Tactile force presentation device, information terminal, tactile force presentation method, and computer-readable recording medium | |
JP7372717B1 (en) | Program, information processing device and method | |
KR101605740B1 (en) | Method for recognizing personalized gestures of smartphone users and Game thereof | |
US20230215069A1 (en) | System and method for mimicking user handwriting or other user input using an avatar | |
KR102520841B1 (en) | Apparatus for simulating of billiard method thereof | |
US20220414962A1 (en) | Information processing system, information processing method, and information processing program | |
US20230410441A1 (en) | Generating user interfaces displaying augmented reality graphics | |
KR102124181B1 (en) | Apparatus for setting password using piano clavier user interface and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |