KR20200008227A - System and method for controlling gesture based light dimming effect using natural user interface - Google Patents

System and method for controlling gesture based light dimming effect using natural user interface Download PDF

Info

Publication number
KR20200008227A
KR20200008227A KR1020180082089A KR20180082089A KR20200008227A KR 20200008227 A KR20200008227 A KR 20200008227A KR 1020180082089 A KR1020180082089 A KR 1020180082089A KR 20180082089 A KR20180082089 A KR 20180082089A KR 20200008227 A KR20200008227 A KR 20200008227A
Authority
KR
South Korea
Prior art keywords
gesture
light source
nui
data
game
Prior art date
Application number
KR1020180082089A
Other languages
Korean (ko)
Other versions
KR102173608B1 (en
Inventor
김광진
Original Assignee
(주)젠트정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)젠트정보기술 filed Critical (주)젠트정보기술
Priority to KR1020180082089A priority Critical patent/KR102173608B1/en
Publication of KR20200008227A publication Critical patent/KR20200008227A/en
Application granted granted Critical
Publication of KR102173608B1 publication Critical patent/KR102173608B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • F21V23/0478Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person by means of an image recording device, e.g. a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/245Output devices visual
    • A63F2009/2451Output devices visual using illumination, e.g. with lamps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided is a system for controlling a gesture-based lighting effect using a natural user interface (NUI), comprising: at least one light source which is installed inside or outside a virtual reality (VR) booth for a realistic experience and irradiates light to correspond to a preset event in order to implement a special effect according to motion data including a motion or a gesture of a game subject, or a game progress situation; a dimmer controller which increases or decreases a percentage of light output of the at least one light source by using a digital addressable lighting interface (DALI) protocol and independently gives an address to each of the at least one light source to perform individual control; at least one infrared camera which performs photographing to sense motion data of the game subject; and a control device which, when motion data or a preset event occurs, controls the at least one light source through the dimmer controller based on motion data input from the at least one infrared camera.

Description

제스처 기반 NUI를 이용한 조명효과 제어 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING GESTURE BASED LIGHT DIMMING EFFECT USING NATURAL USER INTERFACE}Lighting effect control system and method using gesture-based NUI {SYSTEM AND METHOD FOR CONTROLLING GESTURE BASED LIGHT DIMMING EFFECT USING NATURAL USER INTERFACE}

본 발명은 제스처 기반 NUI를 이용한 조명효과 제어 방법에 관한 것으로, 제스처 또는 게임에서 발생하는 이벤트에 기 NUI 매핑되어 저장된 특수효과를 VR 부스에서 네온으로 출력할 수 있는 방법을 제공한다.The present invention relates to a method of controlling a lighting effect using a gesture-based NUI, and provides a method of outputting a neon-mapped special effect mapped to an event generated in a gesture or game.

최근 4차 산업혁명의 성장축인 가상현실 게임 및 사용자의 제스처를 이용한 게임 시스템에 대한 연구가 많은 관심을 받고 있고, 키보드, 마우스와 같은 단순한 인터페이스 방식에서 벗어나 기계와 사람간의 감성인식 기술인 제스처인식, 얼굴인식, 음성 인식 기술들을 이용하는 휴먼 인터페이스 관련 기술이 활발히 연구 되고 있다. 그 중에서도 손을 이용한 제스처 인식은 일상생활에서 가장 많이 사용하는 인터페이스(Natrual User Interface)로, 사물을 지정하거나 손동작으로 빠른 의사전달을 할 수 있는 장점을 가지며, 사람과 기계간의 인터페이스에서도 쉽고 자연스러운 표현이 가능해 상호작용성이 뛰어나다는 장점을 가지고 있다.Recently, researches on virtual reality games, the growth engine of the 4th industrial revolution, and game systems using user gestures have received a lot of attention, and beyond the simple interface methods such as keyboards and mice, gesture recognition, face, which is an emotional recognition technology between machines and people Human interface related technologies using recognition and speech recognition technologies have been actively studied. Among them, gesture recognition using hands is the most commonly used interface in daily life. It has the advantage of fast communication through designation of objects or hand movements. It has the advantage of being highly interactive.

이때, 게임에서 제스처를 NUI로 매핑하여 인식하는 방법은 제스처와 근전도 데이터를 게임 데이터에 매핑하는 방법으로 이루어지고 있다. 이와 관련하여, 선행기술인 한국공개특허 제2017-0059300호(2017년05월30일 공개)에는, 설정된 명령을 적어도 하나 이상의 제스처로 정의하여 데이터베이스에 저장하고, 사용자의 동작과 사용자의 근전도 데이터를 입력받아 사용자의 동작에 맵핑되는 제스처를 인식하고, 입력된 사용자의 동작과 근전도 데이터를 이용하여 인식된 제스처를 평가하여 가장 적합한 제스처를 선정하여 사용자가 앉은 상태에서도 편하게 게임을 제어할 수 있는 구성이 개시되어 있다.In this case, a method of mapping a gesture to an NUI in a game and recognizing the gesture is performed by mapping a gesture and EMG data to game data. In this regard, Korean Patent Laid-Open Publication No. 2017-0059300 (published May 30, 2017), which is a prior art, defines a set command as at least one gesture and stores it in a database, and inputs the user's motion and the EMG data of the user. Receives gestures that are mapped to user's motion, evaluates recognized gestures using input user's motion and EMG data, selects the most suitable gesture, and allows users to control the game comfortably while sitting It is.

다만, 가상현실에서 게임의 제스처를 인식하거나 평가하는 것 이외에도, 아케이드 영역에 설치되는 VR 부스는 다양한 고객이 모여들어 게임을 하는 사용자와 게임 영상을 관람하게 되는데, 게임의 이벤트에 따른 특수효과가 부가되지 않는 VR 게임은 그 흥미가 떨어져 마케팅 효과가 줄어들게 되고, 게임을 하는 사용자에게도 실감효과를 주기에는 어려운 것이 현 실정이다.However, in addition to recognizing or evaluating the gestures of the game in virtual reality, the VR booth installed in the arcade area attracts a variety of customers to watch the game video with the users who play the game. Unreal VR games are less interesting and marketing effects are reduced, and it is difficult to give realistic effects to users who play games.

본 발명의 일 실시예는, 가상현실에서 발생하는 게임의 이벤트 또는 게임 주체의 손동작, 모션 및 제스처에 대응되도록 적어도 하나의 광원의 온오프 및 출력레벨을 제어하며, NUI 매핑을 통하여 별도의 장비를 조작함이 없이 사람의 자연스러운 동작이 그대로 게임에 반영되거나 특수효과를 출력하는 입력값으로 동작하도록 하며, DALI 프로토콜을 이용하여 적어도 하나의 광원을 개별적으로 구동시키고, VR 부스 주위에서 게임을 구경하는 사람들에게도 광원의 발광으로 인한 흥미요소 및 마케팅 효과를 거둘 수 있는, 제스처 기반 NUI를 이용한 조명효과 제어 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention, to control the on and off and output level of at least one light source to correspond to the event of the game occurring in the virtual reality or the hand motion, motion and gesture of the game subject, and separate equipment through the NUI mapping People who do not manipulate the human's natural movements are reflected in the game or operate as input values to output special effects, and use the DALI protocol to individually drive at least one light source and watch the game around the VR booth. For example, it is possible to provide a lighting effect control method using a gesture-based NUI, which can achieve an interest factor and marketing effect due to light emission of a light source. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 실감체험을 위한 VR 부스 내외부에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터 또는 게임진행상황에 따라 특수효과를 구현하기 위하여 기 설정된 이벤트에 대응되도록 빛을 조사하는 적어도 하나의 광원, DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하여 적어도 하나의 광원의 광출력의 퍼센트를 증감시키고, 적어도 하나의 광원마다 독립적으로 어드레스(Address)를 부여하여 개별적인 제어를 실시하는 조광기(Dimmer Controller), 게임 주체의 움직임 데이터를 감지하도록 촬영하는 적어도 하나의 적외선 카메라, 및 적어도 하나의 적외선 카메라로부터 입력된 움직임 데이터에 기반하여 조광기를 통하여 적어도 하나의 광원을 움직임 데이터 또는 기 설정된 이벤트가 발생할 때 제어하는 제어 장치를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention, is installed inside and outside the VR booth for a realistic experience to implement the special effects according to the motion data or game progress including the motion or gesture of the game subject To increase or decrease the light output of at least one light source using at least one light source for irradiating light to correspond to a predetermined event, the digital addressable lighting interface (DALI) protocol, and at least one light source independently A dimmer controller which gives an address and performs individual control, at least one infrared camera photographing to detect motion data of a game subject, and at least one through a dimmer based on motion data input from at least one infrared camera. A single light source with motion data It includes a control device for controlling when the set event occurs.

본 발명의 다른 실시예는, 적어도 하나의 적외선 카메라로부터 촬영된 실감체험을 위한 VR 부스에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터를 수신하는 단계, 움직임 데이터와 기 저장된 NUI 매핑(Natural User Interface mapping) 데이터를 비교하여 특수효과의 구현여부를 판단하는 단계, 판단 결과 특수효과가 구현되어야 할 움직임 데이터인 경우, 적어도 하나의 광원을 독립적으로 제어하기 위하여 DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하는 조광기(Dimmer Controller)로 제어신호를 전송하는 단계, 및 조광기에서 적어도 하나의 광원을 제어하는 신호를 출력한 결과를 피드백 데이터로 수신하여 PID(Proportional Integral Derivative) 제어를 실시하는 단계를 포함한다.Another embodiment of the present invention is installed in the VR booth for a realistic experience taken from at least one infrared camera to receive movement data including the motion or gesture of the game subject, the movement data and pre-stored NUI mapping (Natural User) Interface mapping (DIM) comparing the data to determine whether to implement the special effect, when the result of the motion data that the effect is to be implemented, using the Digital Addressable Lighting Interface (DALI) protocol to independently control at least one light source Transmitting a control signal to a dimmer controller; and receiving feedback results of outputting a signal for controlling at least one light source from the dimmer as feedback data to perform PID (Proportional Integral Derivative) control.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 가상현실에서 발생하는 게임의 이벤트 또는 게임 주체의 손동작, 모션 및 제스처에 대응되도록 적어도 하나의 광원의 온오프 및 출력레벨을 제어하며, NUI 매핑을 통하여 별도의 장비를 조작함이 없이 사람의 자연스러운 동작이 그대로 게임에 반영되거나 특수효과를 출력하는 입력값으로 동작하도록 하며, DALI 프로토콜을 이용하여 적어도 하나의 광원을 개별적으로 구동시키고, VR 부스 주위에서 게임을 구경하는 사람들에게도 광원의 발광으로 인한 흥미요소 및 마케팅 효과를 거둘 수 있다.According to any one of the problem solving means of the present invention described above, to control the on-off and output level of the at least one light source to correspond to the event of the game occurring in the virtual reality or the hand motion, motion and gesture of the game subject, NUI mapping It allows the human's natural movements to be reflected in the game or outputs special effects without any additional equipment, and operates at least one light source individually using the DALI protocol, and around the VR booth. In addition, people watching the game can enjoy interesting factors and marketing effects due to light emission.

도 1은 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 제어 장치를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 시스템이 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 시스템이 VR 부스에 적용된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 방법을 설명하기 위한 동작 흐름도이다.
1 is a view for explaining a lighting effect control system using a gesture-based NUI according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a control device included in the system of FIG. 1.
3 is a view for explaining an embodiment of the lighting effect control system using a gesture-based NUI according to an embodiment of the present invention.
4 is a diagram illustrating an embodiment in which a lighting effect control system using a gesture-based NUI according to an embodiment of the present invention is applied to a VR booth.
5 is a flowchart illustrating a lighting effect control method using a gesture-based NUI according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, which means that it may further include other components, without excluding other components, unless specifically stated otherwise, one or more other features It is to be understood that the present disclosure does not exclude the possibility of adding or presenting numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", and the like, are used at, or in close proximity to, numerical values when manufacturing and material tolerances inherent in the meanings indicated are intended to aid the understanding of the invention. Accurate or absolute figures are used to assist in the prevention of unfair use by unscrupulous infringers. As used throughout the specification of the present invention, the term "step of" or "step of" does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term 'unit' includes a unit realized by hardware, a unit realized by software, and a unit realized by both. In addition, one unit may be realized using two or more pieces of hardware, and two or more units may be realized by one piece of hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. Some of the operations or functions described as being performed by the terminal, the apparatus, or the device may be performed instead in the server connected to the terminal, the apparatus, or the device. Similarly, some of the operations or functions described as being performed by the server may be performed by the terminal, apparatus or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In the present specification, some of the operations or functions described as mapping or matching with the terminal mean that the identification number of the terminal or identification information of the individual, which is identification data of the terminal, is mapped or matched. Can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 제스처 기반 NUI를 이용한 조명효과 제어 시스템(1)은, 적어도 하나의 적외선 카메라(100), 제어 장치(300), 조광기(400), 및 적어도 하나의 광원(500)을 포함할 수 있다. 다만, 이러한 도 1의 제스처 기반 NUI를 이용한 조명효과 제어 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a view for explaining a lighting effect control system using a gesture-based NUI according to an embodiment of the present invention. Referring to FIG. 1, the lighting effect control system 1 using a gesture-based NUI includes at least one infrared camera 100, a control device 300, a dimmer 400, and at least one light source 500. can do. However, since the lighting effect control system 1 using the gesture-based NUI of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 적외선 카메라(100)는 네트워크(200)를 통하여 제어 장치(300)와 연결될 수 있다. 그리고, 제어 장치(300)는, 네트워크(200)를 통하여 적어도 하나의 적외선 카메라(100), 조광기(400), 적어도 하나의 광원(500)과 연결될 수 있다. 또한, 조광기(400)는, 네트워크(200)를 통하여 제어 장치(300)와 연결될 수 있다. 그리고, 적어도 하나의 광원(500)은, 네트워크(200)를 통하여 제어 장치(300) 및 조광기(400)와 연결될 수 있다.In this case, each component of FIG. 1 is generally connected through a network 200. For example, as shown in FIG. 1, at least one infrared camera 100 may be connected to the control device 300 through the network 200. In addition, the control device 300 may be connected to the at least one infrared camera 100, the dimmer 400, and the at least one light source 500 through the network 200. In addition, the dimmer 400 may be connected to the control device 300 through the network 200. At least one light source 500 may be connected to the control device 300 and the dimmer 400 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5rd Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between each node, such as a plurality of terminals and servers, and examples of such a network include RF, 3rd Generation Partnership Project (3GPP) network, and Long Term (LTE). Evolution network, 5th Generation Partnership Project (5GPP) network, World Interoperability for Microwave Access (WIMAX) network, Internet, Local Area Network (LAN), Wireless Local Area Network (WLAN), Wide Area Network (WAN) , PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network and the like, but is not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following description, the term “at least one” is defined as a singular and plural term, and each component may exist in the singular or plural, even though the term “at least one” does not exist, and may mean the singular or plural. It will be self explanatory. In addition, the singular or plural elements may be changed according to embodiments.

적어도 하나의 적외선 카메라(100)는, 적외선에 대한 충분한 감도를 갖는 전하 결합 소자(CCD) 카메라. 야간에 야생 동식물을 촬영할 경우 집광성이 강한 조명에 적외선 필터를 부착하여 사용하여 게임 객체를 촬영하는 카메라일 수 있다. 그리고, 적어도 하나의 적외선 카메라(100)는, 실감체험을 위한 VR 부스의 내외부에 설치될 수 있고, 레이저를 이용한 근적외선 광원과 II(image intensifier)를 사용한 일체형 적외선 카메라일 수도 있다. At least one infrared camera (100) is a charge coupled device (CCD) camera having a sufficient sensitivity to infrared light. When photographing wild animals and plants at night, it may be a camera that photographs a game object by attaching an infrared filter to a light with strong light condensation. The at least one infrared camera 100 may be installed inside or outside the VR booth for a realistic experience, and may be an integrated infrared camera using a near infrared light source using a laser and an image intensifier (II).

적외선 영상은 물체 표면에서부터 직접적으로 방사되는 눈에 보이지 않는 적외선 복사에너지를 이용하고, 이동체의 외부온도가 높을수록 그 이동체는 복사에너지의 방출량이 많기 때문에 영상에서 이동체의 밝게 표현되며 이들 복사 에너지 강도는 그레이 스케일로 표현될 수 있다. 주변 환경보다 적외선 복사에너지의 방출량이 많은 이동체는 일반적으로 널리 쓰이는 컬러기반의 카메라보다 이동체를 찾기에 용이할 수 있다. 이에 따라, 멀리 있는 이동체도 추적이가능하고 야간, 안개 및 포화 등의 가시광선이 없는 상태에서도 이동체의 위치를 보여 줄 수 있다. 적외선 영상의 최대 평균(max-mean)및 최대 중간 (max-median) 필터를 사용한 방법은 구름 및 주변 환경의 윤곽선을 보존하고 반 중앙 및 반 평균값 연산(anti-mean and anti-median operations)이 클러터와 다른 특성을 가지는 이동체 검출에 유용하다는 사실을 이용할 수 있다. 최대 평균 및 최대 중간 필터로 얻은 영상은 이동체들을 검출하기 위하여 원본 프레임과 차영상을 이용할 수 있으며, 문턱치(threshold)가 이동체가 될 수 있는 화소들의 수가 추가될 수 있다. 또한, 적외선 영상을 처리하기 위하여 형태학적 필터(Morphological filter)를 사용한 방법이 이용될 수도 있는데, 적외선 영상 프레임에서 움직이는 점으로 표현되는 이동체의 검출 및 추적을 위한 새로운 탐지 기법을 이용하는 방법이고, 이는 top-hat 연산자를 이용하여 원 영상을 전처리한 후, 3차원 시공간적 탐지 기법을 2차원 공간 탐지 차원으로 축소시켜 이동체를 검출할 수 있으며, 이동체는 일정한 오경보율(Constant false alarm rate detector)을 가지면서 검색될 수 있다. 또는, 적외선 영상에서 시간적 화소 프로파일에 연속 웨이블릿 변환(continuous wavelet transform, CWT)을 이용한 시간적 필터 방법이 이용될 수 있는데, 이는 이동체와 배경 클러터를 구분하기 위해 Mexican hat CWT을 이용하여 일정한 휘도 값을 가지면서 일정 시간동안 화소가 유지되면 배경으로 인식하여 이동체가 될 수 있는 영역에서 제거하는 것이다. 물론, 상술한 방법에 한정되는 것은 아니고 실시예에 따라 다양한 방법이 적외선 카메라(100)로부터 얻은 영상을 분석할 수 있음은 자명하다 할 것이다.Infrared images use invisible infrared radiation emitted directly from the surface of the object, and the higher the outside temperature of the moving object, the higher the amount of radiant energy is emitted. It can be expressed in gray scale. Moving objects that emit more infrared radiation than their surroundings can be easier to find than moving color-based cameras. Accordingly, even a remote moving object can be tracked and the position of the moving object can be shown even in the absence of visible light such as night, fog and saturation. The method using the max-mean and max-median filters of the infrared image preserves the contours of the cloud and the surrounding environment, and the anti-mean and anti-median operations are blurred. It is possible to take advantage of the fact that it is useful for the detection of moving objects having different characteristics from the site. The image obtained by the maximum average and maximum intermediate filters may use the original frame and the difference image to detect moving objects, and the number of pixels whose threshold may be the moving object may be added. In addition, a method using a morphological filter may be used to process an infrared image, which uses a new detection technique for detecting and tracking a moving object represented by moving points in an infrared image frame. After preprocessing the original image using the -hat operator, the moving object can be detected by reducing the three-dimensional space-time detection technique to the two-dimensional space detection dimension, and the moving object has a constant false alarm rate detector. Can be. Alternatively, a temporal filter method using a continuous wavelet transform (CWT) may be used for temporal pixel profiles in an infrared image. In order to distinguish a moving object from a background clutter, a Mexican hat CWT is used to generate a constant luminance value. If a pixel is held for a certain period of time, it is recognized as a background and removed from the area that can be a moving object. Of course, it is not limited to the above-described method, it will be apparent that various methods can analyze the image obtained from the infrared camera 100 according to the embodiment.

제어 장치(300)는, 제스처 기반 NUI를 이용한 조명효과 제어를 실시하기 위하여 적어도 하나의 적외선 카메라(100)로부터 게임 주체를 촬영한 영상을 수신하고, 영상 내에서 움직임 데이터의 위치와 반경 등을 파악하여 분석하며, 기 저장된 NUI(Natural User Interface) 매핑에 저장된 이벤트를 파악함으로써 어떠한 특수효과를 출력할 것인지를 결정하는 장치일 수 있다. 이에 따라, 제어 장치(300)는, 특수효과가 NUI 매핑 데이터로부터 추출되는 경우, 조광기(400)를 제어함으로써 적어도 하나의 광원(500)의 온오프(ON/OFF) 및 조도를 제어할 수 있도록 하는 장치일 수 있다. 이때, 제어 장치(300)에서 적외선 영상을 구분하는 방법은 상술한 바와 같으므로 상세한 설명은 생략하기로 한다. 여기서, 제어 장치(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.The control device 300 receives an image photographing a game subject from at least one infrared camera 100 and controls the position and radius of motion data in the image in order to control lighting effects using a gesture-based NUI. The device may be configured to determine which special effects are to be output by grasping the events stored in the pre-stored NUI (Natural User Interface) mapping. Accordingly, when the special effect is extracted from the NUI mapping data, the control device 300 can control the on / off and illuminance of the at least one light source 500 by controlling the dimmer 400. It may be a device. At this time, since the method for distinguishing the infrared image by the control device 300 is as described above, a detailed description thereof will be omitted. Here, the control device 300 may be implemented as a computer that can be connected to a server or a terminal in a remote place through a network. Here, the computer may include, for example, a navigation, a laptop equipped with a web browser, a desktop, a laptop, and the like.

조광기(400)는, 제어 장치(300)로부터 적어도 하나의 광원(500)의 전원을 온오프하고 조도를 DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하여 개별적으로 제어하는 장치일 수 있다. 이때, DALI는 현재 IEC 62386에 의한 개방형 표준의 조광제어 방식이며, 이에 적합한 프로토콜을 사용하는 경우 서로 다른 회사의 제품들도 상호 연계되어 동작할 수 있도록 하는 프로토콜이다. 이는, 기본적으로 송신과 수신을 위한 디지털 통신 프로토콜에 의해서 동작되나 통신 매체로는 단순한 2선 방식을 사용할 수 있다. 조명제어의 경우 이더넷과 같이 많은 양의 데이터를 신속히 처리할 필요가 없기 때문에 데이터 전송율은 1초에 1200bit로 설정될 수 있으나, 물론 이에 한정되는 것은 아니다. 전송시 노이즈에 의한 오동작의 영향을 줄이기 위해서 하이레벨에 해당되는 전압은 9.5 V~22.5V로 규정되고 로우레벨로 인식되는 전압은 -6.5V~6.5V로 규정되어 있지만, 물론 상술한 규정에 한정되는 것은 아니고 다양한 실시예가 가능함은 자명하다 할 것이다. 또한, DALI 프로토콜은 246 수준의 밝기를 조절할 수 있고 이것들은 선형적인 값이 아닌 로그함수의 관계로 광원을 조절, 즉 높은 조광수준에서 광량이 보다 큰 증가를 보여주고 낮은 조광 수준에서 보다 적은 광량의 증가를 허용할 수 있다. 그 이유는, 인간의 눈은 높은 광량보다는 낮은 광량에서 더 예민하기 때문에 인간의 입장에서 선형적인 관계로 인식할 수 있도록 설정된 것이다. The dimmer 400 may be a device that individually turns on and off the power of the at least one light source 500 from the control device 300 by using a digital addressable lighting interface (DALI) protocol. At this time, DALI is a dimming control method of the open standard according to IEC 62386, and when a suitable protocol is used, it is a protocol that allows products of different companies to operate in conjunction with each other. It is basically operated by a digital communication protocol for transmission and reception, but a simple two-wire method may be used as a communication medium. In the case of lighting control, since the data does not need to process a large amount of data quickly, such as Ethernet, the data rate may be set to 1200 bits per second, but is not limited thereto. In order to reduce the effects of malfunction due to noise during transmission, the voltage corresponding to the high level is defined as 9.5 V to 22.5 V and the voltage recognized as the low level is specified as -6.5 V to 6.5 V. It is obvious that various embodiments are possible without being obvious. In addition, the DALI protocol can adjust the brightness of 246 levels and these control the light source in relation to the logarithmic function rather than linear values, i.e. show a greater increase in the amount of light at high dimming levels and less light at low dimming levels. You can allow an increase. The reason is that the human eye is more sensitive at a lower light level than a high light level, so that it can be recognized as a linear relationship from the human perspective.

또한, DALI 프로토콜은, 원하는 조명 작업과 주어진 상황에 맞추어서 다양한 명령을 프로그램할 수 있도록 유연성을 가지고 있어서, 작업 공간의 변화에 대해 별도의 배선 작업 없이 조명의 변경이 가능하다. 이를 통하여, 조광기(400)에 의해 구성되는 DALI 루프 또는 버스를 통해서 최대 64개의 주소를 갖는 적어도 하나의 광원(500)들을 독립적으로 제어할 수 있고 양방향 통신이 가능하다. 적어도 하나의 광원(500)은 조합하여 그룹으로 제어될 경우, 조광기(400)에 의해 16 그룹으로 나누어서 동작될 수 있고, 조광기(400)는, 독립운전으로도 동작할 수 있으나, 게이트웨이 또는 트랜스미터를 이용하여 VR 부스의 네트워크에 연결하여 양방향 통신의 서브 시스템으로도 동작시킬 수 있다. DALI 버스로 사용될 수 있는 도선은 일반적인 도선(twisted 또는 shielded cable)을 사용할 수 있다. 여기서, 적어도 하나의 광원(500)을 최종적으로 제어하는 것은 전력변환장치(미도시)가 수행할 수 있는데, LED의 경우에는 드라이버로 명칭되며, 이들을 컨트롤 기어로 명명할 수도 있다. DALI 제어를 위해서는 DALI 프로토콜로 동작되는 전용 드라이버가 필요하며 이를 위해서 기존의 드라이버나 안정기에 추가로 마이크로콘트롤러가 사용될 수 있다. DALI 드라이버는 DALI 버스를 통해서 광원(500)에 대한 제어 명령을 받아서 수행하고 광원(500)의 상태와 관련된 데이터를 버스로 넘겨서 조광기(400)에 전달할 수 있다. 각 데이터는 신호제어계와 전력제어계의 전기적 분리를 위해서 전기적으로 포토커플러나 트랜스포머에 의해서 절연된 신호로 통신될 수 있고, DALI용 드라이버는 자체에 광출력과 페이드 타임(Fade Time), 액세스가 가능한 주소와 그룹에 대한 파라미터가 저장될 수 있다. 조광기(400)가 드라이버로부터 받는 정보는 현 조명상태와 광원(500)의 출력 레벨 그리고 램프와 안정기의 상태에 관한 것인데, 이를 통하여 제어 장치(300)에서 PID 제어가 가능할 수 있다. 조광기(400)를 통하여 적어도 하나의 광원(500)의 조광 범위는 0.1% 내지 100%로 설정이 가능하며 조광의 최소 레벨 값은 제품에 따라 달라질 수 있다.In addition, the DALI protocol has the flexibility to program a variety of commands to suit the desired lighting task and the given situation, allowing the lighting to be changed without a separate wiring for changing workspaces. Through this, at least one light source 500 having a maximum of 64 addresses may be independently controlled through a DALI loop or a bus configured by the dimmer 400, and bidirectional communication may be performed. When the at least one light source 500 is combined and controlled in groups, the at least one light source 500 may be divided into 16 groups by the dimmer 400, and the dimmer 400 may also operate as a standalone operation. It can be connected to a network of VR booths and operated as a subsystem of bidirectional communication. Conductors that can be used as DALI buses can use ordinary conductors (twisted or shielded cables). Here, the final control of the at least one light source 500 may be performed by a power converter (not shown). In the case of LEDs, the driver may be referred to as a control gear. DALI control requires a dedicated driver that works with the DALI protocol, which can be used with microcontrollers in addition to existing drivers or ballasts. The DALI driver may receive and execute a control command for the light source 500 through the DALI bus, transfer the data related to the state of the light source 500 to the bus, and transmit the data to the dimmer 400. Each data can be communicated as a signal electrically isolated by a photocoupler or transformer for the electrical separation between the signal and power control systems, and the DALI driver has its own optical output, fade time, and accessible address. Parameters for and groups can be stored. The information received by the dimmer 400 from the driver is related to the current illumination state, the output level of the light source 500, and the state of the lamp and the ballast, through which the PID control may be possible in the control device 300. The dimming range of the at least one light source 500 may be set to 0.1% to 100% through the dimmer 400, and a minimum level value of dimming may vary depending on a product.

적어도 하나의 광원(500)은, 조광기(400)에 의해 온오프 및 출력 레벨이 조절되어 빛을 조사하는 장치일 수 있다. 이때, 적어도 하나의 광원(500)의 출력 레벨은 상술한 바와 같이 다시 조광기(400)로 전달됨으로써, 조광기(400)에서 원하는 출력 레벨에 따라 빛이 조사되고 있는지를 확인할 수 있도록 한다. 이때, 저거도 하나의 광원(500)은, 플렉서블(Flexible) 네온, LED, OLED, LCD 등일 수 있으나, 이에 한정되지는 않고 다양한 실시예에 따라 다양한 구성이 추가될 수 있음은 물론이라 할 것이다.The at least one light source 500 may be a device that emits light by adjusting the on / off and output levels by the dimmer 400. At this time, the output level of the at least one light source 500 is transmitted to the dimmer 400 again as described above, so that the dimmer 400 can determine whether light is being irradiated according to a desired output level. In this case, the one light source 500 may be a flexible neon, an LED, an OLED, an LCD, or the like, but the present invention is not limited thereto and various configurations may be added according to various embodiments.

도 2를 참조하면, 제어 장치(300)는, 수신부(310), 판단부(320), 전송부(330), 실시부(340)를 포함할 수 있다. 도 2를 참조하면, 수신부(310)는, 적어도 하나의 적외선 카메라(100)로부터 촬영된 실감체험을 위한 VR 부스에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터를 수신할 수 있다. 이때, 모션 또는 제스처 중 게임 주체의 손동작은, 손가락을 이용한 도형 그리기 동작, 좌우 흔들기, 상하 터치, 수평 터치, 주먹쥐기, 손가락 모으기, 손가락 벌리기, 손바닥 터치하기, 손가락 펴기, 구부리기, 및 손바닥 뒤집기 중 어느 하나 또는 적어도 하나의 조합일 수 있다. 이때, 손동작은 적어도 하나의 광원(500)의 구동 및 출력을 제어하는 데이터와 NUI 매핑(Natural User Interface mapping)으로 연결되어 저장될 수 있다. 이때, 게임 주체의 움직임을 감지하기 위하여 적어도 하나의 적외선 카메라(100) 이외에도 게임 주체의 움직임 데이터를 감지하도록 게임 주체의 적어도 하나의 인체부위에 위치하는 적어도 하나의 컨트롤러(Game Controller, 미도시) 또는 적외선 센서(미도시)를 더 포함할 수 있다.Referring to FIG. 2, the control device 300 may include a receiver 310, a determiner 320, a transmitter 330, and an implementer 340. Referring to FIG. 2, the receiver 310 may be installed in a VR booth for a realistic experience captured by at least one infrared camera 100 to receive motion data including a motion or a gesture of a game subject. At this time, the motion of the game subject during the motion or gesture is a figure drawing operation using a finger, left and right shaking, up and down touch, horizontal touch, fist, pinch, finger spread, palm touch, finger spreading, bending, and flipping the palm. It may be any one or at least one combination. In this case, the hand gesture may be connected and stored with data for controlling driving and output of the at least one light source 500 and NUI mapping. At this time, in addition to the at least one infrared camera 100 to detect the movement of the game subject at least one controller (Game Controller, not shown) located on at least one human body part of the game subject to detect the movement data of the game subject or It may further include an infrared sensor (not shown).

판단부(320)는, 움직임 데이터와 기 저장된 NUI 매핑(Natural User Interface mapping) 데이터를 비교하여 특수효과의 구현여부를 판단할 수 있다. 이때, 사용자 인터페이스 기술은 NUI 기반으로 NUI 매핑 이외에도, UML(Unified Modeling Language)을 이용한 객체지향적 명세 기법과, Object-Z, Petri Net등을 이용한 정형 명세(Formal Specification)기법 등의 다양한 접근법을 이용할 수도 있다. 터치, 제스처, 음성인식 등 NUI 환경에서는 멀티터치 인터페이스 환경에서 적용가능한 도메인 명세언어인 GDL(Gesture Definition Language)이 이용될 수도 있고, 3D 카메라를 통한 제스처 인식을 위하여, FAAST(the Flexible Action and Articulated Skeleton Toolkit)가 이용될 수도 있는데, FAAST는 Kinect 센서를 통해 사용자의 골격모델(Skeletal Model)을 기반으로 제스처를 인식하고 이를 마우스와 키보드 이벤트로 변환하여 VR 어플리케이션 및 게임을 컨트롤 할 수 있는 툴킷으로 body, position, angular, velocity, time 등 5가지 형태의 제스쳐 입력형식과 keyboard, mouse, time등 8가지 출력형식을 지원할 수 있다. 물론, 상술한 방법 이외에도 다양한 NUI 환경의 사용자 인터페이스가 적용될 수 있음은 자명하다 할 것이다. 또한, 제스처에 따른 특수효과 제어에 대해서는, 본 출원인이 출원하여 등록공고된 특허 제10-1794233호(2017년11월07일 공고)에 개시되어 있으므로, 상세한 설명은 생략하기로 한다.The determination unit 320 may determine whether to implement a special effect by comparing the motion data with previously stored NUI mapping data. In this case, in addition to NUI mapping based on NUI, user interface technology may use various approaches such as object-oriented specification using UML (Unified Modeling Language) and formal specification using Object-Z, Petri Net. have. In the NUI environment such as touch, gesture, and voice recognition, GDL (Gesture Definition Language), which is a domain specification language applicable to a multi-touch interface environment, may be used, and for flexible gesture recognition through a 3D camera, the Flexible Action and Articulated Skeleton Toolkit can be used. FAAST is a toolkit that can control gestures and VR applications and games by detecting gestures based on the user's skeleton model and converting them into mouse and keyboard events through Kinect sensors. It can support five types of gesture input formats such as position, angular, velocity, and time, and eight output formats such as keyboard, mouse, and time. Of course, it will be apparent that user interfaces of various NUI environments may be applied in addition to the above-described methods. In addition, the control of the special effects according to the gesture is disclosed in Patent No. 10-1794233 filed by the present applicant (announced on November 07, 2017), detailed description thereof will be omitted.

전송부(330)는, 판단 결과 특수효과가 구현되어야 할 움직임 데이터인 경우, 적어도 하나의 광원(500)을 독립적으로 제어하기 위하여 DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하는 조광기(Dimmer Controller, 400)로 제어신호를 전송할 수 있다. 이때, 게임 주체의 움직임 데이터의 X,Y,Z을 포함하는 3축 데이터를 수집하기 위한 적어도 하나의 적외선 센서(미도시)가 더 포함될 수도 있고, 제어 장치(300)는 적어도 하나의 적외선 카메라(100)에서 촬영된 촬영 데이터와, 적어도 하나의 적외선 센서로부터 수집한 게임 주체의 움직임 데이터의 X,Y,Z을 포함하는 3축 데이터를 분석하여 프로토콜을 생성할 수도 있다. When the transmission unit 330 is the motion data to which the special effect is to be determined as a result of the determination, the dimmer controller 400 using a digital addressable lighting interface (DALI) protocol to independently control the at least one light source 500. The control signal can be transmitted. In this case, at least one infrared sensor (not shown) may be further included to collect three-axis data including X, Y, and Z of the game subject's motion data, and the control device 300 may include at least one infrared camera ( The protocol may be generated by analyzing photographing data photographed at 100) and three-axis data including X, Y, and Z of motion data of a game subject collected from at least one infrared sensor.

실시부(340)는, 조광기(400)에서 적어도 하나의 광원(500)을 제어하는 신호를 출력한 결과를 피드백 데이터로 수신하여 PID(Proportional Integral Derivative) 제어를 실시할 수 있다. 이때, 제어 장치(300)는 적어도 하나의 적외선 카메라(100)로부터 수신된 게임 주체의 위치 정보, 좌표 범위 및 감지 레벨을 이용하여 게임 주체의 움직임 데이터를 감지 및 분석할 수 있다. 이때, 적어도 하나의 광원(500)은 플렉서블 네온(Flexiable Neon), LED, OLED, 및LCD 중 어느 하나 또는 적어도 하나의 조합으로 이루어질 수 있다.The implementation unit 340 may receive a result of outputting a signal for controlling the at least one light source 500 from the dimmer 400 as feedback data to perform PID (Proportional Integral Derivative) control. In this case, the control device 300 may detect and analyze the motion data of the game subject using the location information, the coordinate range, and the detection level of the game subject received from the at least one infrared camera 100. In this case, the at least one light source 500 may be formed of any one or a combination of flexible neon, LED, OLED, and LCD.

한편, 제어 장치(300)는, 적외선 카메라(100)가 스테레오 시스템으로 구성될 경우, 스테레오 조정(stereo rectification) 과정을 거쳐 각 적외선 카메라(100)의 초점거리, 픽셀 규격 등과 같은 내부 파라미터(intrinsic parameter)와 카메라들 간의 공간적인 변환상태를 정의해 주는 외부 파라미터(extrinsic parameter)를 파악하고, 스테레오 영상에 투영된 3차원 공간좌표가 각 스테레오 영상의 어느 위치로 투영되었는지를 기하학적으로 예측할 수 있다. 이러한 스테레오 영상간의 기하학적인 대응 관계를 에피폴라 구조(epipolar geometry) 라고 한다. 에피폴라 기하구조는 하나의 3차원 공간좌표가 좌우 스테레오 영상의 어디에 각각 투영되는가를 기하학적으로 정의하는 것인데, 스테레오 카메라들이 공간적으로 어떻게 배치되어 있는가에 따라서 달라질 수 있다. 가장 일반적인 카메라 배치는 두 대의 카메라가 물체로부터 동일한 거리와 높이에 놓여 있으면서 서로 수직방향 정면으로 평행하게 바라보는 형태이다. 이를 평행식 카메라 배열이라고 한다. 평행식 배열의 경우, 카메라의 위치는 좌우 방향으로만 어긋나 있기 때문에, 투영되는 상의 위치도 좌우 수평방향으로만 차이가 난다. 그러므로 에피폴라 기하구조는 각 영상에 대하여 수평선이 된다. 특별히 별도의 언급을 하지 않는 스테레오 시스템에서는 일반적으로 이 평행식 카메라 배열 가정한다. 스테레오 카메라 간의 배치가 평행식이 아닌 경우에는, 사전에 카메라 보정 과정을 통하여 얻은 카메라 파라미터를 이용하여 각 영상들을 평행식 배열 구조가 되도록 조정(rectification)한다. 조정된 스테레오 영상은 대응점 추정 시 x 축 위에 맞추어 있기 때문에, 동일 y 좌표를 가지는 주사선(scan-line) 만을 검색하면 된다. 그리고 나서, 제어 장치(300)는 스테레오 정합(stereo matching)을 실시하게 된다. 즉, 상술한 에피폴라 기하구조는 좌우 스테레오 영상간의 대응관계가 존재하는 기하학적인 관계식을 정의한 것으로서, 대응관계가 존재하는 스테레오 영상의 위치를 규정하는 것이다. On the other hand, when the infrared camera 100 is configured as a stereo system, the control device 300 undergoes a stereo rectification process, and internal parameters such as focal length, pixel size, etc. of each infrared camera 100 are performed. ) And external parameters that define the spatial transformation state between the cameras and the cameras, and geometrically predict where the three-dimensional spatial coordinates projected on the stereo image are projected to each stereo image. The geometric correspondence between these stereo images is called epipolar geometry. The epipolar geometry is geometrically defining where one 3D spatial coordinate is projected on the left and right stereo images, which may vary depending on how the stereo cameras are spatially arranged. The most common camera layout is two cameras placed at the same distance and height from the object, looking parallel to each other vertically. This is called a parallel camera array. In the case of the parallel arrangement, since the position of the camera is shifted only in the left and right directions, the position of the projected image also differs only in the left and right horizontal directions. The epipolar geometry is therefore a horizontal line for each image. Stereo systems, unless otherwise noted, generally assume this parallel camera arrangement. When the arrangement between the stereo cameras is not parallel, each image is adjusted to have a parallel arrangement structure using camera parameters obtained through a camera correction process in advance. Since the adjusted stereo image is aligned on the x-axis when the corresponding point is estimated, only the scan-line having the same y coordinate needs to be searched. The control device 300 then performs stereo matching. That is, the above-described epipolar geometry defines a geometric relationship in which correspondences between left and right stereo images exist, and define the position of the stereo image in which the correspondence exists.

스테레오 정합은 이러한 에피폴라 기하구조를 바탕으로 좌우 스테레오 영상의 대응점을 찾는 과정을 의미한다. 평행식 카메라 배열을 갖는 스테레오 시스템에서는 스테레오 정합을 통하여 추정된 좌우 스테레오 영상간의 대응 관계를 대응점 간의 픽셀 위치의 차이로 표현하기 때문에, 스테레오 정합을 시차추정(disparity estimation)이라고도 부른다. 시차 추정에서 깊이정보(depth information)를 변환하기 위해서는 1 pixel의 실제 크기를 측정하면 된다. 카메라의 CCD 크기, focal length, 카메라 영상의 화각과 해상도를 알 수 있으면 삼각함수를 이용하여 1 pixel 크기를 계산할 수 있다. 평행식 스테레오 카메라의 기하학적 해석은 렌즈의 초점 앞에 영상 평면이 위치하고 이것을 중심투영(central projection)이라 하고 두 렌즈 중심을 연결하는 직선을 기준선(base line)이라 하며, 이 좌측에 위치한 카메라영상의 중심에 기준 좌표계(X, Y, Z)의 원점이 위치한다. 예를 들어, 초점거리 f와 두 렌즈의 중심 사이의 거리 즉, 기준선 거리 b가 주어지면, 닮은 삼각형 성질에 의해 기준 좌표계와 물체의 3차원 위치와 대응하는 영상좌표 (x, y) 사이의 상관 관계식을 구할 수 있다. 픽셀간의 물리적 크기 또는 간격(mm), 두 카메라 간의 거리(기준거리, mm), 스테레오 정합에 의하여 추정된 물체 대응점에 대한 시차값을 이용하면, 간단한 비례식을 이용하여 카메라로부터 물체까지의 거리를 측정할 수 있다. 물론, 복수의 적외선 카메라(100)가 이용되지 않은 경우에는 상술한 정합과정은 요구되지 않을 수 있음은 물론이다.Stereo matching refers to a process of finding correspondence points of left and right stereo images based on the epipolar geometry. In a stereo system having a parallel camera arrangement, since the correspondence between left and right stereo images estimated through stereo matching is represented by the difference in pixel positions between corresponding points, stereo matching is also called disparity estimation. In order to convert depth information in parallax estimation, the actual size of 1 pixel may be measured. If you know the CCD size, focal length, angle of view and resolution of the camera image, you can calculate the size of 1 pixel using the trigonometric function. The geometrical interpretation of a parallel stereo camera is that the image plane is located in front of the focal point of the lens, which is called the central projection, and the straight line connecting the two lens centers is called the base line. The origin of the reference coordinate system (X, Y, Z) is located. For example, given the focal length f and the distance between the centers of the two lenses, i.e. the baseline distance b, the correlation between the reference coordinate system and the corresponding image coordinates (x, y) by the similar triangular properties You can get relations. Using the physical size or distance between pixels (mm), the distance between two cameras (reference distance, mm), and the parallax values for the object correspondence points estimated by stereo matching, the distance from the camera to the object is measured using a simple proportional equation. can do. Of course, when the plurality of infrared cameras 100 are not used, the above matching process may not be required.

덧붙여서, 제어 장치(300)는, 스마트글래스가 구비되는 경우, 손의 제스처를 감지하기 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 이용할 수 있다. MPEG IoMT에서는 손 제스처 검출과 인식이 별도의 기기에서 수행되는 것을 일반적인 경우로 가정하고, 이들 모듈간의 상호 연동 가능한 API(Application Programming Interface) 및 데이터 포맷 등의 인터페이스를 마련하고 있다. 따라서, 본 발명의 일 실시예에 따른 제어 장치(300)는, 영상 처리 기반의 손 윤곽선 검출 파트와 CNN 기반의 손 제스처 인식 파트로 구성되어, 손 제스처 검출 모듈에서는 스마트 글래스의 입력 스테레오 영상으로부터 획득한 깊이 정보와 색 정보를 이용하여 손 윤곽선을 이진 영상으로 검출할 수 있고, 인식 모듈에서는 검출 모듈에서 얻어진 제스처 이진 영상을 CNN 학습을 위한 데이터 셋으로 사용하고 학습 결과를 바탕으로 손 제스처를 인식할 수 있으며, 그 인식결과는 웨어러블 기기로 전송될 수 있다.In addition, when the smart glasses are provided, the control device 300 may use a hand gesture recognition technique based on a convolutional neural network (CNN) to detect a gesture of the hand. In MPEG IoMT, it is assumed that hand gesture detection and recognition are performed in a separate device, and an interface such as an API (Application Programming Interface) and a data format that can be interoperable between these modules is prepared. Therefore, the control device 300 according to an embodiment of the present invention is composed of an image processing-based hand contour detection part and a CNN-based hand gesture recognition part, and the hand gesture detection module obtains from an input stereo image of smart glasses. The contour of the hand can be detected as a binary image using depth information and color information, and the recognition module uses the gesture binary image obtained from the detection module as a data set for CNN learning and recognizes the hand gesture based on the learning result. The recognition result may be transmitted to the wearable device.

이를 위하여, 제어 장치(300)에서 실행되는, 손 제스처 검출, CNN 기반 제스처 인식, CNN 최적화 알고리즘, 딥러닝 프레임 워크를 이하에서 설명하기로 한다. 첫 번째로, 제어 장치(300)는 손 제스처 검출을 위해서 스마트글라스의 스테레오 카메라 또는 적어도 하나의 적외선 카메라(100)를 스테레오 비디오를 획득하고 이로 부터 손의 윤곽선을 찾는다. 그리고, 제어 장치(300)는, 좌, 우 영상(RGB 영상)의 차이를 스테레오 매칭을 통하여 깊이(depth) 영상을 획득한다. VR 부스의 특성상 사용자의 손은 카메라로부터 일정한 거리 범위(30 ~ 50cm)에 있다고 가정을 하고, 제어 장치(300)는 이를 바탕으로 깊이 영상과 색정보를 적용하여 손 제스처 영역을 검출한다. 보다 정확한 손 제스처의 영역을 얻어내고 잡음을 제거하기 위해 모폴로지(morphology) 연산을 더 실시할 수도 있다.To this end, hand gesture detection, CNN-based gesture recognition, CNN optimization algorithm, and deep learning framework, which are executed in the control device 300, will be described below. First, the control device 300 acquires stereo video from the stereo camera or at least one infrared camera 100 of the smart glass for hand gesture detection, and finds the contour of the hand from it. In addition, the control apparatus 300 obtains a depth image through stereo matching on a difference between the left and right images (RGB image). Due to the characteristics of the VR booth, it is assumed that the user's hand is in a certain distance range (30 to 50 cm) from the camera, and the control device 300 detects the hand gesture area by applying a depth image and color information. Further morphology operations may be performed to obtain a more accurate area of the hand gesture and to remove noise.

두 번째로, 제어 장치(300)는 CNN 기반 제스처 인식을 수행해야 하는데, CNN은 다층신경망의 한 종류로 인식 분야에서 매우 좋은 결과를 보이고 있고, CNN은 기존의 신경망과 다르게 입력 원본 데이터를 바로 연산하여 출력하지 않고, 특징(feature) 추출 단계와 분류화(classification) 단계를 거쳐 결과값을 내는 것이 특징이다. CNN의 구조는 컨벌루션(convolution)층, 풀링(Pooling) 층, 완전연결(Fully-Connected: FC) 층으로 구성되어 되어 있으며, C1, C2는 Convolution 층으로 입력계층에서 입력되는 영상 데이터를 5×5 크기의 필터를 사용하여 간격 1(stride=1)로 컨벌루션 연산을 수행하고, 입력 손 윤곽선 영상의 특징을 추출해 낸다. S1, S2는 Pooling 층으로 여기서는 Max Pooling 기법을 사용하여 특징 맵의 크기를 2×2, 즉 가로와 세로크기를 각각 반으로 줄이는 역할을 수행할 수 있다. Max Pooling 층은 설정한 크기 범위 내에서 가장 특징이 두드러진 부분을 그 범위의 대표 값으로 지정하는 방식으로 설정된 크기 범위는 2×2일 수 있다. F1, F2는 Fully-Connected 층이며, 이 계층은 일반적인 다층신경망의 구조와 같이 추출된 특징을 바탕으로 신경망에서 연산하여 출력 값을 결정할 수 있다. 그리고, 제어 장치(300)는 확률 값이 계산되면 Softmax함수를 사용하여 확률 값이 가장 큰 제스처가 입력 영상의 제스처로 인식하고,(결과 값 ‘1’) 나머지 9개의 제스처는 결과 값 ‘0’으로 설정할 수 있다.Secondly, the control device 300 needs to perform CNN-based gesture recognition, and CNN is a kind of multilayer neural network, which shows very good results in the field of recognition, and CNN directly computes input source data unlike conventional neural networks. It is characterized by producing a result value through a feature extraction step and a classification step without outputting the data. The structure of CNN is composed of convolution layer, pooling layer, and fully-connected (FC) layer, and C1 and C2 are convolution layers and 5 × 5 image data input from the input layer. A convolution operation is performed at interval 1 (stride = 1) using a size filter, and features of the input hand contour image are extracted. S1 and S2 are pooling layers. Here, the Max Pooling technique can be used to reduce the size of the feature map to 2 × 2, that is, the horizontal and vertical sizes, respectively. The maximum pooling layer may have a size range of 2 × 2 in such a manner that the most characteristic portion within the set size range is designated as a representative value of the range. F1 and F2 are Fully-Connected layers, which can be computed on the neural network based on the extracted features to determine the output value. When the probability value is calculated, the control device 300 uses the Softmax function to recognize the gesture having the largest probability value as the gesture of the input image (result value '1'), and the remaining nine gestures have the result value '0'. Can be set with

세 번째로 CNN 최적화 알고리즘을 구동해야 하는데, CNN 학습과정에서 비용함수를 최소화하도록 각 층의 가중치(weight)를 학습시키며, 가중치는 입력 값에 곱해져 출력 값을 내게 된다. 이때 가중치를 조절하기 위해서 제어 장치(300)는 최적화 알고리즘을 사용할 수 있다. 대표적으로 기울기감소법(gradient descent), 모멘텀(momentum) 등이 있으며, 기울기 감소법은 네트워크의 출력 결과 값과 실제 값의 오차함수인 손실함수(loss function)를 이용하는데, 가중치를 조절하여 손실함수가 최소 값이 되는 방향으로 이동하게 하는 알고리즘이다. 이때 모멘텀은 기울기감소법을 통해 이동하는 과정에 과거에 이동했던 결과를 기억하면서 그 방향으로 일정 정도를 추가적으로 이동하는 방식이다. 이에 대한 상세한 수학식 등은 공개된 기술과 동일하므로 상세한 설명은 생략하기로 한다.Thirdly, the CNN optimization algorithm should be run. In order to minimize the cost function in the CNN learning process, the weight of each layer is learned, and the weight is multiplied by the input value to give an output value. In this case, the control device 300 may use an optimization algorithm to adjust the weight. Representative methods include gradient descent and momentum. The gradient reduction method uses a loss function, which is an error function between the output value of the network and the actual value. Is an algorithm that moves in the direction of the minimum value. In this case, the momentum is a method of additionally moving in the direction while remembering the result of the past movement in the process of moving by the slope reduction method. Detailed equations thereof are the same as the disclosed technology, and thus detailed descriptions thereof will be omitted.

마지막으로, 딥러닝 프레임 워크는 Tensorflow, Theano, MXnet, Keras 등이 있으며, 예측하거나 분석하려는 대상에 따라 맞는 프레임워크를 선택하면 좋은 성능을 얻어낼 수 있다. 본 발명의 일 실시예에서는, S/W 언어는 통계나 병렬계산에 특화되어 있는 R 언어를 사용할 수 있는데, R 언어에서 활용할 수 있는 MXnetR, Deepnet, H20 등을 이용할 수 있으며, 각각의 프레임워크 별로 내부함수 형태가 다르게 설정되어 있다. 예를 들면, MXnet의 경우 심볼릭 프로그래밍과 명령형 프로그래밍의 혼합된 형태를 허용해서 효율성과 유연성을 극대화하기 위해 설계된 프레임워크이며, Deepnet은 다른 프레임워크에 비해 상대적으로 작지만 다양한 구조형식을 선택할 수 있게 설계되어 있다. 또한 H20는 분산 컴퓨터 시스템을 활용할 수 있으며, 예측분석 플랫폼으로 다양한 프로그래밍에 대한 인터페이스를 제공한다. 물론, 상술한 방법 이외에도 손의 제스처를 추출하는 방법은 실시예에 따라 추가되거나 변형 및 변경될 수 있음은 자명하다 할 것이다.Finally, deep learning frameworks include Tensorflow, Theano, MXnet, and Keras, and you can get good performance by choosing the right framework based on what you want to predict or analyze. In an embodiment of the present invention, the S / W language may use an R language specialized for statistics or parallel calculation, and may use MXnetR, Deepnet, H20, etc., which can be utilized in the R language, for each framework. The internal function type is set differently. For example, MXnet is a framework designed to maximize efficiency and flexibility by allowing a mix of symbolic and imperative programming, while Deepnet is relatively small compared to other frameworks, but it is designed to allow a variety of structural choices. have. The H20 can also utilize distributed computer systems and provides an interface to various programming as a predictive analytics platform. Of course, in addition to the above-described method, it will be apparent that the method of extracting the gesture of the hand may be added, modified, or changed according to the embodiment.

덧붙여서, 본 발명의 일 실시예에 따른 제어 장치(300)는, 조명변화에 강건한 제스처 검출 방법을 더 이용할 수도 있다. 우선, 제어 장치(300)는, 손의 움직임으로 실시간으로 검출해내 인식하기 위하 연산량이 적은 2차원 패턴정보를 이용할 수 있는데, 영상에서 피부색 영역을 효과적으로 찾기 위해 RGB 컬러 모델을 HSI 컬로 모델로 변환하여 피부색 영역을 검출할 수 있고, 검출된 피부색 영역을 이진화 한 후 모폴로지 연산을 통해 잡음을 제거하고 레이블링을 통해 얼굴, 손과 같은 피부색 영역을 검출할 수 있다. 그리고, 제어 장치(300)는, 검출된 영역에서 Haar-like 특징을 사용하여 얼굴 영역을 찾아 얼굴과 손 영역을 분류하고, 분류된 얼굴과 손 영역에서 얼굴 영역을 제거함으로써 정확한 손 영역을 찾을 수 있도록 한다.In addition, the control device 300 according to an embodiment of the present invention may further use a gesture detection method that is robust to changes in illumination. First, the control device 300 may use two-dimensional pattern information having a small amount of calculation to detect and recognize in real time by the movement of a hand, and convert the RGB color model into an HSI curl model to effectively find the skin color region in the image. The skin color region can be detected, and the detected skin color region is binarized, and then morphology operations can be used to remove noise and labeling to detect skin color regions such as face and hands. In addition, the control device 300 can find a correct hand area by searching for a face area using a Haar-like feature, classifying the face and hand areas, and removing the face area from the classified face and hand areas. Make sure

그 다음에, 제어 장치(300)는, RGB 색상 모델을 색상(Hue), 채도(Saturation), 명도(Intensity)의 HSI 칼라 모델로 변환하여 조명 변화에 견고하도록 할 수 있다. 그리고, 손 영역을 검출해야 하는데, 일반적으로 피부색 검출을 하면 얼굴 영역과 손 영역이 같이 검출되고, 정확한 손 영역을 찾기 위해 얼굴과 손 영역의 분류를 통해 얼굴 영역을 제거 하는 작업이 필요하다. 또한 손 영역은 유동성이 크고 형태가 고정되어있지 않아 눈, 코, 입부분등이 고정되어있는 얼굴 영역을 찾는 것이 좀 더 용이하다. 이렇게 얼굴 영역이 제거된 손 영역에서도 사용자의 옷의 길이에 따라 피부색 검출 영역이 달라진다. 긴팔을 입어 손목까지 오는 경우는 팔이 제외된 손의 영역이 추출되지만 반팔을 입고 있을 경우는 팔의 영역이 포함된 손 영역이 인식된다. 따라서, 제어 장치(300)는, 제스처 인식을 위해 손목부분을 제거한 고유한 손 영역만을 찾는 방법이 필요한데, 손목을 찾기 위해서는 움직임이 적은 비 유동적인 영역이 필요하다. 손 영역중 손가락 영역은 가장 움직임이 심한 영역이지만 손바닥, 손목 부분은 이동성이 매우 적은 영역 이다. 특히 손목과 팔의 너비 부분은 변화가 거의 없다. 그렇기 때문에 손의 모양과 관계없이 팔과 손바닥의 너비를 이용하여 손목을 찾을 수 있다. 또한 팔의 하단 너비에서 상단 너비까지 조금씩 좁아지다가 손목 부분에서부터 급격히 증가하는 특징을 이용하여 손목의 라인을 검출할 수 있다. 물론, 상술한 방법 이외에도 조명변화에 강건한 다양한 방법이 이용될 수 있음은 물론이다.Next, the control device 300 may convert the RGB color model into an HSI color model of Hue, Saturation, and Intensity, so as to be robust to lighting changes. In addition, the hand region should be detected. In general, when the skin color is detected, the face region and the hand region are detected together, and a task of removing the face region through the classification of the face and the hand region is necessary to find the correct hand region. In addition, the hand area is fluid and not fixed in shape, so it is easier to find a face area where the eyes, nose and mouth are fixed. Even in the hand region where the face region is removed, the skin color detection region varies according to the length of the user's clothes. If you come to your wrist in long sleeves, the area of your hand is excluded, but if you are wearing short sleeves, the area of your hand that includes your arm is recognized. Therefore, the control device 300 needs a method of finding only a unique hand region from which a wrist part is removed for gesture recognition, and a non-moving area with less movement is required to find a wrist. The finger area is the most active area of the hand area, but the palm and wrist parts are very less mobile. In particular, the width of the wrists and arms is almost unchanged. So you can find your wrist using the width of your arms and palms, regardless of the shape of your hand. In addition, the line of the wrist can be detected by using the feature of narrowing gradually from the lower part of the arm to the upper part of the arm and rapidly increasing from the wrist part. Of course, in addition to the above-described method can be used a variety of methods that are robust to changes in illumination.

이하, 상술한 도 2의 제어 장치의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the control apparatus of FIG. 2 described above will be described in detail with reference to FIGS. 3 and 4. However, the embodiment is only any one of various embodiments of the present invention, but is not limited thereto.

도 3을 참조하면, (a) VR 부스는 아케이드에 설치될 수 있으며, 사용자는 HMD, 컨트롤러 등을 이용하여 VR을 체험할 수 있다. 이때 특수효과와 같은 조명은 상술한 바와 같이 게임 내의 이벤트가 발생하거나 사용자의 제스처 또는 모션이 감지될 경우에 온오프 또는 출력 레벨이 제어되며, 극장 등의 아케이드 공간에 설치되어 지폐 등이 투입되면 단독(Standalone)으로 관리없이도 작동이 가능하므로 최소 관리인원으로 매출을 달성할 수 있도록 구성된다. 그리고, 적어도 하나의 광원(500)이 네온으로 구성될 경우, 야간 게임시에 부스의 외주연을 따라 설치된 적어도 하나의 광원(500)의 온오프 및 발광으로 사용자는 물론 이를 구경하는 고객에게도 홍보효과 및 마케팅이 될 수 있다. (b)는 손 동작이 특수효과와 NUI 매핑으로 연결된 것을 도시한다. 물론, 손 동작은 상술한 것 이외에도 다양한 동작이 추가 또는 삭제되거나 변형될 수 있음은 자명하다 할 것이다.Referring to FIG. 3, (a) the VR booth may be installed in an arcade, and the user may experience VR using an HMD, a controller, or the like. At this time, the lighting, such as a special effect is controlled on and off or output level when an event in the game occurs or the user's gesture or motion is detected as described above, and is installed in an arcade space, such as a theater, It can be operated without management as Standalone, so it is configured to achieve sales with the minimum number of managers. And, if the at least one light source 500 is made of neon, at the time of the night game, at least one of the light source 500 installed along the outer periphery of the booth on and off and light emission to the user as well as the customer to watch the effect And marketing. (b) shows that hand gestures are linked by special effects and NUI mapping. Of course, it will be apparent that the hand gestures may be added, deleted, or modified in addition to those described above.

도 4를 참조하면, 도 4는 VR 부스를 다양한 각도에서 본 모델링 도면이다. VR 부스는 2 명이 게임을 할 수 있도록 의자와 모든 장비가 2 개 구비될 수도 있지만, 1 명이 진행하거나 2 명을 초과하여 운용되도록 디자인될 수도 있다. 이때, 2 명이 게임을 진행하는 경우, 2 명을 촬영하기 위한 각각의 카메라가 스테레오로 구비되는 경우, 스테레오 영상의 정합 등의 과정을 거침은 상술한 바와 같다.Referring to FIG. 4, FIG. 4 is a modeling view of the VR booth viewed from various angles. The VR booth may be equipped with two chairs and all the equipment for two people to play the game, but may be designed to be operated by one person or operated by more than two people. In this case, when two people are playing a game, when each camera for photographing two people is provided in stereo, the process of matching stereo images is performed as described above.

이와 같은 도 2 및 도 3의 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.2 and 3 that are not described with respect to the lighting effect control method using the gesture-based NUI from the same or described above with respect to the lighting effect control method using the gesture-based NUI through FIG. Since it can be easily inferred, a description thereof will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 제스처 기반 NUI를 이용한 조명효과 제어 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 4에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process of transmitting / receiving data between components included in a lighting effect control system using the gesture-based NUI of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted and received between each component will be described with reference to FIG. 5, but the present invention is not limited to the above-described embodiment, and is illustrated in FIG. 4 according to the various embodiments described above. It is apparent to those skilled in the art that the process of transmitting and receiving data may be changed.

도 5를 참조하면, 제어 장치는, 적어도 하나의 적외선 카메라로부터 촬영된 실감체험을 위한 VR 부스에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터를 수신한다(S5100).Referring to FIG. 5, the control device is installed in a VR booth for a realistic experience captured by at least one infrared camera and receives movement data including a motion or a gesture of a game subject (S5100).

그리고, 제어 장치는, 움직임 데이터와 기 저장된 NUI 매핑(Natural User Interface mapping) 데이터를 비교하여 특수효과의 구현여부를 판단하고(S5200), 판단 결과 특수효과가 구현되어야 할 움직임 데이터인 경우, 적어도 하나의 광원을 독립적으로 제어하기 위하여 DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하는 조광기(Dimmer Controller)로 제어신호를 전송한다(S5300).The control device compares the motion data with previously stored NUI mapping data to determine whether to implement the special effect (S5200), and when the result is the motion data to which the special effect is to be implemented, at least one. In order to independently control the light source, the control signal is transmitted to a dimmer controller using a digital addressable lighting interface (DALI) protocol (S5300).

또한, 제어 장치는, 조광기에서 적어도 하나의 광원을 제어하는 신호를 출력한 결과를 피드백 데이터로 수신하여 PID(Proportional Integral Derivative) 제어를 실시한다(S5400).In addition, the control device receives a result of outputting a signal for controlling at least one light source from the dimmer as feedback data and performs PID (Proportional Integral Derivative) control (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps S5100 to S5400 is merely an example, and the present invention is not limited thereto. That is, the order between the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be executed or deleted at the same time.

이와 같은 도 5의 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described with respect to the lighting effect control method using the gesture-based NUI of FIG. 5 are the same as or have been described above with respect to the lighting effect control method using the gesture-based NUI through FIGS. 1 to 4. Since it can be easily inferred, a description thereof will be omitted.

이와 같은 도 5의 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 제스처 기반 NUI를 이용한 조명효과 제어 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters that are not described with respect to the lighting effect control method using the gesture-based NUI of FIG. 5 are the same as or described above with respect to the lighting effect control method using the gesture-based NUI through FIGS. 1 to 4. Since it can be easily inferred, a description thereof will be omitted.

도 5를 통해 설명된 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The lighting effect control method using the gesture-based NUI according to an embodiment described with reference to FIG. 5 may also be implemented in the form of a recording medium including instructions executable by a computer, such as an application or a program module executed by a computer. Can be. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 제스처 기반 NUI를 이용한 조명효과 제어 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.Lighting effect control method using a gesture-based NUI according to an embodiment of the present invention described above, by the application (which may include a program included in the platform, operating system, etc. basically installed in the terminal) It may be executed, or may be executed by an application (ie, a program) installed by the user directly on the master terminal through an application providing server such as an application store server, an application, or a web server associated with the corresponding service. In this sense, the lighting effect control method using a gesture-based NUI according to an embodiment of the present invention described above is implemented as an application (that is, a program) that is basically installed on the terminal or directly installed by the user and to a computer such as a terminal. It can be recorded on a readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

Claims (8)

실감체험을 위한 VR 부스 내외부에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터 또는 게임진행상황에 따라 특수효과를 구현하기 위하여 기 설정된 이벤트에 대응되도록 빛을 조사하는 적어도 하나의 광원;
DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하여 상기 적어도 하나의 광원의 광출력의 퍼센트를 증감시키고, 상기 적어도 하나의 광원마다 독립적으로 어드레스(Address)를 부여하여 개별적인 제어를 실시하는 조광기(Dimmer Controller);
상기 게임 주체의 움직임 데이터를 감지하도록 촬영하는 적어도 하나의 적외선 카메라;
상기 적어도 하나의 적외선 카메라로부터 입력된 움직임 데이터에 기반하여 상기 조광기를 통하여 상기 적어도 하나의 광원을 상기 움직임 데이터 또는 기 설정된 이벤트가 발생할 때 제어하는 제어 장치;
를 포함하는 제스처 기반 NUI를 이용한 조명효과 제어 시스템.
At least one light source installed inside or outside the VR booth for a realistic experience to irradiate light to correspond to a predetermined event in order to implement special effects according to game data or motion data including a motion or gesture of a game subject;
A dimmer controller that increases or decreases the light output of the at least one light source by using a digital addressable lighting interface (DALI) protocol, and individually assigns an address to each of the at least one light source to perform individual control. ;
At least one infrared camera for capturing motion data of the game subject;
A control device for controlling the at least one light source when the motion data or a predetermined event occurs through the dimmer based on the motion data input from the at least one infrared camera;
Lighting effect control system using a gesture-based NUI comprising a.
제 1 항에 있어서,
상기 모션 또는 제스처 중 상기 게임 주체의 손동작은,
손가락을 이용한 도형 그리기 동작, 좌우 흔들기, 상하 터치, 수평 터치, 주먹쥐기, 손가락 모으기, 손가락 벌리기, 손바닥 터치하기, 손가락 펴기, 구부리기, 및 손바닥 뒤집기 중 어느 하나 또는 적어도 하나의 조합이고,
상기 손동작은 상기 적어도 하나의 광원의 구동 및 출력을 제어하는 데이터와 NUI 매핑(Natural User Interface mapping)으로 연결되어 저장되는 것을 특징으로 하는 제스처 기반 NUI를 이용한 조명효과 제어 시스템.
The method of claim 1,
The gesture of the game subject in the motion or gesture is,
Any one or at least one of a figure drawing operation using a finger, a left and right shake, an up and down touch, a horizontal touch, a clenching fist, a pinch of a finger, a finger spread, a palm touch, a finger spread, a bending, and a palm flip,
The hand gesture is a lighting effect control system using a gesture-based NUI, characterized in that the data to control the driving and output of the at least one light source and is connected to the NUI mapping (Natural User Interface mapping).
제 1 항에 있어서,
상기 제어 장치는, 상기 적어도 하나의 적외선 카메라로부터 수신된 상기 게임 주체의 위치 정보, 좌표 범위 및 감지 레벨을 이용하여 상기 게임 주체의 움직임 데이터를 감지 및 분석하는 것을 특징으로 하는 제스처 기반 NUI를 이용한 조명효과 제어 시스템.
The method of claim 1,
The control device is configured to detect and analyze motion data of the game subject using location information, a coordinate range, and a detection level of the game subject received from the at least one infrared camera. Effect control system.
제 1 항에 있어서,
상기 게임 주체의 움직임 데이터를 감지하도록 상기 게임 주체의 적어도 하나의 인체부위에 위치하는 적어도 하나의 컨트롤러;
를 더 포함하는 것을 특징으로 하는 제스처 기반 NUI를 이용한 조명효과 제어 시스템.
The method of claim 1,
At least one controller positioned on at least one human body part of the game subject to detect motion data of the game subject;
Lighting effect control system using a gesture-based NUI, characterized in that it further comprises.
제 1 항에 있어서,
상기 적어도 하나의 광원은 플렉서블 네온(Flexiable Neon), LED, OLED, 및LCD 중 어느 하나 또는 적어도 하나의 조합으로 이루어지는 것을 특징으로 하는 제스처 기반 NUI를 이용한 조명효과 제어 시스템.
The method of claim 1,
The at least one light source is a lighting effect control system using a gesture-based NUI, characterized in that consisting of any one or at least one of Flexible Neon, LED, OLED, and LCD.
제어 장치에서 실행되는 조명효과 제어 방법에 있어서,
적어도 하나의 적외선 카메라로부터 촬영된 실감체험을 위한 VR 부스에 설치되어 게임 주체의 모션이나 제스처를 포함한 움직임 데이터를 수신하는 단계;
상기 움직임 데이터와 기 저장된 NUI 매핑(Natural User Interface mapping) 데이터를 비교하여 특수효과의 구현여부를 판단하는 단계;
상기 판단 결과 상기 특수효과가 구현되어야 할 움직임 데이터인 경우, 상기 적어도 하나의 광원을 독립적으로 제어하기 위하여 DALI(Digital Addressable Lighting Interface) 프로토콜을 이용하는 조광기(Dimmer Controller)로 제어신호를 전송하는 단계;
상기 조광기에서 상기 적어도 하나의 광원을 제어하는 신호를 출력한 결과를 피드백 데이터로 수신하여 PID(Proportional Integral Derivative) 제어를 실시하는 단계;
를 포함하는 제스처 기반 NUI를 이용한 조명효과 제어 방법.
In the lighting effect control method performed in the control device,
Receiving movement data including a motion or a gesture of a game subject, installed in a VR booth for a realistic experience captured from at least one infrared camera;
Comparing the movement data with previously stored NUI mapping data to determine whether to implement a special effect;
Transmitting control signals to a dimmer controller using a digital addressable lighting interface (DALI) protocol to independently control the at least one light source when the special effect is motion data to be implemented;
Receiving a result of outputting a signal controlling the at least one light source from the dimmer as feedback data to perform PID (Proportional Integral Derivative) control;
Lighting effect control method using a gesture-based NUI comprising a.
제 6 항에 있어서,
상기 게임 주체의 움직임 데이터의 X,Y,Z을 포함하는 3축 데이터를 수집하기 위한 적어도 하나의 적외선 센서;
를 더 포함하고,
상기 제어 장치는 상기 적어도 하나의 적외선 카메라에서 촬영된 촬영 데이터와, 상기 적어도 하나의 적외선 센서로부터 수집한 상기 게임 주체의 움직임 데이터의 X,Y,Z을 포함하는 3축 데이터를 분석하여 프로토콜을 생성하는 것을 특징으로 하는 제스처 기반 NUI를 이용한 조명효과 제어 방법.
The method of claim 6,
At least one infrared sensor for collecting three-axis data including X, Y, and Z of the motion data of the game subject;
More,
The control device generates a protocol by analyzing three-axis data including X, Y, and Z of the shooting data captured by the at least one infrared camera and the movement data of the game subject collected from the at least one infrared sensor. Lighting effect control method using a gesture-based NUI, characterized in that.
제 6 항 또는 제 7 항에 기재된 제스처 기반 NUI를 이용한 조명효과 제어 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for performing the lighting effect control method using the gesture-based NUI according to claim 6.
KR1020180082089A 2018-07-16 2018-07-16 System and method for controlling gesture based light dimming effect using natural user interface KR102173608B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180082089A KR102173608B1 (en) 2018-07-16 2018-07-16 System and method for controlling gesture based light dimming effect using natural user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082089A KR102173608B1 (en) 2018-07-16 2018-07-16 System and method for controlling gesture based light dimming effect using natural user interface

Publications (2)

Publication Number Publication Date
KR20200008227A true KR20200008227A (en) 2020-01-28
KR102173608B1 KR102173608B1 (en) 2020-11-18

Family

ID=69370549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082089A KR102173608B1 (en) 2018-07-16 2018-07-16 System and method for controlling gesture based light dimming effect using natural user interface

Country Status (1)

Country Link
KR (1) KR102173608B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220000162A (en) * 2020-06-25 2022-01-03 주식회사 리얼리티매직 In-game event-based lighting production method for virtual reality game and virtual reality system for performing the same
KR20220000159A (en) * 2020-06-25 2022-01-03 주식회사 리얼리티매직 Player location-based lighting production method for virtual reality game and virtual reality system for performing the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085841A (en) * 2012-12-27 2014-07-08 국민대학교산학협력단 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same
KR20160132683A (en) * 2015-05-11 2016-11-21 (주)젠트정보기술 Realistic game content providing system using motion recognition and special effect control technique
KR20170059300A (en) * 2015-11-20 2017-05-30 동국대학교 산학협력단 System and method for virtual reality game control simulation based on natural user interface and natural user experience
KR20180078046A (en) * 2016-12-29 2018-07-09 (주)디엔소프트 Method for literal education using virtual reality display or augmented reality display and recording medium thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085841A (en) * 2012-12-27 2014-07-08 국민대학교산학협력단 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same
KR20160132683A (en) * 2015-05-11 2016-11-21 (주)젠트정보기술 Realistic game content providing system using motion recognition and special effect control technique
KR20170059300A (en) * 2015-11-20 2017-05-30 동국대학교 산학협력단 System and method for virtual reality game control simulation based on natural user interface and natural user experience
KR20180078046A (en) * 2016-12-29 2018-07-09 (주)디엔소프트 Method for literal education using virtual reality display or augmented reality display and recording medium thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220000162A (en) * 2020-06-25 2022-01-03 주식회사 리얼리티매직 In-game event-based lighting production method for virtual reality game and virtual reality system for performing the same
KR20220000159A (en) * 2020-06-25 2022-01-03 주식회사 리얼리티매직 Player location-based lighting production method for virtual reality game and virtual reality system for performing the same

Also Published As

Publication number Publication date
KR102173608B1 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
US10990189B2 (en) Processing of gesture-based user interaction using volumetric zones
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20200278756A1 (en) Mode Switching for Integrated Gestural Interaction and Multi-User Collaboration in Immersive Virtual Reality Environments
CN107466411B (en) Two-dimensional infrared depth sensing
US20190278379A1 (en) Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US10540812B1 (en) Handling real-world light sources in virtual, augmented, and mixed reality (xR) applications
US20080252596A1 (en) Display Using a Three-Dimensional vision System
CN107004279A (en) Natural user interface camera calibrated
CN110073316A (en) Interaction virtual objects in mixed reality environment
US20130249786A1 (en) Gesture-based control system
CN105190703A (en) Using photometric stereo for 3D environment modeling
US10706584B1 (en) Hand tracking using a passive camera system
KR102369989B1 (en) Color identification using infrared imaging
WO2023146241A1 (en) System and method for generating a three-dimensional photographic image
Schütt et al. Semantic interaction in augmented reality environments for microsoft hololens
KR102173608B1 (en) System and method for controlling gesture based light dimming effect using natural user interface
CN109389538A (en) A kind of Intelligent campus management system based on AR technology
CN116685028A (en) Intelligent control system for digital human scene lamplight in virtual environment
CN115409904A (en) Visual sense invisibility method, device and readable medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right