KR20140085841A - Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same - Google Patents

Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same Download PDF

Info

Publication number
KR20140085841A
KR20140085841A KR1020120155588A KR20120155588A KR20140085841A KR 20140085841 A KR20140085841 A KR 20140085841A KR 1020120155588 A KR1020120155588 A KR 1020120155588A KR 20120155588 A KR20120155588 A KR 20120155588A KR 20140085841 A KR20140085841 A KR 20140085841A
Authority
KR
South Korea
Prior art keywords
content
user
digital
contents
screen
Prior art date
Application number
KR1020120155588A
Other languages
Korean (ko)
Other versions
KR101531825B1 (en
Inventor
정구민
곽인애
강동병
박창우
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020120155588A priority Critical patent/KR101531825B1/en
Publication of KR20140085841A publication Critical patent/KR20140085841A/en
Application granted granted Critical
Publication of KR101531825B1 publication Critical patent/KR101531825B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

The present invention relates to a technology of creating content for emotionally controlling a light system. More particularly, the present invention relates to a technology of creating content for controlling an emotional light system by recognizing a motion of a user, providing the created content in a form which the user can confirm, and adding an effect to the created content by recognizing the motion of the user. According to the present invention, a user can easily create content for driving digital emotional light by a motion of the user on a light driving content creating software screen, for example, an action of spreading fingers or making a fist or an action of selecting a corresponding region using a remote controller.

Description

동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법 및 이를 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체{METHOD FOR AUTHORING DIGITAL EMOTIONAL-LIGHTING CONTENTS FOR EMOTIONAL LIGHT SYSTEM BY MOTION RECOGNIZING, AND COMPUTER READABLE RECORD MEDIUM FOR THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of authoring digital emotion lighting contents in an emotional lighting system using motion recognition, and a computer readable recording medium on which a program for the same is recorded. SAME}

본 발명은 조명 시스템을 감성적으로 제어하기 위한 콘텐츠를 저작하는 기술에 관한 것이다. 특히 본 발명은 사용자의 동작을 인식을 통해 감성조명 시스템을 제어하기 위한 콘텐츠를 저작함과 동시에 저작된 콘텐츠를 사용자가 확인할 수 있는 형태로 제공하고 그 저작된 콘텐츠에 사용자의 동작 인식을 통해 부가적인 효과를 추가할 수 있도록 하는 기술이다.
The present invention relates to techniques for authoring content for emotionally controlling an illumination system. In particular, the present invention provides a method and apparatus for authoring a content for controlling a emotional lighting system through recognition of a user's operation and simultaneously providing the authored content in a form that the user can confirm, This is a technique that allows you to add effects.

일반적으로 조명기기는 사용자의 전원스위치 조작에 따라 미리 정해진 색상의 조명개체를 구동해서 주위 환경을 밝게 한다. 조명기기에 구비된 전원스위치는 사용자의 온/오프 조작에 따라 스위칭되어 외부로부터 입력되는 동작전원을 조명개체에 공급할지 여부를 결정한다. 이러한 조명기기는 일반적으로 단일 색상의 조명개체를 구동하는데 사용된다.Generally, the lighting device illuminates the surrounding environment by driving a lighting object of a predetermined color according to a user's operation of the power switch. The power switch provided in the lighting apparatus is switched according to the on / off operation of the user to decide whether to supply the operating power inputted from the outside to the lighting entity. Such luminaires are typically used to drive a single color light object.

단일 색상의 조명개체를 구동하는 조명기기 이외에도, 종래의 조명기기는 미리 정해진 프로그램에 따라 조명개체의 구동 순서를 제어해서 크리스마스 트리와 같은 몇가지 형태의 조명효과를 나타낸다. 이들 조명기기는 설계자에 의해 미리 정해진 구동 순서에 따라 조명개체를 구동하므로 사용자(구매자)가 원하는 조명 효과를 나타내는 것이 불가능한 문제점이 있다.In addition to lighting devices that drive a single-color lighting object, conventional lighting devices control the order of driving the lighting objects according to a predetermined program to exhibit several types of lighting effects, such as a Christmas tree. Such a lighting apparatus drives a lighting object according to a predetermined driving sequence by a designer, so that there is a problem that it is impossible for a user (buyer) to exhibit a desired lighting effect.

또한 조명개체는 처음 제작할 당시의 프로그램되어 있는 형태로만 조명 효과를 낼 수 밖에 없는 문제점이 있다. 즉, 사용자의 그날그날의 감정 상태에 따라 수시로 변경 가능한 조명을 제공할 수 없다. 또한 사용자가 원하는 형태로 수시로 조명 효과를 변경할 수 없는 문제도 있다.In addition, there is a problem that a lighting object can only produce a lighting effect in a programmed form at the time of initial production. In other words, it is not possible to provide lighting that can be changed from time to time in accordance with the user's emotional state of the day. There is also a problem in that the lighting effect can not be changed from time to time in the form desired by the user.

또한 종래기술에서는 조명기기의 구동 순서(조명구동 시퀀스)를 설정하기 위한 저작 방식이 매우 불편하였다. 통상적으로는 전용의 조명저작 툴킷을 사용하여 프로그래밍하였다. 따라서 일반인(구매자)도 용이하게 사용할 수 있으면서 동시에 미리 설정된 틀(양식)에 억매이지 않고 좀더 자유롭게 조명구동 시퀀스를 창작해낼 수 있는 저작 기술이 요망된다.In addition, in the prior art, the authoring method for setting the driving sequence of the lighting apparatus (lighting driving sequence) is very inconvenient. Typically, they are programmed using a dedicated lighting authoring toolkit. Therefore, there is a demand for an authoring technique that can be used easily by a general person (buyer), and at the same time, can freely create an illumination driving sequence without being constrained to a preset frame (form).

[관련기술문헌][Related Technical Literature]

1. 음성인식형 양방향 콘텐츠 저작방법 및 장치(특허출원 제10-2010-0017916호)1. Method and apparatus for authoring voice recognition type interactive contents (Patent Application No. 10-2010-0017916)

2. 모바일 단말기용 디지털 만화 콘텐츠의 저작툴 및 이를 이용한 모바일 단말기용 디지털 만화 콘텐츠의 저작방법(특허출원 제10-2010-0042843호)2. Authoring tool for digital cartoon contents for mobile terminals and method for authoring digital cartoon contents for mobile terminals (Patent Application No. 10-2010-0042843)

3. 3D 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오 플랫폼 장치 및 방법(특허출원 제10-2007-0099926호)
3. Personalized multimedia studio platform device and method for 3D content authoring (Patent Application No. 10-2007-0099926)

따라서 본 발명에서는 사용자의 동작을 통해 디지털 감성조명을 제어하기 위한 구동 정보(콘텐츠)를 생성함으로써 사용자가 원하는 형태로 디지털 감성조명을 구동되도록 하기 위한 기술을 제공한다.Accordingly, the present invention provides a technique for driving the digital emotion light in a desired form by generating driving information (contents) for controlling the digital emotion light through a user's operation.

또한 본 발명에서는 사용자가 디지털 조명의 구동을 위한 콘텐츠를 용이하게 저작하면서 동시에 자유롭게 창작력을 발휘할 수 있는 방식으로 저작할 수 있는 기술을 제공한다.In addition, the present invention provides a technique that allows a user to easily author content for driving digital lighting and author it in such a manner that it can freely express its creative power.

또한 본 발명에서는 사용자가 미리 저작한 또는 다운로드 받은 디지털 조명의 구동을 위한 콘텐츠를 사용자의 취향에 따라 수정하거나 또는 효과를 줄 수 있는 기술을 제공한다.In addition, the present invention provides a technique for modifying or effecting contents for driving a digital light that a user has previously authored or downloaded according to a user's taste.

또한 본 발명에서는 사용자가 저작한 콘텐츠를 즉시 확인하여 필요에 따라 수정 및 효과를 줄 수 있는 기술을 제공한다.
In addition, the present invention provides a technique for promptly confirming contents authored by a user and correcting and effecting the contents as needed.

이러한 과제를 달성하기 위한 본 발명은 동작 인식을 이용하여 감성조명 시스템의 디지털 감성조명 콘텐츠를 저작하는 방법으로서, 사용자의 동작을 감지하여 사용자의 동작에 대응하여 커서 또는 포인터를 이동시켜 화면상에 표시하는 단계; 사용자의 동작을 지속적으로 검출하는 단계; 사용자 동작의 검출 결과 디지털 감성조명 콘텐츠 제작을 요구하는 경우에 화면에 디지털 감성조명 콘텐츠 저작을 위한 팔레트와 조작 메뉴를 표시하는 단계; 사용자 동작의 검출 결과 팔레트 상의 일련의 색상을 선택하는 경우 그 선택된 색상시퀀스들을 입력받아 화면상의 컨텐츠 표시창에 표시하고, 그 표시된 색상시퀀스들에 대응하여 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계; 사용자 동작의 검출 결과 생성된 콘텐츠의 저장이 요구될 시 당해 저작된 콘텐츠를 저장하는 단계;를 포함하여 구성된다.According to an aspect of the present invention, there is provided a method of authoring a digital emotion lighting content of an emotional lighting system using motion recognition, the method comprising the steps of sensing a user's motion and moving a cursor or a pointer corresponding to the motion of the user, ; Continuously detecting the operation of the user; Displaying a palette and an operation menu for authoring the digital emotion lighting contents on the screen when the user desires to produce the digital emotion lighting contents; When a series of colors on the palette is selected as a result of the detection of the user operation, the selected color sequences are displayed on the content display window on the screen, and the content for controlling the digital emotion lighting is generated in accordance with the displayed color sequences. And storing the authored content when storage of the generated content is requested as a result of detection of the user's operation.

본 발명에서 사용자의 동작을 검출하는 단계는, 손의 이동에 따라 커서 또는 포인터의 위치를 변경하는 단계; 주먹을 쥐고 폄에 따라 커서 또는 포인터가 위치한 영역을 선택하거나 선택을 해제하는 단계; 리모컨에서 사용자의 손 이동을 검출하여 손 이동 방향 및 이동 거리에 따라 커서 또는 포인터의 위치를 변경하는 단계; 리모컨의 선택 키 입력 여부에 따라 커서 또는 포인터가 위치한 영역의 선택하거나 선택을 해제하는 단계;를 포함하여 구성된다.In the present invention, the step of detecting an operation of a user may include: changing a position of a cursor or a pointer according to a movement of a hand; Holding the fist and selecting or deselecting the area where the cursor or the pointer is located according to the expansion; Changing a position of a cursor or a pointer according to a hand moving direction and a moving distance by detecting movement of a user's hand on the remote controller; And selecting or deselecting an area in which the cursor or the pointer is located according to whether or not the selection key of the remote controller is input.

또한, 본 발명에 따른 디지털 감성조명 콘텐츠 저작 방법은, 사용자 동작의 검출 결과 위 생성된 콘텐츠에 효과 적용이 요구될 시 사용자의 동작을 검출하여 효과를 적용할 시간구간을 선택하는 단계; 그 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계; 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계; 당해 저작된 컨텐츠의 플레이가 요구될 시 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;를 더 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a method of authoring a digital emotion lighting content, comprising: detecting a user's action when a user applies an effect to a content generated as a result of a user's action; Setting a change in brightness or intensity of light corresponding to a detection result of the user operation in the selected time interval; Generating a content for controlling the digital emotion lighting by applying a glare or an illuminance change effect to the color sequence; And displaying the authored content on the screen when playing the authored content is requested.

또한, 본 발명에 따른 디지털 감성조명 콘텐츠 저작 방법은, 사용자 동작의 검출 결과 미리 저장된 콘텐츠의 불러오기가 요구될 시 저장된 콘텐츠들을 읽어와 리스트 형식으로 콘텐츠들을 화면상에 표시하는 단계; 그 표시된 콘텐츠들 중 하나가 선택될 시 선택된 콘텐츠의 세부 정보를 화면상에 표시하는 단계; 사용자 동작의 검출 결과 위 저장된 콘텐츠 중 선택되어 화면상에 표시된 콘텐츠에 효과 적용 또는 수정이 요구될 시 사용자의 동작을 검출하여 효과를 적용 또는 수정할 시간구간을 선택하는 단계; 그 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계; 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계; 새롭게 적용된 효과를 갖는 컨텐츠의 플레이가 요구될 시 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;를 더 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a method for authoring a digital emotion lighting content, comprising: displaying contents on a screen in a list format by reading stored contents when a retrieval of a pre-stored content is required as a result of detection of a user operation; Displaying detailed information of the selected content on the screen when one of the displayed contents is selected; Detecting a user's action and selecting a time interval for applying or modifying an effect when the user selects an effect from the stored content and requests or applies an effect to the content displayed on the screen; Setting a change in brightness or intensity of light corresponding to a detection result of the user operation in the selected time interval; Generating a content for controlling the digital emotion lighting by applying a glare or an illuminance change effect to the color sequence; And displaying the authored content on the screen when a play of the content having the newly applied effect is requested.

한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 사용자의 동작을 감지하여 사용자의 동작에 대응하여 커서 또는 포인터를 이동시켜 화면상에 표시하는 단계; 사용자의 동작을 지속적으로 검출하는 단계; 사용자 동작의 검출 결과 디지털 감성조명 콘텐츠 제작을 요구하는 경우에 화면에 디지털 감성조명 콘텐츠 저작을 위한 팔레트와 조작 메뉴를 표시하는 단계; 사용자 동작의 검출 결과 팔레트 상의 일련의 색상을 선택하는 경우 그 선택된 색상시퀀스들을 입력받아 화면상의 컨텐츠 표시창에 표시하고, 그 표시된 색상시퀀스들에 대응하여 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계; 사용자 동작의 검출 결과 생성된 콘텐츠의 저장이 요구될 시 당해 저작된 콘텐츠를 저장하는 단계;를 수행하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 것이다.
According to another aspect of the present invention, there is provided a computer-readable recording medium including a computer-readable recording medium having a computer-readable recording medium storing a program for causing a computer to execute the steps of: Continuously detecting the operation of the user; Displaying a palette and an operation menu for authoring the digital emotion lighting contents on the screen when the user desires to produce the digital emotion lighting contents; When a series of colors on the palette is selected as a result of the detection of the user operation, the selected color sequences are displayed on the content display window on the screen, and the content for controlling the digital emotion lighting is generated in accordance with the displayed color sequences. And storing the authored content when the storage of the generated content is requested as a result of the detection of the user's action.

본 발명에 따르면 조명구동 콘텐츠 저작 소프트웨어 화면에서 사용자의 동작 예컨대 손가락을 펴거나 주먹을 쥐는 행위 또는 리모컨을 이용하여 해당하는 영역을 선택하는 동작만으로 디지털 감성조명을 구동하기 위한 콘텐츠를 매우 용이하게 저작할 수 있는 장점이 있다.According to the present invention, the contents for driving the digital emotion lighting can be very easily authored by only the action of the user in the screen of the lighting-driven contents authoring software, for example, the act of fingering the finger or holding the fist or selecting the corresponding area by using the remote controller There are advantages to be able to.

또한 본 발명에 따르면 이렇게 저작된 콘텐츠를 수정하거나 또는 특별한 효과 예컨대, 순차적으로 어두워지거나 밝아지는 또는 점멸 등의 효과를 손쉽게 얻을 수 있다는 장점이 있다.In addition, according to the present invention, there is an advantage that it is possible to easily modify the authored content or to obtain special effects such as sequentially darkening, brightening, or blinking.

또한, 본 발명에 따르면 다른 사용자가 저작한 콘텐츠에 대하여도 사용자의 취향에 따라 별다른 어려움 없이 일부 수정 또는 효과의 변경을 사용자가 원하는 형태로 변경할 수 있다. 이를 통해 사용자가 원하는 형태로 조명을 수시로 변경할 수 있는 효과가 있다.In addition, according to the present invention, it is possible to modify some modifications or effects of the contents authored by other users in a desired form according to the user's taste without any difficulty. Thereby, the user can change the lighting in a desired form at any time.

또한, 본 발명에 따르면 사용자가 저작하는 콘텐츠 또는 수정하는 콘텐츠를 실시간으로 확인하면서 저작 또는 수정이 가능하여 콘텐츠 저작이 보다 용이하고 저작되는 즉시 확인이 가능하다는 이점이 있다.
In addition, according to the present invention, it is possible to author or modify a content to be authored or corrected by a user in real time, thereby facilitating content authoring and confirming it immediately after authoring.

[도 1]은 본 발명에 따라 디지털 감성조명을 제어하기 위한 콘텐츠 저작 시스템의 개략적인 구성도,
[도 2] 내지 [도 4]는 본 발명에 따른 모션검출 모듈과 콘텐츠 저작모듈의 내부 블록 구성도,
[도 5] 내지 [도 7]은 본 발명의 실시예에 따라 디지털 감성조명을 제어하기 위한 콘텐츠 저작시의 제어 순서도,
[도 8]은 콘텐츠 저작모듈에서 디스플레이 표시되는 초기화면의 일 예시도,
[도 9]와 [도 10]은 본 발명에 따라 콘텐츠 저작모듈에서 디지털 조명의 콘텐츠 제작을 위해 제공되는 화면의 일 예시도,
[도 11]은 본 발명에 따라 디지털 감성조명을 제어하기 위한 콘텐츠에 효과를 적용할 경우 콘텐츠 저작모듈에서 제공하는 화면의 일 예시도,
[도 12]는 본 발명에 따라 디지털 조명 제어를 위해 저작된 콘텐츠를 시간 구간 및 시간 구간에서 선택된 영역을 함께 예시한 도면,
[도 13]과 [도 14]는 본 발명에 따라 디지털 감성조명을 제어하기 위해 미리 저작된 콘텐츠를 불러오는 경우의 일 예시도.
1 is a schematic configuration diagram of a content authoring system for controlling digital emotion lighting according to the present invention;
FIG. 2 to FIG. 4 are internal block diagrams of a motion detection module and a content authoring module according to the present invention,
FIG. 5 to FIG. 7 are flowcharts showing control procedures for content authoring for controlling the digital emotion lighting according to the embodiment of the present invention; FIG.
8 is an example of an initial screen displayed and displayed on the content authoring module,
FIG. 9 and FIG. 10 illustrate an example of a screen provided for the production of digital lighting contents in the content authoring module according to the present invention,
FIG. 11 is an example of a screen provided by a content authoring module when an effect is applied to a content for controlling the digital emotion lighting according to the present invention,
FIG. 12 is a diagram illustrating selected areas in a time interval and a time interval of contents authored for digital lighting control according to the present invention;
FIG. 13 and FIG. 14 are diagrams illustrating an example of loading pre-authored content to control the digital emotion lighting according to the present invention. FIG.

이하 첨부된 도면을 참조하여 본 발명을 살펴보기로 한다. 이하에 첨부된 본 발명의 도면은 본 발명의 이해를 돕기 위해 제공되는 것으로, 본 발명의 도면에 예시된 형태 또는 배치 등에 본 발명이 제한되지 않음에 유의해야 한다. 본 발명에 첨부된 도면에 대한 부가적인 실시예에 대한 균등 또는 확장은 도면을 참조한 설명을 통해 이해되어야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described with reference to the accompanying drawings. It should be noted that the drawings of the present invention attached hereto are provided for the purpose of helping understanding of the present invention, and the present invention is not limited to the shape or the arrangement exemplified in the drawings of the present invention. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will be more apparent from the following description taken in conjunction with the accompanying drawings, in which: FIG.

[도 1]은 본 발명에 따라 디지털 감성조명을 제어하기 위한 콘텐츠 저작 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a content authoring system for controlling digital emotion lighting according to the present invention.

[도 1]의 구성 요소들을 살펴보면, 사용자의 동작을 인식하거나 리모컨의 동작 및 리모컨의 입력 신호를 수신하기 위한 모션검출 모듈(100), 당해 저작하는 콘텐츠의 구성 과정 및 저작된 콘텐츠를 시각적으로 표시하고 이를 저장하기 위한 콘텐츠 저작모듈(200), 디지털 감성조명을 제어하기 위해 저작된 콘텐츠를 실제로 표현하기 위한 디지털 조명(300)을 포함한다.The components of FIG. 1 include a motion detection module 100 for recognizing an operation of a user or receiving an operation of a remote controller and an input signal of a remote controller, a process of configuring a content to be authored, A contents authoring module 200 for storing the contents, and a digital light 300 for actually representing authored contents for controlling digital emotion lighting.

도시와 같이 모션검출 모듈(100)과 콘텐츠 저작모듈(200)간과 콘텐츠 저작모듈(200)과 디지털 조명(300)간은 유무선 네트워크(20)를 통해 연결된다. 이때, 모션검출 모듈(100)과 콘텐츠 저작모듈(200)간은 유선 네트워크로 연결되는 것이 바람직하며, 콘텐츠 저작모듈(200)과 디지털 조명(300)간은 유선 또는 무선 중에서 어느 하나를 이용할 수 있다. 이하의 설명에서는 모션검출 모듈(100)과 콘텐츠 저작모듈(200)간은 유선으로 연결된 경우를 가정하며, 콘텐츠 저작모듈(200)과 디지털 조명(200)간은 무선통신 방식을 이용하는 것으로 가정한다. 이때, 무선통신 방식은 근거리 무선 네트워크 방식인 블루투스나 무선랜(WiFi) 등 다양한 방식을 사용할 수 있다.The motion detection module 100 and the content authoring module 200 are connected to each other through the wired / wireless network 20 between the content authoring module 200 and the digital lighting 300 as shown in FIG. At this time, it is preferable that the motion detection module 100 and the content authoring module 200 are connected to each other through a wired network, and any one of the content authoring module 200 and the digital light source 300 can be used, . In the following description, it is assumed that the motion detection module 100 and the content authoring module 200 are connected by wire, and that the content authoring module 200 and the digital light 200 use a wireless communication method. At this time, the wireless communication method can use various methods such as Bluetooth, WiFi, and the like, which are short-range wireless network systems.

모션검출 모듈(100)은 사용자의 동작(11)만을 인식하는 장치가 될 수도 있고, 리모컨(12)과 같은 보조 장치를 통해 동작과 키 입력을 동시에 인지할 수도 있다. 모션검출 모듈(100)이 사용자의 동작만을 인식하는 경우 사용자의 동작으로 사용자가 손을 펴는 동작, 손을 쥐는 동작, 손을 펴고 이동하는 동작, 손을 쥐고 이동하는 동작 등을 검출하고, 이를 해당하는 명령어로 변환할 수 있다. 반면에 모션검출 모듈(100)이 사용자의 동작을 인식하기 위한 보조 장치인 리모컨(12)을 통해 사용자의 모션을 검출하는 경우에는 리모컨의 특정 키 입력 정보와 사용자의 손 움직임 정보 등을 동시에 획득할 수 있다. 이하에서는 리모컨을 이용하지 않는 경우를 가정하여 설명하기로 한다.The motion detection module 100 may be a device that recognizes only the operation 11 of the user or recognize the operation and the key input simultaneously through an auxiliary device such as the remote controller 12. [ When the motion detection module 100 recognizes only the motion of the user, the motion of the user's hand, the motion of holding the hand, the motion of moving the hand, and the movement of moving the hand are detected by the motion of the user, Can be converted into a command. On the other hand, when the motion detection module 100 detects the motion of the user through the remote controller 12, which is an auxiliary device for recognizing the motion of the user, the specific key input information of the remote controller and the hand motion information of the user are simultaneously acquired . Hereinafter, it is assumed that the remote controller is not used.

콘텐츠 저작모듈(200)은 바람직하게는 사용자가 저작한 콘텐츠를 표시하기 위한 디스플레이 구성과 사용자가 저작한 콘텐츠를 저장하기 위한 저장영역을 구비한다. 따라서 콘텐츠 저작모듈(200)은 컴퓨터 또는 스마트 텔레비전 등으로 구성할 수 있다. 또한, 모션검출 모듈(100)과 콘텐츠 저작모듈(200)을 스마트폰 또는 태블릿컴퓨터 등에서 [도 5] 내지 [도 7]에서 후술될 본 발명에 따른 기능을 포함하는 경우 하나의 일체형 장비로 구성할 수도 있다. 또한 모션검출 모듈(100)과 콘텐츠 저작모듈(200)은 사용자의 동작을 검출해 동작에 따른 제어 과정을 화면으로 함께 표시하기 위해서 모션검출 모듈(100)이 콘텐츠 저작모듈(200)의 상단 또는 하단에 위치하는 것이 바람직하다.The content authoring module 200 preferably has a display configuration for displaying contents authored by the user and a storage area for storing contents authored by the user. Therefore, the content authoring module 200 can be configured as a computer or a smart television. If the motion detection module 100 and the content authoring module 200 are included in a smartphone or a tablet computer as one integrated device in the case of including the functions according to the present invention described later with reference to FIG. 5 to FIG. 7 It is possible. The motion detection module 100 and the content authoring module 200 may detect the motion of the user and simultaneously display the control process according to the motion on the screen. .

그러면 본 발명에 따른 모션검출 모듈(100)과 콘텐츠 저작모듈(200)의 구성을 [도 2] 내지 [도 4]를 참조하여 살펴본다.
The configuration of the motion detection module 100 and the content authoring module 200 according to the present invention will now be described with reference to FIG. 2 to FIG. 4.

[도 2] 내지 [도 4]는 본 발명에 따른 모션검출 모듈(100)과 콘텐츠 저작모듈(200)의 내부 블록 구성도이다.FIG. 2 to FIG. 4 are internal block diagrams of the motion detection module 100 and the content authoring module 200 according to the present invention.

먼저, 모션검출 모듈(100)은 모션검출 센서(101), 리모컨 센서(103), 명령어 생성부(105), 통신부(107)를 포함한다. 이때, 모션검출 모듈(100)은 모션검출 센서(101)와 리모컨 센서(103)를 모두 포함하여 구성될 수도 있고 이들 중에서 어느 하나만을 포함할 수 있다.First, the motion detection module 100 includes a motion detection sensor 101, a remote control sensor 103, a command generation unit 105, and a communication unit 107. At this time, the motion detection module 100 may include both the motion detection sensor 101 and the remote control sensor 103, or may include only one of them.

모션검출 센서(101)는 카메라 또는 적외선 센서 등을 이용하여 사용자의 움직임을 감지하고 이를 데이터화하여 명령어 생성부(105)로 제공한다. 또한 리모컨 센서(103)는 회전 및 지자기 센서 등을 포함하는 리모컨(12)으로부터 사용자의 움직임에 대한 정보와 사용자의 키 입력 신호를 함께 수집하고, 이를 명령어 생성부(105)로 제공한다. 이때, 리모컨 센서(103)는 필요에 따라서는 리모컨(12)과 무선통신을 수행할 수도 있으며, 무선통신이 필요한 경우 무선통신을 위한 별도의 구성을 더 포함한다.The motion detection sensor 101 detects motion of a user using a camera or an infrared sensor, and converts the motion into data, and provides the generated data to the instruction generation unit 105. The remote control sensor 103 also collects information on the movement of the user and the key input signal of the user from the remote controller 12 including the rotation and geomagnetic sensor and provides the same to the command generation unit 105. At this time, the remote control sensor 103 may perform wireless communication with the remote controller 12 if necessary, and further include a separate configuration for wireless communication when wireless communication is required.

명령어 생성부(105)는 사용자의 움직임에 대응하는 명령어를 생성한다. 예를 들어 동작 인식이라면 주먹 쥐는 동작, 손가락을 모두 펴는 동작, 주먹을 쥔 상태 또는 손가락을 편 상태에서의 움직임 등에 대응하는 명령어를 생성한다. 따라서 명령어 생성부(105)는 명령어와 동작을 미리 매핑해둔 테이블을 포함할 수 있다. 이러한 동작은 리모컨 센서(103)로부터 수신되는 정보에 대하여도 동일하게 적용할 수 있다. 즉, 명령어 생성부(105)는 손을 쥐거나 펴는 동작 대신 사용자의 키 입력 신호와 움직임 신호로부터 명령어를 생성한다.The command generation unit 105 generates a command corresponding to the movement of the user. For example, if motion recognition is performed, a command corresponding to the motion of the fist, the operation of spreading all of the fingers, the state of holding the fist, or the movement of the fingers are generated. Accordingly, the command generation unit 105 may include a table in which the command and the operation are mapped in advance. This operation can be similarly applied to the information received from the remote control sensor 103. [ That is, the command generation unit 105 generates a command from a key input signal and a motion signal of the user, instead of the hand or the hand stretching operation.

데이터 송신부(107)는 명령어 생성부(105)에서 생성된 신호를 미리 정해진 방식으로 전송한다. 예를 들어 무선통신 방식을 이용하는 경우 해당하는 무선 규격의 데이터로 변환하여 전송하며, 유선통신인 경우 전송할 명령어를 미리 설정된 통신 규격에 맞춰 구성하여 송신한다.The data transmission unit 107 transmits the signal generated by the command generation unit 105 in a predetermined manner. For example, when a wireless communication method is used, the data is converted into data of a corresponding wireless standard and transmitted. In the case of wired communication, a command to be transmitted is configured and transmitted according to a predetermined communication standard.

다음으로, 콘텐츠 저작모듈(200)은 유무선통신부(201), 제어부(203), 메모리(205), 화면출력부(207)를 포함한다.Next, the contents authoring module 200 includes a wired / wireless communication unit 201, a control unit 203, a memory 205, and a screen output unit 207.

유무선통신부(201)는 모션검출 모듈(100) 및 디지털 조명(300)과 데이터 송수신을 담당한다. 따라서 유무선통신부(201)는 유선통신 및 무선통신 방식에 따라 통신을 수행하기 위한 구성을 갖는다.The wired / wireless communication unit 201 is responsible for data transmission / reception with the motion detection module 100 and the digital illumination 300. Therefore, the wired / wireless communication unit 201 has a configuration for performing communication according to a wired communication and a wireless communication system.

제어부(203)는 모션검출 모듈(100)로부터 수신된 명령어에 대응하여 화면을 구성하기 위한 데이터를 생성하고, 콘텐츠 저작에 대한 전반적인 동작의 제어, 당해 저작된 콘텐츠의 수정, 당해 저작된 콘텐츠의 저장, 당해 저작된 콘텐츠를 디지털 조명(300)으로 전송하기 위한 제어를 수행한다. 한편, 제어부(203)에서의 제어 동작은 후술되는 [도 5] 내지 [도 7]의 제어 순서도를 참조하여 좀더 상세히 살피기로 한다.The control unit 203 generates data for constituting a screen in response to a command received from the motion detection module 100, and controls the overall operation of the content authoring, modification of the authored content, storage of the authored content , And performs control to transmit the authored content to the digital illumination (300). On the other hand, the control operation in the control unit 203 will be described in more detail with reference to the flow charts of FIG. 5 to FIG. 7 to be described later.

메모리(205)는 제어부(203)에서 필요로 하는 제어 데이터를 저장하는 영역과 당해 저작된 콘텐츠를 저장하기 위한 영역을 포함하며, 하드디스크, 플래시메모리, 카드메모리, 확장슬롯(포트)을 통해 접속된 스토리지 공간, 웹디스크, 클라우드디스크 등으로 구성할 수 있다.The memory 205 includes an area for storing control data required by the control unit 203 and an area for storing the authored content. The memory 205 is connected via a hard disk, a flash memory, a card memory, an expansion slot (port) A storage space, a Web disk, and a cloud disk.

화면출력부(207)는 제어부(203)가 제공하는 출력용 데이터를 표시에 적합한 데이터로 변환하여 디스플레이를 구동한다. 이러한 화면출력부(207)는 경우에 따라서는 제어부(203)에 포함될 수도 있다.
The screen output unit 207 converts the output data provided by the control unit 203 into data suitable for display and drives the display. The screen output unit 207 may be included in the control unit 203 in some cases.

[도 5] 내지 [도 7]은 본 발명의 실시예에 따라 디지털 감성조명을 제어하기 위한 콘텐츠 저작시의 제어 순서도이다. 한편, [도 5] 내지 [도 7]의 제어 과정은 디지털 감성조명을 제어하기 위한 콘텐츠의 저작에 관한 것으로, 저작 과정이 시작된 상태에서부터 설명할 것이며, 저작 과정 중에 임의로 종료하는 경우에 대하여는 고려하지 않았다.5 to 7 are flowcharts for controlling the digital emotional lighting according to the embodiment of the present invention. The control process of FIGS. 5 to 7 relates to the authoring of content for controlling the digital emotion lighting, and will be described from the state where the authoring process is started. When the authoring process is arbitrarily terminated during the authoring process, I did.

콘텐츠 저작모듈(200)의 제어부(203)는 S300 단계에서 초기화면 데이터를 읽어와 화면출력부(207)를 통해 디스플레이에 초기화면이 표시되도록 제어한다. 이처럼 제어부(203)가 특정한 데이터를 표시하는 경우 화면출력부(207)로 화면 출력을 위한 데이터를 제공하고, 화면출력부(207)는 디스플레이 표시하기 위한 구동 신호를 생성하여 디스플레이 장치를 구동함으로써 그래픽이 표시된다. 하지만 이하의 설명에서는 설명의 편의를 위하여 이러한 전체적인 동작을 제어부(203)가 디스플레이 표시하는 형식으로 설명한다.The control unit 203 of the content authoring module 200 reads the initial screen data in step S300 and controls the display unit 207 to display an initial screen on the display. When the control unit 203 displays specific data, it provides data for screen output to the screen output unit 207, and the screen output unit 207 generates a driving signal for displaying the display, Is displayed. However, in the following description, for the sake of convenience of explanation, this overall operation will be described in a form that the control unit 203 displays and displays.

S300 단계에서 디스플레이 표시되는 형식을 예를 들어 설명하면 [도 8]과 같이 도시할 수 있다. [도 8]은 콘텐츠 저작모듈(200)에서 디스플레이 표시되는 초기화면의 일 예시도이다. 본 명세서의 이하의 설명에서는 [도 8]에 예시한 바와 같이 콘텐츠 저작모듈(200)의 상단에 모션검출 모듈(100)이 위치하는 것으로 가정하여 설명한다.The format in which the display is displayed in step S300 can be illustrated as [Fig. 8], for example. 8 is an exemplary view of an initial screen displayed and displayed on the content authoring module 200. FIG. In the following description, it is assumed that the motion detection module 100 is positioned at the top of the content authoring module 200 as illustrated in FIG.

콘텐츠 저작모듈(200)의 디스플레이에는 참조부호 401과 같이 LED 콘텐츠 저작을 위한 아이콘과 참조부호 402와 같은 저작된 콘텐츠를 불러오기 위한 아이콘을 포함한다. 즉, S300 단계의 초기화면은 [도 8]과 같은 아이콘을 디스플레이 표시하는 과정이다. 이후 제어부(203)는 S302 단계로 진행하여 모션검출 모듈(100)로부터 신규 콘텐츠 저작에 대한 명령이 수신되는가를 검사한다. S302 단계의 검사결과 신규 콘텐츠 저작에 대한 명령이 수신된 경우 제어부(203)는 S304 단계로 진행하고 그렇지 않은 경우 S320 단계로 진행한다.The display of the content authoring module 200 includes an icon for authoring the LED content such as reference numeral 401 and an icon for retrieving the authored content such as the reference numeral 402. That is, the initial screen in step S300 is a process of displaying an icon as shown in FIG. Thereafter, the control unit 203 proceeds to step S302 and checks whether or not a command for authoring a new content is received from the motion detection module 100. [ If it is determined in step S302 that the new content authoring command is received, the controller 203 proceeds to step S304. Otherwise, the controller 203 proceeds to step S320.

먼저 모션검출 모듈(100)에서 특정한 명령어 생성 과정을 예로 들어 설명하기로 한다. 모션검출 모듈(100)은 사용자의 손 동작을 검출한다. 예를 들어 손바닥을 편 상태로 손을 좌/우 또는 상/하로 움직이는 경우 손의 움직임을 검출하여 커서를 이동시키는 명령을 생성하여 콘텐츠 저작모듈(200)로 제공한다. 또한 [도 8]에 도시한 바와 같이 LED 콘텐츠 저작 아이콘(401) 또는 불러오기 아이콘(402)를 선택하는 과정은 해당하는 아이콘 위치에 커서를 이동시킨 후 모드 선택을 위해 미리 결정된 동작을 취하면 선택이 이루어지는 것으로 인지할 수 있다. 예를 들어 선택 동작은 주먹을 쥐는 동작이 될 수 있다. 모션검출 모듈(100)은 이처럼 손동작의 인식을 통해 명령어를 생성하면, 데이터 송신부(107)를 통해 이를 콘텐츠 저작모듈(200)로 제공한다.First, a specific instruction generation process in the motion detection module 100 will be described as an example. The motion detection module 100 detects the hand motion of the user. For example, when the user moves his / her hand to the left / right or up / down state with the palm facing down, a command for detecting the movement of the hand and moving the cursor is generated and provided to the content authoring module 200. 8, in the process of selecting the LED content authoring icon 401 or the retrieving icon 402, when the cursor is moved to the corresponding icon position and a predetermined operation is performed to select the mode, As shown in FIG. For example, a selection action can be a fist action. When the motion detection module 100 generates a command through the recognition of the hand gesture, the motion detection module 100 provides the command to the content authoring module 200 through the data transmission unit 107.

이하의 설명에서는 위에서와 같이 모션검출 모듈(100)에서 명령어 생성 과정에 대해서는 특별히 기능의 예시가 필요한 경우를 제외하고, 생성된 명령어를 제어부(203)에서 수신하는 경우로 설명하기로 한다.In the following description, the command generation process in the motion detection module 100 will be described as a case where the generated command is received by the control unit 203, except for a case where a function example is particularly required.

그러면 먼저 신규 콘텐츠 저작이 요구된 경우 즉, S302 단계에서 S304 단계로 진행하는 경우를 살펴보기로 한다.Hereinafter, the case where the new content is requested to be authored, that is, the process proceeds from step S302 to step S304 will be described.

제어부(203)는 S304 단계에서 신규 콘텐츠 저작 화면을 제공하며, 모션검출 모듈(100)로부터 손동작 인식을 통한 콘텐츠 저작 모드를 수행한다. 이를 첨부된 [도 9]와 [도 10]을 참조하여 살펴보기로 한다.
In step S304, the control unit 203 provides a new contents authoring screen, and performs a contents authoring mode from the motion detecting module 100 by recognizing a hand gesture. This will be described with reference to the accompanying FIG. 9 and FIG. 10.

[도 9]와 [도 10]은 본 발명에 따라 콘텐츠 저작모듈(200)에서 디지털 조명의 콘텐츠 제작을 위해 제공되는 화면의 일 예시도이다.FIG. 9 and FIG. 10 are views illustrating an example of a screen provided for the production of digital lighting contents in the content authoring module 200 according to the present invention.

[도 9]에는 콘텐츠 제작 전의 화면을 도시하였고, [도 10]은 콘텐츠가 제작된 화면을 도시하였다. 먼저 [도 9]의 콘텐츠 제작 전의 화면을 참조하면, 디스플레이 상에서 선택을 위한 아이콘으로서 효과적용 아이콘(501), 당해 저작된 콘텐츠의 저장을 요구하는 저장 아이콘(502), 당해 저작된 콘텐츠를 제거하는 리셋 아이콘(503)을 도시하였다. 또한, 콘텐츠 저작을 위한 색상을 제공하는 팔레트(색상표)(510)와 팔레트 상에서 선택된 색상으로 저작된 콘텐츠의 색상 변화를 표시하기 위한 콘텐츠 표시부(520)를 도시하였다.FIG. 9 shows a screen before content creation, and FIG. 10 shows a screen on which content is created. First, referring to the screen before content creation in FIG. 9, an icon 501 for effect selection as an icon for selection on the display, a storage icon 502 for requesting storage of the authored content, Reset icon 503 is shown. In addition, a palette (color table) 510 for providing colors for content authoring and a content display unit 520 for displaying color changes of contents authored with colors selected on the palette are shown.

콘텐츠 저작에서 참조부호 511과 같이 사용자가 팔레트의 오른쪽에서 왼쪽으로 선택하여 이동하는 경우 콘텐츠 표시부(520)에는 [도 10]의 콘텐츠가 저작된 화면과 같이 콘텐츠 표시부(520)에 색상이 채워진다.In the content authoring, when the user selects and moves from right to left of the palette as indicated by reference numeral 511, the content display unit 520 is filled with colors in the content display unit 520, as shown in FIG. 10.

그러면 콘텐츠가 저작되는 과정을 손동작 인식을 이용하는 경우를 예로하여 좀더 상세히 살펴본다. [도 9]의 콘텐츠 제작 전 화면에는 도면에는 도시하지 않았으나 사용자의 손 이동을 검출하여 함께 움직이는 커서 또는 마우스포인터가 도시된다. 그러면 사용자는 손을 이동함으로써 커서 또는 포인터를 팔레트(510)의 영역으로 이동시킨다. 이처럼 사용자의 손이 이동하면 모션검출 모듈(100)의 모션검출 센서(101)는 이동을 감지하고 이를 명령어 생성부(105)로 제공한다. 이에 따라 명령어 생성부(105)는 사용자의 손 이동 방향과 이동 정도에 대응하여 커서 또는 포인터를 이동시키기 위한 명령을 생성하고, 데이터 송신부(107)를 통해 콘텐츠 저작모듈(200)로 제공한다.Then, the process of authoring the content will be described in more detail using the case of using the handwriting recognition as an example. Although not shown in the drawing, a cursor or a mouse pointer for detecting movement of a user's hand and moving together is shown on the screen before content creation in [FIG. 9]. The user then moves the cursor or pointer to the area of the palette 510 by moving his / her hand. When the user's hand is moved as described above, the motion detection sensor 101 of the motion detection module 100 senses the movement and provides it to the command generation unit 105. Accordingly, the command generation unit 105 generates a command for moving the cursor or the pointer in accordance with the hand movement direction and the degree of movement of the user, and provides the command to the content authoring module 200 through the data transmission unit 107.

콘텐츠 저작모듈(200)의 제어부(203)는 유무선통신부(201)를 통해 커서 또는 포인터의 이동 명령어를 수신하면, 이를 커서 이동 경로에 대응하여 커서를 이동시키기 위한 데이터를 생성하고, 이를 화면출력부(207)를 통해 디스플레이에서 커서 또는 포인터를 이동시키도록 한다. 따라서 사용자는 자신이 디스플레이에 표시된 형태를 보면서 커서 또는 마우스의 이동이 가능하다.The control unit 203 of the content authoring module 200 generates data for moving the cursor corresponding to the cursor movement path when receiving a cursor or pointer movement instruction through the wire / wireless communication unit 201, To move the cursor or pointer on the display through the display 207. Therefore, the user can move the cursor or the mouse while viewing the form displayed on the display.

이처럼 사용자가 커서 또는 마우스를 팔레트(510) 영역으로 이동시킨 후 사용자가 원하는 색상에서 해당 색상을 선택할 수 있다. 이처럼 색상의 선택은 일 예로 주먹을 쥐는 동작을 통해 색상 선택이 되도록 구성할 수 있다. 이때, 참조부호 511과 같이 사용자가 주먹을 쥔 상태에서 좌에서 우로 이동하면, 연속하여 색상이 선택된다. 이처럼 팔레트(510) 상에서 선택된 색상은 [도 10]에 도시된 바와 같이 콘텐츠 표시부(520)에 표시된다.Thus, after the user moves the cursor or the mouse to the palette 510, the user can select the corresponding color in the desired color. Such a selection of colors can be configured to be color selection, for example, by gripping the fist. At this time, when the user moves from left to right in a state of holding the fist as indicated by reference numeral 511, the color is successively selected. The color selected on the palette 510 is displayed on the content display unit 520 as shown in FIG.

만일 사용자가 팔래트(510) 상에서 연속된 색상 변화를 원하지 않는 경우 사용자는 주먹을 펴는 동작 또는 커서 또는 포인터가 팔레트(510)의 영역을 벗어나도록 함으로써 현재까지 선택된 색상까지만 콘텐츠 표시부(520)에 표시되도록 할 수 있다. 이후 저작된 콘텐츠에 연속하여 추가적인 색상을 더 추가하려는 경우 즉, 콘텐츠에 색상시퀀스를 더 추가하려는 경우 사용자는 손을 이동시킴으로써 커서 또는 포인터를 팔레트(510) 영역으로 이동시킨 후 주먹을 쥠으로써 다시 선택이 이루어져 추가적인 색상을 선택하도록 할 수 있다.If the user does not want a continuous color change on the palette 510, the user can move the cursor or pointer out of the area of the palette 510, thereby displaying only up to the currently selected color on the content display unit 520 . If a user desires to add additional color in succession to the content that is subsequently authored, that is, to add more color sequences to the content, the user moves the cursor or pointer to the palette 510 area by moving his hand, Can be made to select additional colors.

여기서 시퀀스란 콘텐츠를 구성하는 색상들의 일련의 연속된 배열을 의미한다. 즉, 미리 결정된 시간 단위로 일련의 색상들이 연속하여 배열된 형태이며, 이러한 형태 또는 형태와 함께 적용된 효과가 하나의 콘텐츠를 구성하는 것이다. 본 발명에서는 시퀀스는 일련의 배열만을 의미한다. 콘텐츠는 이러한 배열과 효과의 총합을 의미한다. 따라서 효과가 적용되지 않은 경우 콘텐츠와 시퀀스는 동일할 수도 있다.Here, a sequence means a series of consecutive arrangements of colors constituting the content. That is, a series of colors are arranged in succession in a predetermined time unit, and the effect applied together with this form or form constitutes one content. In the present invention, a sequence means only a series of arrangements. Content means the sum of this arrangement and effect. Thus, if the effect is not applied, the content and sequence may be the same.

다시 [도 5]를 참조하면, S304 단계는 이상에서 설명한 바와 같이 사용자의 손동작 인식을 통해 콘텐츠를 저작하는 과정을 의미한다. 또한 이상에서는 손동작만으로 설명하였으나, 리모컨을 이용하는 경우에는 리모컨에 포함된 이동 센서의 정보를 이용하여 앞에서와 동일하게 커서 또는 포인터의 이동을 수행할 수 있으며, 선택 및 선택 해제의 경우 특정한 키의 누르거나 누르는 동작을 해제함으로써 보다 용이하게 선택이 이루어질 수도 있다.Referring again to FIG. 5, step S304 is a process of authoring content through recognition of a user's hand gesture as described above. However, in the case of using the remote controller, it is possible to carry out the movement of the cursor or the pointer by using the information of the movement sensor included in the remote controller, and in the case of selection and deselection, The selection may be made easier by releasing the pressing operation.

이후 제어부(203)는 S306 단계, S308 단계, S310 단계, S312 단계의 검사를 통해 저작된 콘텐츠에 효과를 적용할 것인지 또는 저작된 콘텐츠를 저장할 것인지 또는 저작된 콘텐츠를 리셋하여 제거할 것인지 또는 저작된 콘텐츠를 플레이하여 저작 상태를 확인할 것인지를 선택할 수 있다.Thereafter, the control unit 203 determines whether to apply the effect to the authored content or to save the authored content or to reset and remove the authored content through the examination of steps S306, S308, S310, and S312, You can choose whether to play the content and check the authoring status.

먼저 S308 단계의 검사결과와 같이 저작된 콘텐츠의 저장이 요구되는 경우 제어부(203)는 S316 단계로 진행하여 전술한 바와 같이 저작된 콘텐츠를 메모리(205)에 저장하고 S314 단계로 진행하여 저작된 콘텐츠를 플레이한다. 반면에 S310 단계의 검사결과와 같이 리셋이 요구되는 경우 제어부(203)는 [도 10]에 도시한 바와 같이 콘텐츠 표시부(520)에 선택된 색상 또는 색상과 함께 저장되어 있는 효과를 모두 삭제한다. 즉, 이 경우에는 그때까지 저작된 콘텐츠 전체를 삭제 처리하는 것이다.If it is determined in step S308 that the content to be authored is to be stored, the control unit 203 proceeds to step S316 to store the authored content in the memory 205 as described above. In step S314, . On the other hand, if a reset is required as in the result of the inspection in step S310, the control unit 203 deletes all the effects stored in the content display unit 520 together with the selected color or color, as shown in FIG. That is, in this case, the entire content authored until then is deleted.

다른 한편, S312 단계의 검사결과와 같이 당해 저작된 콘텐츠의 플레이가 요구되는 경우 제어부(203)는 디스플레이 표시 또는 디지털 조명(300)을 통해 콘텐츠를 재생하여 그 저작된 콘텐츠를 확인할 수 있도록 한다. 제어부(203)는 저작된 콘텐츠를 플레이한 후 S308 단계 또는 경우에 S344 단계로 진행할 수 있다. S308 단계로 진행하는 경우와 S344 단계로 진행하는 경우의 차이에 대하여는 S348 단계의 설명에서 더 살피기로 한다.On the other hand, when the play of the authored content is requested, such as the result of the inspection in step S312, the controller 203 plays the content through the display or the digital lighting 300 so that the author can check the authored content. After playing the authored content, the control unit 203 may proceed to step S308 or step S344. The difference between the case of proceeding to step S308 and the case of proceeding to step S344 will be further described in the description of step S348.

마지막으로 S306 단계와 같이 당해 저작된 콘텐츠에 효과 적용이 선택되는 경우 제어부(203)는 [도 7]의 S340 단계로 진행하여 디스플레이에 효과 적용 화면을 표시한다. 이러한 효과 적용 화면에 대해서는 첨부된 [도 11]을 참조하여 살펴보기로 한다.Finally, when application of the effect to the authored content is selected as in step S306, the control unit 203 proceeds to step S340 of FIG. 7 to display an effect applying screen on the display. Such an effect application screen will be described with reference to FIG. 11 attached hereto.

[도 11]은 본 발명에 따라 디지털 감성조명을 제어하기 위한 콘텐츠에 각종의 효과를 적용하려는 경우에 콘텐츠 저작모듈(200)에서 제공하는 디스플레이 화면의 일 예시도이다.11 is an example of a display screen provided by the content authoring module 200 when various effects are to be applied to contents for controlling the digital emotion lighting according to the present invention.

콘텐츠 저작모듈(200)의 디스플레이에는 콘텐츠 수정 아이콘(601), 저장 아이콘(602), 타임구간 선택 아이콘(603), 효과적용 아이콘(604)을 포함한다. 또한 미리 저작된 콘텐츠를 시간 구간으로 구분하여 색상의 변화를 도시하는 색상시퀀스 영역(610)을 가지며, 사용자가 동작을 통해 효과를 입력하기 위한 효과 입력 영역(620)을 포함한다. 제어부(203)는 S340 단계에서 [도 11]에 도시한 바와 같이 효과 적용 화면을 표시한 후 S342 단계로 진행하여 손동작 인식을 통해 효과를 적용하는 모드를 수행한다.The content authoring module 200 includes a content modification icon 601, a storage icon 602, a time interval selection icon 603, and an effect application icon 604 on the display of the content authoring module 200. And an effect input area 620 having a color sequence area 610 for indicating a change in color by dividing a pre-authored content into time periods and for inputting an effect through a user's operation. The control unit 203 displays the effect application screen as shown in FIG. 11 in step S340, and then proceeds to step S342 to perform a mode of applying the effect through hand motion recognition.

효과 적용 모드를 [도 11]을 참조하여 좀더 상세히 살펴본다.The effect applying mode will be described in more detail with reference to FIG.

먼저 사용자는 손을 이동하여 커서 또는 포인터로 타임구간 선택 아이콘(603)을 선택함으로써 미리 저작된 콘텐츠(610)에서 효과를 적용할 타임구간을 선택할 수 있도록 한다. 즉, 타임구간 선택 아이콘(603)을 선택하면, 시간과 함께 표시된 미리 저작된 콘텐츠 영역(610)에서 사용자가 원하는 구간을 선택할 수 있다. 따라서 사용자는 이후 손을 이동하여 커서 또는 포인터를 미리 저작된 콘텐츠 영역(610)으로 이동시킨 후 주먹을 쥠으로써 시작 지점을 선택하고, 그 선택된 시작 지점에서 주먹을 쥔 상태로 이동하여 미리 저작된 콘텐츠 중 효과를 적용할 타임 구간을 선택할 수 있다. 선택이 완료되면, 주먹을 펴는 동작을 통해 타임 구간 선택을 완료할 수 있다.First, the user moves his / her hand to select a time interval selection icon 603 with a cursor or a pointer, thereby allowing a user to select a time interval to apply the effect in the pre-authored content 610. That is, if the time interval selection icon 603 is selected, the user can select a desired section in the pre-authored content area 610 displayed together with the time. Accordingly, the user then moves his or her hand to move the cursor or pointer to the pre-authored content area 610, and then selects the starting point by pulling the fist, moves to the state holding the fist at the selected starting point, You can select the time interval to apply the middle effect. When the selection is completed, the selection of the time interval can be completed by expanding the fist.

그러면 미리 저작된 콘텐츠에서 일부 구간이 선택된 경우를 [도 12]를 참조하여 살펴보기로 한다.Hereinafter, a case where some sections are selected from pre-authored contents will be described with reference to FIG.

[도 12]는 본 발명에 따라 디지털 조명 제어를 위해 저작된 콘텐츠를 시간 구간 및 시간 구간에서 선택된 영역을 함께 예시한 도면이다.FIG. 12 is a diagram illustrating selected areas in a time interval and a time interval together with contents authored for digital lighting control according to the present invention.

이때 참조부호 700은 미리 저작된 콘텐츠를 나타낸다. 미리 저작된 콘텐츠(700)는 30초의 시간동안 구동되는 것을 예시하였으며, 1초 단위로 색상의 변화를 예시하였다. 즉, 참조부호 701은 초 단위의 시간 구간을 의미한다. 여기서 참조부호 710과 같이 시작지점부터 10초까지의 구간이 선택되었다고 가정하면 10초간의 구간이 효과 적용을 위한 선택 구간(710)이 된다.At this time, reference numeral 700 denotes pre-authored contents. The pre-authored content 700 is illustrated as being driven for a time of 30 seconds, and illustrates the change in color in 1 second increments. That is, reference numeral 701 denotes a time interval in seconds. Assuming that the interval from the start point to 10 seconds is selected as shown by reference numeral 710, the interval of 10 seconds becomes the selection interval 710 for applying the effect.

이처럼 효과 적용 선택 구간(710)이 선택되면 사용자는 커서 또는 포인터를 효과적용 아이콘(604)으로 이동하여 입력되는 효과를 적용하도록 한 후 다시 커서 또는 포인터를 효과 입력 영역(620)으로 이동시켜 효과를 입력할 수 있다. 효과를 입력하는 방법을 예를 들어 설명한다.When the effect applying selection period 710 is selected as described above, the user moves the cursor or the pointer to the effect applying icon 604 to apply the input effect, and then moves the cursor or pointer to the effect inputting area 620, Can be input. An example of how to enter an effect will be described.

먼저, 반짝임을 주고자 하는 경우 효과 입력 영역(620)에서 주먹을 쥠과 폄의 동작을 반복함으로써 반짝이는 횟수를 지정할 수 있다. 즉, 사용자가 주먹을 쥐었다 펴는 동작의 횟수만큼 반짝임을 주는 것이다. 이때, 1회만 주먹을 쥐었다 편 경우를 가정해 보자. 그러면 전체 구간에서 1회만 반짝이도록 할 수 있다. 예를 들어 전체 구간의 중앙인 5초 위치 또는 임의의 한 위치에서 한 번의 반짝임만을 줄 수 있다. 다른 방법으로, 1회의 반짝임은 매 초마다 1회의 반짝이도록 구성할 수도 있다. 이러한 반짝임 방법은 선택 사항이므로 어떠한 방법을 적용하여도 무방하다.First, in order to give a gleam, it is possible to designate the number of flashes by repeating the operation of punching and pumping in the effect input area 620. In other words, the user is grasping the number of times the fist is stretched and stretched. Let's assume that you hold your fist once only. Then you can make it flash only once in the whole section. For example, you can only give one flash at 5 seconds or anywhere in the middle of the whole section. Alternatively, one flash may be configured to flash once per second. These glittering methods are optional and any method may be applied.

다음으로, 디지털 조명을 점진적으로 밝게 즉, 조도를 높이는 경우와 디지털 조명을 점진적으로 어둡게 즉, 조도를 낮추는 경우를 가정할 수 있다. 디지털 조명을 점진적으로 밝게 하는 경우에는 손바닥을 편 상태로 왼쪽에서 오른쪽으로 움직인 뒤 주먹을 쥐도록 하거나 또는 주먹을 쥔 상태에서 위에서 아래로 움직이도록 한 후 손바닥을 펴도록 하는 방법을 이용할 수 있다. 조도를 낮추는 경우는 반대 방향으로 설정함으로써 가능할 수 있다.Next, it can be assumed that the digital illumination is gradually brightened, that is, the illumination is increased, and the digital illumination is gradually darkened, that is, the illumination is lowered. If you want to lighten the digital light progressively, you can use your hand to move from left to right, then hold your fist, or from top to bottom with your fist clenched, then straighten your palm. If the illuminance is lowered, it may be possible to set it in the opposite direction.

이처럼 조도를 높이거나 낮추는 경우 손의 움직임 정도에 따라 조도의 변화가 심하거나 또는 약하게 조정될 수도 있다. 가령 왼쪽에서 오른쪽으로 또는 위에서 아래로 이동 폭이 큰 경우 조도의 변화를 심하게 하고, 이동 폭이 작은 경우 조도의 변화를 약하게 할 수 있다. 즉, 효과 입력 영역을 여러 등분으로 구분하여 이동 정도만큼 조도의 변화량을 다르게 설정할 수 있다.If the illuminance is raised or lowered, the change of the illuminance may be severely or weakly adjusted depending on the degree of movement of the hand. For example, when the moving width from left to right or from top to bottom is large, the variation of the illuminance is increased, and when the moving width is small, the variation of the illuminance can be weakened. That is, it is possible to divide the effect input area into several equal parts and set the amount of variation of the illuminance differently according to the degree of movement.

효과 입력의 완료는 커서 또는 포인터가 효과 입력 영역을 벗어나도록 하여 효과 입력을 완료할 수 있다.Completion of the effect input can complete the effect input by leaving the cursor or pointer out of the effect input area.

다시 [도 7]을 참조하면, 이처럼 S342 단계에서 콘텐츠에 각종의 조명 효과를 적용한 후에 제어부(203)는 S344 단계, S346 단계, S348 단계에서 효과가 적용된 콘텐츠의 저장이 요구되는가 또는 리셋이 요구되는가 또는 플레이가 요구되는가를 검사한다.Referring again to FIG. 7, after applying various lighting effects to the content in step S342, the control unit 203 determines whether the storage of the contents to which the effect is applied is requested in step S344, step S346, or step S348, Or play is requested.

먼저 콘텐츠 저장이 요구되는 경우 제어부(203)는 S316 단계로 진행하여 효과가 적용된 콘텐츠를 저장한다. 또한 리셋이 요구되는 경우 제어부(203)는 S350 단계로 진행하여 신규 적용된 데이터만 삭제한다. 여기서 리셋 요구 시 S310 단계와 상이한 점은 이전에 저장된 데이터는 삭제하지 않고 신규 적용된 데이터만 삭제하는 것이다. 이는 미리 저장된 콘텐츠는 삭제하지 않고, 콘텐츠에서 변경된 부분만 제거하여 기존의 데이터는 보호할 수 있도록 한 것이다. 하지만, 필요에 따라서는 모든 데이터를 삭제하도록 구성할 수도 있다. 즉, S310 단계와 동일하게 삭제되도록 구성할 수도 있다.If the content storage is requested first, the controller 203 proceeds to step S316 and stores the content to which the effect is applied. If a reset is required, the control unit 203 proceeds to step S350 and deletes only newly applied data. The difference from the step S310 in the reset request is to delete only the newly applied data without deleting the previously stored data. This means that existing data can be protected by removing only the changed part of the content without deleting the previously stored content. However, it may be configured to delete all data as required. That is, it may be configured to be deleted in the same manner as in step S310.

한편, 콘텐츠에 대한 플레이가 요구되면 제어부(203)는 S314 단계로 진행하여 당해 저작된 콘텐츠를 플레이한다. 이후 콘텐츠 플레이가 종료되면 S308 단계 또는 S344 단계로 진행한다. 만일 S344 단계로 진행하도록 구성된 경우에는 당해 저작된 콘텐츠의 플레이 후 신규 적용이 존재하는지를 검사하고, 신규 적용이 존재하는 경우에만 S344 단계로 진행하고, 그렇지 않은 경우 308 단계로 진행하도록 구성할 수 있다.On the other hand, if the user requests to play the content, the control unit 203 proceeds to step S314 and plays the authored content. When the content play is finished, the flow advances to step S308 or step S344. If it is configured to proceed to step S344, it is checked whether there is a new application after playing the authored content. If the new application exists, the process proceeds to step S344. Otherwise, the process proceeds to step 308. [

한편, S302 단계의 검사결과 신규 콘텐츠 저작이 요구되지 않은 경우라면 제어부(203)는 [도 6]의 S320 단계로 진행하여 기존에 저작된 콘텐츠의 불러오기가 요구되었는가를 검사한다. S320 단계의 검사결과 불러오기가 요구된 경우에는 제어부(203)는 S322 단계로 진행하여 메모리(205)로부터 데이터를 읽어와 불러오기 화면을 디스플레이 표시한다. 콘텐츠 불러오기와 관련해서는 [도 13]과 [도 14]를 참조하여 살펴보기로 한다.
On the other hand, if it is determined in step S302 that the new content is not requested to be authored, the control unit 203 proceeds to step S320 of FIG. 6 to check whether the authoring of the previously authored content is requested. If it is determined in step S320 that retrieval is requested, the control unit 203 proceeds to step S322 to read data from the memory 205 and display the retrieval screen on the display screen. With reference to FIG. 13 and FIG. 14, contents retrieval will be described.

[도 13]과 [도 14]는 본 발명에 따라 디지털 감성조명을 제어하기 위해 미리 저작된 콘텐츠를 불러오는 경우의 일 예시도이다.13 and 14 are diagrams illustrating an example of loading pre-authored content to control the digital emotion lighting according to the present invention.

[도 13]에는 본 발명에 따라 저작된 콘텐츠들이 리스트(810)로 나열된 경우를 예시하였다. 이때, 리스트(810)의 각 라인에는 각 콘텐츠들이 표시되며, 각각의 콘텐츠들은 저작된 날짜와 시간, 저작된 콘텐츠의 일부 전부의 색상 미리보기 및 효과의 형태를 표시한 경우를 예시하고 있다.FIG. 13 illustrates a case where contents authored according to the present invention are listed in a list 810. At this time, the respective contents are displayed in each line of the list 810, and the respective contents illustrate a date and time of authoring, a color preview of a part of the authored contents, and a form of effect.

사용자는 이처럼 리스트 형식으로 표시된 콘텐츠들 중 하나의 콘텐츠를 선택할 수 있다. 즉, S324 단계에서 표시된 콘텐츠들 중 하나의 콘텐츠가 선택되면, S326 단계로 진행하여 선택된 콘텐츠 파일을 표시한다. 이때, 콘텐츠 파일은 [도 14]와 같은 형태로 표시할 수 있다.The user can select one of the contents displayed in the list format in this way. That is, if one of the contents displayed in step S324 is selected, the flow advances to step S326 to display the selected content file. At this time, the content file can be displayed in the form of [Fig. 14].

즉, 선택된 컨텐즈(811)와 함께 선택된 콘텐츠의 콘텐츠 수정 아이콘(821)과 효과 수정 아이콘(822)을 포함할 수 있다. 여기에 추가로 미리보기 아이콘(도면에 도시하지 않음)을 더 포함할 수도 있다.That is, it may include a content modification icon 821 and an effect modification icon 822 of the selected content together with the selected content 811. In addition, it may further include a preview icon (not shown in the drawing).

[도 14]와 같이 선택된 파일을 표시한 후 제어부(203)는 S328 단계 및 S332 단계에서 콘텐츠 수정 또는 효과 수정이 요구되는가를 검사한다. 만일 콘텐츠 수정이 요구된 경우 제어부(203)는 S330 단계로 진행하여 시퀀스 구간 선택 및 손동작 움직임에 의거하여 시퀀스를 수정한다. S330 단계의 콘텐츠 수정은 구간 선택의 경우 앞서 설명한 효과 설정의 경우와 동일한 방법으로 구간을 선택할 수 있으며, 시퀀스 설정은 최초 시퀀스 설정과 동일한 방법으로 선택된 구간에서 시퀀스를 선택할 수 있다. S330 단계의 콘텐츠 수정에 이어서 S332 단계로 진행하여 효과 수정 여부를 체크할 수 있다.After displaying the selected file as shown in FIG. 14, the control unit 203 checks whether a content modification or an effect modification is required in steps S328 and S332. If the content modification is requested, the control unit 203 proceeds to step S330 and corrects the sequence based on the sequence interval selection and the hand movement. The content modification in step S330 may be performed in the same manner as in the case of the effect setting described above, and the sequence may be selected in the selected section in the same manner as the initial sequence setting. Following the content modification in step S330, the process may proceed to step S332 to check whether the effect has been modified.

한편, 효과 수정이 요구된 경우 제어부(203)는 S334 단계로 진행하여 효과 수정을 위한 시퀀스 구간을 선택하고, 손동작 움직임에 의거하여 효과를 수정한다. 이때 효과 수정은 앞서 설명한 효과 입력과 동일한 방법으로 효과를 수정할 수 있다. 이처럼 S334 단계 또는 S330 단계를 수행한 후 제어부(203)는 S344 단계로 진행한다.
On the other hand, if the effect modification is requested, the controller 203 proceeds to step S334, selects a sequence section for effect modification, and corrects the effect based on the motion of the hand movement. In this case, the effect modification can be modified in the same way as the effect input described above. After step S334 or step S330, the controller 203 proceeds to step S344.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.
As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

11 : 사용자 움직임
12 : 움직임 검출 및 사용자 입력신호 전송 리모컨
20 : 유무선 네트워크
100 : 모션검출 모듈
200 : 콘텐츠 저작모듈
300 : 디지털 조명
101 : 모션검출 센서
103 : 리모컨 센서
105 : 명령어 생성부
107 : 데이터 송신부
201 : 유무선통신부
203 : 제어부
205 : 메모리
207 : 화면출력부
11: User movement
12: Motion detection and user input signal transmission Remote control
20: Wired and wireless network
100: Motion detection module
200: content authoring module
300: Digital lighting
101: Motion detection sensor
103: Remote control sensor
105:
107: Data transmission unit
201: Wired and wireless communication department
203:
205: Memory
207:

Claims (11)

동작 인식을 이용하여 감성조명 시스템의 디지털 감성조명 콘텐츠를 저작하는 방법으로서,
사용자의 동작을 감지하여 사용자의 동작에 대응하여 커서 또는 포인터를 이동시켜 화면상에 표시하는 단계;
사용자의 동작을 지속적으로 검출하는 단계;
사용자 동작의 검출 결과 상기 디지털 감성조명 콘텐츠 제작을 요구하는 경우에 상기 화면에 상기 디지털 감성조명 콘텐츠 저작을 위한 팔레트와 조작 메뉴를 표시하는 단계;
사용자 동작의 검출 결과 상기 팔레트 상의 일련의 색상을 선택하는 경우 상기 선택된 색상시퀀스들을 입력받아 상기 화면상의 컨텐츠 표시창에 표시하고, 상기 표시된 색상시퀀스들에 대응하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
사용자 동작의 검출 결과 생성된 콘텐츠의 저장이 요구될 시 상기 저작된 콘텐츠를 저장하는 단계;
를 포함하여 구성되는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
A method of authoring digital emotion lighting content of an emotional lighting system using motion recognition,
Displaying a cursor or a pointer on a screen in response to a user's operation by detecting the user's operation;
Continuously detecting the operation of the user;
Displaying a palette and an operation menu for authoring the digital emotion lighting contents on the screen when the user desires to produce the digital emotion lighting contents;
When a series of colors on the palette is selected as a result of detection of a user operation, the selected color sequences are received and displayed on a content display window on the screen, and a content for controlling the digital emotion lighting is generated corresponding to the displayed color sequences ;
Storing the authored content when storage of the generated content is requested as a result of detecting the user's operation;
A method for authoring a digital emotion lighting content of an emotional lighting system using motion recognition.
청구항 1에 있어서,
상기 사용자 동작을 검출하는 단계는,
손의 이동에 따라 커서 또는 포인터의 위치를 변경하는 단계;
주먹을 쥐고 폄에 따라 상기 커서 또는 상기 포인터가 위치한 영역을 선택하거나 선택을 해제하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
The method according to claim 1,
Wherein the detecting the user action comprises:
Changing the position of the cursor or the pointer according to the movement of the hand;
Selecting or deselecting an area in which the cursor or the pointer is located according to the grasping of the fist;
Wherein the digital emotion lighting contents are generated by the emotion lighting system using motion recognition.
청구항 2에 있어서,
상기 사용자 동작을 검출하는 단계는,
리모컨에서 사용자의 손 이동을 검출하여 손 이동 방향 및 이동 거리에 따라 커서 또는 포인터의 위치를 변경하는 단계;
리모컨의 선택 키 입력 여부에 따라 상기 커서 또는 상기 포인터가 위치한 영역의 선택하거나 선택을 해제하는 단계;
를 더 포함하여 구성되는 것을 특징으로 하는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
The method of claim 2,
Wherein the detecting the user action comprises:
Changing a position of a cursor or a pointer according to a hand moving direction and a moving distance by detecting movement of a user's hand on the remote controller;
Selecting or deselecting an area in which the cursor or the pointer is located according to whether a remote controller inputs a selection key;
The method of claim 1, further comprising the steps of:
청구항 1에 있어서,
사용자 동작의 검출 결과 상기 생성된 콘텐츠에 효과 적용이 요구될 시 사용자의 동작을 검출하여 효과를 적용할 시간구간을 선택하는 단계;
상기 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계;
상기 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
상기 저작된 컨텐츠의 플레이가 요구될 시 상기 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;
를 더 포함하여 구성되는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
The method according to claim 1,
Detecting an operation of a user when a result of the user action is required to apply an effect to the generated content, and selecting a time interval to apply the effect;
Setting a glare or a change in illuminance corresponding to a detection result of a user operation in the selected time period;
Generating a content for controlling the digital emotion lighting by applying a sparkle or a light intensity change effect to the color sequence;
Displaying contents authored on the screen when a request to play the authored content is requested;
The method of claim 1, further comprising the steps of:
청구항 4에 있어서,
사용자 동작의 검출 결과 미리 저장된 콘텐츠의 불러오기가 요구될 시 저장된 콘텐츠들을 읽어와 리스트 형식으로 콘텐츠들을 화면상에 표시하는 단계;
상기 표시된 콘텐츠들 중 하나가 선택될 시 선택된 콘텐츠의 세부 정보를 상기 화면상에 표시하는 단계;
를 더 포함하는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
The method of claim 4,
Reading contents stored when a pre-stored content is requested as a result of detection of a user operation, and displaying contents on a screen in a list format;
Displaying the detailed information of the selected content on the screen when one of the displayed contents is selected;
The method comprising the steps of: (a) inputting at least a portion of the sensed illumination light;
청구항 5에 있어서,
사용자 동작의 검출 결과 상기 저장된 콘텐츠 중 선택되어 화면상에 표시된 콘텐츠에 효과 적용 또는 수정이 요구될 시 사용자의 동작을 검출하여 효과를 적용 또는 수정할 시간구간을 선택하는 단계;
상기 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계;
상기 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
상기 새롭게 적용된 효과를 갖는 컨텐츠의 플레이가 요구될 시 상기 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;
를 더 포함하는 동작인식을 이용한 감성조명 시스템의 디지털 감성조명 콘텐츠 저작 방법.
The method of claim 5,
Detecting a user's action and selecting a time interval for applying or correcting an effect when a user's action is detected and the application or modification of the content selected on the screen is requested,
Setting a glare or a change in illuminance corresponding to a detection result of a user operation in the selected time period;
Generating a content for controlling the digital emotion lighting by applying a sparkle or a light intensity change effect to the color sequence;
Displaying contents authored on the screen when a play of the content having the newly applied effect is requested;
The method comprising the steps of: (a) inputting at least a portion of the sensed illumination light;
사용자의 동작을 감지하여 사용자의 동작에 대응하여 커서 또는 포인터를 이동시켜 화면상에 표시하는 단계;
사용자의 동작을 지속적으로 검출하는 단계;
사용자 동작의 검출 결과 상기 디지털 감성조명 콘텐츠 제작을 요구하는 경우에 상기 화면에 상기 디지털 감성조명 콘텐츠 저작을 위한 팔레트와 조작 메뉴를 표시하는 단계;
사용자 동작의 검출 결과 상기 팔레트 상의 일련의 색상을 선택하는 경우 상기 선택된 색상시퀀스들을 입력받아 상기 화면상의 컨텐츠 표시창에 표시하고, 상기 표시된 색상시퀀스들에 대응하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
사용자 동작의 검출 결과 생성된 콘텐츠의 저장이 요구될 시 상기 저작된 콘텐츠를 저장하는 단계;
를 수행하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
Displaying a cursor or a pointer on a screen in response to a user's operation by detecting the user's operation;
Continuously detecting the operation of the user;
Displaying a palette and an operation menu for authoring the digital emotion lighting contents on the screen when the user desires to produce the digital emotion lighting contents;
When a series of colors on the palette is selected as a result of detection of a user operation, the selected color sequences are received and displayed on a content display window on the screen, and a content for controlling the digital emotion lighting is generated corresponding to the displayed color sequences ;
Storing the authored content when storage of the generated content is requested as a result of detecting the user's operation;
The digital emotion lighting contents authoring program according to claim 1,
청구항 7에 있어서,
상기 디지털 감성조명 콘텐츠 저작 프로그램에서 사용자 동작의 검출은, 손의 이동에 따라 커서 또는 포인터의 위치를 변경하고, 주먹을 쥐고 폄에 따라 상기 커서 또는 상기 포인터가 위치한 영역을 선택하거나 선택을 해제하고, 리모컨에서 사용자의 손 이동을 검출하여 손 이동 방향 및 이동 거리에 따라 커서 또는 포인터의 위치를 변경하고, 리모컨의 선택 키 입력 여부에 따라 상기 커서 또는 상기 포인터가 위치한 영역의 선택하거나 선택을 해제하는 것을 특징으로 하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 7,
Detecting a user operation in the digital emotion lighting contents authoring program includes changing a position of a cursor or a pointer according to a movement of a hand, selecting or deselecting an area where the cursor or the pointer is located according to an operation of grasping the fist, It is possible to detect the movement of the user's hand on the remote controller and to change the position of the cursor or the pointer according to the movement direction and the movement distance of the remote controller and to release the selection of the cursor or the area in which the pointer is located, A digital emotion lighting contents authoring program, characterized in that it is a computer-readable recording medium on which a digital emotion lighting contents authoring program is recorded.
청구항 7에 있어서,
상기 디지털 감성조명 콘텐츠 저작 프로그램은,
사용자 동작의 검출 결과 상기 생성된 콘텐츠에 효과 적용이 요구될 시 사용자의 동작을 검출하여 효과를 적용할 시간구간을 선택하는 단계;
상기 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계;
상기 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
상기 저작된 컨텐츠의 플레이가 요구될 시 상기 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;
를 더 수행하는 것을 특징으로 하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 7,
The digital emotion lighting contents authoring program,
Detecting an operation of a user when a result of the user action is required to apply an effect to the generated content, and selecting a time interval to apply the effect;
Setting a glare or a change in illuminance corresponding to a detection result of a user operation in the selected time period;
Generating a content for controlling the digital emotion lighting by applying a sparkle or a light intensity change effect to the color sequence;
Displaying contents authored on the screen when a request to play the authored content is requested;
Wherein the digital emotion lighting contents authoring program further performs the digital emotion lighting contents authoring program.
청구항 9에 있어서,
상기 디지털 감성조명 콘텐츠 저작 프로그램은,
사용자 동작의 검출 결과 미리 저장된 콘텐츠의 불러오기가 요구될 시 저장된 콘텐츠들을 읽어와 리스트 형식으로 콘텐츠들을 화면상에 표시하는 단계;
상기 표시된 콘텐츠들 중 하나가 선택될 시 선택된 콘텐츠의 세부 정보를 상기 화면상에 표시하는 단계;
를 더 수행하는 것을 특징으로 하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 9,
The digital emotion lighting contents authoring program,
Reading contents stored when a pre-stored content is requested as a result of detection of a user operation, and displaying contents on a screen in a list format;
Displaying the detailed information of the selected content on the screen when one of the displayed contents is selected;
Wherein the digital emotion lighting contents authoring program further performs the digital emotion lighting contents authoring program.
청구항 10에 있어서,
상기 디지털 감성조명 콘텐츠 저작 프로그램은,
사용자 동작의 검출 결과 상기 저장된 콘텐츠 중 선택되어 화면상에 표시된 콘텐츠에 효과 적용 또는 수정이 요구될 시 사용자의 동작을 검출하여 효과를 적용 또는 수정할 시간구간을 선택하는 단계;
상기 선택된 시간구간에서 사용자 동작의 검출 결과에 대응하여 반짝임 또는 조도의 변화를 설정하는 단계;
상기 색상시퀀스에 반짝임 또는 조도 변화 효과를 적용하여 상기 디지털 감성조명을 제어하기 위한 콘텐츠를 생성하는 단계;
상기 새롭게 적용된 효과를 갖는 컨텐츠의 플레이가 요구될 시 상기 화면상에서 저작된 컨텐츠를 디스플레이하는 단계;
를 더 수행하는 것을 특징으로 하는 디지털 감성조명 콘텐츠 저작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 10,
The digital emotion lighting contents authoring program,
Detecting a user's action and selecting a time interval for applying or correcting an effect when a user's action is detected and the application or modification of the content selected on the screen is requested,
Setting a glare or a change in illuminance corresponding to a detection result of a user operation in the selected time period;
Generating a content for controlling the digital emotion lighting by applying a sparkle or a light intensity change effect to the color sequence;
Displaying contents authored on the screen when a play of the content having the newly applied effect is requested;
Wherein the digital emotion lighting contents authoring program further performs the digital emotion lighting contents authoring program.
KR1020120155588A 2012-12-27 2012-12-27 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same KR101531825B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120155588A KR101531825B1 (en) 2012-12-27 2012-12-27 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120155588A KR101531825B1 (en) 2012-12-27 2012-12-27 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same

Publications (2)

Publication Number Publication Date
KR20140085841A true KR20140085841A (en) 2014-07-08
KR101531825B1 KR101531825B1 (en) 2015-06-26

Family

ID=51735218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120155588A KR101531825B1 (en) 2012-12-27 2012-12-27 Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same

Country Status (1)

Country Link
KR (1) KR101531825B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170007624A (en) 2015-07-09 2017-01-19 국민대학교산학협력단 combination generating system for emotional-lighting color connected with playing sound source, method for the same, and computer-readable recording medium for the same
KR20200008227A (en) * 2018-07-16 2020-01-28 (주)젠트정보기술 System and method for controlling gesture based light dimming effect using natural user interface
KR20210048287A (en) * 2019-10-23 2021-05-03 주식회사 코더스 Method and server for creating lights by reflecting user emotion
KR20210048455A (en) * 2019-10-23 2021-05-03 주식회사 코더스 Method and server for creating lights by reflecting user emotion

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714781B1 (en) * 2009-11-17 2017-03-22 엘지전자 주식회사 Method for playing contents
KR101736177B1 (en) * 2010-09-13 2017-05-29 엘지전자 주식회사 Display apparatus and controlling method thereof
KR101258640B1 (en) * 2011-04-26 2013-04-26 서울과학기술대학교 산학협력단 Customized LED lighting system using image recognition technology

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170007624A (en) 2015-07-09 2017-01-19 국민대학교산학협력단 combination generating system for emotional-lighting color connected with playing sound source, method for the same, and computer-readable recording medium for the same
KR20200008227A (en) * 2018-07-16 2020-01-28 (주)젠트정보기술 System and method for controlling gesture based light dimming effect using natural user interface
KR20210048287A (en) * 2019-10-23 2021-05-03 주식회사 코더스 Method and server for creating lights by reflecting user emotion
KR20210048455A (en) * 2019-10-23 2021-05-03 주식회사 코더스 Method and server for creating lights by reflecting user emotion

Also Published As

Publication number Publication date
KR101531825B1 (en) 2015-06-26

Similar Documents

Publication Publication Date Title
KR101909030B1 (en) A Method of Editing Video and a Digital Device Thereof
US11074940B2 (en) Interface apparatus and recording apparatus
KR20220045977A (en) Devices, methods and graphical user interfaces for interacting with three-dimensional environments
KR102294134B1 (en) Authoring tools for synthesizing hybrid slide-canvas presentations
KR101542986B1 (en) System and control method for gestures recognition using holographic
CN102707939B (en) For the method and apparatus presenting the element of user interface
KR101531825B1 (en) Method for authoring digital emotional-lighting contents for emotional light system by motion recognizing, and computer readable record medium for the same
EP2642830A2 (en) Lighting controller including a user interface for controlling the attributes of lighting fixtures
US20230237726A1 (en) Software with motion recording feature to simplify animation
US11010141B2 (en) Graphical interface to generate instructions to control a representation by an output interface of one or more objects
JP2015510671A (en) Remote control of light source
EP2779651A1 (en) Configuring a system comprising a primary image display device and one or more remotely lamps controlled in accordance with the content of the image displayed
US9980346B2 (en) Lighting setting apparatus and lighting system
EP3378282B1 (en) Controller for controlling a light source and method thereof
CN108693967A (en) Transformation between virtual reality and real world
KR20140120748A (en) Programmable emotional lighting switch and operating method of emotional lighting switch
CN106681593A (en) Display control method and device for user interface UI control
CN106550277A (en) A kind of method and display device of loading barrage
KR20170039379A (en) Electronic device and method for controlling the electronic device thereof
US20130249811A1 (en) Controlling a device with visible light
KR101776674B1 (en) Apparatus for editing video and the operation method
KR20180027917A (en) Display apparatus and control method thereof
US20220374139A1 (en) Video editing application for mobile devices
CN110032317B (en) Wireless demonstration equipment and marking control method and device thereof
EP3721682B1 (en) A lighting control system for controlling a plurality of light sources based on a source image and a method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 4