KR20220032318A - Method for generating light control time series data and Apparatus thereof - Google Patents

Method for generating light control time series data and Apparatus thereof Download PDF

Info

Publication number
KR20220032318A
KR20220032318A KR1020200113954A KR20200113954A KR20220032318A KR 20220032318 A KR20220032318 A KR 20220032318A KR 1020200113954 A KR1020200113954 A KR 1020200113954A KR 20200113954 A KR20200113954 A KR 20200113954A KR 20220032318 A KR20220032318 A KR 20220032318A
Authority
KR
South Korea
Prior art keywords
data
lighting control
control time
similarity
series data
Prior art date
Application number
KR1020200113954A
Other languages
Korean (ko)
Other versions
KR102476567B1 (en
Inventor
김철수
최인욱
박진하
김동일
Original Assignee
주식회사 하이브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이브 filed Critical 주식회사 하이브
Priority to KR1020200113954A priority Critical patent/KR102476567B1/en
Publication of KR20220032318A publication Critical patent/KR20220032318A/en
Application granted granted Critical
Publication of KR102476567B1 publication Critical patent/KR102476567B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/22Optical, colour, or shadow toys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

The present invention provides a method for generating lighting control time series data and a device thereof. The method for generating lighting control time series data comprises the steps of: receiving first lighting control time series data having first streaming data, second streaming data and color data of a light stick, which changes as synchronized with the first streaming data, recorded therein, from a streaming server; extracting a similar part of the first streaming data and the second streaming data; generating pre-lighting control serial data by duplicating a part of the first lighting control time series data corresponding to the similar part of the first streaming data on the similar part of the second streaming data, wherein the pre-lighting control time series data include an unfinished part and a finished part, where part of the first lighting control time series data have been duplicated; and finishing the pre-lighting control time series data into second lighting control time series data by filling the unfinished part. Therefore, provided is a method for generating lighting control time series data, wherein new lighting control time series data are generated easily using pre-manufactured lighting control time series data.

Description

조명 제어 시계열 데이터 생성 방법 및 그 장치{Method for generating light control time series data and Apparatus thereof} Method for generating light control time series data and Apparatus thereof

본 발명은 조명 제어 시계열 데이터 생성 방법 및 장치에 관한 것이다. 구체적으로, 본 발명은 기존에 존재하는 조명 제어 시계열 데이터를 이용하여 새로운 조명 제어 시계열 데이터를 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating lighting control time series data. Specifically, the present invention relates to a method and apparatus for generating new lighting control time series data using existing lighting control time series data.

응원봉의 발광부를 포함하고 있어, 다양한 컬러의 빛을 발산하거나, 빛을 점멸시켜 시간에 따라 변화되는 빛 표현을 나타낼 수 있는 장치이다. 이러한 응원봉은 특정 가수들의 전용으로 제작되어 가수들의 공연에 조화로운 객석의 컬러 패턴을 표현하는 방식으로 사용되어 왔다. 응원봉의 색온도와 점멸 패턴이 공연의 음악에 동기화되어 조화롭게 변화하는 것으로서 가수와 관객의 공통된 문화 경험을 이끌어 낼 수 있었다.It includes the light emitting part of the light stick, so it is a device that can emit light of various colors or display the light expression that changes with time by flashing the light. These light sticks were produced exclusively for specific singers and have been used as a way to express the color pattern of the audience harmonious to the singers' performances. As the color temperature and blinking pattern of the light stick change harmoniously in synchronization with the music of the performance, it was possible to bring out a common cultural experience of the singer and the audience.

최근의 가수들의 오프라인 공연에서 사용되는 응원봉은 근거리 무선 통신을 통해서 사용된다. 구체적으로, 응원봉의 사용자가 공연에 참석하여 본인이 착석하는 좌석 번호를 입력하면 좌석의 위치에 따라 응원봉의 컬러 변화를 하나의 제어 데스크에서 일괄적으로 조절하여, 참석자의 응원봉들은 공연 객석에서 다양한 컬러 패턴을 형성할 수 있다. 이를 통해서, 공연의 참석자들이 객석에서 공연과 어우러지는 다채로운 경험을 할 수 있었다.The light stick used in the recent offline performances of singers is used through short-range wireless communication. Specifically, when the user of the light stick participates in the performance and inputs the seat number where he or she sits, the color change of the light stick is collectively controlled at one control desk according to the position of the seat, so that the light sticks of the attendees can be displayed in various ways in the performance audience. A color pattern can be formed. Through this, the participants of the performance were able to experience a variety of harmonious experiences in the audience.

그러나, 이러한 응원봉의 오프라인 사용은 공연에 참석한 제한된 상황에서만 이루어질 수 있어, 응원봉의 활용도를 높이는 방안에 대한 시도가 있어왔다. 특히, 응원봉의 활용을 오프라인뿐만 아니라 온라인으로 확대하고자 하는 시도가 그 중 하나이다.However, the offline use of such a light stick can be made only in a limited situation attending a performance, so there have been attempts to increase the utility of the light stick. In particular, one of them is an attempt to expand the use of light sticks online as well as offline.

이때, 응원봉의 제어를 위해서는 동영상과 동기화된 조명 제어 시계열 데이터가 필요하고, 이러한 조명 제어 시계열 데이터의 제작은 동영상의 타임 라인을 따라 일일이 수작업으로 진행될 수 있다. 이에 따라서, 조명 제어 시계열 데이터의 생성은 많은 시간과 노력이 필요하고, 많은 동영상에 조명 제어 시계열 데이터를 제작하는 것이 어려울 수 있다. 따라서, 조명 제어 시계열 데이터의 제작이 빠르고 효율적으로 이루어질 수 있다면 훨씬 자유롭게 사용자들이 응원봉을 동영상과 연동하여 제어할 수 있다.At this time, in order to control the light stick, lighting control time series data synchronized with the moving picture is required, and the production of such light control time series data can be performed manually one by one along the time line of the moving picture. Accordingly, the generation of the light control time series data requires a lot of time and effort, and it may be difficult to produce the light control time series data for many moving pictures. Therefore, if the production of the lighting control time series data can be done quickly and efficiently, users can control the light stick in conjunction with the moving picture much more freely.

본 발명의 과제는, 미리 제작된 조명 제어 시계열 데이터를 이용하여 손쉽게 새로운 조명 제어 시계열 데이터를 생성하는 조명 제어 시계열 데이터 생성 방법 을 제공하는 것이다.An object of the present invention is to provide a lighting control time series data generation method for easily generating new lighting control time series data using pre-fabricated lighting control time series data.

또한, 본 발명의 다른 과제는, 미리 제작된 조명 제어 시계열 데이터를 이용하여 손쉽게 새로운 조명 제어 시계열 데이터를 생성하는 조명 제어 시계열 데이터 생성 장치를 제공하는 것이다.In addition, another object of the present invention is to provide a lighting control time series data generating apparatus for easily generating new lighting control time series data using pre-fabricated light control time series data.

또한, 본 발명의 또 다른 과제는, 컴퓨팅 장치와 결합하여 스트리밍 데이터 내부에 응원봉의 제어를 위한 데이터를 임베딩하여 전송 효율을 높이는 응원봉 제어를 위한 데이터 전송 방법을 실행시키는 컴퓨터 프로그램을 제공하는 것이다.In addition, another object of the present invention is to provide a computer program for executing a data transmission method for controlling a light rod to increase transmission efficiency by embedding data for control of a light rod in streaming data in combination with a computing device.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 방법은 스트리밍 서버로부터 제1 스트리밍 데이터, 제2 스트리밍 데이터 및 상기 제1 스트리밍 데이터와 동기화되어 변화하는 응원봉의 컬러 데이터가 기록된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 스트리밍 데이터 및 상기 제2 스트리밍 데이터의 유사 부분을 추출하고, 상기 제1 스트리밍 데이터의 유사 부분에 대응하는 제1 조명 제어 시계열 데이터의 부분을 상기 제2 스트리밍 데이터의 유사 부분에 대응한 영역에 복제한 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 미완성 부분과 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분을 포함하고, 상기 미완성 부분을 채워서 상기 프리 조명 제어 시계열 데이터를 제2 조명 제어 시계열 데이터로 완성하는 것을 포함한다.Lighting control time series data generation method according to some embodiments of the present invention for solving the above problems, the first streaming data from the streaming server, the second streaming data and the color data of the light stick changing in synchronization with the first streaming data is recorded Receive the first lighting control time-series data, extract a similar portion of the first streaming data and the second streaming data, and a portion of the first lighting control time-series data corresponding to the similar portion of the first streaming data Creates a duplicated pre-lighting control time-series data in an area corresponding to a similar part of the second streaming data, wherein the pre-lighting control time-series data includes an incomplete part and a completed part in which a part of the first lighting control time-series data is duplicated, , Completing the pre-lighting control time-series data into the second lighting-control time-series data by filling the incomplete part.

또한, 상기 제2 스트리밍 데이터로 동영상을 재생하면서 상기 동영상의 재생 시간을 획득하고, 상기 재생 시간에 대응하는 상기 제2 조명 제어 시계열 데이터의 컬러 데이터를 제어 데이터로 변환하고, 상기 제어 데이터를 상기 응원봉으로 전소하는 것을 더 포함할 수 있다.In addition, obtaining the playback time of the video while playing the video with the second streaming data, converting the color data of the second lighting control time series data corresponding to the reproduction time into control data, and supporting the control data It may further include burning with a rod.

또한, 상기 유사 부분을 추출하는 것은, 제1 스트리밍 데이터를 제1 이미지 데이터 및 제1 사운드 데이터로 분리하고, 제2 스트리밍 데이터를 제1 이미지 데이터 및 제2 사운드 데이터로 분리하고, 상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하고, 상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것을 포함할 수 있다.In addition, the extracting of the similar part includes separating first streaming data into first image data and first sound data, separating second streaming data into first image data and second sound data, and the first sound extracting first pitch data and first magnitude data from the data, extracting second pitch data and second magnitude data from the second sound data, and extracting a similar portion between the first pitch data and the second pitch data This may include extraction.

또한, 상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것은, 상기 제1 및 제2 피치 데이터 사이의 피치 유사도를 판단하고, 상기 제1 및 제2 크기 데이터 사이의 크기 유사도를 판단하고, 상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 상기 유사 부분을 추출하는 것을 포함할 수 있다.In addition, extracting the similarity portion between the first pitch data and the second pitch data determines the pitch similarity between the first and second pitch data, and the magnitude similarity between the first and second pitch data. and extracting the similar part by determining the final similarity in consideration of the pitch similarity and the size similarity.

또한, 상기 최종 유사도를 판단하는 것은, 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 판단하고, 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 상기 최종 유사도를 판단하는 것을 포함할 수 있다.Also, determining the final similarity may include determining the image similarity of the first and second image data, and determining the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity. .

또한, 상기 유사 부분을 추출하는 것은 인공지능을 통해서 추출하는 것을 포함할 수 있다.Also, extracting the similar part may include extracting through artificial intelligence.

상기 다른 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는 제1 및 제2 스트리밍 데이터를 수신하고, 상기 제1 스트리밍 데이터를 제1 이미지 데이터와 제1 사운드 데이터로 분리하고, 상기 제2 스트리밍 데이터를 제2 이미지 데이터와 제2 사운드 데이터로 분리하는 이미지 및 사운드 데이터 분리부, 상기 제1 스트리밍 데이터와 동기화된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 및 제2 사운드 데이터의 유사 부분을 추출하고, 상기 유사 부분과 상기 제1 조명 제어 시계열 데이터를 기반으로 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분과 미완성 부분을 포함하는 유사 특징 추출부 및 상기 프리 조명 제어 시계열 데이터의 미완성 부분을 채워 제2 조명 제어 시계열 데이터 완성부를 포함한다.Lighting control time series data generating apparatus according to some embodiments of the present invention for solving the other problem receives the first and second streaming data, and separates the first streaming data into first image data and first sound data and an image and sound data separation unit for separating the second streaming data into a second image data and a second sound data, receiving the first lighting control time series data synchronized with the first streaming data, and the first and the first 2 Extract a similar part of the sound data, and generate pre-lighting control time-series data based on the similar part and the first lighting control time-series data, wherein the pre-lighting control time-series data is a part of the first lighting control time-series data A second lighting control time series data completion unit by filling in the incomplete part of the pre-lighting control time-series data and a similar feature extraction unit including the duplicated completed part and the incomplete part.

또한, 상기 유사 특징 추출부는, 상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하는 데이터 전처리부와, 상기 제1 및 제2 피치 데이터 사이의 유사 부분을 검출하는 유사 부분 검출부와, 상기 제1 조명 제어 시계열 데이터와 상기 유사 부분을 통해서 상기 프리 조명 제어 시계열 데이터의 완성 부분을 복제하는 조명 제어 시계열 데이터 형성부를 포함할 수 있다.In addition, the similar feature extracting unit includes a data preprocessing unit for extracting first pitch data and first size data from the first sound data, and extracting second pitch data and second size data from the second sound data; A similar part detection unit for detecting a similar part between the first and second pitch data, and lighting control time series data forming that duplicates the completion part of the pre-lighting control time series data through the first lighting control time series data and the similar part may include wealth.

또한, 상기 유사 부분 검출부는, 상기 제1 및 제2 피치 데이터의 피치 유사도를 평가하는 피치 유사도 평가부와, 상기 제1 및 제2 크기 데이터의 크기 유사도를 평가하는 크기 유사도 평가부와, 상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 최종 유사도 판단부를 포함할 수 있다.The similarity detection unit may include a pitch similarity evaluation unit evaluating the pitch similarity of the first and second pitch data, a size similarity evaluation unit evaluating the size similarity of the first and second size data, and the pitch and a final similarity determining unit for extracting a similar part by determining a final similarity in consideration of the similarity and the size similarity.

또한, 상기 유사 부분 검출부는 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 평가하는 이미지 유사도 평가부를 더 포함하고, 상기 최종 유사도 판단부는 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출할 수 있다.In addition, the similarity detection unit further includes an image similarity evaluation unit for evaluating the image similarity of the first and second image data, and the final similarity determining unit considering the pitch similarity, the size similarity, and the image similarity to the final similarity can be determined to extract a similar part.

또한, 상기 제1 및 제2 조명 제어 시계열 데이터를 각각 제1 및 제2 제어 데이터로 변환하여 응원봉으로 전송하는 제어 데이터 변환부를 더 포함할 수 있다.In addition, it may further include a control data conversion unit for converting the first and second lighting control time-series data into first and second control data, respectively, and transmitting it to the light stick.

본 발명의 조명 제어 시계열 데이터 생성 방법 및 그 장치는, 유사한 스트리밍 데이터 사이에서 완성된 조명 제어 시계열 데이터를 이용하여 새로운 조명 제어 시계열 데이터를 빠르게 생성할 수 있다.The lighting control time-series data generation method and apparatus of the present invention can quickly generate new lighting control time-series data using the completed lighting control time-series data between similar streaming data.

또한, 응원봉의 사용자가 모바일 단말기를 통해서 직접 별다른 노력 없이 자동으로 조명 제어 시계열 데이터를 생성할 수 있다.In addition, the user of the light stick can automatically generate the lighting control time series data directly through the mobile terminal without much effort.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치가 구현된 응원봉 컬러 제어 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 모바일 단말기의 구조를 세부적으로 설명하기 위한 블록도이다.
도 3은 도 1의 응원봉의 구조를 세부적으로 설명하기 위한 블록도이다.
도 4는 도 1의 제1 스트리밍 데이터와 제2 스트리밍 데이터의 구조를 설명하기 위한 블록도이다.
도 5는 도 1의 모바일 단말기의 구조를 이용하여 조명 제어 시계열 데이터를 완성하고 제어 데이터를 도출하는 과정을 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 유사 특징 추출부를 세부적으로 설명하기 위한 블록도이다.
도 7은 제1 및 제2 사운드 데이터에서 피치 데이터 및 크기 데이터를 추출하는 것을 설명하기 위한 블록도이다.
도 8은 제1 및 제2 스트리밍 데이터에서 유사 부분을 추출하는 방법을 설명하기 위한 도면이다.
도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.
도 10은 도 5의 조명 제어 시계열 데이터 완성부의 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명하기 위한 블록도이다.
도 12는 도 11의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.
도 13은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 순서도이다.
도 14는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 블록도이다.
도 15 내지 도 19는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 중간 단계 도면들이다.
도 20은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 복수 주체 순서도이다.
1 is a conceptual diagram illustrating a light rod color control system in which an apparatus for generating light control time series data according to some embodiments of the present invention is implemented.
FIG. 2 is a block diagram for explaining in detail the structure of the mobile terminal of FIG. 1 .
FIG. 3 is a block diagram for explaining in detail the structure of the light rod of FIG. 1 .
4 is a block diagram for explaining the structures of the first streaming data and the second streaming data of FIG. 1 .
5 is a block diagram for describing in detail a process of completing lighting control time series data and deriving control data using the structure of the mobile terminal of FIG. 1 .
6 is a block diagram illustrating in detail the similar feature extracting unit of FIG. 5 .
7 is a block diagram for explaining extraction of pitch data and size data from first and second sound data.
8 is a diagram for explaining a method of extracting a similar portion from first and second streaming data.
9 is a block diagram illustrating in detail the similarity detection unit of FIG. 6 .
FIG. 10 is a view for explaining the operation of the lighting control time series data completion unit of FIG. 5 .
11 is a block diagram illustrating an apparatus for generating light control time series data according to some embodiments of the present invention.
FIG. 12 is a block diagram for explaining in detail the similarity detection unit of FIG. 11 .
13 is a flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.
14 is a block diagram for explaining in detail the control data generation step of FIG. 13 .
15 to 19 are intermediate step diagrams for explaining in detail the control data generation step of FIG. 13 .
20 is a multi-subject flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

이하, 도 1 내지 도 10을 참조하여, 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 설명한다.Hereinafter, a data transmission method for controlling a light stick according to some embodiments of the present invention will be described with reference to FIGS. 1 to 10 .

도 1은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치가 구현된 응원봉 컬러 제어 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a lightstick color control system in which an apparatus for generating light control time series data according to some embodiments of the present invention is implemented.

도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법이 구현된 응원봉 컬러 제어 시스템은 스트리밍 서버(100), 모바일 단말기(200) 및 응원봉(300)을 포함한다.Referring to FIG. 1 , the lightstick color control system in which the data transmission method for controlling the lightstick according to some embodiments of the present invention is implemented is a streaming server 100 , a mobile terminal 200 and a lightstick 300 . include

스트리밍 서버(100)는 모바일 단말기(200)로 제1 스트리밍 데이터(Dv1), 제2 스트리밍 데이터(Dv2) 및 제1 조명 제어 시계열 데이터(Dn1)를 제공할 수 있다. 스트리밍 서버(100)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.Streaming server 100 may provide the first streaming data (Dv1), the second streaming data (Dv2) and the first lighting control time series data (Dn1) to the mobile terminal 200 (Dn1). The streaming server 100 includes a workstation, a data center, an internet data center (IDC), a direct attached storage (DAS) system, a storage area network (SAN) system, and a network attached storage (NAS) system. and RAID (redundant array of inexpensive disks, or redundant array of independent disks) systems, but the present embodiment is not limited thereto.

스트리밍 서버(100)는 모바일 단말기(200)로 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The streaming server 100 may transmit data to the mobile terminal 200 through a network. The network may include a network based on a wired Internet technology, a wireless Internet technology, and a short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.

네트워크를 통해서 통신하는 스트리밍 서버(100) 및 모바일 단말기(200)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The streaming server 100 and the mobile terminal 200 communicating through the network may comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include However, the present embodiment is not limited thereto.

스트리밍 서버(100)는 모바일 단말기(200)로 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 전송할 수 있다. 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)는 모바일 단말기(200)에서 각각 제1 동영상 및 제2 동영상을 재생할 수 있도록 구현된 데이터일 수 있다. 구체적으로, 제1 스트리밍 데이터(Dv1)는 모바일 단말기(200)가 스트리밍을 통해서 제1 동영상을 재생할 수 있도록 구현된 데이터이고, 제2 스트리밍 데이터(Dv2)는 모바일 단말기(200)가 스트리밍을 통해서 제2 동영상을 재생할 수 있도록 구현된 데이터일 수 있다.The streaming server 100 may transmit the first streaming data Dv1 and the second streaming data Dv2 to the mobile terminal 200 . The first streaming data Dv1 and the second streaming data Dv2 may be data implemented to reproduce the first video and the second video in the mobile terminal 200 , respectively. Specifically, the first streaming data (Dv1) is data implemented so that the mobile terminal 200 can play a first video through streaming, and the second streaming data (Dv2) is data obtained by the mobile terminal 200 through streaming. 2 It may be data implemented to play a video.

모바일 단말기(200)는 수신한 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 이용하여 모바일 단말기(200)에서 동영상을 재생할 수 있다. 또한, 모바일 단말기(200)는 수신한 제1 조명 제어 시계열 데이터(Dn1)로부터 제1 제어 데이터(Dc1)를 생성할 수 있다. 또한, 모바일 단말기(200)는 제2 조명 제어 시계열 데이터(Dn2)를 생성하고, 그로부터 제2 제어 데이터(Dc2)를 생성할 수 있다.The mobile terminal 200 may play a video in the mobile terminal 200 using the received first streaming data Dv1 and second streaming data Dv2. In addition, the mobile terminal 200 may generate the first control data (Dc1) from the received first lighting control time series data (Dn1). In addition, the mobile terminal 200 may generate the second lighting control time series data (Dn2), and generate the second control data (Dc2) therefrom.

제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터에 각각 대응하는 데이터일 수 있다. 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)는 응원봉(300)의 컬러를 변화시키기 위해서 직접적으로 사용되는 데이터일 수 있다. 모바일 단말기(200)는 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 응원봉(300)으로 전송하여 응원봉(300)이 발산하는 컬러를 변화시킬 수 있다. 이때, 모바일 단말기(200)는 제1 동영상 및 제2 동영상의 재생 시간에 따라서 각각 대응하는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 변환하여 실시간으로 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 전송할 수 있다.The first control data Dc1 and the second control data Dc2 may be data corresponding to the color data of the first lighting control time series data Dn1 and the second lighting control time series data Dn2, respectively. The first control data Dc1 and the second control data Dc2 may be data directly used to change the color of the light stick 300 . The mobile terminal 200 may transmit the first control data Dc1 and the second control data Dc2 to the light rod 300 to change the color emitted by the light rod 300 . At this time, the mobile terminal 200 converts the color data of the first light control time series data (Dn1) and the second light control time series data (Dn2) corresponding to each of the playback times of the first video and the second video in real time The first control data Dc1 and the second control data Dc2 may be transmitted.

제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)와 대응하는 데이터일 수 있다. 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)와 동기화된 데이터일 수 있다. 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)에 의해서 재생되는 제1 동영상 및 제2 동영상의 재생 시간에 따라서 변화하는 응원봉(300)의 컬러 데이터를 포함할 수 있다. The first lighting control time-series data (Dn1) and the second lighting control time-series data (Dn2) may be data corresponding to the first streaming data (Dv1) and the second streaming data (Dv2), respectively. The first lighting control time series data (Dn1) and the second lighting control time series data (Dn2) may be data synchronized with the first streaming data (Dv1) and the second streaming data (Dv2), respectively. The first lighting control time-series data (Dn1) and the second lighting control time-series data (Dn2) are the first streaming data (Dv1) and the second streaming data (Dv2), respectively, the playback time of the first video and the second video reproduced by It may include the color data of the light stick 300 that changes according to the.

이를 통해서, 모바일 단말기(200)가 제1 스트리밍 데이터(Dv1) 또는 제2 스트리밍 데이터(Dv2)에 따라 제1 동영상 또는 제2 동영상을 재생함과 동시에 응원봉(300)이 발산하는 컬러가 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)에 대응하여 변화할 수 있다. 이때, 상술한 “컬러 데이터”는 단순히 빛의 컬러 외에 빛의 점멸에 대한 데이터도 포함하는 개념일 수 있다.Through this, while the mobile terminal 200 plays the first video or the second video according to the first streaming data Dv1 or the second streaming data Dv2, the color emitted by the light stick 300 is the first It may change in response to the lighting control time-series data (Dn1) and the second lighting control time-series data (Dn2). In this case, the above-described “color data” may be a concept that includes data about the blinking of light in addition to the simple color of light.

결론적으로, 제1 제어 데이터(Dc1)는 제1 조명 제어 시계열 데이터(Dn1) 및 제1 스트리밍 데이터(Dv1)와 동기화되고, 제2 제어 데이터(Dc2)는 제2 조명 제어 시계열 데이터(Dn2) 및 제2 스트리밍 데이터(Dv2)와 동기화될 수 있다.In conclusion, the first control data (Dc1) is synchronized with the first lighting control time series data (Dn1) and the first streaming data (Dv1), the second control data (Dc2) is the second lighting control time series data (Dn2) and It may be synchronized with the second streaming data Dv2.

모바일 단말기(200)는 내부에 설치되어 있는 프로그램 또는 어플리케이션에 의해서 구동될 수 있다. 모바일 단말기(200)는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2) 내에 위치한 컬러 데이터를 미리 저장된 라이브러리를 통해서 바이트(byte) 배열로 구성된 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)로 각각 변환할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The mobile terminal 200 may be driven by a program or application installed therein. The mobile terminal 200 is a first control data (Dc1) and a first control data (Dc1) composed of a byte (byte) array through the library stored in advance the color data located in the first lighting control time series data (Dn1) and the second lighting control time series data (Dn2) and Each of the second control data Dc2 may be converted. However, the present embodiment is not limited thereto.

응원봉(300)은 모바일 단말기(200)와 근거리 통신 기술로 연결될 수 있다. 근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 이하, 편의상 응원봉(300)은 모바일 단말기(200)와 블루투스를 통해서 페어링되는 것으로 설명한다.The light stick 300 may be connected to the mobile terminal 200 through short-range communication technology. Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto. Hereinafter, for convenience, the light stick 300 will be described as being paired with the mobile terminal 200 through Bluetooth.

응원봉(300)은 다양한 컬러의 빛을 발산할 수 있다. 응원봉(300)은 또한, 빛의 점멸 신호를 표시할 수 있다. 응원봉(300)은 모바일 단말기(200)로부터 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 각각 실시간으로 수신할 수 있다. 응원봉(300)은 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 통해서 발산하는 빛의 컬러와 점멸을 제어할 수 있다.The light stick 300 may emit light of various colors. The light stick 300 may also display a flashing signal of light. The light stick 300 may receive the first control data Dc1 and the second control data Dc2 from the mobile terminal 200 in real time, respectively. The light stick 300 may control the color and blinking of emitted light through the first control data Dc1 and the second control data Dc2 .

도 2는 도 1의 모바일 단말기의 구조를 세부적으로 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining in detail the structure of the mobile terminal of FIG. 1 .

도 2를 참조하면, 본 발명의 실시예에 따른 모바일 단말기(200)은 컨트롤러(210), 입출력 장치(220, I/O), 메모리 장치(230, memory device), 인터페이스(240) 및 버스(250, bus)를 포함할 수 있다. 컨트롤러(210), 입출력 장치(220), 메모리 장치(230) 및/또는 인터페이스(240)는 버스(250)를 통하여 서로 결합될 수 있다. 버스(250)는 데이터들이 이동되는 통로(path)에 해당한다.2 , the mobile terminal 200 according to an embodiment of the present invention includes a controller 210, an input/output device 220, I/O, a memory device 230, a memory device, an interface 240, and a bus ( 250, bus). The controller 210 , the input/output device 220 , the memory device 230 , and/or the interface 240 may be coupled to each other through the bus 250 . The bus 250 corresponds to a path through which data is moved.

컨트롤러(210)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다. The controller 210 includes a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), a graphic processing unit (GPU), a microprocessor, a digital signal processor, a microcontroller, an application processor (AP). ) and logic elements capable of performing a function similar thereto.

입출력 장치(220)는 키패드(keypad), 키보드, 터치스크린 및 디스플레이 장치 중 적어도 하나를 포함할 수 있다. 메모리 장치(230)는 데이터 및/또는 프로그램 등을 저장할 수 있다.The input/output device 220 may include at least one of a keypad, a keyboard, a touch screen, and a display device. The memory device 230 may store data and/or a program.

인터페이스(240)는 통신 네트워크로 데이터를 전송하거나 통신 네트워크로부터 데이터를 수신하는 기능을 수행할 수 있다. 인터페이스(240)는 유선 또는 무선 형태일 수 있다. 예컨대, 인터페이스(240)는 안테나 또는 유무선 트랜시버 등을 포함할 수 있다. 도시하지 않았지만, 메모리 장치(230)는 컨트롤러(210)의 동작을 향상시키기 위한 동작 메모리로서, 고속의 디램 및/또는 에스램 등을 더 포함할 수도 있다. 메모리 장치(230)는 내부에 프로그램 또는 어플리케이션을 저장할 수 있다. 모바일 단말기(200)는 프로그램 또는 어플리케이션을 통해서 추후 설명될 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 구현할 수 있다.The interface 240 may perform a function of transmitting data to or receiving data from a communication network. The interface 240 may be in a wired or wireless form. For example, the interface 240 may include an antenna or a wired/wireless transceiver. Although not shown, the memory device 230 is a working memory for improving the operation of the controller 210 , and may further include a high-speed DRAM and/or SRAM. The memory device 230 may store a program or an application therein. The mobile terminal 200 may implement a data transmission method for controlling the light stick according to some embodiments of the present invention to be described later through a program or an application.

모바일 단말기(200)은 개인 휴대용 정보 단말기(PDA, personal digital assistant) 포터블 컴퓨터(portable computer), 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 디지털 뮤직 플레이어(digital music player), 메모리 카드(memory card), 또는 정보를 무선환경에서 송신 및/또는 수신할 수 있는 모든 전자 제품에 적용될 수 있다.The mobile terminal 200 includes a personal digital assistant (PDA), a portable computer, a web tablet, a wireless phone, a mobile phone, and a digital music player (digital). music player), a memory card, or any electronic product capable of transmitting and/or receiving information in a wireless environment.

또는 본 발명의 실시예들에 따른 응원봉 컬러 변화 방법이 구현되는 모바일 단말기(200)는 복수의 모바일 단말기(200)가 네트워크를 통해서 서로 연결되어 형성된 시스템일 수 있다. 이러한 경우에는 각각의 모듈 또는 모듈의 조합들이 모바일 단말기(200)으로 구현될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the mobile terminal 200 in which the light stick color change method according to the embodiments of the present invention is implemented may be a system in which a plurality of mobile terminals 200 are connected to each other through a network. In this case, each module or combinations of modules may be implemented as the mobile terminal 200 . However, the present embodiment is not limited thereto.

도 3은 도 1의 응원봉의 구조를 세부적으로 설명하기 위한 블록도이다.FIG. 3 is a block diagram for explaining in detail the structure of the light rod of FIG. 1 .

도 3을 참조하면, 응원봉(300)은 통신부(310), 발광부(320), 제어부(330), 전원부(340) 및 버튼부(350)를 포함할 수 있다.Referring to FIG. 3 , the light stick 300 may include a communication unit 310 , a light emitting unit 320 , a control unit 330 , a power supply unit 340 , and a button unit 350 .

통신부(310)는 모바일 단말기(200)와 통신할 수 있다. 통신부(310)는 근거리 통신 기술로 모바일 단말기(200)와 통신을 수립할 수 있다. 통신부(310)는 모바일 단말기(200)로부터 제어 데이터(Dc)를 수신할 수 있다. 통신부(310)는 제어 데이터(Dc)를 제어부(330)로 전송할 수 있다.The communication unit 310 may communicate with the mobile terminal 200 . The communication unit 310 may establish communication with the mobile terminal 200 using short-range communication technology. The communication unit 310 may receive the control data Dc from the mobile terminal 200 . The communication unit 310 may transmit the control data Dc to the control unit 330 .

제어부(330)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The controller 330 includes a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), a graphic processing unit (GPU), a microprocessor, a digital signal processor, a microcontroller, an application processor (AP). ) and logic elements capable of performing a function similar thereto. However, the present embodiment is not limited thereto.

제어부(330)는 발광부(320)의 빛의 컬러와 점멸을 제어할 수 있다. 제어부(330)는 제1 모드 및 제2 모드의 적어도 2가지 모드로 작동할 수 있다. 제1 모드는 제어 데이터(Dc)를 통해서 발광부(320)를 제어하는 모드이고, 제2 모드는 제어버튼(352)에 의해서 발광부(320)를 제어하는 모드일 수 있다.The controller 330 may control the color and blinking of the light of the light emitting unit 320 . The controller 330 may operate in at least two modes, a first mode and a second mode. The first mode may be a mode in which the light emitting unit 320 is controlled through the control data Dc, and the second mode may be a mode in which the light emitting unit 320 is controlled by the control button 352 .

제1 모드에서, 제어부(330)는 통신부(310)로부터 제어 데이터(Dc)를 수신할 수 있다. 제어부(330)는 제어 데이터(Dc)를 이용하여 발광부(320)의 빛의 컬러와 점멸을 제어할 수 있다. In the first mode, the control unit 330 may receive the control data Dc from the communication unit 310 . The controller 330 may control the color and blinking of the light of the light emitting unit 320 by using the control data Dc.

제2 모드에서, 제어부(330)는 버튼부(350)의 제어버튼(352)에 의해서 미리 설정된 빛의 컬러 변화와 점멸 패턴에 따라 발광부(320)를 제어할 수 있다.In the second mode, the control unit 330 may control the light emitting unit 320 according to the color change and blinking pattern of the light preset by the control button 352 of the button unit 350 .

발광부(320)는 다양한 컬러의 빛을 발산할 수 있다. 발광부(320)는 빛의 점멸을 표현할 수도 있다. 발광부(320)는 투명한 케이스와 다양한 컬러를 표현하는 광원을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The light emitting unit 320 may emit light of various colors. The light emitting unit 320 may express the flickering of light. The light emitting unit 320 may include a transparent case and a light source expressing various colors. However, the present embodiment is not limited thereto.

전원부(340)는 통신부(310), 발광부(320) 및 제어부(330)에 전원을 공급할 수 있다. 전원부(340)는 배터리가 수납되는 공간을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The power supply unit 340 may supply power to the communication unit 310 , the light emitting unit 320 , and the control unit 330 . The power supply unit 340 may include a space in which the battery is accommodated. However, the present embodiment is not limited thereto.

버튼부(350)는 모드변경 버튼(351) 및 제어버튼(352)을 포함할 수 있다. 모드변경 버튼(351)은 오프 상태, 제1 모드 상태 및 제2 모드 상태 중 어느 하나로 조작될 수 있다. 모드변경 버튼(351)이 오프 상태인 경우에는 전원부(340)로부터 전원 공급이 차단될 수 있다. 이에 따라, 응원봉(300)의 전원이 오프될 수 있다.The button unit 350 may include a mode change button 351 and a control button 352 . The mode change button 351 may be operated in any one of an off state, a first mode state, and a second mode state. When the mode change button 351 is in an off state, power supply from the power supply unit 340 may be cut off. Accordingly, the power of the light rod 300 may be turned off.

모드변경 버튼(351)이 제1 모드 상태인 경우에는 통신부(310)가 근거리 무선 기술로 모바일 단말기(200)로 연결을 시도할 수 있다. 예를 들어, 통신부(310)가 모바일 단말기와 블루투스 페어링을 시도할 수 있다. 통신부(310)가 모바일 단말기(200)와 연결되어 제어 데이터(Dc)를 수신하면 제어부(330)가 제어 데이터(Dc)를 수신하여 발광부(320)를 제어할 수 있다.When the mode change button 351 is in the first mode state, the communication unit 310 may attempt to connect to the mobile terminal 200 using a short-range wireless technology. For example, the communication unit 310 may attempt Bluetooth pairing with the mobile terminal. When the communication unit 310 is connected to the mobile terminal 200 to receive the control data Dc, the control unit 330 may receive the control data Dc to control the light emitting unit 320 .

모드변경 버튼(351)이 제2 모드 상태인 경우에는 제어버튼(352)에 의해서 발광부(320)가 제어될 수 있다. 구체적으로, 제어버튼(352)이 푸시된 횟수에 따라서 미리 지정된 발광부(320)의 컬러 및 점멸 패턴이 달라질 수 있다. 제어부(330)는 제어버튼(352)이 푸시된 횟수를 수신하여 발광부(320)의 컬러 및 점멸 패턴이 달라질 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.When the mode change button 351 is in the second mode state, the light emitting unit 320 may be controlled by the control button 352 . Specifically, according to the number of times the control button 352 is pushed, the color and blinking pattern of the light emitting unit 320 designated in advance may be changed. The control unit 330 may receive the number of times the control button 352 is pushed, so that the color and blinking pattern of the light emitting unit 320 may be changed. However, the present embodiment is not limited thereto.

도 3에는 모드변경 버튼(351) 및 제어버튼(352)의 2개의 버튼만 버튼부(350)에 포함되어 있긴 하지만, 본 실시예가 이에 제한되는 것은 아니다. 즉, 본 실시예에 따른 응원봉 제어를 위한 데이터 전송 방법의 응원봉(300)은 버튼부(350)에 3개 이상의 버튼이 존재할 수 있다.Although only two buttons of the mode change button 351 and the control button 352 are included in the button unit 350 in FIG. 3 , the present embodiment is not limited thereto. That is, in the light rod 300 of the data transmission method for controlling the light rod according to the present embodiment, three or more buttons may exist in the button unit 350 .

도 4는 도 1의 제1 스트리밍 데이터와 제2 스트리밍 데이터의 구조를 설명하기 위한 블록도이다.4 is a block diagram for explaining the structures of the first streaming data and the second streaming data of FIG. 1 .

도 4를 참조하면, 제1 스트리밍 데이터(Dv1)는 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 포함할 수 있다. 제1 이미지 데이터(Di1)는 제1 동영상에서 영상에 해당하는 부분이고, 제1 사운드 데이터(Ds1)는 동영상에서 소리에 해당하는 부분일 수 있다. 이때, 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)는 시계열적으로 변화하는 데이터일 수 있다.Referring to FIG. 4 , the first streaming data Dv1 may include the first image data Di1 and the first sound data Ds1. The first image data Di1 may be a part corresponding to an image in the first moving picture, and the first sound data Ds1 may be a part corresponding to a sound in the moving picture. In this case, the first image data Di1 and the first sound data Ds1 may be data that change in time series.

제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)는 서로 동기화되어 제1 동영상 재생시에 같이 재생될 수 있다. 즉, 제1 이미지 데이터(Di1)는 디스플레이 등을 통해서 이미지로 출력되고, 제1 사운드 데이터(Ds1)는 스피커 등을 통해서 사운드로 출력될 수 있다. 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)가 동기화되어 시계열적으로 출력되면서 제1 동영상 재생이 수행될 수 있다.The first image data Di1 and the first sound data Ds1 may be synchronized with each other and reproduced together when the first moving picture is reproduced. That is, the first image data Di1 may be output as an image through a display or the like, and the first sound data Ds1 may be output as a sound through a speaker or the like. The first image data Di1 and the first sound data Ds1 are synchronized and output in time series, and the first moving picture may be reproduced.

유사하게, 제2 스트리밍 데이터(Dv2)는 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 포함할 수 있다. 제2 이미지 데이터(Di2)는 제2 동영상에서 영상에 해당하는 부분이고, 제2 사운드 데이터(Ds2)는 동영상에서 소리에 해당하는 부분일 수 있다. 이때, 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)는 시계열적으로 변화하는 데이터일 수 있다. 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)가 동기화되어 시계열적으로 출력되면서 제2 동영상 재생이 수행될 수 있다.Similarly, the second streaming data Dv2 may include the second image data Di2 and the second sound data Ds2. The second image data Di2 may be a part corresponding to an image in the second moving picture, and the second sound data Ds2 may be a part corresponding to a sound in the moving picture. In this case, the second image data Di2 and the second sound data Ds2 may be time-series data. A second video may be reproduced while the second image data Di2 and the second sound data Ds2 are synchronized and output in time series.

추후, 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)는 서로 비교되어 유사 부분이 추출될 수 있다.Subsequently, the first sound data Ds1 and the second sound data Ds2 may be compared with each other to extract a similar part.

도 5는 도 1의 모바일 단말기의 구조를 이용하여 조명 제어 시계열 데이터를 완성하고 제어 데이터를 도출하는 과정을 세부적으로 설명하기 위한 블록도이다.5 is a block diagram for describing in detail a process of completing lighting control time series data and deriving control data using the structure of the mobile terminal of FIG. 1 .

도 5를 참조하면, 모바일 단말기(200)는 이미지 및 사운드 데이터 분리부(260), 유사 특징 추출부(270), 조명 제어 시계열 데이터 완성부(280) 및 제어 데이터 변환부(290)를 포함할 수 있다.Referring to FIG. 5 , the mobile terminal 200 may include an image and sound data separation unit 260 , a similar feature extraction unit 270 , a lighting control time series data completion unit 280 , and a control data conversion unit 290 . can

구체적으로, 모바일 단말기(200)가 스트리밍 서버(100)로부터 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 수신한 경우, 모바일 단말기(200)는 우선적으로 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 이미지 및 사운드 데이터 분리부(260)에 전송할 수 있다.Specifically, when the mobile terminal 200 receives the first streaming data (Dv1) and the second streaming data (Dv2) from the streaming server 100, the mobile terminal 200 preferentially the first streaming data (Dv1) and the second streaming data Dv2 may be transmitted to the image and sound data separation unit 260 .

이미지 및 사운드 데이터 분리부(260)는 제1 스트리밍 데이터(Dv1)에서 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 분리할 수 있다. 이미지 및 사운드 데이터 분리부(260)는 제2 스트리밍 데이터(Dv2)에서 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 분리할 수 있다. 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)는 각각 제1 사운드 데이터(Ds1)와 제1 이미지 데이터(Di1) 및 제2 사운드 데이터(Ds2)와 제2 이미지 데이터(Di2)를 포함하고 있다. 따라서, 이미지 및 사운드 데이터 분리부(260)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)를 제외한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)만을 분리 추출할 수 있다.The image and sound data separation unit 260 may separate the first image data Di1 and the first sound data Ds1 from the first streaming data Dv1. The image and sound data separation unit 260 may separate the second image data Di2 and the second sound data Ds2 from the second streaming data Dv2. The first streaming data Dv1 and the second streaming data Dv2 include first sound data Ds1 and first image data Di1 and second sound data Ds2 and second image data Di2, respectively. are doing Accordingly, the image and sound data separation unit 260 may separate and extract only the first sound data Ds1 and the second sound data Ds2 excluding the first image data Di1 and the second image data Di2. .

이어서, 이미지 및 사운드 데이터 분리부(260)는 분리한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 유사 특징 추출부(270)로 전송할 수 있다. 유사 특징 추출부(270)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다. Subsequently, the image and sound data separation unit 260 may transmit the separated first sound data Ds1 and second sound data Ds2 to the similarity feature extraction unit 270 . The similar feature extraction unit 270 may receive the first lighting control time series data Dn1 from the streaming server 100 .

유사 특징 추출부(270)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 비교하여 유사 특징이 있는 유사 부분을 추출할 수 있다. 이때, 유사 부분은 제1 사운드 데이터(Ds1)와 제2 사운드 데이터(Ds2)에 각각 존재할 수 있다. 유사 특징 추출부(270)는 제1 사운드 데이터(Ds1)의 유사 부분의 시간에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 제2 사운드 데이터(Ds2)의 유사 부분의 시간에 복제하여 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 프리 조명 제어 시계열 데이터(Dn2a)는 추후에 제2 조명 제어 시계열 데이터(Dn2)로 완성될 수 있다.The similar feature extractor 270 may compare the first sound data Ds1 and the second sound data Ds2 to extract a similar part having a similar feature. In this case, the similar portion may exist in the first sound data Ds1 and the second sound data Ds2, respectively. The similar feature extraction unit 270 copies the color data of the first lighting control time series data Dn1 corresponding to the time of the similar part of the first sound data Ds1 to the time of the similar part of the second sound data Ds2 to generate the pre-lighting control time-series data Dn2a. The pre-lighting control time-series data (Dn2a) may be completed later as the second lighting control time-series data (Dn2).

이어서, 조명 제어 시계열 데이터 완성부(280)는 프리 조명 제어 시계열 데이터(Dn2a)를 수신할 수 있다. 이때, 프리 조명 제어 시계열 데이터(Dn2a)는 제1 조명 제어 시계열 데이터(Dn1)로부터 복제된 완성 부분과 아직 데이터가 결정되지 않은 미완성 부분을 포함할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미완성 부분에 컬러 데이터를 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성할 수 있다.Subsequently, the lighting control time series data completion unit 280 may receive the free lighting control time series data (Dn2a). In this case, the pre-lighting control time-series data (Dn2a) may include a completed part and an unfinished part of which data is not yet determined, duplicated from the first lighting control time-series data (Dn1). The lighting control time-series data completion unit 280 may complete the pre-lighting control time-series data Dn2a as the second lighting control time-series data Dn2 by filling the incomplete part with color data.

이어서, 제어 데이터 변환부(290)는 조명 제어 시계열 데이터 완성부(280)로부터 제2 조명 제어 시계열 데이터(Dn2)를 수신할 수 있다. 제어 데이터 변환부(290)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다. 제어 데이터 변환부(290)는 제1 조명 제어 시계열 데이터(Dn1)를 제1 제어 데이터(Dc1)로 변환하고, 제2 조명 제어 시계열 데이터(Dn2)를 제2 제어 데이터(Dc2)로 변환할 수 있다. 제어 데이터 변환부(290)는 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 응원봉(300)으로 전송할 수 있다.Subsequently, the control data conversion unit 290 may receive the second lighting control time series data (Dn2) from the lighting control time series data completion unit 280. Control data conversion unit 290 may receive the first lighting control time series data (Dn1) from the streaming server (100). The control data conversion unit 290 converts the first lighting control time series data (Dn1) into the first control data (Dc1), and converts the second lighting control time series data (Dn2) into the second control data (Dc2) there is. The control data converter 290 may transmit the first control data Dc1 and the second control data Dc2 to the light stick 300 .

도 6은 도 5의 유사 특징 추출부를 세부적으로 설명하기 위한 블록도이고, 도 7은 제1 및 제2 사운드 데이터에서 피치 데이터 및 크기 데이터를 추출하는 것을 설명하기 위한 블록도이다. 도 8은 제1 및 제2 스트리밍 데이터에서 유사 부분을 추출하는 방법을 설명하기 위한 도면이고, 도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다. FIG. 6 is a block diagram for explaining in detail the similar feature extracting unit of FIG. 5 , and FIG. 7 is a block diagram for explaining extracting pitch data and size data from first and second sound data. FIG. 8 is a diagram for explaining a method of extracting a similar part from first and second streaming data, and FIG. 9 is a block diagram for explaining in detail the similar part detecting unit of FIG. 6 .

도 6을 참조하면, 유사 특징 추출부(270)는 데이터 전처리부(271), 유사 부분 검출부(272) 및 조명 제어 시계열 데이터 형성부(273)를 포함한다.Referring to FIG. 6 , the similarity feature extraction unit 270 includes a data preprocessing unit 271 , a similarity portion detection unit 272 , and a lighting control time series data forming unit 273 .

도 6 및 도 7을 참조하면, 데이터 전처리부(271)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 수신할 수 있다. 제1 사운드 데이터(Ds1)는 제1 피치 데이터(Dp1) 및 제1 크기 데이터(Db1)를 포함할 수 있다. 6 and 7 , the data preprocessor 271 may receive the first sound data Ds1 and the second sound data Ds2. The first sound data Ds1 may include the first pitch data Dp1 and the first size data Db1.

제1 피치 데이터(Dp1)는 제1 사운드 데이터(Ds1)의 시간에 따라서 변하는 음조 즉, 피치(Pitch)에 대한 데이터일 수 있다. 제1 피치 데이터(Dp1)는 당연히 제1 조명 제어 시계열 데이터(Dn1)와 동기화될 수 있다. The first pitch data Dp1 may be data about a tone that changes according to time of the first sound data Ds1, that is, a pitch. The first pitch data (Dp1) may of course be synchronized with the first lighting control time series data (Dn1).

제1 크기 데이터(Db1)는 제1 사운드 데이터(Ds1)의 시간에 따라서 변하는 소리의 크기에 대한 데이터일 수 있다. 제1 크기 데이터(Db1)도 제1 조명 제어 시계열 데이터(Dn1)와 동기화될 수 있다.The first volume data Db1 may be data on the volume of the first sound data Ds1 that changes according to time. The first size data (Db1) may also be synchronized with the first lighting control time series data (Dn1).

유사하게, 제2 피치 데이터(Dp2)는 제2 사운드 데이터(Ds2)의 시간에 따라서 변하는 피치에 대한 데이터이고, 제2 크기 데이터(Db2)는 제2 사운드 데이터(Ds2)의 시간에 따라서 변하는 소리의 크기에 대한 데이터일 수 있다.Similarly, the second pitch data Dp2 is data on a time-varying pitch of the second sound data Ds2, and the second magnitude data Db2 is a time-varying sound of the second sound data Ds2. It may be data about the size of .

데이터 전처리부(271)는 제1 사운드 데이터(Ds1)로부터 제1 피치 데이터(Dp1)를 추출할 수 있다. 또한, 데이터 전처리부(271)는 제1 사운드 데이터(Ds1)로부터 제2 피치 데이터(Dp2)를 추출할 수 있다. 데이터 전처리부(271)는 또한, 필요에 따라, 제1 사운드 데이터(Ds1)로부터 제1 크기 데이터(Db1)와 제2 사운드 데이터(Ds2)로부터 제2 크기 데이터(Db2)를 추출할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The data preprocessor 271 may extract the first pitch data Dp1 from the first sound data Ds1 . Also, the data preprocessor 271 may extract the second pitch data Dp2 from the first sound data Ds1 . The data preprocessor 271 may also extract the first size data Db1 from the first sound data Ds1 and the second size data Db2 from the second sound data Ds2, if necessary. However, the present embodiment is not limited thereto.

도 6 및 도 8을 참조하면, 유사 부분 검출부(272)는 제1 피치 데이터(Dp1)와 제2 피치 데이터(Dp2) 사이의 유사 부분을 검출할 수 있다. 예를 들어, 제1 피치 데이터(Dp1)의 제1 유사 특징(F1)과 제2 피치 데이터(Dp2)의 제3 유사 특징(F3)은 서로 유사한 유사 부분일 수 있다. 또한, 제1 피치 데이터(Dp1)의 제2 유사 특징(F2)과 제2 피치 데이터(Dp2)의 제4 유사 특징(F4)은 서로 유사한 유사 부분일 수 있다. 제1 내지 제4 유사 특징(F1~F4) 사이의 유사도는 인공 지능 내지 머신 러닝을 통해서 판단될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.6 and 8 , the similarity detection unit 272 may detect a similarity between the first pitch data Dp1 and the second pitch data Dp2 . For example, the first similar feature F1 of the first pitch data Dp1 and the third similar feature F3 of the second pitch data Dp2 may be similar parts that are similar to each other. Also, the second similar feature F2 of the first pitch data Dp1 and the fourth similar feature F4 of the second pitch data Dp2 may be similar parts that are similar to each other. The degree of similarity between the first to fourth similar features F1 to F4 may be determined through artificial intelligence or machine learning. However, the present embodiment is not limited thereto.

도 8에서 유사 특징은 각 데이터별 2개씩 총 4개가 도시되어 있으나, 본 실시예가 이에 제한되는 것은 아니다. 즉, 유사 특징의 개수는 얼마든지 달라질 수 있다.In FIG. 8 , a total of four similar features are shown, two for each data, but the present embodiment is not limited thereto. That is, the number of similar features may vary.

제1 유사 특징(F1)과 제3 유사 특징(F3)에 나타나듯이, 유사 부분은 제1 피치 데이터(Dp1)와 제2 피치 데이터(Dp2)에서 각각 다른 시간대에 위치할 수 있다. 즉, 제1 피치 데이터(Dp1)에서 제1 유사 특징(F1)은 0~3s에 위치하였지만, 제2 피치 데이터(Dp2)에서 제2 유사 특징(F2)은 1~4s에 위치할 수 있다. As shown in the first similar feature F1 and the third similar feature F3 , the similar portion may be located at different times in the first pitch data Dp1 and the second pitch data Dp2 . That is, in the first pitch data Dp1, the first similar feature F1 may be positioned at 0 to 3 s, but in the second pitch data Dp2, the second similar feature F2 may be positioned at 1 to 4 s.

또한, 제1 유사 특징(F1)과 제3 유사 특징(F3)과 같이 서로 유사하다고 추출된 유사 부분은 완전히 동일할 필요는 없고, 유사도가 미리 설정된 기준치 이상인 경우 유사 부분으로 추출될 수 있다. 이러한 기준치는 사용자에 의해서 얼마든지 변경될 수 있다. 유사 부분 검출부(272)는 추출된 제1 내지 제4 유사 특징(F1~F4)을 조명 제어 시계열 데이터 형성부(273)로 전송할 수 있다. Also, similar parts extracted as being similar to each other, such as the first similar feature F1 and the third similar feature F3, do not have to be completely identical, and may be extracted as a similar part when the degree of similarity is greater than or equal to a preset reference value. Such a reference value may be freely changed by the user. The similarity detection unit 272 may transmit the extracted first to fourth similarity features F1 to F4 to the lighting control time series data forming unit 273 .

도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.9 is a block diagram illustrating in detail the similarity detection unit of FIG. 6 .

도 9를 참조하면, 유사 부분 검출부(272)는 피치 유사도 평가부(272_1), 크기 유사도 평가부(272_2) 및 최종 유사도 판단부(272_3)를 포함할 수 있다.Referring to FIG. 9 , the similarity detection unit 272 may include a pitch similarity evaluation unit 272_1 , a size similarity evaluation unit 272_2 , and a final similarity determination unit 272_3 .

피치 유사도 평가부(272_1)는 상술한 도 8의 설명처럼 제1 피치 데이터(Dp1) 및 제2 피치 데이터(Dp2)의 피치 유사도를 평가할 수 있다. 크기 유사도 평가부(272_2)는 제1 크기 데이터(Db1) 및 제2 크기 데이터(Db2)의 크기 유사도를 평가할 수 있다. 이때, 크기 유사도는 도 8의 피치 유사도를 평가하는 방식과 동일하게 평가할 수 있다.The pitch similarity evaluation unit 272_1 may evaluate the pitch similarity of the first pitch data Dp1 and the second pitch data Dp2 as described above with reference to FIG. 8 . The size similarity evaluation unit 272_2 may evaluate the size similarity of the first size data Db1 and the second size data Db2. In this case, the magnitude similarity may be evaluated in the same manner as in the method of evaluating the pitch similarity of FIG. 8 .

최종 유사도 판단부(272_3)는 피치 유사도와 크기 유사도를 고려하여 최종적으로 최종 유사도를 판단할 수 있다. 이때, 피치 유사도를 100% 고려하고, 크기 유사도를 0% 고려할 수도 있고, 그러한 경우가 도 8에서 제1 내지 제4 유사 특징(F1~F4)을 추출한 방법일 수 있다.The final similarity determining unit 272_3 may finally determine the final similarity in consideration of the pitch similarity and the size similarity. In this case, 100% of the pitch similarity may be considered and 0% of the size similarity may be considered, and such a case may be a method of extracting the first to fourth similarity features F1 to F4 in FIG. 8 .

즉, 최종 유사도 판단부(272_3)는 피치 유사도 및 크기 유사도에 대한 각각의 가중치를 가지고 최종 유사도를 최종적으로 판단할 수 있다. 각각의 가중치는 0~100% 사이이고, 가중치의 총합은 100%일 수 있다. 판단된 최종 유사도가 미리 설정된 기준치보다 높은 부분이 제1 내지 제4 유사 특징(F1~F4)처럼 유사 부분으로 추출될 수 있다.That is, the final similarity determining unit 272_3 may finally determine the final similarity with respective weights for the pitch similarity and the size similarity. Each weight may be between 0 and 100%, and the sum of the weights may be 100%. A portion in which the determined final similarity is higher than a preset reference value may be extracted as a similar portion like the first to fourth similarity features F1 to F4.

본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는, 피치 유사도를 주로 사용하여 유사도를 판단하고, 크기 유사도를 보조적으로 사용하여 유사도를 판단할 수 있다. 즉, 피치 유사도의 가중치가 크기 유사도의 가중치보다 크거나 같을 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The lighting control time series data generating apparatus according to some embodiments of the present invention may determine the similarity by mainly using the pitch similarity, and determine the similarity by using the size similarity as an auxiliary. That is, the weight of the pitch similarity may be greater than or equal to the weight of the magnitude similarity. However, the present embodiment is not limited thereto.

본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는, 피치 유사도 평가부(272_1)에 의해서 우선적으로 유사 부분이 추출될 수 있다. 이어서, 추출된 유사 부분에 대해서만 크기 유사도 평가부(272_2)가 크기 유사도를 판단하고, 최종 유사도 판단부(272_3)도 상기 추출된 유사 부분에 대해서만 최종 유사도를 판단하여 그 중에서 유사 부분을 선정할 수 있다. 이를 통해서, 피치가 유사하지 않은 부분에 대해서는 크기가 유사하더라도 배제하여 더욱 정밀한 유사도 판단이 가능할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In the lighting control time-series data generating apparatus according to some embodiments of the present invention, a similar portion may be preferentially extracted by the pitch similarity evaluation unit 272_1. Then, the size similarity evaluation unit 272_2 determines the size similarity only for the extracted similarity parts, and the final similarity determining unit 272_3 also determines the final similarity only for the extracted similar parts, and selects a similar part from among them. there is. Through this, it is possible to more precisely determine the similarity by excluding parts having similar pitches even if they are similar in size. However, the present embodiment is not limited thereto.

도 6을 참조하면, 조명 제어 시계열 데이터 형성부(273)는 유사 부분 검출부(272)로부터 제1 내지 제4 유사 특징(F1~F4)을 수신하고, 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다.Referring to FIG. 6 , the lighting control time series data forming unit 273 receives the first to fourth similar features F1 to F4 from the similar part detection unit 272 , and the first lighting control time series from the streaming server 100 . The data Dn1 may be received.

조명 제어 시계열 데이터 형성부(273)는 제1 유사 특징(F1) 및 제2 유사 특징(F2)에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 각각 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)로 정의할 수 있다. 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)는 제1 유사 특징(F1) 및 제2 유사 특징(F2)이 위치한 시간에 위치한 컬러 데이터들의 모음일 수 있다.The lighting control time series data forming unit 273 separates the color data of the first lighting control time series data Dn1 corresponding to the first similar feature F1 and the second similar feature F2 with the first color data D1 and It may be defined as the second color data D2. The first color data D1 and the second color data D2 may be a collection of color data positioned at a time at which the first similar feature F1 and the second similar feature F2 are positioned.

조명 제어 시계열 데이터 형성부(273)는 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 복제된 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 이때, 프리 조명 제어 시계열 데이터(Dn2a)는 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 복제된 완성 부분과 추후 결정되는 미완성 부분(TBD)을 포함할 수 있다.The lighting control time series data forming unit 273 may generate the pre-lighting control time series data Dn2a in which the first color data D1 and the second color data D2 are duplicated. In this case, the pre-lighting control time-series data Dn2a may include a completed portion in which the first color data D1 and the second color data D2 are copied and an incomplete portion TBD to be determined later.

상기 완성 부분은 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)와 완전히 동일한 제3 컬러 데이터(D3) 및 제4 컬러 데이터(D4)를 가질 수 있다. 구체적으로, 제3 컬러 데이터(D3)는 제1 컬러 데이터(D1)와 동일하고, 제4 컬러 데이터(D4)는 제2 컬러 데이터(D2)와 동일할 수 있다.The finished part may have third color data D3 and fourth color data D4 that are identical to the first color data D1 and second color data D2. Specifically, the third color data D3 may be the same as the first color data D1 , and the fourth color data D4 may be the same as the second color data D2 .

다만, 제3 컬러 데이터(D3)와 제4 컬러 데이터(D4)가 위치한 시간은 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 위치한 시간과 달라질 수 있다. 구체적으로, 제3 컬러 데이터(D3)가 위치한 시간은 제2 피치 데이터(Dp2)의 제3 유사 특징(F3)이 위치한 시간이고, 제4 컬러 데이터(D4)가 위치한 시간은 제2 피치 데이터(Dp2)의 제4 유사 특징(F4)이 위치한 시간일 수 있다.However, the time at which the third color data D3 and the fourth color data D4 are located may be different from the time at which the first color data D1 and the second color data D2 are located. Specifically, the time at which the third color data D3 is located is the time at which the third similar feature F3 of the second pitch data Dp2 is located, and the time at which the fourth color data D4 is located is the time at which the second pitch data ( It may be a time at which the fourth similar feature F4 of Dp2) is located.

도 10은 도 5의 조명 제어 시계열 데이터 완성부의 동작을 설명하기 위한 도면이다.FIG. 10 is a view for explaining the operation of the lighting control time series data completion unit of FIG. 5 .

도 5 및 도 10을 참조하면, 조명 제어 시계열 데이터 완성부(280)는 유사 특징 추출부(270)로부터 프리 조명 제어 시계열 데이터(Dn2a)를 수신할 수 있다. 프리 조명 제어 시계열 데이터(Dn2a)는 제3 컬러 데이터(D3) 및 제4 컬러 데이터(D4)와 같은 완성 부분과, 완성되지 않은 미완성 부분을 포함할 수 있다.5 and 10 , the lighting control time series data completion unit 280 may receive the pre-lighting control time series data Dn2a from the similar feature extraction unit 270 . The pre-lighting control time-series data Dn2a may include a completed part such as the third color data D3 and the fourth color data D4 and an unfinished incomplete part.

조명 제어 시계열 데이터 완성부(280)는 미완성 부분을 제5 컬러 데이터(D5) 및 제6 컬러 데이터(D6)로 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성시킬 수 있다.The lighting control time series data completion unit 280 fills the incomplete part with the fifth color data D5 and the sixth color data D6 and completes the free lighting control time series data Dn2a with the second light control time series data Dn2 can do it

미완성 부분을 채우는 방식은 다양할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미리 설정된 컬러 데이터를 순차적으로 미완성 부분에 추가하여 제2 조명 제어 시계열 데이터(Dn2)를 완성할 수 있다.There may be various ways to fill in the incomplete parts. The lighting control time series data completion unit 280 may complete the second lighting control time series data Dn2 by sequentially adding preset color data to the incomplete parts.

또는, 조명 제어 시계열 데이터 완성부(280)는 미완성 부분의 측면에 위치한 컬러 데이터를 이용하여 미완성 부분의 컬러 데이터를 결정할 수 있다. 예를 들어, 미완성 부분의 양 측면의 컬러 데이터의 색온도의 평균 또는 중간값을 가지는 색온도의 컬러 데이터를 미완성 부분의 컬러 데이터로 결정할 수 있다. 이를 통해서, 응원봉(300)의 자연스러운 컬러 변화를 도출할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the lighting control time series data completion unit 280 may determine the color data of the unfinished part by using the color data located on the side of the unfinished part. For example, color data having a color temperature having an average or an intermediate value of color temperatures of color data of both sides of the unfinished portion may be determined as the color data of the unfinished portion. Through this, it is possible to derive a natural color change of the light stick 300 . However, the present embodiment is not limited thereto.

또는, 조명 제어 시계열 데이터 완성부(280)는 인공지능 기반으로 여러 조명 제어 시계열 데이터를 학습한 후에 미완성 부분을 자동으로 채워 넣을 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the lighting control time series data completion unit 280 may automatically fill in the incomplete part after learning several lighting control time series data based on artificial intelligence. However, the present embodiment is not limited thereto.

본 실시예는, 응원봉(300)의 컬러 변화를 제어하기 위한 조명 제어 시계열 데이터를 생성하기 위한 효율적인 방법을 제시한다. 즉, 일반적으로 조명 제어 시계열 데이터를 생성하기 위해서는 동영상의 타임 라인에 따라 일일이 수작업으로 제작이 되어야 하고, 이는 많은 시간과 노력을 필요로 한다.This embodiment presents an efficient method for generating lighting control time-series data for controlling the color change of the light stick 300 . That is, in general, in order to generate the lighting control time series data, each must be manually produced according to the timeline of the video, which requires a lot of time and effort.

그러나, 이미 조명 제어 시계열 데이터가 제작된 동영상과 유사한 동영상의 경우는 다시 수작업으로 조명 제어 시계열 데이터를 제작하는 것이 비효율적일 수 있다. 예를 들어, 동일한 곡의 다른 공연 영상이나, 커버 영상 또는 일부 변형된 곡의 영상인 경우에는 기존의 조명 제어 시계열 데이터를 활용하여 자동으로 그에 맞는 조명 제어 시계열 데이터를 생성할 수 있다.However, in the case of a moving picture similar to a moving picture in which the lighting control time series data has already been produced, it may be inefficient to manually produce the light control time series data again. For example, in the case of a video of another performance of the same song, a cover video, or an image of a partially modified song, it is possible to automatically generate light control time series data corresponding to the existing light control time series data by using the existing light control time series data.

이하, 도 11 및 도 12를 참조하여, 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.Hereinafter, an apparatus for generating light control time series data according to some embodiments of the present invention will be described with reference to FIGS. 11 and 12 . Parts overlapping with the above-described embodiment will be simplified or omitted.

도 11은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명하기 위한 블록도이고, 도 12는 도 11의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.11 is a block diagram illustrating an apparatus for generating light control time series data according to some embodiments of the present invention, and FIG. 12 is a block diagram illustrating in detail the similarity detection unit of FIG. 11 .

도 11을 참조하면, 이미지 및 사운드 데이터 분리부(260)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)도 유사 특징 추출부(270)로 전송한다.Referring to FIG. 11 , the image and sound data separation unit 260 also transmits the first image data Di1 and the second image data Di2 to the similarity feature extraction unit 270 .

도 12를 참조하면, 유사 부분 검출부(272)는 이미지 유사도 평가부(272_4)를 포함한다. 이미지 유사도 평가부(272_4)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)의 이미지 유사도를 평가할 수 있다. 이때, 이미지 유사도는 컨볼루션 뉴럴 네트워크(CNN; Convolution Neural Network), 그래픽 뉴럴 네트워크(GNN; Graphic Neural Network) 및 순환 뉴럴 네트워크(RNN; Recurrent Neural Network) 중 적어도 하나를 이용하여 판단될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 12 , the similarity detection unit 272 includes an image similarity evaluation unit 272_4 . The image similarity evaluation unit 272_4 may evaluate the image similarity of the first image data Di1 and the second image data Di2 . In this case, the image similarity may be determined using at least one of a convolutional neural network (CNN), a graphic neural network (GNN), and a recurrent neural network (RNN). However, the present embodiment is not limited thereto.

즉, 최종 유사도 판단부(272_3)는 피치 유사도, 크기 유사도 및 이미지 유사도에 대한 각각의 가중치를 가지고 최종 유사도를 최종적으로 판단할 수 있다. 각각의 가중치는 0~100% 사이이고, 가중치의 총합은 100%일 수 있다. 판단된 최종 유사도가 미리 설정된 기준치보다 높은 부분이 제1 내지 제4 유사 특징(F1~F4)처럼 유사 부분으로 추출될 수 있다.That is, the final similarity determining unit 272_3 may finally determine the final similarity with respective weights for the pitch similarity, size similarity, and image similarity. Each weight may be between 0 and 100%, and the sum of the weights may be 100%. A portion in which the determined final similarity is higher than a preset reference value may be extracted as a similar portion like the first to fourth similarity features F1 to F4.

본 실시예는 이미지 유사도를 이용하여 더욱 정밀하게 최종 유사도를 판단할 수 있다. 이를 통해서, 유사한 부분에 대한 조명 제어 시계열 데이터를 더욱 효율적으로 생성할 수 있다.In the present embodiment, the final similarity can be more precisely determined using the image similarity. Through this, it is possible to more efficiently generate lighting control time series data for a similar part.

이하, 도 13 내지 도 20을 참조하여, 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.Hereinafter, a method of generating lighting control time series data according to some embodiments of the present invention will be described with reference to FIGS. 13 to 20 . Parts overlapping with the above-described embodiment will be simplified or omitted.

도 13은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 순서도이다.13 is a flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.

도 13을 참조하면, 동영상 컨텐츠에 접속한다(S110).Referring to FIG. 13 , the video content is accessed ( S110 ).

구체적으로, 도 1을 참조하면, 동영상 컨텐츠는 스트리밍 서버(100)에 의해서 모바일 단말기(200)로 제공될 수 있다. 모바일 단말기(200)는 어플리케이션 또는 프로그램을 통해서 스트리밍 서버(100)가 제공하는 동영상 컨텐츠에 접속할 수 있다.Specifically, referring to FIG. 1 , video content may be provided to the mobile terminal 200 by the streaming server 100 . The mobile terminal 200 may access the video content provided by the streaming server 100 through an application or program.

다시, 도 13을 참조하면, 제1 조명 제어 시계열 데이터의 수신을 시작한다(S120).Again, referring to FIG. 13 , the reception of the first lighting control time series data starts ( S120 ).

구체적으로, 도 1을 참조하면, 스트리밍 서버(100)는 모바일 단말기(200)로 제1 조명 제어 시계열 데이터(Dn1)를 전송할 수 있다. Specifically, referring to FIG. 1 , the streaming server 100 may transmit the first lighting control time series data Dn1 to the mobile terminal 200 .

다시, 도 13을 참조하면, 응원봉과 연결되었는지를 판단한다(S130).Again, referring to FIG. 13 , it is determined whether it is connected to the light stick (S130).

구체적으로, 도 1을 참조하면, 구체적으로, 도 1을 참조하면, 응원봉(300)과 모바일 단말기(200)가 서로 연결되지 않은 경우에는 연결될 때까지 대기할 수 있다. 응원봉(300)과 모바일 단말기(200)가 서로 연결되는 경우에는 다음 절차로 진행할 수 있다.Specifically, referring to FIG. 1 , specifically, referring to FIG. 1 , when the light stick 300 and the mobile terminal 200 are not connected to each other, they may wait until they are connected. When the light stick 300 and the mobile terminal 200 are connected to each other, the following procedure may be performed.

다시, 도 13을 참조하면, 제1 조명 제어 시계열 데이터의 수신이 완료되었는지를 판단한다(S140).Again, referring to FIG. 13, it is determined whether the reception of the first lighting control time series data is completed (S140).

구체적으로, 도 1을 참조하면, 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 모바일 단말기(200)가 수신하고, 수신이 완료되는 경우 다음 절차로 진행할 수 있다.Specifically, referring to FIG. 1 , the mobile terminal 200 receives the first lighting control time series data Dn1 from the streaming server 100 , and when the reception is complete, the following procedure may be performed.

도 13에는 S130 단계가 S140 단계 이전에 수행되는 것으로 도시하였지만, 본 실시예가 이에 제한되는 것은 아니다. 즉, S130 단계가 S140 단계는 병렬적으로 수행될 수 있다.13 shows that step S130 is performed before step S140, the present embodiment is not limited thereto. That is, steps S130 and S140 may be performed in parallel.

다시, 도 13을 참조하면, 제1 및 제2 스트리밍 데이터의 수신을 시작한다(S150).Again, referring to FIG. 13 , reception of the first and second streaming data is started ( S150 ).

구체적으로, 도 1을 참조하면, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 수신하여 제1 동영상 및 제2 동영상을 재생, 즉, 스트리밍할 수 있다. 동영상 스트리밍은 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)의 수신과 제1 동영상 및 제2 동영상의 재생이 병렬적으로 수행되고, 재생되는 동영상 파트에 해당하는 스트리밍 데이터가 동영상 재생에 앞서 미리 모바일 단말기(200)에 수신되어야 한다. 이때, 스트리밍 데이터가 완전히 다 수신된 뒤에 동영상이 재생되는 것이 아니라 스트리밍 데이터의 수신이 진행되면서 미리 수신된 부분에 대한 동영상 재생이 시작될 수 있다.Specifically, referring to FIG. 1 , the mobile terminal 200 receives the first streaming data Dv1 and the second streaming data Dv2 from the streaming server 100 to play the first video and the second video, that is, , can be streamed. In the video streaming, the reception of the first streaming data (Dv1) and the second streaming data (Dv2) and the reproduction of the first video and the second video are performed in parallel, and the streaming data corresponding to the video part being played is transmitted to the video playback. It should be received in advance by the mobile terminal 200 in advance. In this case, the video may not be played after the streaming data is completely received, but the video may be played for the previously received portion as the streaming data is received.

다시, 도 13을 참조하면, 제2 조명 제어 시계열 데이터를 생성한다(S160).Again, referring to FIG. 13 , a second lighting control time series data is generated ( S160 ).

구체적으로, 도 5를 참조하면, 이미지 및 사운드 데이터 분리부(260)는 제1 스트리밍 데이터(Dv1)에서 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 분리할 수 있다. 이미지 및 사운드 데이터 분리부(260)는 제2 스트리밍 데이터(Dv2)에서 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 분리할 수 있다. 이어서, 이미지 및 사운드 데이터 분리부(260)는 분리한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 유사 특징 추출부(270)로 전송할 수 있다. 유사 특징 추출부(270)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다.Specifically, referring to FIG. 5 , the image and sound data separation unit 260 may separate the first image data Di1 and the first sound data Ds1 from the first streaming data Dv1. The image and sound data separation unit 260 may separate the second image data Di2 and the second sound data Ds2 from the second streaming data Dv2. Subsequently, the image and sound data separation unit 260 may transmit the separated first sound data Ds1 and second sound data Ds2 to the similarity feature extraction unit 270 . The similar feature extraction unit 270 may receive the first lighting control time series data Dn1 from the streaming server 100 .

유사 특징 추출부(270)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 비교하여 유사 특징이 있는 유사 부분을 추출할 수 있다. 유사 특징 추출부(270)는 제1 사운드 데이터(Ds1)의 유사 부분의 시간에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 제2 사운드 데이터(Ds2)의 유사 부분의 시간에 복제하여 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미완성 부분에 컬러 데이터를 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성할 수 있다.The similar feature extractor 270 may compare the first sound data Ds1 and the second sound data Ds2 to extract a similar part having a similar feature. The similar feature extraction unit 270 copies the color data of the first lighting control time series data Dn1 corresponding to the time of the similar part of the first sound data Ds1 to the time of the similar part of the second sound data Ds2 to generate the pre-lighting control time-series data Dn2a. The lighting control time-series data completion unit 280 may complete the pre-lighting control time-series data Dn2a as the second lighting control time-series data Dn2 by filling the incomplete part with color data.

다시, 도 13을 참조하면, 제2 동영상 재생 시간에 따른 제어 데이터를 생성한다(S170).Again, referring to FIG. 13 , control data according to the second video playback time is generated ( S170 ).

구체적으로, 도 1 및 도 2를 참조하면, 모바일 단말기(200)는 모바일 단말기(200)에서 현재 재생되고 있는 제2 동영상의 재생 시간을 확인하고, 그에 따른 제2 제어 데이터(Dc2)를 생성할 수 있다. 제2 조명 제어 시계열 데이터(Dn2)는 제2 스트리밍 데이터(Dv2)와 동기화된 데이터로 제2 동영상 재생 시간에 따른 컬러 데이터가 배치될 수 있다. 이에 따라, 모바일 단말기(200)는 제2 동영상 재생 시간에 따라 대응되는 컬러 데이터를 제어 데이터(Dc)로 변환할 수 있다.Specifically, referring to FIGS. 1 and 2 , the mobile terminal 200 checks the playback time of the second video currently being played in the mobile terminal 200 and generates the second control data Dc2 accordingly. can The second lighting control time series data Dn2 is data synchronized with the second streaming data Dv2, and color data according to the second video playback time may be arranged. Accordingly, the mobile terminal 200 may convert the color data corresponding to the second video playback time into the control data Dc.

이때, 모바일 단말기(200)는 제2 동영상 재생 시간에 실시간으로 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수 있다. 이 경우, 변환 자체가 바로바로 이루어지므로 추가적인 연산이 필요 없어 전체 동작의 속도가 빨라질 수 있다.In this case, the mobile terminal 200 may convert the color data of the second lighting control time series data Dn2 to the second control data Dc2 in real time at the second video playback time. In this case, since the conversion itself is performed immediately, an additional operation is not required, and thus the speed of the entire operation may be increased.

또는, 모바일 단말기(200)는 제2 동영상 재생 시간으로부터 버퍼 시간을 확보하여 지연 호출을 이용하여 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수도 있다. 이 경우, 제2 동영상 재생과 제2 제어 데이터(Dc2)의 변환과의 동기화가 미리 연산되므로 동기화가 실패할 가능성을 최소화할 수 있다. 버퍼 시간을 활용하는 방법은 추후에 더 자세히 설명한다.Alternatively, the mobile terminal 200 may convert the color data of the second lighting control time series data (Dn2) into the second control data (Dc2) by using a delay call by securing the buffer time from the second video playback time. In this case, since the synchronization between the reproduction of the second video and the conversion of the second control data Dc2 is calculated in advance, the possibility of synchronization failure can be minimized. How to use the buffer time will be described in more detail later.

다시, 도 13을 참조하면, 제2 제어 데이터를 응원봉으로 전송한다(S180).Again, referring to FIG. 13 , the second control data is transmitted to the light stick (S180).

구체적으로, 도 1을 참조하면, 모바일 단말기(200)는 제2 제어 데이터(Dc2)를 근거리 통신 기술을 통해서 응원봉(300)으로 전송할 수 있다.Specifically, referring to FIG. 1 , the mobile terminal 200 may transmit the second control data Dc2 to the light stick 300 through short-range communication technology.

도 14는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 블록도이다. 도 14는 도 13의 S170 단계의 세부 단계를 도시한다. 도 15 내지 도 19는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 중간 단계 도면들이다.14 is a block diagram for explaining in detail the control data generation step of FIG. 13 . FIG. 14 shows detailed steps of step S170 of FIG. 13 . 15 to 19 are intermediate step diagrams for explaining in detail the control data generation step of FIG. 13 .

도 14를 참조하면, 제2 동영상 재생 시간을 수신한다(S171).Referring to FIG. 14 , a second video playback time is received ( S171 ).

구체적으로, 도 15를 참조하면, 현재 재생시간을 확인할 수 있다. 현재 재생시간은 시간이 흐르면 계속해서 진행할 수 있다.Specifically, referring to FIG. 15 , the current playback time may be checked. The current playback time can be continued as time passes.

다시, 도 14을 참조하면, 제2 동영상 재생 시간에서 가장 가까운 제1 미래 시간의 제2 조명 제어 시계열 데이터를 검색한다(S172). Again, referring to FIG. 14 , the second lighting control time series data of the first future time closest to the second video playback time is searched (S172).

구체적으로, 도 15를 참조하면, 제2 조명 제어 시계열 데이터(Dn2)는 단위 시간을 가질 수 있다. 이때, 예시적으로 단위 시간이 1초(1s)로 도시될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 제2 조명 제어 시계열 데이터(Dn2)는 단위 시간별로 컬러 데이터를 포함할 수 있다. Specifically, referring to FIG. 15 , the second lighting control time series data Dn2 may have a unit time. In this case, for example, the unit time may be illustrated as 1 second (1s). However, the present embodiment is not limited thereto. The second lighting control time series data Dn2 may include color data for each unit time.

제1 미래 시간(T1)은 제2 조명 제어 시계열 데이터(Dn2)의 단위 시간에 해당하는 시간 중 어느 하나일 수 있다. 제1 미래 시간(T1)은 제2 동영상의 현재 재생시간으로부터 미래에 위치할 수 있다. 제1 미래 시간(T1)은 제2 동영상의 현재 재생시간에서 가장 가까운 미래의 단위 시간일 수 있다.The first future time T1 may be any one of the times corresponding to the unit time of the second lighting control time series data Dn2. The first future time T1 may be located in the future from the current playback time of the second video. The first future time T1 may be a unit time of the nearest future from the current playback time of the second video.

다시, 도 14를 참조하면, 제1 미래 시간으로부터 제1 시간만큼의 버퍼시간에 대한 제2 조명 제어 시계열 데이터를 미리 저장한다(S173). Again, referring to FIG. 14 , the second lighting control time series data for the buffer time of the first time from the first future time is stored in advance (S173).

구체적으로, 도 16을 참조하면, 제1 미래 시간(T1)으로부터 제1 시간(P1)만큼 버퍼 시간(Tb)이 설정될 수 있다. 버퍼 시간(Tb)에 대한 제2 조명 제어 시계열 데이터(Dn2)는 모바일 단말기(200)에서 미리 저장될 수 있다. 이때, “저장”은 제2 제어 데이터(Dc2)의 변환을 위해 메모리에 저장되는 것을 의미하고, 스트리밍 서버(100)에서 모바일 단말기(200)로 수신되는 것과는 다른 의미일 수 있다.Specifically, referring to FIG. 16 , the buffer time Tb may be set from the first future time T1 to the first time P1. The second lighting control time series data (Dn2) for the buffer time (Tb) may be stored in advance in the mobile terminal (200). At this time, “store” means to be stored in the memory for conversion of the second control data Dc2, and may have a different meaning from that received from the streaming server 100 to the mobile terminal 200.

버퍼 시간(Tb)을 미리 저장하는 이유는, 동영상과 조명 제어 시계열 데이터의 싱크를 정확히 맞추기 위해서 미리 지연 호출을 설정할 시간이 필요하기 때문이다. 버퍼 시간(Tb)은 현재 재생시간이 변함에 따라서 줄어드는 시간일 수 있다. 따라서, 버퍼 시간(Tb)이 미리 결정된 최소 버퍼 시간만큼 줄어드는 경우 버퍼 시간(Tb)을 다시 제1 시간(P1)으로 늘릴 수 있다.The reason for storing the buffer time (Tb) in advance is that it is necessary to set a delay call in advance in order to accurately synchronize the video and the lighting control time series data. The buffer time Tb may be reduced as the current playback time is changed. Accordingly, when the buffer time Tb is reduced by the predetermined minimum buffer time, the buffer time Tb may be increased back to the first time P1.

이때, 제1 시간(P1)은 버퍼 시간(Tb)이 줄어들기 전 초기 시간을 의미할 수 있다. 제1 시간(P1)을 크게 설정할수록 버퍼 시간(Tb)을 늘리는 작업의 횟수가 줄어들어 연산량이 줄어들 수 있다. 반대로, 제1 시간(P1)을 작게 설정할수록 연산량이 늘어날 수 있다. 다만, 제1 시간(P1)을 너무 크게 설정하는 경우 지연 호출과 제2 동영상의 재생시간 즉, 제2 스트리밍 데이터(Dv2)의 동기화가 어긋날 확률이 커질 수 있다.In this case, the first time P1 may mean an initial time before the buffer time Tb decreases. As the first time P1 is set to be larger, the number of operations to increase the buffer time Tb may be reduced, and thus the amount of calculation may be reduced. Conversely, as the first time P1 is set smaller, the amount of calculation may increase. However, when the first time P1 is set too large, the probability of out of synchronization between the delayed call and the playback time of the second video, that is, the second streaming data Dv2 may increase.

따라서, 제1 시간(P1)은 너무 크지도, 너무 작지도 않은 적절한 크기의 시간으로 설정해야 한다. 예를 들어, 제1 시간(P1)은 2초 내지 3초일 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.Accordingly, the first time P1 should be set to an appropriate size that is neither too large nor too small. For example, the first time P1 may be 2 seconds to 3 seconds, but the present embodiment is not limited thereto.

다시, 도 14를 참조하면, 버퍼 시간 내에 위치한 컬러 데이터에 대해서 지연 호출을 예약한다(S174).Again, referring to FIG. 14, a delayed call is reserved for color data located within the buffer time (S174).

구체적으로, 도 16을 참조하면, 현재 재생시간을 기준으로 컬러 데이터가 위치한 단위 시간과의 제1 지연 시간(TL1)을 계산한다. 계산된 제1 지연 시간(TL1)을 이용하여 지연 호출을 예약할 수 있다. 즉, 현재 재생시간을 기준으로 제1 지연 시간(TL1)이후에 3초 내지 4초 사이의 컬러 데이터가 지연 호출될 수 있다. 여기서, “호출”이란 제2 제어 데이터(Dc2)로 변환되기 위해서 로드되는 것을 의미한다. 이러한 지연 호출 방식을 통해서, 제2 동영상 재생을 위한 제2 스트리밍 데이터(Dv2)와 제2 조명 제어 시계열 데이터(Dn2)가 동기화될 수 있다.Specifically, referring to FIG. 16 , a first delay time TL1 with respect to a unit time in which color data is located is calculated based on the current playback time. A delayed call may be reserved using the calculated first delay time TL1. That is, color data between 3 seconds and 4 seconds after the first delay time TL1 based on the current playback time may be called with a delay. Here, “call” means that it is loaded to be converted into the second control data Dc2. Through this delayed call method, the second streaming data (Dv2) and the second lighting control time series data (Dn2) for the second video playback can be synchronized.

다시, 도 14를 참조하면, 버퍼 시간이 최소 버퍼 시간보다 큰지를 판단한다(S175). Again, referring to FIG. 14, it is determined whether the buffer time is greater than the minimum buffer time (S175).

만일 버퍼 시간이 최소 버퍼 시간보다 크거나 같은 경우 지연 호출된 컬러 데이터를 제2 제어 데이터로 변환한다(S177).If the buffer time is greater than or equal to the minimum buffer time, the delayed-called color data is converted into second control data (S177).

구체적으로, 도 16 및 도 17을 참조하면, 현재 재생시간이 진행함에 따라서 버퍼 시간(Tb)의 크기는 줄어들어 제1 시간(P1)에서 제2 시간(P2)으로 줄어들 수 있다. 그러나, 제2 시간(P2)은 미리 설정된 최소 버퍼 시간보다 크기가 크거나 같을 수 있다. 이에 따라서, 버퍼 시간(Tb)의 크기를 변환하지 않고, 계속해서 내부에 위치한 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수 있다.Specifically, referring to FIGS. 16 and 17 , the buffer time Tb may decrease from the first time P1 to the second time P2 as the current playback time progresses. However, the second time P2 may be greater than or equal to the preset minimum buffer time. Accordingly, the color data located therein may be continuously converted into the second control data Dc2 without changing the size of the buffer time Tb.

다시, 도 14를 참조하면, 만일 버퍼 시간이 최소 버퍼 시간보다 작은 경우 지연 호출된 컬러 데이터를 버퍼 시간을 제1 시간으로 확장한다(S176). 이어서, 다시 버퍼 시간 내에 위치한 컬러 데이터에 대해서 지연 호출을 예약한다(S174).Again, referring to FIG. 14 , if the buffer time is less than the minimum buffer time, the buffer time of the delayed-called color data is extended to the first time ( S176 ). Next, a delayed call is reserved for the color data located within the buffer time again (S174).

구체적으로, 도 18 및 도 19를 참조하면, 제3 시간(P3)은 미리 설정된 최소 버퍼 시간보다 크기가 작을 수 있다. 이에 따라서, 버퍼 시간(Tb)은 다시 제1 시간(P1)의 크기로 확장될 수 있다. 현재 재생시간이 진행함에 따라서, 제1 지연 시간(TL1)도 줄어들 수 있다. 또한, 버퍼 시간(Tb)이 확장됨에 따라서, 5초와 6초 사이의 컬러 데이터에 대한 제2 지연 시간(TL2)이 계산될 수 있다. 계산된 제2 지연 시간(TL2)을 이용하여 지연 호출을 예약할 수 있다. 즉, 현재 재생시간을 기준으로 제2 지연 시간(TL2)이후에 5초 내지 6초 사이의 컬러 데이터가 지연 호출될 수 있다.Specifically, referring to FIGS. 18 and 19 , the third time P3 may be smaller than the preset minimum buffer time. Accordingly, the buffer time Tb may be extended to the size of the first time P1 again. As the current playback time progresses, the first delay time TL1 may also decrease. Also, as the buffer time Tb is extended, a second delay time TL2 for color data between 5 and 6 seconds may be calculated. A delayed call may be reserved using the calculated second delay time TL2. That is, after the second delay time TL2 based on the current playback time, color data between 5 seconds and 6 seconds may be called with a delay.

이런 방식으로, 3초 내지 4초, 5초 내지 6초 및 7초 내지 8초에 위치한 컬러 데이터의 지연 호출이 제2 동영상 재생과 동기화되어 수행될 수 있다.In this way, delayed calling of color data located at 3 seconds to 4 seconds, 5 seconds to 6 seconds, and 7 seconds to 8 seconds can be performed in synchronization with the reproduction of the second moving picture.

도 20은 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 설명하기 위한 복수 주체 순서도이다.20 is a multi-subject flowchart for explaining a data transmission method for controlling a light stick according to some embodiments of the present invention.

도 20을 참조하면, 모바일 단말기(200)는 스트리밍 서버(100)로 제1 조명 제어 시계열 데이터를 요청한다(S11). 이어서, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터를 제공받는다(S12).Referring to FIG. 20 , the mobile terminal 200 requests the first lighting control time series data to the streaming server 100 ( S11 ). Subsequently, the mobile terminal 200 receives the first lighting control time series data from the streaming server 100 (S12).

이어서, 응원봉(300)은 모바일 단말기(200)에게 페어링을 요청한다(S13). 단, 근거리 무선 기술이 블루투스인 경우에는 페어링을 요청하고, 다른 기술인 경우에는 페어링 외에 다른 방식의 연결을 요청할 수 있다. 또한, 요청의 방향은 응원봉(300)에서 모바일 단말기(200)쪽일 수 있고, 반대로 모바일 단말기(200)에서 응원봉(300)쪽일 수도 있다. 이어서, 모바일 단말기(200)는 응원봉(300)과 페어링이 완료될 수 있다(S14).Then, the light stick 300 requests the mobile terminal 200 to pair (S13). However, when the short-range wireless technology is Bluetooth, pairing may be requested, and in the case of another technology, a connection other than pairing may be requested. In addition, the direction of the request may be from the light rod 300 to the mobile terminal 200 side, and vice versa, from the mobile terminal 200 to the light rod 300 side. Subsequently, the mobile terminal 200 may be paired with the light stick 300 (S14).

이어서, 모바일 단말기(200)는 스트리밍 서버(100)로 제1 및 제2 스트리밍 데이터를 요청한다(S15). 이어서, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 및 제2 스트리밍 데이터를 제공받는다(S16).Next, the mobile terminal 200 requests the first and second streaming data to the streaming server 100 (S15). Then, the mobile terminal 200 receives the first and second streaming data from the streaming server 100 (S16).

상술한 설명에서는 S11 및 S12 단계와, S13 및 S14 단계와, S15 및 S16 단계가 순차적인 것으로 설명되었지만, 본 실시예가 이에 제한되는 것은 아니다. S11 및 S12 단계와, S13 및 S14 단계와, S15 및 S16 단계는 서로 병렬적으로 수행될 수 있다. 즉, S11 단계와, S13 단계와 S15 단계 중 어느 단계라도 가장 먼저 수행될 수 있고, S12 단계와, S14 단계와 S16 단계 중 어느 단계라도 가장 나중에 수행될 수 있다.In the above description, steps S11 and S12, steps S13 and S14, and steps S15 and S16 have been described as being sequential, but the present embodiment is not limited thereto. Steps S11 and S12, steps S13 and S14, and steps S15 and S16 may be performed in parallel with each other. That is, any of the steps S11, S13, and S15 may be performed first, and any of the steps S12, S14, and S16 may be performed last.

이어서, 모바일 단말기(200)가 제2 조명 제어 시계열 데이터를 생성한다(S17). 이어서, 모바일 단말기(200)가 제2 동영상을 재생한다(S18). 이어서, 모바일 단말기(200)가 제2 조명 제어 시계열 데이터에서 제2 제어 데이터를 생성한다(S19). 이어서, 모바일 단말기(200)가 응원봉(300)으로 제2 제어 데이터를 전송한다(S20). 이어서, 응원봉(300)의 컬러가 변화될 수 있다(S21).Then, the mobile terminal 200 generates a second lighting control time series data (S17). Next, the mobile terminal 200 plays the second video (S18). Then, the mobile terminal 200 generates the second control data from the second lighting control time series data (S19). Next, the mobile terminal 200 transmits the second control data to the light stick 300 (S20). Subsequently, the color of the light rod 300 may be changed (S21).

본 실시예에 따른 조명 제어 시계열 데이터 생성 장치는 모바일 단말기(200)의 사용자가 온라인으로 스트리밍 데이터를 수신하여 동영상을 재생할 때, 그와 동기화된 응원봉의 컬러 변화를 경험할 수 있다.When the user of the mobile terminal 200 receives streaming data online and plays a video, the lighting control time series data generating device according to this embodiment may experience a color change of the light stick synchronized with it.

이를 통해서, 공연장이 아니라도, 응원봉(300)을 통해서 오프라인 공연에 참석한 것과 같은 경험을 얻을 수 있고, 동영상 컨텐츠와 동기화된 컬러 변화를 통해서 단순히 동영상 컨텐츠를 감상하는 것을 넘어 응원봉의 컬러 및 점멸 패턴을 통해서 차별화된 사용자 경험을 제공할 수 있다.Through this, you can get the same experience as attending an offline performance through the light stick 300, even if you are not in a concert hall. A differentiated user experience can be provided through patterns.

또한, 유사한 동영상에 대한 스트리밍 데이터가 있는 경우, 수작업으로 새로운 조명 제어 시계열 데이터를 제작하지 않고, 자동으로 유사한 부분을 복제하여 손쉽게 조명 제어 시계열 데이터를 제작할 수 있다.In addition, if there is streaming data for a similar video, it is possible to easily create lighting control time series data by automatically duplicating similar parts without manually producing new light control time series data.

나아가, 이러한 조명 제어 시계열 데이터의 제작은 모바일 단말기(200)에서도 가능하므로, 모바일 단말기(200)의 사용자도 손쉽게 조명 제어 시계열 데이터를 제작할 수 있다.Furthermore, since the production of such light control time series data is also possible in the mobile terminal 200 , the user of the mobile terminal 200 can also easily produce light control time series data.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible without departing from the essential characteristics of the present embodiment by those skilled in the art to which this embodiment belongs. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (11)

스트리밍 서버로부터 제1 스트리밍 데이터, 제2 스트리밍 데이터 및 상기 제1 스트리밍 데이터와 동기화되어 변화하는 응원봉의 컬러 데이터가 기록된 제1 조명 제어 시계열 데이터를 수신하고,
상기 제1 스트리밍 데이터 및 상기 제2 스트리밍 데이터의 유사 부분을 추출하고,
상기 제1 스트리밍 데이터의 유사 부분에 대응하는 제1 조명 제어 시계열 데이터의 부분을 상기 제2 스트리밍 데이터의 유사 부분에 대응한 영역에 복제한 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 미완성 부분과 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분을 포함하고,
상기 미완성 부분을 채워서 상기 프리 조명 제어 시계열 데이터를 제2 조명 제어 시계열 데이터로 완성하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
Receive the first lighting control time series data in which the color data of the light stick changing in synchronization with the first streaming data, the second streaming data and the first streaming data is recorded from the streaming server,
Extracting a similar portion of the first streaming data and the second streaming data,
A portion of the first lighting control time series data corresponding to the similar portion of the first streaming data is reproduced in an area corresponding to the similar portion of the second streaming data to generate pre-lighting control time-series data, the pre-lighting control time-series data includes an incomplete part and a completed part in which a part of the first lighting control time series data is duplicated,
Lighting control time-series data generating method comprising completing the pre-lighting control time-series data as second lighting control time-series data by filling the incomplete part.
제1 항에 있어서,
상기 제2 스트리밍 데이터로 동영상을 재생하면서 상기 동영상의 재생 시간을 획득하고,
상기 재생 시간에 대응하는 상기 제2 조명 제어 시계열 데이터의 컬러 데이터를 제어 데이터로 변환하고,
상기 제어 데이터를 상기 응원봉으로 전소하는 것을 더 포함하는 조명 제어 시계열 데이터 생성 방법.
According to claim 1,
Obtaining the playback time of the video while playing the video with the second streaming data,
Converting the color data of the second lighting control time series data corresponding to the reproduction time into control data,
Lighting control time series data generation method further comprising burning the control data to the light stick.
제1 항에 있어서,
상기 유사 부분을 추출하는 것은,
제1 스트리밍 데이터를 제1 이미지 데이터 및 제1 사운드 데이터로 분리하고,
제2 스트리밍 데이터를 제1 이미지 데이터 및 제2 사운드 데이터로 분리하고,
상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고,
상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하고,
상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
According to claim 1,
Extracting the similar part is
separating the first streaming data into first image data and first sound data;
separating the second streaming data into first image data and second sound data;
extracting first pitch data and first magnitude data from the first sound data;
extracting second pitch data and second magnitude data from the second sound data;
Lighting control time series data generating method comprising extracting a similar portion between the first pitch data and the second pitch data.
제3 항에 있어서,
상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것은,
상기 제1 및 제2 피치 데이터 사이의 피치 유사도를 판단하고,
상기 제1 및 제2 크기 데이터 사이의 크기 유사도를 판단하고,
상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 상기 유사 부분을 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
4. The method of claim 3,
Extracting a similar portion between the first pitch data and the second pitch data comprises:
determining a pitch similarity between the first and second pitch data;
determining a size similarity between the first and second size data;
Lighting control time series data generating method comprising extracting the similarity by determining the final similarity in consideration of the pitch similarity and the size similarity.
제4 항에 있어서,
상기 최종 유사도를 판단하는 것은,
상기 제1 및 제2 이미지 데이터의 이미지 유사도를 판단하고,
상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 상기 최종 유사도를 판단하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
5. The method of claim 4,
To determine the final similarity,
determining the image similarity of the first and second image data;
Lighting control time series data generation method comprising determining the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity.
제3 항에 있어서,
상기 유사 부분을 추출하는 것은 인공지능을 통해서 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
4. The method of claim 3,
Extracting the similar part is a lighting control time series data generation method comprising extracting through artificial intelligence.
제1 및 제2 스트리밍 데이터를 수신하고, 상기 제1 스트리밍 데이터를 제1 이미지 데이터와 제1 사운드 데이터로 분리하고, 상기 제2 스트리밍 데이터를 제2 이미지 데이터와 제2 사운드 데이터로 분리하는 이미지 및 사운드 데이터 분리부;
상기 제1 스트리밍 데이터와 동기화된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 및 제2 사운드 데이터의 유사 부분을 추출하고, 상기 유사 부분과 상기 제1 조명 제어 시계열 데이터를 기반으로 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분과 미완성 부분을 포함하는 유사 특징 추출부; 및
상기 프리 조명 제어 시계열 데이터의 미완성 부분을 채워 제2 조명 제어 시계열 데이터 완성부를 포함하는 조명 제어 시계열 데이터 생성 장치.
an image for receiving first and second streaming data, separating the first streaming data into first image data and first sound data, and separating the second streaming data into second image data and second sound data; and sound data separation unit;
Receive the first lighting control time-series data synchronized with the first streaming data, extract a similar part of the first and second sound data, and pre-light control based on the similar part and the first lighting control time-series data A similar feature extraction unit that generates time-series data, wherein the pre-lighting control time-series data includes a completed part and an incomplete part in which a part of the first lighting control time-series data is duplicated; and
Lighting control time-series data generating device including a second lighting control time-series data completion unit by filling the incomplete part of the pre-lighting control time-series data.
제7 항에 있어서,
상기 유사 특징 추출부는,
상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하는 데이터 전처리부와,
상기 제1 및 제2 피치 데이터 사이의 유사 부분을 검출하는 유사 부분 검출부와,
상기 제1 조명 제어 시계열 데이터와 상기 유사 부분을 통해서 상기 프리 조명 제어 시계열 데이터의 완성 부분을 복제하는 조명 제어 시계열 데이터 형성부를 포함하는 조명 제어 시계열 데이터 생성 장치.
8. The method of claim 7,
The similar feature extraction unit,
a data preprocessing unit for extracting first pitch data and first size data from the first sound data and extracting second pitch data and second size data from the second sound data;
a similarity detection unit for detecting a similarity between the first and second pitch data;
Lighting control time-series data generating device comprising a lighting control time-series data forming unit for duplicating the complete part of the pre-lighting control time-series data through the first lighting control time-series data and the similar part.
제8 항에 있어서,
상기 유사 부분 검출부는,
상기 제1 및 제2 피치 데이터의 피치 유사도를 평가하는 피치 유사도 평가부와,
상기 제1 및 제2 크기 데이터의 크기 유사도를 평가하는 크기 유사도 평가부와,
상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 최종 유사도 판단부를 포함하는 조명 제어 시계열 데이터 생성 장치.
9. The method of claim 8,
The similar part detection unit,
a pitch similarity evaluation unit for evaluating the pitch similarity of the first and second pitch data;
a size similarity evaluation unit for evaluating the size similarity of the first and second size data;
Lighting control time series data generating apparatus comprising a final similarity determining unit for extracting a similar portion by determining the final similarity in consideration of the pitch similarity and the size similarity.
제9 항에 있어서,
상기 유사 부분 검출부는 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 평가하는 이미지 유사도 평가부를 더 포함하고,
상기 최종 유사도 판단부는 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 조명 제어 시계열 데이터 생성 장치.
10. The method of claim 9,
The similarity detection unit further comprises an image similarity evaluation unit for evaluating the image similarity of the first and second image data,
The final similarity determining unit determines the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity, and extracts a similar part by determining the final similarity.
제7 항에 있어서,
상기 제1 및 제2 조명 제어 시계열 데이터를 각각 제1 및 제2 제어 데이터로 변환하여 응원봉으로 전송하는 제어 데이터 변환부를 더 포함하는 조명 제어 시계열 데이터 생성 장치.
8. The method of claim 7,
Lighting control time series data generating device further comprising a control data conversion unit for converting the first and second light control time series data into first and second control data, respectively, and transmits to the light stick.
KR1020200113954A 2020-09-07 2020-09-07 Method for generating light control time series data and Apparatus thereof KR102476567B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200113954A KR102476567B1 (en) 2020-09-07 2020-09-07 Method for generating light control time series data and Apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200113954A KR102476567B1 (en) 2020-09-07 2020-09-07 Method for generating light control time series data and Apparatus thereof

Publications (2)

Publication Number Publication Date
KR20220032318A true KR20220032318A (en) 2022-03-15
KR102476567B1 KR102476567B1 (en) 2022-12-13

Family

ID=80816838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200113954A KR102476567B1 (en) 2020-09-07 2020-09-07 Method for generating light control time series data and Apparatus thereof

Country Status (1)

Country Link
KR (1) KR102476567B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102577977B1 (en) * 2023-01-03 2023-09-13 주식회사 팬라이트 System and method for controlling lighting supporting multiple modes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100100224A (en) * 2009-03-05 2010-09-15 주식회사 코아로직 Decoding apparatus and decoding method
JP2014041453A (en) * 2012-08-22 2014-03-06 Yokogawa Electric Corp Data similarity calculation method and data similarity calculation apparatus
KR20200047467A (en) * 2020-04-17 2020-05-07 최지선 Remotely performance directing system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100100224A (en) * 2009-03-05 2010-09-15 주식회사 코아로직 Decoding apparatus and decoding method
JP2014041453A (en) * 2012-08-22 2014-03-06 Yokogawa Electric Corp Data similarity calculation method and data similarity calculation apparatus
KR20200047467A (en) * 2020-04-17 2020-05-07 최지선 Remotely performance directing system and method

Also Published As

Publication number Publication date
KR102476567B1 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
CN109166593B (en) Audio data processing method, device and storage medium
US11944917B2 (en) Media synchronized control of peripherals
JP2021192222A (en) Video image interactive method and apparatus, electronic device, computer readable storage medium, and computer program
WO2019114516A1 (en) Media information display method and apparatus, storage medium, and electronic apparatus
CN109923859A (en) The adjoint equipment of live collaboration is carried out in teleconference session
CN109874021A (en) Living broadcast interactive method, apparatus and system
CN108345385A (en) Virtual accompany runs the method and device that personage establishes and interacts
KR20140081636A (en) Method and terminal for reproducing content
KR102476567B1 (en) Method for generating light control time series data and Apparatus thereof
WO2021015946A1 (en) Automated regeneration of low quality content to high quality content
KR102449559B1 (en) Method for controlling color of cheer stick and Apparatus thereof
WO2022271088A1 (en) Animation effect attachment based on audio characteristics
KR102446031B1 (en) Method for transmitting data for controlling cheer stick and Apparatus thereof
CN109743609A (en) Control method, system, terminal and the storage medium that television equipment is shown
CN110990632B (en) Video processing method and device
WO2023179406A1 (en) Playing information synchronization method and apparatus, and terminal device and storage medium
WO2023134568A1 (en) Display method and apparatus, electronic device, and storage medium
CN110868471A (en) Novel equipment construction method and device and storage medium
KR102446029B1 (en) Method for transmitting data for controlling cheer stick and Apparatus thereof
US20220406337A1 (en) Segmentation contour synchronization with beat
EP3588972A1 (en) Master reproduction device, slave reproduction device, and light emission methods therefor
CN110012309B (en) System and method for making intelligent co-shooting video
US20220113932A1 (en) Information processing device controlling sound according to simultaneous actions of two users
KR102419339B1 (en) Method for displaying video
CN106997770A (en) The electronic installation of document-video in-pace control method, document-video in-pace control system and correlation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant