KR20220032318A - Method for generating light control time series data and Apparatus thereof - Google Patents
Method for generating light control time series data and Apparatus thereof Download PDFInfo
- Publication number
- KR20220032318A KR20220032318A KR1020200113954A KR20200113954A KR20220032318A KR 20220032318 A KR20220032318 A KR 20220032318A KR 1020200113954 A KR1020200113954 A KR 1020200113954A KR 20200113954 A KR20200113954 A KR 20200113954A KR 20220032318 A KR20220032318 A KR 20220032318A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- lighting control
- control time
- similarity
- series data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000001360 synchronised effect Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000000926 separation method Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000011295 pitch Substances 0.000 description 55
- 238000004891 communication Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 27
- 230000008859 change Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 14
- 230000004397 blinking Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000003111 delayed effect Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/165—Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H33/00—Other toys
- A63H33/22—Optical, colour, or shadow toys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
- H05B47/19—Controlling the light source by remote control via wireless transmission
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
Description
본 발명은 조명 제어 시계열 데이터 생성 방법 및 장치에 관한 것이다. 구체적으로, 본 발명은 기존에 존재하는 조명 제어 시계열 데이터를 이용하여 새로운 조명 제어 시계열 데이터를 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating lighting control time series data. Specifically, the present invention relates to a method and apparatus for generating new lighting control time series data using existing lighting control time series data.
응원봉의 발광부를 포함하고 있어, 다양한 컬러의 빛을 발산하거나, 빛을 점멸시켜 시간에 따라 변화되는 빛 표현을 나타낼 수 있는 장치이다. 이러한 응원봉은 특정 가수들의 전용으로 제작되어 가수들의 공연에 조화로운 객석의 컬러 패턴을 표현하는 방식으로 사용되어 왔다. 응원봉의 색온도와 점멸 패턴이 공연의 음악에 동기화되어 조화롭게 변화하는 것으로서 가수와 관객의 공통된 문화 경험을 이끌어 낼 수 있었다.It includes the light emitting part of the light stick, so it is a device that can emit light of various colors or display the light expression that changes with time by flashing the light. These light sticks were produced exclusively for specific singers and have been used as a way to express the color pattern of the audience harmonious to the singers' performances. As the color temperature and blinking pattern of the light stick change harmoniously in synchronization with the music of the performance, it was possible to bring out a common cultural experience of the singer and the audience.
최근의 가수들의 오프라인 공연에서 사용되는 응원봉은 근거리 무선 통신을 통해서 사용된다. 구체적으로, 응원봉의 사용자가 공연에 참석하여 본인이 착석하는 좌석 번호를 입력하면 좌석의 위치에 따라 응원봉의 컬러 변화를 하나의 제어 데스크에서 일괄적으로 조절하여, 참석자의 응원봉들은 공연 객석에서 다양한 컬러 패턴을 형성할 수 있다. 이를 통해서, 공연의 참석자들이 객석에서 공연과 어우러지는 다채로운 경험을 할 수 있었다.The light stick used in the recent offline performances of singers is used through short-range wireless communication. Specifically, when the user of the light stick participates in the performance and inputs the seat number where he or she sits, the color change of the light stick is collectively controlled at one control desk according to the position of the seat, so that the light sticks of the attendees can be displayed in various ways in the performance audience. A color pattern can be formed. Through this, the participants of the performance were able to experience a variety of harmonious experiences in the audience.
그러나, 이러한 응원봉의 오프라인 사용은 공연에 참석한 제한된 상황에서만 이루어질 수 있어, 응원봉의 활용도를 높이는 방안에 대한 시도가 있어왔다. 특히, 응원봉의 활용을 오프라인뿐만 아니라 온라인으로 확대하고자 하는 시도가 그 중 하나이다.However, the offline use of such a light stick can be made only in a limited situation attending a performance, so there have been attempts to increase the utility of the light stick. In particular, one of them is an attempt to expand the use of light sticks online as well as offline.
이때, 응원봉의 제어를 위해서는 동영상과 동기화된 조명 제어 시계열 데이터가 필요하고, 이러한 조명 제어 시계열 데이터의 제작은 동영상의 타임 라인을 따라 일일이 수작업으로 진행될 수 있다. 이에 따라서, 조명 제어 시계열 데이터의 생성은 많은 시간과 노력이 필요하고, 많은 동영상에 조명 제어 시계열 데이터를 제작하는 것이 어려울 수 있다. 따라서, 조명 제어 시계열 데이터의 제작이 빠르고 효율적으로 이루어질 수 있다면 훨씬 자유롭게 사용자들이 응원봉을 동영상과 연동하여 제어할 수 있다.At this time, in order to control the light stick, lighting control time series data synchronized with the moving picture is required, and the production of such light control time series data can be performed manually one by one along the time line of the moving picture. Accordingly, the generation of the light control time series data requires a lot of time and effort, and it may be difficult to produce the light control time series data for many moving pictures. Therefore, if the production of the lighting control time series data can be done quickly and efficiently, users can control the light stick in conjunction with the moving picture much more freely.
본 발명의 과제는, 미리 제작된 조명 제어 시계열 데이터를 이용하여 손쉽게 새로운 조명 제어 시계열 데이터를 생성하는 조명 제어 시계열 데이터 생성 방법 을 제공하는 것이다.An object of the present invention is to provide a lighting control time series data generation method for easily generating new lighting control time series data using pre-fabricated lighting control time series data.
또한, 본 발명의 다른 과제는, 미리 제작된 조명 제어 시계열 데이터를 이용하여 손쉽게 새로운 조명 제어 시계열 데이터를 생성하는 조명 제어 시계열 데이터 생성 장치를 제공하는 것이다.In addition, another object of the present invention is to provide a lighting control time series data generating apparatus for easily generating new lighting control time series data using pre-fabricated light control time series data.
또한, 본 발명의 또 다른 과제는, 컴퓨팅 장치와 결합하여 스트리밍 데이터 내부에 응원봉의 제어를 위한 데이터를 임베딩하여 전송 효율을 높이는 응원봉 제어를 위한 데이터 전송 방법을 실행시키는 컴퓨터 프로그램을 제공하는 것이다.In addition, another object of the present invention is to provide a computer program for executing a data transmission method for controlling a light rod to increase transmission efficiency by embedding data for control of a light rod in streaming data in combination with a computing device.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 방법은 스트리밍 서버로부터 제1 스트리밍 데이터, 제2 스트리밍 데이터 및 상기 제1 스트리밍 데이터와 동기화되어 변화하는 응원봉의 컬러 데이터가 기록된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 스트리밍 데이터 및 상기 제2 스트리밍 데이터의 유사 부분을 추출하고, 상기 제1 스트리밍 데이터의 유사 부분에 대응하는 제1 조명 제어 시계열 데이터의 부분을 상기 제2 스트리밍 데이터의 유사 부분에 대응한 영역에 복제한 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 미완성 부분과 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분을 포함하고, 상기 미완성 부분을 채워서 상기 프리 조명 제어 시계열 데이터를 제2 조명 제어 시계열 데이터로 완성하는 것을 포함한다.Lighting control time series data generation method according to some embodiments of the present invention for solving the above problems, the first streaming data from the streaming server, the second streaming data and the color data of the light stick changing in synchronization with the first streaming data is recorded Receive the first lighting control time-series data, extract a similar portion of the first streaming data and the second streaming data, and a portion of the first lighting control time-series data corresponding to the similar portion of the first streaming data Creates a duplicated pre-lighting control time-series data in an area corresponding to a similar part of the second streaming data, wherein the pre-lighting control time-series data includes an incomplete part and a completed part in which a part of the first lighting control time-series data is duplicated, , Completing the pre-lighting control time-series data into the second lighting-control time-series data by filling the incomplete part.
또한, 상기 제2 스트리밍 데이터로 동영상을 재생하면서 상기 동영상의 재생 시간을 획득하고, 상기 재생 시간에 대응하는 상기 제2 조명 제어 시계열 데이터의 컬러 데이터를 제어 데이터로 변환하고, 상기 제어 데이터를 상기 응원봉으로 전소하는 것을 더 포함할 수 있다.In addition, obtaining the playback time of the video while playing the video with the second streaming data, converting the color data of the second lighting control time series data corresponding to the reproduction time into control data, and supporting the control data It may further include burning with a rod.
또한, 상기 유사 부분을 추출하는 것은, 제1 스트리밍 데이터를 제1 이미지 데이터 및 제1 사운드 데이터로 분리하고, 제2 스트리밍 데이터를 제1 이미지 데이터 및 제2 사운드 데이터로 분리하고, 상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하고, 상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것을 포함할 수 있다.In addition, the extracting of the similar part includes separating first streaming data into first image data and first sound data, separating second streaming data into first image data and second sound data, and the first sound extracting first pitch data and first magnitude data from the data, extracting second pitch data and second magnitude data from the second sound data, and extracting a similar portion between the first pitch data and the second pitch data This may include extraction.
또한, 상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것은, 상기 제1 및 제2 피치 데이터 사이의 피치 유사도를 판단하고, 상기 제1 및 제2 크기 데이터 사이의 크기 유사도를 판단하고, 상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 상기 유사 부분을 추출하는 것을 포함할 수 있다.In addition, extracting the similarity portion between the first pitch data and the second pitch data determines the pitch similarity between the first and second pitch data, and the magnitude similarity between the first and second pitch data. and extracting the similar part by determining the final similarity in consideration of the pitch similarity and the size similarity.
또한, 상기 최종 유사도를 판단하는 것은, 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 판단하고, 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 상기 최종 유사도를 판단하는 것을 포함할 수 있다.Also, determining the final similarity may include determining the image similarity of the first and second image data, and determining the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity. .
또한, 상기 유사 부분을 추출하는 것은 인공지능을 통해서 추출하는 것을 포함할 수 있다.Also, extracting the similar part may include extracting through artificial intelligence.
상기 다른 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는 제1 및 제2 스트리밍 데이터를 수신하고, 상기 제1 스트리밍 데이터를 제1 이미지 데이터와 제1 사운드 데이터로 분리하고, 상기 제2 스트리밍 데이터를 제2 이미지 데이터와 제2 사운드 데이터로 분리하는 이미지 및 사운드 데이터 분리부, 상기 제1 스트리밍 데이터와 동기화된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 및 제2 사운드 데이터의 유사 부분을 추출하고, 상기 유사 부분과 상기 제1 조명 제어 시계열 데이터를 기반으로 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분과 미완성 부분을 포함하는 유사 특징 추출부 및 상기 프리 조명 제어 시계열 데이터의 미완성 부분을 채워 제2 조명 제어 시계열 데이터 완성부를 포함한다.Lighting control time series data generating apparatus according to some embodiments of the present invention for solving the other problem receives the first and second streaming data, and separates the first streaming data into first image data and first sound data and an image and sound data separation unit for separating the second streaming data into a second image data and a second sound data, receiving the first lighting control time series data synchronized with the first streaming data, and the first and the first 2 Extract a similar part of the sound data, and generate pre-lighting control time-series data based on the similar part and the first lighting control time-series data, wherein the pre-lighting control time-series data is a part of the first lighting control time-series data A second lighting control time series data completion unit by filling in the incomplete part of the pre-lighting control time-series data and a similar feature extraction unit including the duplicated completed part and the incomplete part.
또한, 상기 유사 특징 추출부는, 상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하는 데이터 전처리부와, 상기 제1 및 제2 피치 데이터 사이의 유사 부분을 검출하는 유사 부분 검출부와, 상기 제1 조명 제어 시계열 데이터와 상기 유사 부분을 통해서 상기 프리 조명 제어 시계열 데이터의 완성 부분을 복제하는 조명 제어 시계열 데이터 형성부를 포함할 수 있다.In addition, the similar feature extracting unit includes a data preprocessing unit for extracting first pitch data and first size data from the first sound data, and extracting second pitch data and second size data from the second sound data; A similar part detection unit for detecting a similar part between the first and second pitch data, and lighting control time series data forming that duplicates the completion part of the pre-lighting control time series data through the first lighting control time series data and the similar part may include wealth.
또한, 상기 유사 부분 검출부는, 상기 제1 및 제2 피치 데이터의 피치 유사도를 평가하는 피치 유사도 평가부와, 상기 제1 및 제2 크기 데이터의 크기 유사도를 평가하는 크기 유사도 평가부와, 상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 최종 유사도 판단부를 포함할 수 있다.The similarity detection unit may include a pitch similarity evaluation unit evaluating the pitch similarity of the first and second pitch data, a size similarity evaluation unit evaluating the size similarity of the first and second size data, and the pitch and a final similarity determining unit for extracting a similar part by determining a final similarity in consideration of the similarity and the size similarity.
또한, 상기 유사 부분 검출부는 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 평가하는 이미지 유사도 평가부를 더 포함하고, 상기 최종 유사도 판단부는 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출할 수 있다.In addition, the similarity detection unit further includes an image similarity evaluation unit for evaluating the image similarity of the first and second image data, and the final similarity determining unit considering the pitch similarity, the size similarity, and the image similarity to the final similarity can be determined to extract a similar part.
또한, 상기 제1 및 제2 조명 제어 시계열 데이터를 각각 제1 및 제2 제어 데이터로 변환하여 응원봉으로 전송하는 제어 데이터 변환부를 더 포함할 수 있다.In addition, it may further include a control data conversion unit for converting the first and second lighting control time-series data into first and second control data, respectively, and transmitting it to the light stick.
본 발명의 조명 제어 시계열 데이터 생성 방법 및 그 장치는, 유사한 스트리밍 데이터 사이에서 완성된 조명 제어 시계열 데이터를 이용하여 새로운 조명 제어 시계열 데이터를 빠르게 생성할 수 있다.The lighting control time-series data generation method and apparatus of the present invention can quickly generate new lighting control time-series data using the completed lighting control time-series data between similar streaming data.
또한, 응원봉의 사용자가 모바일 단말기를 통해서 직접 별다른 노력 없이 자동으로 조명 제어 시계열 데이터를 생성할 수 있다.In addition, the user of the light stick can automatically generate the lighting control time series data directly through the mobile terminal without much effort.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.
도 1은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치가 구현된 응원봉 컬러 제어 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 모바일 단말기의 구조를 세부적으로 설명하기 위한 블록도이다.
도 3은 도 1의 응원봉의 구조를 세부적으로 설명하기 위한 블록도이다.
도 4는 도 1의 제1 스트리밍 데이터와 제2 스트리밍 데이터의 구조를 설명하기 위한 블록도이다.
도 5는 도 1의 모바일 단말기의 구조를 이용하여 조명 제어 시계열 데이터를 완성하고 제어 데이터를 도출하는 과정을 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 유사 특징 추출부를 세부적으로 설명하기 위한 블록도이다.
도 7은 제1 및 제2 사운드 데이터에서 피치 데이터 및 크기 데이터를 추출하는 것을 설명하기 위한 블록도이다.
도 8은 제1 및 제2 스트리밍 데이터에서 유사 부분을 추출하는 방법을 설명하기 위한 도면이다.
도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.
도 10은 도 5의 조명 제어 시계열 데이터 완성부의 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명하기 위한 블록도이다.
도 12는 도 11의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.
도 13은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 순서도이다.
도 14는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 블록도이다.
도 15 내지 도 19는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 중간 단계 도면들이다.
도 20은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 복수 주체 순서도이다.1 is a conceptual diagram illustrating a light rod color control system in which an apparatus for generating light control time series data according to some embodiments of the present invention is implemented.
FIG. 2 is a block diagram for explaining in detail the structure of the mobile terminal of FIG. 1 .
FIG. 3 is a block diagram for explaining in detail the structure of the light rod of FIG. 1 .
4 is a block diagram for explaining the structures of the first streaming data and the second streaming data of FIG. 1 .
5 is a block diagram for describing in detail a process of completing lighting control time series data and deriving control data using the structure of the mobile terminal of FIG. 1 .
6 is a block diagram illustrating in detail the similar feature extracting unit of FIG. 5 .
7 is a block diagram for explaining extraction of pitch data and size data from first and second sound data.
8 is a diagram for explaining a method of extracting a similar portion from first and second streaming data.
9 is a block diagram illustrating in detail the similarity detection unit of FIG. 6 .
FIG. 10 is a view for explaining the operation of the lighting control time series data completion unit of FIG. 5 .
11 is a block diagram illustrating an apparatus for generating light control time series data according to some embodiments of the present invention.
FIG. 12 is a block diagram for explaining in detail the similarity detection unit of FIG. 11 .
13 is a flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.
14 is a block diagram for explaining in detail the control data generation step of FIG. 13 .
15 to 19 are intermediate step diagrams for explaining in detail the control data generation step of FIG. 13 .
20 is a multi-subject flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.
이하, 도 1 내지 도 10을 참조하여, 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 설명한다.Hereinafter, a data transmission method for controlling a light stick according to some embodiments of the present invention will be described with reference to FIGS. 1 to 10 .
도 1은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치가 구현된 응원봉 컬러 제어 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a lightstick color control system in which an apparatus for generating light control time series data according to some embodiments of the present invention is implemented.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법이 구현된 응원봉 컬러 제어 시스템은 스트리밍 서버(100), 모바일 단말기(200) 및 응원봉(300)을 포함한다.Referring to FIG. 1 , the lightstick color control system in which the data transmission method for controlling the lightstick according to some embodiments of the present invention is implemented is a
스트리밍 서버(100)는 모바일 단말기(200)로 제1 스트리밍 데이터(Dv1), 제2 스트리밍 데이터(Dv2) 및 제1 조명 제어 시계열 데이터(Dn1)를 제공할 수 있다. 스트리밍 서버(100)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.
스트리밍 서버(100)는 모바일 단말기(200)로 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The streaming
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.
네트워크를 통해서 통신하는 스트리밍 서버(100) 및 모바일 단말기(200)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The streaming
스트리밍 서버(100)는 모바일 단말기(200)로 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 전송할 수 있다. 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)는 모바일 단말기(200)에서 각각 제1 동영상 및 제2 동영상을 재생할 수 있도록 구현된 데이터일 수 있다. 구체적으로, 제1 스트리밍 데이터(Dv1)는 모바일 단말기(200)가 스트리밍을 통해서 제1 동영상을 재생할 수 있도록 구현된 데이터이고, 제2 스트리밍 데이터(Dv2)는 모바일 단말기(200)가 스트리밍을 통해서 제2 동영상을 재생할 수 있도록 구현된 데이터일 수 있다.The streaming
모바일 단말기(200)는 수신한 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 이용하여 모바일 단말기(200)에서 동영상을 재생할 수 있다. 또한, 모바일 단말기(200)는 수신한 제1 조명 제어 시계열 데이터(Dn1)로부터 제1 제어 데이터(Dc1)를 생성할 수 있다. 또한, 모바일 단말기(200)는 제2 조명 제어 시계열 데이터(Dn2)를 생성하고, 그로부터 제2 제어 데이터(Dc2)를 생성할 수 있다.The
제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터에 각각 대응하는 데이터일 수 있다. 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)는 응원봉(300)의 컬러를 변화시키기 위해서 직접적으로 사용되는 데이터일 수 있다. 모바일 단말기(200)는 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 응원봉(300)으로 전송하여 응원봉(300)이 발산하는 컬러를 변화시킬 수 있다. 이때, 모바일 단말기(200)는 제1 동영상 및 제2 동영상의 재생 시간에 따라서 각각 대응하는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 변환하여 실시간으로 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 전송할 수 있다.The first control data Dc1 and the second control data Dc2 may be data corresponding to the color data of the first lighting control time series data Dn1 and the second lighting control time series data Dn2, respectively. The first control data Dc1 and the second control data Dc2 may be data directly used to change the color of the
제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)와 대응하는 데이터일 수 있다. 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)와 동기화된 데이터일 수 있다. 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)는 각각 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)에 의해서 재생되는 제1 동영상 및 제2 동영상의 재생 시간에 따라서 변화하는 응원봉(300)의 컬러 데이터를 포함할 수 있다. The first lighting control time-series data (Dn1) and the second lighting control time-series data (Dn2) may be data corresponding to the first streaming data (Dv1) and the second streaming data (Dv2), respectively. The first lighting control time series data (Dn1) and the second lighting control time series data (Dn2) may be data synchronized with the first streaming data (Dv1) and the second streaming data (Dv2), respectively. The first lighting control time-series data (Dn1) and the second lighting control time-series data (Dn2) are the first streaming data (Dv1) and the second streaming data (Dv2), respectively, the playback time of the first video and the second video reproduced by It may include the color data of the
이를 통해서, 모바일 단말기(200)가 제1 스트리밍 데이터(Dv1) 또는 제2 스트리밍 데이터(Dv2)에 따라 제1 동영상 또는 제2 동영상을 재생함과 동시에 응원봉(300)이 발산하는 컬러가 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2)에 대응하여 변화할 수 있다. 이때, 상술한 “컬러 데이터”는 단순히 빛의 컬러 외에 빛의 점멸에 대한 데이터도 포함하는 개념일 수 있다.Through this, while the
결론적으로, 제1 제어 데이터(Dc1)는 제1 조명 제어 시계열 데이터(Dn1) 및 제1 스트리밍 데이터(Dv1)와 동기화되고, 제2 제어 데이터(Dc2)는 제2 조명 제어 시계열 데이터(Dn2) 및 제2 스트리밍 데이터(Dv2)와 동기화될 수 있다.In conclusion, the first control data (Dc1) is synchronized with the first lighting control time series data (Dn1) and the first streaming data (Dv1), the second control data (Dc2) is the second lighting control time series data (Dn2) and It may be synchronized with the second streaming data Dv2.
모바일 단말기(200)는 내부에 설치되어 있는 프로그램 또는 어플리케이션에 의해서 구동될 수 있다. 모바일 단말기(200)는 제1 조명 제어 시계열 데이터(Dn1) 및 제2 조명 제어 시계열 데이터(Dn2) 내에 위치한 컬러 데이터를 미리 저장된 라이브러리를 통해서 바이트(byte) 배열로 구성된 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)로 각각 변환할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
응원봉(300)은 모바일 단말기(200)와 근거리 통신 기술로 연결될 수 있다. 근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 이하, 편의상 응원봉(300)은 모바일 단말기(200)와 블루투스를 통해서 페어링되는 것으로 설명한다.The
응원봉(300)은 다양한 컬러의 빛을 발산할 수 있다. 응원봉(300)은 또한, 빛의 점멸 신호를 표시할 수 있다. 응원봉(300)은 모바일 단말기(200)로부터 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 각각 실시간으로 수신할 수 있다. 응원봉(300)은 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 통해서 발산하는 빛의 컬러와 점멸을 제어할 수 있다.The
도 2는 도 1의 모바일 단말기의 구조를 세부적으로 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining in detail the structure of the mobile terminal of FIG. 1 .
도 2를 참조하면, 본 발명의 실시예에 따른 모바일 단말기(200)은 컨트롤러(210), 입출력 장치(220, I/O), 메모리 장치(230, memory device), 인터페이스(240) 및 버스(250, bus)를 포함할 수 있다. 컨트롤러(210), 입출력 장치(220), 메모리 장치(230) 및/또는 인터페이스(240)는 버스(250)를 통하여 서로 결합될 수 있다. 버스(250)는 데이터들이 이동되는 통로(path)에 해당한다.2 , the
컨트롤러(210)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다. The
입출력 장치(220)는 키패드(keypad), 키보드, 터치스크린 및 디스플레이 장치 중 적어도 하나를 포함할 수 있다. 메모리 장치(230)는 데이터 및/또는 프로그램 등을 저장할 수 있다.The input/
인터페이스(240)는 통신 네트워크로 데이터를 전송하거나 통신 네트워크로부터 데이터를 수신하는 기능을 수행할 수 있다. 인터페이스(240)는 유선 또는 무선 형태일 수 있다. 예컨대, 인터페이스(240)는 안테나 또는 유무선 트랜시버 등을 포함할 수 있다. 도시하지 않았지만, 메모리 장치(230)는 컨트롤러(210)의 동작을 향상시키기 위한 동작 메모리로서, 고속의 디램 및/또는 에스램 등을 더 포함할 수도 있다. 메모리 장치(230)는 내부에 프로그램 또는 어플리케이션을 저장할 수 있다. 모바일 단말기(200)는 프로그램 또는 어플리케이션을 통해서 추후 설명될 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 구현할 수 있다.The
모바일 단말기(200)은 개인 휴대용 정보 단말기(PDA, personal digital assistant) 포터블 컴퓨터(portable computer), 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 디지털 뮤직 플레이어(digital music player), 메모리 카드(memory card), 또는 정보를 무선환경에서 송신 및/또는 수신할 수 있는 모든 전자 제품에 적용될 수 있다.The
또는 본 발명의 실시예들에 따른 응원봉 컬러 변화 방법이 구현되는 모바일 단말기(200)는 복수의 모바일 단말기(200)가 네트워크를 통해서 서로 연결되어 형성된 시스템일 수 있다. 이러한 경우에는 각각의 모듈 또는 모듈의 조합들이 모바일 단말기(200)으로 구현될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the
도 3은 도 1의 응원봉의 구조를 세부적으로 설명하기 위한 블록도이다.FIG. 3 is a block diagram for explaining in detail the structure of the light rod of FIG. 1 .
도 3을 참조하면, 응원봉(300)은 통신부(310), 발광부(320), 제어부(330), 전원부(340) 및 버튼부(350)를 포함할 수 있다.Referring to FIG. 3 , the
통신부(310)는 모바일 단말기(200)와 통신할 수 있다. 통신부(310)는 근거리 통신 기술로 모바일 단말기(200)와 통신을 수립할 수 있다. 통신부(310)는 모바일 단말기(200)로부터 제어 데이터(Dc)를 수신할 수 있다. 통신부(310)는 제어 데이터(Dc)를 제어부(330)로 전송할 수 있다.The
제어부(330)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
제어부(330)는 발광부(320)의 빛의 컬러와 점멸을 제어할 수 있다. 제어부(330)는 제1 모드 및 제2 모드의 적어도 2가지 모드로 작동할 수 있다. 제1 모드는 제어 데이터(Dc)를 통해서 발광부(320)를 제어하는 모드이고, 제2 모드는 제어버튼(352)에 의해서 발광부(320)를 제어하는 모드일 수 있다.The
제1 모드에서, 제어부(330)는 통신부(310)로부터 제어 데이터(Dc)를 수신할 수 있다. 제어부(330)는 제어 데이터(Dc)를 이용하여 발광부(320)의 빛의 컬러와 점멸을 제어할 수 있다. In the first mode, the
제2 모드에서, 제어부(330)는 버튼부(350)의 제어버튼(352)에 의해서 미리 설정된 빛의 컬러 변화와 점멸 패턴에 따라 발광부(320)를 제어할 수 있다.In the second mode, the
발광부(320)는 다양한 컬러의 빛을 발산할 수 있다. 발광부(320)는 빛의 점멸을 표현할 수도 있다. 발광부(320)는 투명한 케이스와 다양한 컬러를 표현하는 광원을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
전원부(340)는 통신부(310), 발광부(320) 및 제어부(330)에 전원을 공급할 수 있다. 전원부(340)는 배터리가 수납되는 공간을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
버튼부(350)는 모드변경 버튼(351) 및 제어버튼(352)을 포함할 수 있다. 모드변경 버튼(351)은 오프 상태, 제1 모드 상태 및 제2 모드 상태 중 어느 하나로 조작될 수 있다. 모드변경 버튼(351)이 오프 상태인 경우에는 전원부(340)로부터 전원 공급이 차단될 수 있다. 이에 따라, 응원봉(300)의 전원이 오프될 수 있다.The
모드변경 버튼(351)이 제1 모드 상태인 경우에는 통신부(310)가 근거리 무선 기술로 모바일 단말기(200)로 연결을 시도할 수 있다. 예를 들어, 통신부(310)가 모바일 단말기와 블루투스 페어링을 시도할 수 있다. 통신부(310)가 모바일 단말기(200)와 연결되어 제어 데이터(Dc)를 수신하면 제어부(330)가 제어 데이터(Dc)를 수신하여 발광부(320)를 제어할 수 있다.When the
모드변경 버튼(351)이 제2 모드 상태인 경우에는 제어버튼(352)에 의해서 발광부(320)가 제어될 수 있다. 구체적으로, 제어버튼(352)이 푸시된 횟수에 따라서 미리 지정된 발광부(320)의 컬러 및 점멸 패턴이 달라질 수 있다. 제어부(330)는 제어버튼(352)이 푸시된 횟수를 수신하여 발광부(320)의 컬러 및 점멸 패턴이 달라질 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.When the
도 3에는 모드변경 버튼(351) 및 제어버튼(352)의 2개의 버튼만 버튼부(350)에 포함되어 있긴 하지만, 본 실시예가 이에 제한되는 것은 아니다. 즉, 본 실시예에 따른 응원봉 제어를 위한 데이터 전송 방법의 응원봉(300)은 버튼부(350)에 3개 이상의 버튼이 존재할 수 있다.Although only two buttons of the
도 4는 도 1의 제1 스트리밍 데이터와 제2 스트리밍 데이터의 구조를 설명하기 위한 블록도이다.4 is a block diagram for explaining the structures of the first streaming data and the second streaming data of FIG. 1 .
도 4를 참조하면, 제1 스트리밍 데이터(Dv1)는 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 포함할 수 있다. 제1 이미지 데이터(Di1)는 제1 동영상에서 영상에 해당하는 부분이고, 제1 사운드 데이터(Ds1)는 동영상에서 소리에 해당하는 부분일 수 있다. 이때, 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)는 시계열적으로 변화하는 데이터일 수 있다.Referring to FIG. 4 , the first streaming data Dv1 may include the first image data Di1 and the first sound data Ds1. The first image data Di1 may be a part corresponding to an image in the first moving picture, and the first sound data Ds1 may be a part corresponding to a sound in the moving picture. In this case, the first image data Di1 and the first sound data Ds1 may be data that change in time series.
제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)는 서로 동기화되어 제1 동영상 재생시에 같이 재생될 수 있다. 즉, 제1 이미지 데이터(Di1)는 디스플레이 등을 통해서 이미지로 출력되고, 제1 사운드 데이터(Ds1)는 스피커 등을 통해서 사운드로 출력될 수 있다. 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)가 동기화되어 시계열적으로 출력되면서 제1 동영상 재생이 수행될 수 있다.The first image data Di1 and the first sound data Ds1 may be synchronized with each other and reproduced together when the first moving picture is reproduced. That is, the first image data Di1 may be output as an image through a display or the like, and the first sound data Ds1 may be output as a sound through a speaker or the like. The first image data Di1 and the first sound data Ds1 are synchronized and output in time series, and the first moving picture may be reproduced.
유사하게, 제2 스트리밍 데이터(Dv2)는 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 포함할 수 있다. 제2 이미지 데이터(Di2)는 제2 동영상에서 영상에 해당하는 부분이고, 제2 사운드 데이터(Ds2)는 동영상에서 소리에 해당하는 부분일 수 있다. 이때, 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)는 시계열적으로 변화하는 데이터일 수 있다. 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)가 동기화되어 시계열적으로 출력되면서 제2 동영상 재생이 수행될 수 있다.Similarly, the second streaming data Dv2 may include the second image data Di2 and the second sound data Ds2. The second image data Di2 may be a part corresponding to an image in the second moving picture, and the second sound data Ds2 may be a part corresponding to a sound in the moving picture. In this case, the second image data Di2 and the second sound data Ds2 may be time-series data. A second video may be reproduced while the second image data Di2 and the second sound data Ds2 are synchronized and output in time series.
추후, 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)는 서로 비교되어 유사 부분이 추출될 수 있다.Subsequently, the first sound data Ds1 and the second sound data Ds2 may be compared with each other to extract a similar part.
도 5는 도 1의 모바일 단말기의 구조를 이용하여 조명 제어 시계열 데이터를 완성하고 제어 데이터를 도출하는 과정을 세부적으로 설명하기 위한 블록도이다.5 is a block diagram for describing in detail a process of completing lighting control time series data and deriving control data using the structure of the mobile terminal of FIG. 1 .
도 5를 참조하면, 모바일 단말기(200)는 이미지 및 사운드 데이터 분리부(260), 유사 특징 추출부(270), 조명 제어 시계열 데이터 완성부(280) 및 제어 데이터 변환부(290)를 포함할 수 있다.Referring to FIG. 5 , the
구체적으로, 모바일 단말기(200)가 스트리밍 서버(100)로부터 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 수신한 경우, 모바일 단말기(200)는 우선적으로 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 이미지 및 사운드 데이터 분리부(260)에 전송할 수 있다.Specifically, when the
이미지 및 사운드 데이터 분리부(260)는 제1 스트리밍 데이터(Dv1)에서 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 분리할 수 있다. 이미지 및 사운드 데이터 분리부(260)는 제2 스트리밍 데이터(Dv2)에서 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 분리할 수 있다. 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)는 각각 제1 사운드 데이터(Ds1)와 제1 이미지 데이터(Di1) 및 제2 사운드 데이터(Ds2)와 제2 이미지 데이터(Di2)를 포함하고 있다. 따라서, 이미지 및 사운드 데이터 분리부(260)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)를 제외한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)만을 분리 추출할 수 있다.The image and sound
이어서, 이미지 및 사운드 데이터 분리부(260)는 분리한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 유사 특징 추출부(270)로 전송할 수 있다. 유사 특징 추출부(270)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다. Subsequently, the image and sound
유사 특징 추출부(270)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 비교하여 유사 특징이 있는 유사 부분을 추출할 수 있다. 이때, 유사 부분은 제1 사운드 데이터(Ds1)와 제2 사운드 데이터(Ds2)에 각각 존재할 수 있다. 유사 특징 추출부(270)는 제1 사운드 데이터(Ds1)의 유사 부분의 시간에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 제2 사운드 데이터(Ds2)의 유사 부분의 시간에 복제하여 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 프리 조명 제어 시계열 데이터(Dn2a)는 추후에 제2 조명 제어 시계열 데이터(Dn2)로 완성될 수 있다.The
이어서, 조명 제어 시계열 데이터 완성부(280)는 프리 조명 제어 시계열 데이터(Dn2a)를 수신할 수 있다. 이때, 프리 조명 제어 시계열 데이터(Dn2a)는 제1 조명 제어 시계열 데이터(Dn1)로부터 복제된 완성 부분과 아직 데이터가 결정되지 않은 미완성 부분을 포함할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미완성 부분에 컬러 데이터를 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성할 수 있다.Subsequently, the lighting control time series
이어서, 제어 데이터 변환부(290)는 조명 제어 시계열 데이터 완성부(280)로부터 제2 조명 제어 시계열 데이터(Dn2)를 수신할 수 있다. 제어 데이터 변환부(290)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다. 제어 데이터 변환부(290)는 제1 조명 제어 시계열 데이터(Dn1)를 제1 제어 데이터(Dc1)로 변환하고, 제2 조명 제어 시계열 데이터(Dn2)를 제2 제어 데이터(Dc2)로 변환할 수 있다. 제어 데이터 변환부(290)는 제1 제어 데이터(Dc1) 및 제2 제어 데이터(Dc2)를 응원봉(300)으로 전송할 수 있다.Subsequently, the control
도 6은 도 5의 유사 특징 추출부를 세부적으로 설명하기 위한 블록도이고, 도 7은 제1 및 제2 사운드 데이터에서 피치 데이터 및 크기 데이터를 추출하는 것을 설명하기 위한 블록도이다. 도 8은 제1 및 제2 스트리밍 데이터에서 유사 부분을 추출하는 방법을 설명하기 위한 도면이고, 도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다. FIG. 6 is a block diagram for explaining in detail the similar feature extracting unit of FIG. 5 , and FIG. 7 is a block diagram for explaining extracting pitch data and size data from first and second sound data. FIG. 8 is a diagram for explaining a method of extracting a similar part from first and second streaming data, and FIG. 9 is a block diagram for explaining in detail the similar part detecting unit of FIG. 6 .
도 6을 참조하면, 유사 특징 추출부(270)는 데이터 전처리부(271), 유사 부분 검출부(272) 및 조명 제어 시계열 데이터 형성부(273)를 포함한다.Referring to FIG. 6 , the similarity
도 6 및 도 7을 참조하면, 데이터 전처리부(271)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 수신할 수 있다. 제1 사운드 데이터(Ds1)는 제1 피치 데이터(Dp1) 및 제1 크기 데이터(Db1)를 포함할 수 있다. 6 and 7 , the
제1 피치 데이터(Dp1)는 제1 사운드 데이터(Ds1)의 시간에 따라서 변하는 음조 즉, 피치(Pitch)에 대한 데이터일 수 있다. 제1 피치 데이터(Dp1)는 당연히 제1 조명 제어 시계열 데이터(Dn1)와 동기화될 수 있다. The first pitch data Dp1 may be data about a tone that changes according to time of the first sound data Ds1, that is, a pitch. The first pitch data (Dp1) may of course be synchronized with the first lighting control time series data (Dn1).
제1 크기 데이터(Db1)는 제1 사운드 데이터(Ds1)의 시간에 따라서 변하는 소리의 크기에 대한 데이터일 수 있다. 제1 크기 데이터(Db1)도 제1 조명 제어 시계열 데이터(Dn1)와 동기화될 수 있다.The first volume data Db1 may be data on the volume of the first sound data Ds1 that changes according to time. The first size data (Db1) may also be synchronized with the first lighting control time series data (Dn1).
유사하게, 제2 피치 데이터(Dp2)는 제2 사운드 데이터(Ds2)의 시간에 따라서 변하는 피치에 대한 데이터이고, 제2 크기 데이터(Db2)는 제2 사운드 데이터(Ds2)의 시간에 따라서 변하는 소리의 크기에 대한 데이터일 수 있다.Similarly, the second pitch data Dp2 is data on a time-varying pitch of the second sound data Ds2, and the second magnitude data Db2 is a time-varying sound of the second sound data Ds2. It may be data about the size of .
데이터 전처리부(271)는 제1 사운드 데이터(Ds1)로부터 제1 피치 데이터(Dp1)를 추출할 수 있다. 또한, 데이터 전처리부(271)는 제1 사운드 데이터(Ds1)로부터 제2 피치 데이터(Dp2)를 추출할 수 있다. 데이터 전처리부(271)는 또한, 필요에 따라, 제1 사운드 데이터(Ds1)로부터 제1 크기 데이터(Db1)와 제2 사운드 데이터(Ds2)로부터 제2 크기 데이터(Db2)를 추출할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
도 6 및 도 8을 참조하면, 유사 부분 검출부(272)는 제1 피치 데이터(Dp1)와 제2 피치 데이터(Dp2) 사이의 유사 부분을 검출할 수 있다. 예를 들어, 제1 피치 데이터(Dp1)의 제1 유사 특징(F1)과 제2 피치 데이터(Dp2)의 제3 유사 특징(F3)은 서로 유사한 유사 부분일 수 있다. 또한, 제1 피치 데이터(Dp1)의 제2 유사 특징(F2)과 제2 피치 데이터(Dp2)의 제4 유사 특징(F4)은 서로 유사한 유사 부분일 수 있다. 제1 내지 제4 유사 특징(F1~F4) 사이의 유사도는 인공 지능 내지 머신 러닝을 통해서 판단될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.6 and 8 , the
도 8에서 유사 특징은 각 데이터별 2개씩 총 4개가 도시되어 있으나, 본 실시예가 이에 제한되는 것은 아니다. 즉, 유사 특징의 개수는 얼마든지 달라질 수 있다.In FIG. 8 , a total of four similar features are shown, two for each data, but the present embodiment is not limited thereto. That is, the number of similar features may vary.
제1 유사 특징(F1)과 제3 유사 특징(F3)에 나타나듯이, 유사 부분은 제1 피치 데이터(Dp1)와 제2 피치 데이터(Dp2)에서 각각 다른 시간대에 위치할 수 있다. 즉, 제1 피치 데이터(Dp1)에서 제1 유사 특징(F1)은 0~3s에 위치하였지만, 제2 피치 데이터(Dp2)에서 제2 유사 특징(F2)은 1~4s에 위치할 수 있다. As shown in the first similar feature F1 and the third similar feature F3 , the similar portion may be located at different times in the first pitch data Dp1 and the second pitch data Dp2 . That is, in the first pitch data Dp1, the first similar feature F1 may be positioned at 0 to 3 s, but in the second pitch data Dp2, the second similar feature F2 may be positioned at 1 to 4 s.
또한, 제1 유사 특징(F1)과 제3 유사 특징(F3)과 같이 서로 유사하다고 추출된 유사 부분은 완전히 동일할 필요는 없고, 유사도가 미리 설정된 기준치 이상인 경우 유사 부분으로 추출될 수 있다. 이러한 기준치는 사용자에 의해서 얼마든지 변경될 수 있다. 유사 부분 검출부(272)는 추출된 제1 내지 제4 유사 특징(F1~F4)을 조명 제어 시계열 데이터 형성부(273)로 전송할 수 있다. Also, similar parts extracted as being similar to each other, such as the first similar feature F1 and the third similar feature F3, do not have to be completely identical, and may be extracted as a similar part when the degree of similarity is greater than or equal to a preset reference value. Such a reference value may be freely changed by the user. The
도 9는 도 6의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.9 is a block diagram illustrating in detail the similarity detection unit of FIG. 6 .
도 9를 참조하면, 유사 부분 검출부(272)는 피치 유사도 평가부(272_1), 크기 유사도 평가부(272_2) 및 최종 유사도 판단부(272_3)를 포함할 수 있다.Referring to FIG. 9 , the
피치 유사도 평가부(272_1)는 상술한 도 8의 설명처럼 제1 피치 데이터(Dp1) 및 제2 피치 데이터(Dp2)의 피치 유사도를 평가할 수 있다. 크기 유사도 평가부(272_2)는 제1 크기 데이터(Db1) 및 제2 크기 데이터(Db2)의 크기 유사도를 평가할 수 있다. 이때, 크기 유사도는 도 8의 피치 유사도를 평가하는 방식과 동일하게 평가할 수 있다.The pitch similarity evaluation unit 272_1 may evaluate the pitch similarity of the first pitch data Dp1 and the second pitch data Dp2 as described above with reference to FIG. 8 . The size similarity evaluation unit 272_2 may evaluate the size similarity of the first size data Db1 and the second size data Db2. In this case, the magnitude similarity may be evaluated in the same manner as in the method of evaluating the pitch similarity of FIG. 8 .
최종 유사도 판단부(272_3)는 피치 유사도와 크기 유사도를 고려하여 최종적으로 최종 유사도를 판단할 수 있다. 이때, 피치 유사도를 100% 고려하고, 크기 유사도를 0% 고려할 수도 있고, 그러한 경우가 도 8에서 제1 내지 제4 유사 특징(F1~F4)을 추출한 방법일 수 있다.The final similarity determining unit 272_3 may finally determine the final similarity in consideration of the pitch similarity and the size similarity. In this case, 100% of the pitch similarity may be considered and 0% of the size similarity may be considered, and such a case may be a method of extracting the first to fourth similarity features F1 to F4 in FIG. 8 .
즉, 최종 유사도 판단부(272_3)는 피치 유사도 및 크기 유사도에 대한 각각의 가중치를 가지고 최종 유사도를 최종적으로 판단할 수 있다. 각각의 가중치는 0~100% 사이이고, 가중치의 총합은 100%일 수 있다. 판단된 최종 유사도가 미리 설정된 기준치보다 높은 부분이 제1 내지 제4 유사 특징(F1~F4)처럼 유사 부분으로 추출될 수 있다.That is, the final similarity determining unit 272_3 may finally determine the final similarity with respective weights for the pitch similarity and the size similarity. Each weight may be between 0 and 100%, and the sum of the weights may be 100%. A portion in which the determined final similarity is higher than a preset reference value may be extracted as a similar portion like the first to fourth similarity features F1 to F4.
본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는, 피치 유사도를 주로 사용하여 유사도를 판단하고, 크기 유사도를 보조적으로 사용하여 유사도를 판단할 수 있다. 즉, 피치 유사도의 가중치가 크기 유사도의 가중치보다 크거나 같을 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The lighting control time series data generating apparatus according to some embodiments of the present invention may determine the similarity by mainly using the pitch similarity, and determine the similarity by using the size similarity as an auxiliary. That is, the weight of the pitch similarity may be greater than or equal to the weight of the magnitude similarity. However, the present embodiment is not limited thereto.
본 발명의 몇몇 실시예에 따른 조명 제어 시계열 데이터 생성 장치는, 피치 유사도 평가부(272_1)에 의해서 우선적으로 유사 부분이 추출될 수 있다. 이어서, 추출된 유사 부분에 대해서만 크기 유사도 평가부(272_2)가 크기 유사도를 판단하고, 최종 유사도 판단부(272_3)도 상기 추출된 유사 부분에 대해서만 최종 유사도를 판단하여 그 중에서 유사 부분을 선정할 수 있다. 이를 통해서, 피치가 유사하지 않은 부분에 대해서는 크기가 유사하더라도 배제하여 더욱 정밀한 유사도 판단이 가능할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In the lighting control time-series data generating apparatus according to some embodiments of the present invention, a similar portion may be preferentially extracted by the pitch similarity evaluation unit 272_1. Then, the size similarity evaluation unit 272_2 determines the size similarity only for the extracted similarity parts, and the final similarity determining unit 272_3 also determines the final similarity only for the extracted similar parts, and selects a similar part from among them. there is. Through this, it is possible to more precisely determine the similarity by excluding parts having similar pitches even if they are similar in size. However, the present embodiment is not limited thereto.
도 6을 참조하면, 조명 제어 시계열 데이터 형성부(273)는 유사 부분 검출부(272)로부터 제1 내지 제4 유사 특징(F1~F4)을 수신하고, 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다.Referring to FIG. 6 , the lighting control time series
조명 제어 시계열 데이터 형성부(273)는 제1 유사 특징(F1) 및 제2 유사 특징(F2)에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 각각 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)로 정의할 수 있다. 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)는 제1 유사 특징(F1) 및 제2 유사 특징(F2)이 위치한 시간에 위치한 컬러 데이터들의 모음일 수 있다.The lighting control time series
조명 제어 시계열 데이터 형성부(273)는 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 복제된 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 이때, 프리 조명 제어 시계열 데이터(Dn2a)는 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 복제된 완성 부분과 추후 결정되는 미완성 부분(TBD)을 포함할 수 있다.The lighting control time series
상기 완성 부분은 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)와 완전히 동일한 제3 컬러 데이터(D3) 및 제4 컬러 데이터(D4)를 가질 수 있다. 구체적으로, 제3 컬러 데이터(D3)는 제1 컬러 데이터(D1)와 동일하고, 제4 컬러 데이터(D4)는 제2 컬러 데이터(D2)와 동일할 수 있다.The finished part may have third color data D3 and fourth color data D4 that are identical to the first color data D1 and second color data D2. Specifically, the third color data D3 may be the same as the first color data D1 , and the fourth color data D4 may be the same as the second color data D2 .
다만, 제3 컬러 데이터(D3)와 제4 컬러 데이터(D4)가 위치한 시간은 제1 컬러 데이터(D1)와 제2 컬러 데이터(D2)가 위치한 시간과 달라질 수 있다. 구체적으로, 제3 컬러 데이터(D3)가 위치한 시간은 제2 피치 데이터(Dp2)의 제3 유사 특징(F3)이 위치한 시간이고, 제4 컬러 데이터(D4)가 위치한 시간은 제2 피치 데이터(Dp2)의 제4 유사 특징(F4)이 위치한 시간일 수 있다.However, the time at which the third color data D3 and the fourth color data D4 are located may be different from the time at which the first color data D1 and the second color data D2 are located. Specifically, the time at which the third color data D3 is located is the time at which the third similar feature F3 of the second pitch data Dp2 is located, and the time at which the fourth color data D4 is located is the time at which the second pitch data ( It may be a time at which the fourth similar feature F4 of Dp2) is located.
도 10은 도 5의 조명 제어 시계열 데이터 완성부의 동작을 설명하기 위한 도면이다.FIG. 10 is a view for explaining the operation of the lighting control time series data completion unit of FIG. 5 .
도 5 및 도 10을 참조하면, 조명 제어 시계열 데이터 완성부(280)는 유사 특징 추출부(270)로부터 프리 조명 제어 시계열 데이터(Dn2a)를 수신할 수 있다. 프리 조명 제어 시계열 데이터(Dn2a)는 제3 컬러 데이터(D3) 및 제4 컬러 데이터(D4)와 같은 완성 부분과, 완성되지 않은 미완성 부분을 포함할 수 있다.5 and 10 , the lighting control time series
조명 제어 시계열 데이터 완성부(280)는 미완성 부분을 제5 컬러 데이터(D5) 및 제6 컬러 데이터(D6)로 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성시킬 수 있다.The lighting control time series
미완성 부분을 채우는 방식은 다양할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미리 설정된 컬러 데이터를 순차적으로 미완성 부분에 추가하여 제2 조명 제어 시계열 데이터(Dn2)를 완성할 수 있다.There may be various ways to fill in the incomplete parts. The lighting control time series
또는, 조명 제어 시계열 데이터 완성부(280)는 미완성 부분의 측면에 위치한 컬러 데이터를 이용하여 미완성 부분의 컬러 데이터를 결정할 수 있다. 예를 들어, 미완성 부분의 양 측면의 컬러 데이터의 색온도의 평균 또는 중간값을 가지는 색온도의 컬러 데이터를 미완성 부분의 컬러 데이터로 결정할 수 있다. 이를 통해서, 응원봉(300)의 자연스러운 컬러 변화를 도출할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the lighting control time series
또는, 조명 제어 시계열 데이터 완성부(280)는 인공지능 기반으로 여러 조명 제어 시계열 데이터를 학습한 후에 미완성 부분을 자동으로 채워 넣을 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the lighting control time series
본 실시예는, 응원봉(300)의 컬러 변화를 제어하기 위한 조명 제어 시계열 데이터를 생성하기 위한 효율적인 방법을 제시한다. 즉, 일반적으로 조명 제어 시계열 데이터를 생성하기 위해서는 동영상의 타임 라인에 따라 일일이 수작업으로 제작이 되어야 하고, 이는 많은 시간과 노력을 필요로 한다.This embodiment presents an efficient method for generating lighting control time-series data for controlling the color change of the
그러나, 이미 조명 제어 시계열 데이터가 제작된 동영상과 유사한 동영상의 경우는 다시 수작업으로 조명 제어 시계열 데이터를 제작하는 것이 비효율적일 수 있다. 예를 들어, 동일한 곡의 다른 공연 영상이나, 커버 영상 또는 일부 변형된 곡의 영상인 경우에는 기존의 조명 제어 시계열 데이터를 활용하여 자동으로 그에 맞는 조명 제어 시계열 데이터를 생성할 수 있다.However, in the case of a moving picture similar to a moving picture in which the lighting control time series data has already been produced, it may be inefficient to manually produce the light control time series data again. For example, in the case of a video of another performance of the same song, a cover video, or an image of a partially modified song, it is possible to automatically generate light control time series data corresponding to the existing light control time series data by using the existing light control time series data.
이하, 도 11 및 도 12를 참조하여, 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.Hereinafter, an apparatus for generating light control time series data according to some embodiments of the present invention will be described with reference to FIGS. 11 and 12 . Parts overlapping with the above-described embodiment will be simplified or omitted.
도 11은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 장치를 설명하기 위한 블록도이고, 도 12는 도 11의 유사 부분 검출부를 세부적으로 설명하기 위한 블록도이다.11 is a block diagram illustrating an apparatus for generating light control time series data according to some embodiments of the present invention, and FIG. 12 is a block diagram illustrating in detail the similarity detection unit of FIG. 11 .
도 11을 참조하면, 이미지 및 사운드 데이터 분리부(260)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)도 유사 특징 추출부(270)로 전송한다.Referring to FIG. 11 , the image and sound
도 12를 참조하면, 유사 부분 검출부(272)는 이미지 유사도 평가부(272_4)를 포함한다. 이미지 유사도 평가부(272_4)는 제1 이미지 데이터(Di1) 및 제2 이미지 데이터(Di2)의 이미지 유사도를 평가할 수 있다. 이때, 이미지 유사도는 컨볼루션 뉴럴 네트워크(CNN; Convolution Neural Network), 그래픽 뉴럴 네트워크(GNN; Graphic Neural Network) 및 순환 뉴럴 네트워크(RNN; Recurrent Neural Network) 중 적어도 하나를 이용하여 판단될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 12 , the
즉, 최종 유사도 판단부(272_3)는 피치 유사도, 크기 유사도 및 이미지 유사도에 대한 각각의 가중치를 가지고 최종 유사도를 최종적으로 판단할 수 있다. 각각의 가중치는 0~100% 사이이고, 가중치의 총합은 100%일 수 있다. 판단된 최종 유사도가 미리 설정된 기준치보다 높은 부분이 제1 내지 제4 유사 특징(F1~F4)처럼 유사 부분으로 추출될 수 있다.That is, the final similarity determining unit 272_3 may finally determine the final similarity with respective weights for the pitch similarity, size similarity, and image similarity. Each weight may be between 0 and 100%, and the sum of the weights may be 100%. A portion in which the determined final similarity is higher than a preset reference value may be extracted as a similar portion like the first to fourth similarity features F1 to F4.
본 실시예는 이미지 유사도를 이용하여 더욱 정밀하게 최종 유사도를 판단할 수 있다. 이를 통해서, 유사한 부분에 대한 조명 제어 시계열 데이터를 더욱 효율적으로 생성할 수 있다.In the present embodiment, the final similarity can be more precisely determined using the image similarity. Through this, it is possible to more efficiently generate lighting control time series data for a similar part.
이하, 도 13 내지 도 20을 참조하여, 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.Hereinafter, a method of generating lighting control time series data according to some embodiments of the present invention will be described with reference to FIGS. 13 to 20 . Parts overlapping with the above-described embodiment will be simplified or omitted.
도 13은 본 발명의 몇몇 실시예들에 따른 조명 제어 시계열 데이터 생성 방법을 설명하기 위한 순서도이다.13 is a flowchart illustrating a method of generating lighting control time series data according to some embodiments of the present invention.
도 13을 참조하면, 동영상 컨텐츠에 접속한다(S110).Referring to FIG. 13 , the video content is accessed ( S110 ).
구체적으로, 도 1을 참조하면, 동영상 컨텐츠는 스트리밍 서버(100)에 의해서 모바일 단말기(200)로 제공될 수 있다. 모바일 단말기(200)는 어플리케이션 또는 프로그램을 통해서 스트리밍 서버(100)가 제공하는 동영상 컨텐츠에 접속할 수 있다.Specifically, referring to FIG. 1 , video content may be provided to the
다시, 도 13을 참조하면, 제1 조명 제어 시계열 데이터의 수신을 시작한다(S120).Again, referring to FIG. 13 , the reception of the first lighting control time series data starts ( S120 ).
구체적으로, 도 1을 참조하면, 스트리밍 서버(100)는 모바일 단말기(200)로 제1 조명 제어 시계열 데이터(Dn1)를 전송할 수 있다. Specifically, referring to FIG. 1 , the streaming
다시, 도 13을 참조하면, 응원봉과 연결되었는지를 판단한다(S130).Again, referring to FIG. 13 , it is determined whether it is connected to the light stick (S130).
구체적으로, 도 1을 참조하면, 구체적으로, 도 1을 참조하면, 응원봉(300)과 모바일 단말기(200)가 서로 연결되지 않은 경우에는 연결될 때까지 대기할 수 있다. 응원봉(300)과 모바일 단말기(200)가 서로 연결되는 경우에는 다음 절차로 진행할 수 있다.Specifically, referring to FIG. 1 , specifically, referring to FIG. 1 , when the
다시, 도 13을 참조하면, 제1 조명 제어 시계열 데이터의 수신이 완료되었는지를 판단한다(S140).Again, referring to FIG. 13, it is determined whether the reception of the first lighting control time series data is completed (S140).
구체적으로, 도 1을 참조하면, 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 모바일 단말기(200)가 수신하고, 수신이 완료되는 경우 다음 절차로 진행할 수 있다.Specifically, referring to FIG. 1 , the
도 13에는 S130 단계가 S140 단계 이전에 수행되는 것으로 도시하였지만, 본 실시예가 이에 제한되는 것은 아니다. 즉, S130 단계가 S140 단계는 병렬적으로 수행될 수 있다.13 shows that step S130 is performed before step S140, the present embodiment is not limited thereto. That is, steps S130 and S140 may be performed in parallel.
다시, 도 13을 참조하면, 제1 및 제2 스트리밍 데이터의 수신을 시작한다(S150).Again, referring to FIG. 13 , reception of the first and second streaming data is started ( S150 ).
구체적으로, 도 1을 참조하면, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)를 수신하여 제1 동영상 및 제2 동영상을 재생, 즉, 스트리밍할 수 있다. 동영상 스트리밍은 제1 스트리밍 데이터(Dv1) 및 제2 스트리밍 데이터(Dv2)의 수신과 제1 동영상 및 제2 동영상의 재생이 병렬적으로 수행되고, 재생되는 동영상 파트에 해당하는 스트리밍 데이터가 동영상 재생에 앞서 미리 모바일 단말기(200)에 수신되어야 한다. 이때, 스트리밍 데이터가 완전히 다 수신된 뒤에 동영상이 재생되는 것이 아니라 스트리밍 데이터의 수신이 진행되면서 미리 수신된 부분에 대한 동영상 재생이 시작될 수 있다.Specifically, referring to FIG. 1 , the
다시, 도 13을 참조하면, 제2 조명 제어 시계열 데이터를 생성한다(S160).Again, referring to FIG. 13 , a second lighting control time series data is generated ( S160 ).
구체적으로, 도 5를 참조하면, 이미지 및 사운드 데이터 분리부(260)는 제1 스트리밍 데이터(Dv1)에서 제1 이미지 데이터(Di1) 및 제1 사운드 데이터(Ds1)를 분리할 수 있다. 이미지 및 사운드 데이터 분리부(260)는 제2 스트리밍 데이터(Dv2)에서 제2 이미지 데이터(Di2) 및 제2 사운드 데이터(Ds2)를 분리할 수 있다. 이어서, 이미지 및 사운드 데이터 분리부(260)는 분리한 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 유사 특징 추출부(270)로 전송할 수 있다. 유사 특징 추출부(270)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터(Dn1)를 수신할 수 있다.Specifically, referring to FIG. 5 , the image and sound
유사 특징 추출부(270)는 제1 사운드 데이터(Ds1) 및 제2 사운드 데이터(Ds2)를 비교하여 유사 특징이 있는 유사 부분을 추출할 수 있다. 유사 특징 추출부(270)는 제1 사운드 데이터(Ds1)의 유사 부분의 시간에 대응하는 제1 조명 제어 시계열 데이터(Dn1)의 컬러 데이터를 제2 사운드 데이터(Ds2)의 유사 부분의 시간에 복제하여 프리 조명 제어 시계열 데이터(Dn2a)를 생성할 수 있다. 조명 제어 시계열 데이터 완성부(280)는 미완성 부분에 컬러 데이터를 채워 프리 조명 제어 시계열 데이터(Dn2a)를 제2 조명 제어 시계열 데이터(Dn2)로 완성할 수 있다.The
다시, 도 13을 참조하면, 제2 동영상 재생 시간에 따른 제어 데이터를 생성한다(S170).Again, referring to FIG. 13 , control data according to the second video playback time is generated ( S170 ).
구체적으로, 도 1 및 도 2를 참조하면, 모바일 단말기(200)는 모바일 단말기(200)에서 현재 재생되고 있는 제2 동영상의 재생 시간을 확인하고, 그에 따른 제2 제어 데이터(Dc2)를 생성할 수 있다. 제2 조명 제어 시계열 데이터(Dn2)는 제2 스트리밍 데이터(Dv2)와 동기화된 데이터로 제2 동영상 재생 시간에 따른 컬러 데이터가 배치될 수 있다. 이에 따라, 모바일 단말기(200)는 제2 동영상 재생 시간에 따라 대응되는 컬러 데이터를 제어 데이터(Dc)로 변환할 수 있다.Specifically, referring to FIGS. 1 and 2 , the
이때, 모바일 단말기(200)는 제2 동영상 재생 시간에 실시간으로 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수 있다. 이 경우, 변환 자체가 바로바로 이루어지므로 추가적인 연산이 필요 없어 전체 동작의 속도가 빨라질 수 있다.In this case, the
또는, 모바일 단말기(200)는 제2 동영상 재생 시간으로부터 버퍼 시간을 확보하여 지연 호출을 이용하여 제2 조명 제어 시계열 데이터(Dn2)의 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수도 있다. 이 경우, 제2 동영상 재생과 제2 제어 데이터(Dc2)의 변환과의 동기화가 미리 연산되므로 동기화가 실패할 가능성을 최소화할 수 있다. 버퍼 시간을 활용하는 방법은 추후에 더 자세히 설명한다.Alternatively, the
다시, 도 13을 참조하면, 제2 제어 데이터를 응원봉으로 전송한다(S180).Again, referring to FIG. 13 , the second control data is transmitted to the light stick (S180).
구체적으로, 도 1을 참조하면, 모바일 단말기(200)는 제2 제어 데이터(Dc2)를 근거리 통신 기술을 통해서 응원봉(300)으로 전송할 수 있다.Specifically, referring to FIG. 1 , the
도 14는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 블록도이다. 도 14는 도 13의 S170 단계의 세부 단계를 도시한다. 도 15 내지 도 19는 도 13의 제어 데이터 생성 단계를 세부적으로 설명하기 위한 중간 단계 도면들이다.14 is a block diagram for explaining in detail the control data generation step of FIG. 13 . FIG. 14 shows detailed steps of step S170 of FIG. 13 . 15 to 19 are intermediate step diagrams for explaining in detail the control data generation step of FIG. 13 .
도 14를 참조하면, 제2 동영상 재생 시간을 수신한다(S171).Referring to FIG. 14 , a second video playback time is received ( S171 ).
구체적으로, 도 15를 참조하면, 현재 재생시간을 확인할 수 있다. 현재 재생시간은 시간이 흐르면 계속해서 진행할 수 있다.Specifically, referring to FIG. 15 , the current playback time may be checked. The current playback time can be continued as time passes.
다시, 도 14을 참조하면, 제2 동영상 재생 시간에서 가장 가까운 제1 미래 시간의 제2 조명 제어 시계열 데이터를 검색한다(S172). Again, referring to FIG. 14 , the second lighting control time series data of the first future time closest to the second video playback time is searched (S172).
구체적으로, 도 15를 참조하면, 제2 조명 제어 시계열 데이터(Dn2)는 단위 시간을 가질 수 있다. 이때, 예시적으로 단위 시간이 1초(1s)로 도시될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 제2 조명 제어 시계열 데이터(Dn2)는 단위 시간별로 컬러 데이터를 포함할 수 있다. Specifically, referring to FIG. 15 , the second lighting control time series data Dn2 may have a unit time. In this case, for example, the unit time may be illustrated as 1 second (1s). However, the present embodiment is not limited thereto. The second lighting control time series data Dn2 may include color data for each unit time.
제1 미래 시간(T1)은 제2 조명 제어 시계열 데이터(Dn2)의 단위 시간에 해당하는 시간 중 어느 하나일 수 있다. 제1 미래 시간(T1)은 제2 동영상의 현재 재생시간으로부터 미래에 위치할 수 있다. 제1 미래 시간(T1)은 제2 동영상의 현재 재생시간에서 가장 가까운 미래의 단위 시간일 수 있다.The first future time T1 may be any one of the times corresponding to the unit time of the second lighting control time series data Dn2. The first future time T1 may be located in the future from the current playback time of the second video. The first future time T1 may be a unit time of the nearest future from the current playback time of the second video.
다시, 도 14를 참조하면, 제1 미래 시간으로부터 제1 시간만큼의 버퍼시간에 대한 제2 조명 제어 시계열 데이터를 미리 저장한다(S173). Again, referring to FIG. 14 , the second lighting control time series data for the buffer time of the first time from the first future time is stored in advance (S173).
구체적으로, 도 16을 참조하면, 제1 미래 시간(T1)으로부터 제1 시간(P1)만큼 버퍼 시간(Tb)이 설정될 수 있다. 버퍼 시간(Tb)에 대한 제2 조명 제어 시계열 데이터(Dn2)는 모바일 단말기(200)에서 미리 저장될 수 있다. 이때, “저장”은 제2 제어 데이터(Dc2)의 변환을 위해 메모리에 저장되는 것을 의미하고, 스트리밍 서버(100)에서 모바일 단말기(200)로 수신되는 것과는 다른 의미일 수 있다.Specifically, referring to FIG. 16 , the buffer time Tb may be set from the first future time T1 to the first time P1. The second lighting control time series data (Dn2) for the buffer time (Tb) may be stored in advance in the mobile terminal (200). At this time, “store” means to be stored in the memory for conversion of the second control data Dc2, and may have a different meaning from that received from the streaming
버퍼 시간(Tb)을 미리 저장하는 이유는, 동영상과 조명 제어 시계열 데이터의 싱크를 정확히 맞추기 위해서 미리 지연 호출을 설정할 시간이 필요하기 때문이다. 버퍼 시간(Tb)은 현재 재생시간이 변함에 따라서 줄어드는 시간일 수 있다. 따라서, 버퍼 시간(Tb)이 미리 결정된 최소 버퍼 시간만큼 줄어드는 경우 버퍼 시간(Tb)을 다시 제1 시간(P1)으로 늘릴 수 있다.The reason for storing the buffer time (Tb) in advance is that it is necessary to set a delay call in advance in order to accurately synchronize the video and the lighting control time series data. The buffer time Tb may be reduced as the current playback time is changed. Accordingly, when the buffer time Tb is reduced by the predetermined minimum buffer time, the buffer time Tb may be increased back to the first time P1.
이때, 제1 시간(P1)은 버퍼 시간(Tb)이 줄어들기 전 초기 시간을 의미할 수 있다. 제1 시간(P1)을 크게 설정할수록 버퍼 시간(Tb)을 늘리는 작업의 횟수가 줄어들어 연산량이 줄어들 수 있다. 반대로, 제1 시간(P1)을 작게 설정할수록 연산량이 늘어날 수 있다. 다만, 제1 시간(P1)을 너무 크게 설정하는 경우 지연 호출과 제2 동영상의 재생시간 즉, 제2 스트리밍 데이터(Dv2)의 동기화가 어긋날 확률이 커질 수 있다.In this case, the first time P1 may mean an initial time before the buffer time Tb decreases. As the first time P1 is set to be larger, the number of operations to increase the buffer time Tb may be reduced, and thus the amount of calculation may be reduced. Conversely, as the first time P1 is set smaller, the amount of calculation may increase. However, when the first time P1 is set too large, the probability of out of synchronization between the delayed call and the playback time of the second video, that is, the second streaming data Dv2 may increase.
따라서, 제1 시간(P1)은 너무 크지도, 너무 작지도 않은 적절한 크기의 시간으로 설정해야 한다. 예를 들어, 제1 시간(P1)은 2초 내지 3초일 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.Accordingly, the first time P1 should be set to an appropriate size that is neither too large nor too small. For example, the first time P1 may be 2 seconds to 3 seconds, but the present embodiment is not limited thereto.
다시, 도 14를 참조하면, 버퍼 시간 내에 위치한 컬러 데이터에 대해서 지연 호출을 예약한다(S174).Again, referring to FIG. 14, a delayed call is reserved for color data located within the buffer time (S174).
구체적으로, 도 16을 참조하면, 현재 재생시간을 기준으로 컬러 데이터가 위치한 단위 시간과의 제1 지연 시간(TL1)을 계산한다. 계산된 제1 지연 시간(TL1)을 이용하여 지연 호출을 예약할 수 있다. 즉, 현재 재생시간을 기준으로 제1 지연 시간(TL1)이후에 3초 내지 4초 사이의 컬러 데이터가 지연 호출될 수 있다. 여기서, “호출”이란 제2 제어 데이터(Dc2)로 변환되기 위해서 로드되는 것을 의미한다. 이러한 지연 호출 방식을 통해서, 제2 동영상 재생을 위한 제2 스트리밍 데이터(Dv2)와 제2 조명 제어 시계열 데이터(Dn2)가 동기화될 수 있다.Specifically, referring to FIG. 16 , a first delay time TL1 with respect to a unit time in which color data is located is calculated based on the current playback time. A delayed call may be reserved using the calculated first delay time TL1. That is, color data between 3 seconds and 4 seconds after the first delay time TL1 based on the current playback time may be called with a delay. Here, “call” means that it is loaded to be converted into the second control data Dc2. Through this delayed call method, the second streaming data (Dv2) and the second lighting control time series data (Dn2) for the second video playback can be synchronized.
다시, 도 14를 참조하면, 버퍼 시간이 최소 버퍼 시간보다 큰지를 판단한다(S175). Again, referring to FIG. 14, it is determined whether the buffer time is greater than the minimum buffer time (S175).
만일 버퍼 시간이 최소 버퍼 시간보다 크거나 같은 경우 지연 호출된 컬러 데이터를 제2 제어 데이터로 변환한다(S177).If the buffer time is greater than or equal to the minimum buffer time, the delayed-called color data is converted into second control data (S177).
구체적으로, 도 16 및 도 17을 참조하면, 현재 재생시간이 진행함에 따라서 버퍼 시간(Tb)의 크기는 줄어들어 제1 시간(P1)에서 제2 시간(P2)으로 줄어들 수 있다. 그러나, 제2 시간(P2)은 미리 설정된 최소 버퍼 시간보다 크기가 크거나 같을 수 있다. 이에 따라서, 버퍼 시간(Tb)의 크기를 변환하지 않고, 계속해서 내부에 위치한 컬러 데이터를 제2 제어 데이터(Dc2)로 변환할 수 있다.Specifically, referring to FIGS. 16 and 17 , the buffer time Tb may decrease from the first time P1 to the second time P2 as the current playback time progresses. However, the second time P2 may be greater than or equal to the preset minimum buffer time. Accordingly, the color data located therein may be continuously converted into the second control data Dc2 without changing the size of the buffer time Tb.
다시, 도 14를 참조하면, 만일 버퍼 시간이 최소 버퍼 시간보다 작은 경우 지연 호출된 컬러 데이터를 버퍼 시간을 제1 시간으로 확장한다(S176). 이어서, 다시 버퍼 시간 내에 위치한 컬러 데이터에 대해서 지연 호출을 예약한다(S174).Again, referring to FIG. 14 , if the buffer time is less than the minimum buffer time, the buffer time of the delayed-called color data is extended to the first time ( S176 ). Next, a delayed call is reserved for the color data located within the buffer time again (S174).
구체적으로, 도 18 및 도 19를 참조하면, 제3 시간(P3)은 미리 설정된 최소 버퍼 시간보다 크기가 작을 수 있다. 이에 따라서, 버퍼 시간(Tb)은 다시 제1 시간(P1)의 크기로 확장될 수 있다. 현재 재생시간이 진행함에 따라서, 제1 지연 시간(TL1)도 줄어들 수 있다. 또한, 버퍼 시간(Tb)이 확장됨에 따라서, 5초와 6초 사이의 컬러 데이터에 대한 제2 지연 시간(TL2)이 계산될 수 있다. 계산된 제2 지연 시간(TL2)을 이용하여 지연 호출을 예약할 수 있다. 즉, 현재 재생시간을 기준으로 제2 지연 시간(TL2)이후에 5초 내지 6초 사이의 컬러 데이터가 지연 호출될 수 있다.Specifically, referring to FIGS. 18 and 19 , the third time P3 may be smaller than the preset minimum buffer time. Accordingly, the buffer time Tb may be extended to the size of the first time P1 again. As the current playback time progresses, the first delay time TL1 may also decrease. Also, as the buffer time Tb is extended, a second delay time TL2 for color data between 5 and 6 seconds may be calculated. A delayed call may be reserved using the calculated second delay time TL2. That is, after the second delay time TL2 based on the current playback time, color data between 5 seconds and 6 seconds may be called with a delay.
이런 방식으로, 3초 내지 4초, 5초 내지 6초 및 7초 내지 8초에 위치한 컬러 데이터의 지연 호출이 제2 동영상 재생과 동기화되어 수행될 수 있다.In this way, delayed calling of color data located at 3 seconds to 4 seconds, 5 seconds to 6 seconds, and 7 seconds to 8 seconds can be performed in synchronization with the reproduction of the second moving picture.
도 20은 본 발명의 몇몇 실시예들에 따른 응원봉 제어를 위한 데이터 전송 방법을 설명하기 위한 복수 주체 순서도이다.20 is a multi-subject flowchart for explaining a data transmission method for controlling a light stick according to some embodiments of the present invention.
도 20을 참조하면, 모바일 단말기(200)는 스트리밍 서버(100)로 제1 조명 제어 시계열 데이터를 요청한다(S11). 이어서, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 조명 제어 시계열 데이터를 제공받는다(S12).Referring to FIG. 20 , the
이어서, 응원봉(300)은 모바일 단말기(200)에게 페어링을 요청한다(S13). 단, 근거리 무선 기술이 블루투스인 경우에는 페어링을 요청하고, 다른 기술인 경우에는 페어링 외에 다른 방식의 연결을 요청할 수 있다. 또한, 요청의 방향은 응원봉(300)에서 모바일 단말기(200)쪽일 수 있고, 반대로 모바일 단말기(200)에서 응원봉(300)쪽일 수도 있다. 이어서, 모바일 단말기(200)는 응원봉(300)과 페어링이 완료될 수 있다(S14).Then, the
이어서, 모바일 단말기(200)는 스트리밍 서버(100)로 제1 및 제2 스트리밍 데이터를 요청한다(S15). 이어서, 모바일 단말기(200)는 스트리밍 서버(100)로부터 제1 및 제2 스트리밍 데이터를 제공받는다(S16).Next, the
상술한 설명에서는 S11 및 S12 단계와, S13 및 S14 단계와, S15 및 S16 단계가 순차적인 것으로 설명되었지만, 본 실시예가 이에 제한되는 것은 아니다. S11 및 S12 단계와, S13 및 S14 단계와, S15 및 S16 단계는 서로 병렬적으로 수행될 수 있다. 즉, S11 단계와, S13 단계와 S15 단계 중 어느 단계라도 가장 먼저 수행될 수 있고, S12 단계와, S14 단계와 S16 단계 중 어느 단계라도 가장 나중에 수행될 수 있다.In the above description, steps S11 and S12, steps S13 and S14, and steps S15 and S16 have been described as being sequential, but the present embodiment is not limited thereto. Steps S11 and S12, steps S13 and S14, and steps S15 and S16 may be performed in parallel with each other. That is, any of the steps S11, S13, and S15 may be performed first, and any of the steps S12, S14, and S16 may be performed last.
이어서, 모바일 단말기(200)가 제2 조명 제어 시계열 데이터를 생성한다(S17). 이어서, 모바일 단말기(200)가 제2 동영상을 재생한다(S18). 이어서, 모바일 단말기(200)가 제2 조명 제어 시계열 데이터에서 제2 제어 데이터를 생성한다(S19). 이어서, 모바일 단말기(200)가 응원봉(300)으로 제2 제어 데이터를 전송한다(S20). 이어서, 응원봉(300)의 컬러가 변화될 수 있다(S21).Then, the
본 실시예에 따른 조명 제어 시계열 데이터 생성 장치는 모바일 단말기(200)의 사용자가 온라인으로 스트리밍 데이터를 수신하여 동영상을 재생할 때, 그와 동기화된 응원봉의 컬러 변화를 경험할 수 있다.When the user of the
이를 통해서, 공연장이 아니라도, 응원봉(300)을 통해서 오프라인 공연에 참석한 것과 같은 경험을 얻을 수 있고, 동영상 컨텐츠와 동기화된 컬러 변화를 통해서 단순히 동영상 컨텐츠를 감상하는 것을 넘어 응원봉의 컬러 및 점멸 패턴을 통해서 차별화된 사용자 경험을 제공할 수 있다.Through this, you can get the same experience as attending an offline performance through the
또한, 유사한 동영상에 대한 스트리밍 데이터가 있는 경우, 수작업으로 새로운 조명 제어 시계열 데이터를 제작하지 않고, 자동으로 유사한 부분을 복제하여 손쉽게 조명 제어 시계열 데이터를 제작할 수 있다.In addition, if there is streaming data for a similar video, it is possible to easily create lighting control time series data by automatically duplicating similar parts without manually producing new light control time series data.
나아가, 이러한 조명 제어 시계열 데이터의 제작은 모바일 단말기(200)에서도 가능하므로, 모바일 단말기(200)의 사용자도 손쉽게 조명 제어 시계열 데이터를 제작할 수 있다.Furthermore, since the production of such light control time series data is also possible in the
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible without departing from the essential characteristics of the present embodiment by those skilled in the art to which this embodiment belongs. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.
Claims (11)
상기 제1 스트리밍 데이터 및 상기 제2 스트리밍 데이터의 유사 부분을 추출하고,
상기 제1 스트리밍 데이터의 유사 부분에 대응하는 제1 조명 제어 시계열 데이터의 부분을 상기 제2 스트리밍 데이터의 유사 부분에 대응한 영역에 복제한 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 미완성 부분과 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분을 포함하고,
상기 미완성 부분을 채워서 상기 프리 조명 제어 시계열 데이터를 제2 조명 제어 시계열 데이터로 완성하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
Receive the first lighting control time series data in which the color data of the light stick changing in synchronization with the first streaming data, the second streaming data and the first streaming data is recorded from the streaming server,
Extracting a similar portion of the first streaming data and the second streaming data,
A portion of the first lighting control time series data corresponding to the similar portion of the first streaming data is reproduced in an area corresponding to the similar portion of the second streaming data to generate pre-lighting control time-series data, the pre-lighting control time-series data includes an incomplete part and a completed part in which a part of the first lighting control time series data is duplicated,
Lighting control time-series data generating method comprising completing the pre-lighting control time-series data as second lighting control time-series data by filling the incomplete part.
상기 제2 스트리밍 데이터로 동영상을 재생하면서 상기 동영상의 재생 시간을 획득하고,
상기 재생 시간에 대응하는 상기 제2 조명 제어 시계열 데이터의 컬러 데이터를 제어 데이터로 변환하고,
상기 제어 데이터를 상기 응원봉으로 전소하는 것을 더 포함하는 조명 제어 시계열 데이터 생성 방법.
According to claim 1,
Obtaining the playback time of the video while playing the video with the second streaming data,
Converting the color data of the second lighting control time series data corresponding to the reproduction time into control data,
Lighting control time series data generation method further comprising burning the control data to the light stick.
상기 유사 부분을 추출하는 것은,
제1 스트리밍 데이터를 제1 이미지 데이터 및 제1 사운드 데이터로 분리하고,
제2 스트리밍 데이터를 제1 이미지 데이터 및 제2 사운드 데이터로 분리하고,
상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고,
상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하고,
상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
According to claim 1,
Extracting the similar part is
separating the first streaming data into first image data and first sound data;
separating the second streaming data into first image data and second sound data;
extracting first pitch data and first magnitude data from the first sound data;
extracting second pitch data and second magnitude data from the second sound data;
Lighting control time series data generating method comprising extracting a similar portion between the first pitch data and the second pitch data.
상기 제1 피치 데이터와 상기 제2 피치 데이터 사이의 유사 부분을 추출하는 것은,
상기 제1 및 제2 피치 데이터 사이의 피치 유사도를 판단하고,
상기 제1 및 제2 크기 데이터 사이의 크기 유사도를 판단하고,
상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 상기 유사 부분을 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
4. The method of claim 3,
Extracting a similar portion between the first pitch data and the second pitch data comprises:
determining a pitch similarity between the first and second pitch data;
determining a size similarity between the first and second size data;
Lighting control time series data generating method comprising extracting the similarity by determining the final similarity in consideration of the pitch similarity and the size similarity.
상기 최종 유사도를 판단하는 것은,
상기 제1 및 제2 이미지 데이터의 이미지 유사도를 판단하고,
상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 상기 최종 유사도를 판단하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
5. The method of claim 4,
To determine the final similarity,
determining the image similarity of the first and second image data;
Lighting control time series data generation method comprising determining the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity.
상기 유사 부분을 추출하는 것은 인공지능을 통해서 추출하는 것을 포함하는 조명 제어 시계열 데이터 생성 방법.
4. The method of claim 3,
Extracting the similar part is a lighting control time series data generation method comprising extracting through artificial intelligence.
상기 제1 스트리밍 데이터와 동기화된 제1 조명 제어 시계열 데이터를 수신하고, 상기 제1 및 제2 사운드 데이터의 유사 부분을 추출하고, 상기 유사 부분과 상기 제1 조명 제어 시계열 데이터를 기반으로 프리 조명 제어 시계열 데이터를 생성하되, 상기 프리 조명 제어 시계열 데이터는 상기 제1 조명 제어 시계열 데이터의 일부가 복제된 완성 부분과 미완성 부분을 포함하는 유사 특징 추출부; 및
상기 프리 조명 제어 시계열 데이터의 미완성 부분을 채워 제2 조명 제어 시계열 데이터 완성부를 포함하는 조명 제어 시계열 데이터 생성 장치.
an image for receiving first and second streaming data, separating the first streaming data into first image data and first sound data, and separating the second streaming data into second image data and second sound data; and sound data separation unit;
Receive the first lighting control time-series data synchronized with the first streaming data, extract a similar part of the first and second sound data, and pre-light control based on the similar part and the first lighting control time-series data A similar feature extraction unit that generates time-series data, wherein the pre-lighting control time-series data includes a completed part and an incomplete part in which a part of the first lighting control time-series data is duplicated; and
Lighting control time-series data generating device including a second lighting control time-series data completion unit by filling the incomplete part of the pre-lighting control time-series data.
상기 유사 특징 추출부는,
상기 제1 사운드 데이터에서 제1 피치 데이터와 제1 크기 데이터를 추출하고, 상기 제2 사운드 데이터에서 제2 피치 데이터와 제2 크기 데이터를 추출하는 데이터 전처리부와,
상기 제1 및 제2 피치 데이터 사이의 유사 부분을 검출하는 유사 부분 검출부와,
상기 제1 조명 제어 시계열 데이터와 상기 유사 부분을 통해서 상기 프리 조명 제어 시계열 데이터의 완성 부분을 복제하는 조명 제어 시계열 데이터 형성부를 포함하는 조명 제어 시계열 데이터 생성 장치.
8. The method of claim 7,
The similar feature extraction unit,
a data preprocessing unit for extracting first pitch data and first size data from the first sound data and extracting second pitch data and second size data from the second sound data;
a similarity detection unit for detecting a similarity between the first and second pitch data;
Lighting control time-series data generating device comprising a lighting control time-series data forming unit for duplicating the complete part of the pre-lighting control time-series data through the first lighting control time-series data and the similar part.
상기 유사 부분 검출부는,
상기 제1 및 제2 피치 데이터의 피치 유사도를 평가하는 피치 유사도 평가부와,
상기 제1 및 제2 크기 데이터의 크기 유사도를 평가하는 크기 유사도 평가부와,
상기 피치 유사도 및 상기 크기 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 최종 유사도 판단부를 포함하는 조명 제어 시계열 데이터 생성 장치.
9. The method of claim 8,
The similar part detection unit,
a pitch similarity evaluation unit for evaluating the pitch similarity of the first and second pitch data;
a size similarity evaluation unit for evaluating the size similarity of the first and second size data;
Lighting control time series data generating apparatus comprising a final similarity determining unit for extracting a similar portion by determining the final similarity in consideration of the pitch similarity and the size similarity.
상기 유사 부분 검출부는 상기 제1 및 제2 이미지 데이터의 이미지 유사도를 평가하는 이미지 유사도 평가부를 더 포함하고,
상기 최종 유사도 판단부는 상기 피치 유사도, 상기 크기 유사도 및 상기 이미지 유사도를 고려하여 최종 유사도를 판단하여 유사 부분을 추출하는 조명 제어 시계열 데이터 생성 장치.
10. The method of claim 9,
The similarity detection unit further comprises an image similarity evaluation unit for evaluating the image similarity of the first and second image data,
The final similarity determining unit determines the final similarity in consideration of the pitch similarity, the size similarity, and the image similarity, and extracts a similar part by determining the final similarity.
상기 제1 및 제2 조명 제어 시계열 데이터를 각각 제1 및 제2 제어 데이터로 변환하여 응원봉으로 전송하는 제어 데이터 변환부를 더 포함하는 조명 제어 시계열 데이터 생성 장치.
8. The method of claim 7,
Lighting control time series data generating device further comprising a control data conversion unit for converting the first and second light control time series data into first and second control data, respectively, and transmits to the light stick.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200113954A KR102476567B1 (en) | 2020-09-07 | 2020-09-07 | Method for generating light control time series data and Apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200113954A KR102476567B1 (en) | 2020-09-07 | 2020-09-07 | Method for generating light control time series data and Apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220032318A true KR20220032318A (en) | 2022-03-15 |
KR102476567B1 KR102476567B1 (en) | 2022-12-13 |
Family
ID=80816838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200113954A KR102476567B1 (en) | 2020-09-07 | 2020-09-07 | Method for generating light control time series data and Apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102476567B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102577977B1 (en) * | 2023-01-03 | 2023-09-13 | 주식회사 팬라이트 | System and method for controlling lighting supporting multiple modes |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100100224A (en) * | 2009-03-05 | 2010-09-15 | 주식회사 코아로직 | Decoding apparatus and decoding method |
JP2014041453A (en) * | 2012-08-22 | 2014-03-06 | Yokogawa Electric Corp | Data similarity calculation method and data similarity calculation apparatus |
KR20200047467A (en) * | 2020-04-17 | 2020-05-07 | 최지선 | Remotely performance directing system and method |
-
2020
- 2020-09-07 KR KR1020200113954A patent/KR102476567B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100100224A (en) * | 2009-03-05 | 2010-09-15 | 주식회사 코아로직 | Decoding apparatus and decoding method |
JP2014041453A (en) * | 2012-08-22 | 2014-03-06 | Yokogawa Electric Corp | Data similarity calculation method and data similarity calculation apparatus |
KR20200047467A (en) * | 2020-04-17 | 2020-05-07 | 최지선 | Remotely performance directing system and method |
Also Published As
Publication number | Publication date |
---|---|
KR102476567B1 (en) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109166593B (en) | Audio data processing method, device and storage medium | |
US11944917B2 (en) | Media synchronized control of peripherals | |
JP2021192222A (en) | Video image interactive method and apparatus, electronic device, computer readable storage medium, and computer program | |
WO2019114516A1 (en) | Media information display method and apparatus, storage medium, and electronic apparatus | |
CN109923859A (en) | The adjoint equipment of live collaboration is carried out in teleconference session | |
CN109874021A (en) | Living broadcast interactive method, apparatus and system | |
CN108345385A (en) | Virtual accompany runs the method and device that personage establishes and interacts | |
KR20140081636A (en) | Method and terminal for reproducing content | |
KR102476567B1 (en) | Method for generating light control time series data and Apparatus thereof | |
WO2021015946A1 (en) | Automated regeneration of low quality content to high quality content | |
KR102449559B1 (en) | Method for controlling color of cheer stick and Apparatus thereof | |
WO2022271088A1 (en) | Animation effect attachment based on audio characteristics | |
KR102446031B1 (en) | Method for transmitting data for controlling cheer stick and Apparatus thereof | |
CN109743609A (en) | Control method, system, terminal and the storage medium that television equipment is shown | |
CN110990632B (en) | Video processing method and device | |
WO2023179406A1 (en) | Playing information synchronization method and apparatus, and terminal device and storage medium | |
WO2023134568A1 (en) | Display method and apparatus, electronic device, and storage medium | |
CN110868471A (en) | Novel equipment construction method and device and storage medium | |
KR102446029B1 (en) | Method for transmitting data for controlling cheer stick and Apparatus thereof | |
US20220406337A1 (en) | Segmentation contour synchronization with beat | |
EP3588972A1 (en) | Master reproduction device, slave reproduction device, and light emission methods therefor | |
CN110012309B (en) | System and method for making intelligent co-shooting video | |
US20220113932A1 (en) | Information processing device controlling sound according to simultaneous actions of two users | |
KR102419339B1 (en) | Method for displaying video | |
CN106997770A (en) | The electronic installation of document-video in-pace control method, document-video in-pace control system and correlation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |