KR20110121830A - Apparatus and method for automatically producing music video in mobile communication terminal - Google Patents
Apparatus and method for automatically producing music video in mobile communication terminal Download PDFInfo
- Publication number
- KR20110121830A KR20110121830A KR1020100041306A KR20100041306A KR20110121830A KR 20110121830 A KR20110121830 A KR 20110121830A KR 1020100041306 A KR1020100041306 A KR 1020100041306A KR 20100041306 A KR20100041306 A KR 20100041306A KR 20110121830 A KR20110121830 A KR 20110121830A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- value
- music
- mood
- color
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72442—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
Abstract
Description
본 발명은 이동통신 단말기에서 자동으로 뮤직비디오를 생성하기 위한 장치 및 방법에 관한 것으로서, 특히 이동통신 단말기에서 음악과 정지영상을 분석하여 자동으로 뮤직비디오를 생성하기 위한 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for automatically generating a music video in a mobile communication terminal, and more particularly, to an apparatus and method for automatically generating a music video by analyzing music and still images in a mobile communication terminal.
참여형 컨텐츠(contents)의 보급이 늘어나고 화면 디스플레이(display)가 지원되는 음악재생 장치의 보급이 많이 이루어지면서, 보여 주는 음악이 많아지고 있는 추세이며, 또한 사용자들이 직접 멀티미디티어 컨텐츠를 제작하는 UCC(User Created Contents)에 대한 관심 및 요구가 증가하고 있다. As the number of participatory contents increases and the number of music playback devices that support screen displays increases, the number of showing music tends to increase, and users can also create multimedia contents directly by UCC ( There is a growing interest and demand for User Created Contents.
종래 기술에 따른 뮤직비디오 생성 방식에서는, 사용자가 음악의 분위기에 따라 직접 정지영상 및 동영상을 선택하여 배치하거나, 단말 자체적으로 음악의 분위기와 상관없이 랜덤으로 정지영상 및 동영상을 배치하는 것을 전제로 한다. 이와 같은 방식은 사용자의 의도에 맞는 뮤직비디오를 생성할 수 있다는 장점을 가진다. 하지만 영상의 양이 많을 경우 사용자의 작업량이 많아짐에 따라 사용자에게 불편함을 초래할 수 있다. 특히 이동통신 단말기와 같이 화면이 작고 입력 수단이 제한적인 장치의 경우, 대규모 영상 앨범에서 분위기에 적합한 영상을 찾아 배치하는데 어려움이 존재한다.
The music video generation method according to the related art is based on the premise that the user selects and arranges a still image and a video directly according to the atmosphere of music, or randomly arranges the still image and a video regardless of the music atmosphere. . Such a method has an advantage of generating a music video suitable for a user's intention. However, if the amount of video is large, the user's work volume increases, which may cause inconvenience to the user. In particular, in the case of a device having a small screen and limited input means such as a mobile communication terminal, it is difficult to find and arrange a video suitable for the atmosphere in a large video album.
본 발명의 목적은 이동통신 단말기에서 자동으로 뮤직비디오를 생성하기 위한 장치 및 방법을 제공함에 있다. An object of the present invention is to provide an apparatus and method for automatically generating a music video in a mobile communication terminal.
본 발명의 다른 목적은 이동통신 단말기에서 음악과 정지영상을 분석하여 자동으로 뮤직비디오를 생성하기 위한 장치 및 방법을 제공함에 있다. Another object of the present invention is to provide an apparatus and method for automatically generating music videos by analyzing music and still images in a mobile communication terminal.
본 발명의 또 다른 목적은 이동통신 단말기에서 음악의 분위기에 맞는 영상을 자동으로 매칭하여 뮤직비디오를 생성하기 위한 장치 및 방법을 제공함에 있다.
Still another object of the present invention is to provide an apparatus and method for automatically generating a music video by automatically matching an image suitable for a music atmosphere in a mobile communication terminal.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 이동통신 단말기에서 뮤직비디오를 생성하기 위한 방법에 있어서, 음악 파일과 하나 이상의 영상 파일을 선택받는 과정과, 상기 선택된 음악 파일의 세그먼트별 음악 분위기 값을 결정하는 과정과, 상기 결정된 세그먼트별 음악 분위기 값을 대상으로, 상기 선택된 음악 파일의 전체 음악 구간을, 허용 가능한 오차범위 내 음악 분위기 값들을 포함하는 하나 이상의 서브 구간들로 분할하는 과정과, 상기 선택된 하나 이상의 영상 파일별 영상 분위기 값을 결정하는 과정과, 상기 음악 파일의 서브 구간별로, 상기 하나 이상의 영상 파일들 중에서, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기 값을 가지는 영상 파일을 선택하여 매칭하는 과정을 포함하는 것을 특징으로 한다.According to a first aspect of the present invention for achieving the above object, in a method for generating a music video in a mobile communication terminal, the step of receiving a music file and at least one video file, and by segment of the selected music file Determining a music mood value and dividing the entire music section of the selected music file into one or more sub-sections including music mood values within an allowable error range based on the determined music mood value for each segment And determining an image mood value for each of the selected one or more image files, and for each sub-section of the music file, an image having an image mood value corresponding to the music mood value of the sub-section among the one or more image files. And selecting and matching the file.
본 발명의 제 2 견지에 따르면, 이동통신 단말기에서 뮤직비디오를 생성하기 위한 장치에 있어서, 음악 파일과 하나 이상의 영상 파일을 선택 입력받는 입력부와, 상기 선택된 음악 파일의 세그먼트별 음악 분위기 값을 결정하는 PCM 데이터 분석부와, 상기 결정된 세그먼트별 음악 분위기 값을 대상으로, 상기 선택된 음악 파일의 전체 음악 구간을, 허용 가능한 오차범위 내 음악 분위기 값들을 포함하는 하나 이상의 서브 구간들로 분할하는 서브 구간별 음악 분위기 결정부와, 상기 선택된 하나 이상의 영상 파일별 영상 분위기 값을 결정하는 영상 분위기 결정부와, 상기 음악 파일의 서브 구간별로, 상기 하나 이상의 영상 파일들 중에서, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기 값을 가지는 영상 파일을 선택하여 매칭하는 음악/영상 매칭부를 포함하는 것을 특징으로 한다.
According to a second aspect of the present invention, an apparatus for generating a music video in a mobile communication terminal, comprising: an input unit for selectively inputting a music file and at least one video file, and determining a music mood value of each segment of the selected music file; Sub-section music, which divides the entire music section of the selected music file into one or more sub-sections including music mood values within an acceptable error range, based on the PCM data analyzer and the determined music mood value for each segment. An atmosphere determiner, an image mood determiner configured to determine an image mood value for each of the selected one or more image files, and for each sub-section of the music file, among the one or more image files, a music mood value corresponding to the corresponding sub-section; Music / Video matching and selecting video file with video mood value It characterized in that it comprises a matching unit.
본 발명은 이동통신 단말기에서 음악과 정지영상의 분석을 통해 음악의 분위기에 맞는 영상을 자동으로 매칭하여 뮤직비디오를 생성함으로써, 사용자가 수동으로 뮤직비디오를 제작해야 하는 번거로움을 없애고, 각 음악의 분위기에 맞는 뮤직비디오를 자동으로 생성할 수 있는 이점이 있다.
The present invention generates a music video by automatically matching the image suitable for the atmosphere of the music through the analysis of music and still images in the mobile communication terminal, eliminating the hassle of having to manually create a music video, It has the advantage of automatically generating music videos that match the mood.
도 1은 본 발명에 따른 이동통신 단말기의 장치 구성을 도시한 블럭도,
도 2는 본 발명의 실시 예에 따른 이동통신 단말기에서 뮤직비디오를 생성하기 위한 방법을 도시한 흐름도,
도 3은 본 발명의 실시 예에 따른 이동통신 단말기에서 음악 파일의 구간 분할과 서브 구간별 음악 분위기 결정 방법을 도시한 예시도, 및
도 4는 본 발명의 실시 예에 따른 이동통신 단말기에서 음악 파일의 서브 구간별 영상 파일 선택 방법을 도시한 예시도.1 is a block diagram showing an apparatus configuration of a mobile communication terminal according to the present invention;
2 is a flowchart illustrating a method for generating a music video in a mobile communication terminal according to an embodiment of the present invention;
3 is an exemplary diagram illustrating a method of determining a music segment section and a music mood for each sub section in a mobile communication terminal according to an embodiment of the present invention; and
4 is an exemplary view illustrating a video file selection method for each sub-section of a music file in a mobile communication terminal according to an exemplary embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, the operating principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed descriptions of well-known functions or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.
이하 본 발명에서는 이동통신 단말기에서 음악과 정지영상의 분석을 통해 음악의 분위기에 맞는 영상을 자동으로 매칭하여 뮤직비디오를 생성하기 위한 방안을 제시한다. Hereinafter, the present invention proposes a method for generating a music video by automatically matching the image suitable for the atmosphere of music through the analysis of music and still images in the mobile communication terminal.
이하 본 발명에서는 음악의 분위기를 4가지 분위기, 즉 다이나믹(Dynamic), 스태틱(Static), 하드(Hard), 소프트(Soft)로 분류하는 것을 예로 들어 설명할 것이나, 이에 한정하지 않음은 물론이다.
Hereinafter, the present invention will be described with an example of classifying music into four atmospheres, that is, dynamic, static, hard, and soft, but the present invention is not limited thereto.
도 1은 본 발명에 따른 이동통신 단말기의 장치 구성을 도시한 블럭도이다. 1 is a block diagram showing an apparatus configuration of a mobile communication terminal according to the present invention.
도시된 바와 같이, 단말은 제어부(100), 오디오 디코더(102), 미디 데이터 분석부(104), PCM 데이터 분석부(106), 서브 구간별 음악 분위기 결정부(108), 영상 디코더(110), 칼라 히스토그램 분석부(112), 영상 주파수 분석부(114), 영상 분위기 결정부(116), 음악/영상 매칭부(118), 전환 영상 생성부(120), 동영상 디코더(122), 저장부(124), 입력부(126), 표시부(128)를 포함하여 구성된다. As shown, the terminal includes a controller 100, an
상기 도 1을 참조하면, 상기 제어부(100)는 단말의 전반적인 동작을 위한 제어 및 처리를 수행하며, 특히 본 발명에 따라 음악과 정지영상의 분석을 통해 음악의 분위기에 맞는 영상을 자동으로 매칭하여 뮤직비디오를 생성하기 위한 기능을 처리한다. 이를 위해 상기 제어부(100)는 입력부(126)를 통해 사용자로부터 뮤직비디오를 생성하기 위한 음악 파일과 하나 이상의 영상 파일들을 선택 입력받고, 저장부(124)에서 상기 선택 입력받은 음악 파일과 하나 이상의 영상 파일들을 추출하여, 상기 추출된 음악 파일을 오디오 디코더(102)로 제공하고, 상기 추출된 하나 이상의 영상 파일들을 영상 디코더(110)로 제공한다. Referring to FIG. 1, the controller 100 performs control and processing for the overall operation of the terminal, and in particular, automatically matches images suitable for the atmosphere of music through analysis of music and still images according to the present invention. Handles the function for creating music videos. To this end, the controller 100 receives and inputs a music file and one or more image files for generating a music video from the user through the
상기 오디오 디코더(102)는 상기 제어부(100)로부터의 음악 파일을 디코딩하여 음악 데이터로 변환하고, 상기 변환된 음악 데이터가 미디 데이터일 경우 상기 미디 데이터를 미디 데이터 분석부(104)로 제공하며, 상기 변환된 음악 데이터가 미디 데이터가 PCM 데이터일 경우 상기 PCM 데이터를 PCM 데이터 분석부(106)로 제공한다. The
상기 미디 데이터 분석부(104)는 상기 오디오 디코더(102)로부터의 미디 데이터에서 음악 분위기 값을 결정하기 위한 정보, 즉 음악의 속도(즉, BPM(Beats Per Minute)), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보를 추출하고, 상기 추출된 음악의 속도(즉, BPM), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보를 기반으로, 상기 음악 파일의 각 비트별 음악 분위기 값을 결정하여 서브 구간별 음악 분위기 결정부(108)로 제공한다. The MIDI data analyzer 104 may determine the music mood value in the MIDI data from the
상기 PCM 데이터 분석부(106)는 상기 오디오 디코더(102)로부터의 PCM 데이터에서 세그먼트 단위로 음악 분위기 값을 결정하기 위한 정보, 즉 음색 특성과 템포 특성 등의 정보를 추출하고, 상기 추출된 세그먼트별 음색 특성과 템포 특성 등의 정보를 기반으로, 상기 음악 파일의 각 세그먼트별 음악 분위기 값을 결정하여 서브 구간별 음악 분위기 결정부(108)로 제공한다. The PCM data analyzer 106 extracts information for determining a music mood value in units of segments from the PCM data from the
상기 서브 구간별 음악 분위기 결정부(108)는 상기 미디 데이터 분석부(104)로부터의 상기 음악 파일의 각 비트별 음악 분위기 값 또는 상기 PCM 데이터 분석부(106)로부터의 상기 음악 파일의 각 세그먼트별 음악 분위기 값을 기반으로, 상기 음악 파일의 전체 구간을 유사한 음악 분위기 값들을 포함하는 서브 구간들로 분할한다. 이로써 상기 서브 구간별 음악 분위기 결정부(108)는 상기 음악 파일의 전체 구간에 대해 서브 구간별 음악 분위기 값을 결정할 수 있으며, 이와 같이 결정된 상기 음악 파일의 서브 구간별 음악 분위기 값을 음악/영상 매칭부(118)로 제공한다.The music
상기 영상 디코더(110)는 상기 제어부(100)로부터의 영상 파일을 디코딩하여 영상 데이터를 출력한다. The
상기 칼라 히스토그램 분석부(112)는 상기 영상 디코더(110)로부터의 디코딩된 영상 데이터를 HSV(Hue-Saturation-Value) 스페이스로 색상 변환하고, 상기 색상 변환된 전체/일부 영상 데이터에 대하여 HSV 칼라 히스토그램을 생성한 후, 상기 생성된 HSV 칼라 히스토그램을 기반으로 해당 영상 데이터의 영상 분위기 추정값을 결정하여 영상 분위기 결정부(116)로 제공한다. The color histogram analyzer 112 color-decodes the decoded image data from the
상기 영상 주파수 분석부(114)는 상기 영상 디코더(110)로부터의 디코딩된 영상 데이터에 대해 주파수 분석(예를 들어, Edge Distribution, DCT(Discrete Cosine Transform), Wavelet Transform, Garbor filtering)하여 영상의 복잡도와 반복 패턴 개수 등을 결정하고, 이를 기반으로 해당 영상 데이터의 영상 분위기 추정값을 결정하여 영상 분위기 결정부(116)로 제공한다. The image frequency analyzer 114 analyzes the decoded image data from the
상기 영상 분위기 결정부(116)는 상기 칼라 히스토그램 분석부(112) 및 영상 주파수 분석부(114)로부터의 영상 데이터의 영상 분위기 추정값들을 기반으로, 해당 영상 데이터의 최종 영상 분위기 값을 결정하여, 영상 데이터별 영상 분위기 값을 음악/영상 매칭부(118)로 제공한다. The image mood determiner 116 determines a final image mood value of the corresponding image data based on image mood estimates of the image data from the color histogram analyzer 112 and the image frequency analyzer 114. The image mood data for each data is provided to the music / image matching unit 118.
상기 음악/영상 매칭부(118)는 상기 서브 구간별 음악 분위기 결정부(108)로부터의 상기 음악 파일의 서브 구간별 음악 분위기 값과, 상기 영상 분위기 결정부(116)로부터의 영상 데이터별 영상 분위기 값을 기반으로, 상기 음악 파일의 각 서브 구간별로, 상기 선택된 영상 파일들 중, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기값을 가지는 영상 파일을 선택하여 전환 영상 생성부(120)로 제공한다. 이에 따라, 상기 음악/영상 매칭부(118)는 음악 파일의 각 서브 구간 별로 해당 서브 구간의 분위기에 따라 가장 유사한 분위기의 영상을 자동 매칭할 수 있다. The music / image matching unit 118 is a music atmosphere value of each sub-section of the music file from the music
상기 전환 영상 생성부(120)는 상기 음악/영상 매칭부(118)로부터의 상기 음악 파일의 각 서브 구간별로 선택된 영상 파일을 대상으로, 상기 음악 파일의 각 서브 구간별로 선택된 연속된 두개의 영상 파일 사이에 삽입할 전환 영상을 생성하여 동영상 디코더(122)로 제공한다. The switching image generator 120 targets an image file selected for each sub-section of the music file from the music / image matching unit 118, and two consecutive image files selected for each sub-section of the music file. A conversion image to be inserted is generated and provided to the video decoder 122.
상기 동영상 디코더(122)는 상기 전환 영상 생성부(120)로부터의 상기 음악 파일과 상기 음악 파일의 각 서브 구간별 영상 파일과, 연속된 두 개의 영상 파일 사이에 삽입할 전환 영상을 인코딩하여 하나의 동영상 파일을 생성하고, 상기 생성된 동영상 파일을 상기 선택된 음악 파일에 대한 뮤직비디오로서 상기 저장부(124)에 저장한다. The video decoder 122 encodes the music file from the switching image generating unit 120, the image file for each sub-section of the music file, and the switching image to be inserted between two consecutive image files. A video file is generated, and the generated video file is stored in the storage unit 124 as a music video for the selected music file.
상기 저장부(124)는 상기 제어부(100)의 처리 및 제어를 위한 프로그램의 마이크로코드와 각종 참조 데이터를 저장하고, 각종 프로그램 수행 중에 발생하는 일시적인 데이터를 저장한다. 특히, 본 발명에 따라 상기 저장부(124)는 음악과 정지영상의 분석을 통해 음악의 분위기에 맞는 영상을 자동으로 매칭하여 뮤직비디오를 생성하기 위한 프로그램을 저장한다. 또한, 상기 저장부(124)는 음악 파일과 영상 파일, 그리고 이를 기반으로 생성된 동영상 파일(즉, 뮤직비디오)을 저장 및 관리한다. The storage unit 124 stores microcodes and various reference data of programs for processing and control of the control unit 100, and stores temporary data generated during execution of various programs. In particular, according to the present invention, the storage unit 124 stores a program for automatically generating a music video by automatically matching images suitable for the atmosphere of music through analysis of music and still images. In addition, the storage unit 124 stores and manages a music file, an image file, and a video file (ie, a music video) generated based on the same.
상기 입력부(126)는 다수의 숫자키 및 기능키들을 구비하며, 사용자가 누르는 키에 대응하는 키입력 데이터를 상기 제어부(100)로 제공한다. The
상기 표시부(128)는 단말의 동작 중에 발생하는 상태 정보, 제한된 숫자의 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 상기 표시부(128)는 칼라 액정 디스플레이 장치(LCD : Liquid Crystal Display)를 사용할 수 있다.
The
도 2는 본 발명의 실시 예에 따른 이동통신 단말기에서 뮤직비디오를 생성하기 위한 방법을 도시한 흐름도이다. 2 is a flowchart illustrating a method for generating a music video in a mobile communication terminal according to an embodiment of the present invention.
상기 도 2를 참조하면, 단말은 201단계에서 뮤직비디오를 생성하기 위한 음악 파일과 하나 이상의 영상 파일들이 선택되는지 여부를 검사한다. 여기서, 상기 하나 이상의 영상 파일들은, 단말 내 영상 앨범의 모든/일부 영상 또는 영상 앨범 내 일부 폴더의 모든 영상을 포함할 수 있다. Referring to FIG. 2, in
상기 201단계에서 뮤직비디오를 생성하기 위한 음악 파일과 하나 이상의 영상 파일들의 선택이 감지될 시, 상기 단말은 203단계에서 상기 선택된 음악 파일이 미디(MIDI) 파일인지 여부를 검사한다. When the selection of the music file and the one or more image files for generating the music video is detected in
상기 203단계에서, 상기 선택된 음악 파일이 미디 파일임이 판단될 시, 상기 단말은 205단계에서 상기 미디 파일을 디코딩하여 미디 데이터로 변환하고, 상기 변환된 미디 데이터에서 음악 분위기 값을 결정하기 위한 정보, 즉 음악의 속도(즉, BPM(Beats Per Minute)), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보를 추출한다. In
이후, 상기 단말은 207단계에서 상기 추출된 음악의 속도(즉, BPM), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보를 기반으로, 상기 음악 파일의 각 비트별 음악 분위기 값을 결정한 후, 213단계로 진행한다. 여기서, 상기 결정된 각 비트별 음악 분위기 값은, 예를 들어, 전체 음악의 분위기를 4가지 분위기, 즉 다이나믹(Dynamic), 스태틱(Static), 하드(Hard), 소프트(Soft)로 분류한다고 가정하였을 경우, 다이나믹_스태틱/하드_소프트 그래프(예를 들어, 도 3의 우측 도면) 상의 좌표값, 즉 (다이나믹_스태틱 값, 하드_소프트 값)으로 각각 표현될 수 있다. In
여기서, 상기 단말은 각 비트별 음악 분위기 값을 다음과 같은 방법으로 결정한다. 하나의 실시 예로, 상기 단말에는 음악의 속도(즉 BPM), 음의 코드번호, 음의 높이, 음의 세기 등의 각 정보별 다이나믹_스태틱 값과 하드_소프트 값을 정의하는 테이블이 존재하며, 상기 단말은 이와 같은 테이블을 참조하여, 상기 추출된 음악의 속도(즉, BPM), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보에 대응하는 다이나믹_스태틱 값과 하드_소프트 값을 각각 검출한다. 다른 실시 예로, 상기 단말은 학습 기반 알고리즘을 구동하여 상기 추출된 음악의 속도(즉, BPM), 각 음의 코드번호, 각 음의 높이, 각 음의 세기 등의 정보에 대응하는 다이나믹_스태틱 값과 하드_소프트 값을 각각 검출할 수 있다. 이후, 상기 단말은 각 비트 별로 상기 검출된 각 정보들의 다이나믹_스태틱 값의 평균값과 각 비트 별로 상기 검출된 각 정보들의 하드_소프트 값의 평균값을 결정하고, 상기 결정된 각 비트별 다이나믹_스태틱 값의 평균값과 하드_소프트 값의 평균값을 이용하여 각 비트 별로 다이나믹_스태틱/하드_소프트 그래프 상의 좌표값, 즉 (다이나믹_스태틱 값, 하드_소프트 값)을 결정한다. Here, the terminal determines the music mood value for each bit in the following manner. In one embodiment, there is a table that defines a dynamic_static value and a hard_soft value for each information such as music speed (ie, BPM), sound code number, sound height, sound strength, etc. The terminal refers to such a table, and the dynamic_static value and the hard_corresponding to the information of the speed of the extracted music (ie, BPM), the code number of each sound, the height of each sound, the strength of each sound, and the like. Each soft value is detected. In another embodiment, the terminal may drive a learning-based algorithm so that the dynamic_static value corresponding to information such as the speed of the extracted music (ie, BPM), the code number of each sound, the height of each sound, and the strength of each sound may be obtained. And hard_soft values can be detected respectively. Thereafter, the terminal determines the average value of the dynamic_static value of the detected information for each bit and the average value of the hard_soft value of the detected information for each bit, and determines the average dynamic_static value of the determined bit for each bit. The average value of the average value and the hard_soft value is used to determine the coordinate values on the dynamic_hard / hard_soft graph, that is, (dynamic_static value, hard_soft value) for each bit.
반면, 상기 203단계에서, 상기 선택된 음악 파일이 미디 파일이 아님이 판단될 시, 상기 단말은 상기 선택된 음악 파일이 PCM 파일이라고 판단하여, 209단계에서 상기 PCM 파일을 디코딩하여 PCM 데이터로 변환하고, 상기 변환된 PCM 데이터에서 세그먼트 단위로 음악 분위기 값을 결정하기 위한 정보, 즉 음색 특성과 템포 특성 등의 정보를 추출한다. 예를 들어, 상기 단말은 상기 변환된 PCM 데이터에서 세그먼트 단위로 MDCT(Modified Discrete Cosine Transformation) 계수를 추출하고, 상기 추출된 MDCT 계수들로부터 음색 특성을 추출할 수 있다. 대표적인 상기 음색 특성으로 스펙트럼의 중심(spectral centroid), 대역폭(bandwidth), 롤오프(rolloff), 플럭스(flux), 스펙트럼의 서브 밴드 피크(spectral sub-band peak), 밸리(valley), 평균(average) 등이 있다. 또한, 상기 단말은 상기 변환된 PCM 데이터에서 세그먼트 단위로 MDCT 계수를 추출하고, 상기 추출된 MDCT 계수들에 대해 DFT(Discrete Fourier Transformation)을 수행하여 MDCT 변조 스펙트럼(Modulation Spectrum)을 추출한 후, 상기 추출된 MDCT 변조 스펙트럼으로부터 에너지를 추출하여 템포 특성으로 사용할 수 있다. On the other hand, when it is determined in
이후, 상기 단말은 211단계에서 상기 추출된 세그먼트별 음색 특성과 템포 특성 등의 정보를 기반으로, 상기 음악 파일의 각 세그먼트별 음악 분위기 값을 결정한 후, 상기 213단계로 진행한다. 여기서, 상기 결정된 각 세그먼트별 음악 분위기 값은, 예를 들어, 전체 음악의 분위기를 4가지 분위기, 즉 다이나믹(Dynamic), 스태틱(Static), 하드(Hard), 소프트(Soft)로 분류한다고 가정하였을 경우, 다이나믹_스태틱/하드_소프트 그래프 상의 좌표값, 즉 (다이나믹_스태틱 값, 하드_소프트 값)으로 각각 표현될 수 있다.In
여기서, 상기 단말은 각 세그먼트별 음악 분위기 값을 다음과 같은 방법으로 결정한다. 하나의 실시 예로, 상기 단말에는 음색 특성과 템포 특성 등의 각 정보별 다이나믹_스태틱 값과 하드_소프트 값을 정의하는 테이블이 존재하며, 상기 단말은 이와 같은 테이블을 참조하여, 상기 추출된 세그먼트별 음색 특성과 템포 특성 등의 정보에 대응하는 다이나믹_스태틱 값과 하드_소프트 값을 각각 검출한다. 다른 실시 예로, 상기 단말은 학습 기반 알고리즘을 구동하여 상기 추출된 세그먼트별 음색 특성과 템포 특성 등의 정보에 대응하는 다이나믹_스태틱 값과 하드_소프트 값을 각각 검출할 수 있다. 이후, 상기 단말은 각 세그먼트별로 상기 검출된 각 정보들의 다이나믹_스태틱 값의 평균값과 각 세그먼트별로 상기 검출된 각 정보들의 하드_소프트 값의 평균값을 결정하고, 상기 결정된 각 세그먼트별 다이나믹_스태틱 값의 평균값과 하드_소프트 값의 평균값을 이용하여 각 세그먼트 별로 다이나믹_스태틱/하드_소프트 그래프 상의 좌표값, 즉 (다이나믹_스태틱 값, 하드_소프트 값)을 결정한다. Here, the terminal determines the music mood value for each segment in the following manner. According to an embodiment, there is a table defining dynamic_static values and hard_soft values for each information such as a tone characteristic and a tempo characteristic in the terminal, and the terminal refers to such a table for each extracted segment. Dynamic_static values and hard_soft values corresponding to information such as timbre characteristics and tempo characteristics are detected, respectively. In another embodiment, the terminal may drive a learning based algorithm to detect a dynamic_static value and a hard_soft value, respectively, corresponding to the extracted tone characteristics and tempo characteristics of each segment. Thereafter, the terminal determines an average value of dynamic_static values of the detected information for each segment and an average value of hard_soft values of the detected information for each segment, and determines the dynamic_static value of each determined segment. The average value of the average value and the hard_soft value is used to determine coordinate values on the dynamic_hard / hard_soft graph, that is, (dynamic_static value, hard_soft value) for each segment.
이후, 상기 단말은 상기 213단계에서, 상기 207단계에서 결정된 상기 음악 파일의 각 비트별 음악 분위기 값 또는 상기 211단계에서 결정된 상기 음악 파일의 각 세그먼트별 음악 분위기 값을 기반으로, 상기 음악 파일의 전체 구간을 유사한 음악 분위기 값들을 포함하는 서브 구간들로 분할한다. 즉, 상기 단말은 각 비트별 다이나믹_스태틱/하드_소프트 그래프 상의 (다이나믹_스태틱 값, 하드_소프트 값) 또는 각 세그먼트별 다이나믹_스태틱/하드_소프트 그래프 상의 (다이나믹_스태틱 값, 하드_소프트 값)을 기반으로, 도 3과 같이, 연속된 시간 동안 허용 가능한 오차범위(Th) 내에 존재하는 모든 (다이나믹_스태틱 값, 하드_소프트 값)들을 동일한 서브 구간 내에 포함시킨다. 여기서, 각 서브 구간의 길이는 최소 길이(Dmin)와 최대 길이(Dmax) 사이에서 변화 가능하다. 또한, 서브 구간 내에 허용 가능한 오차범위(Th)를 벗어나는 (다이나믹_스태틱 값, 하드_소프트 값)이 존재하더라도, 서브 구간 내에서 허용 가능한 오차범위(Th)를 벗어나는 (다이나믹_스태틱 값, 하드_소프트 값)이 차지하는 시간이 허용 가능한 시간오차범위(Cmin) 내에 존재한다면, 해당 (다이나믹_스태틱 값, 하드_소프트 값)을 해당 서브 구간 내에 유지시킨다. 이로써 상기 단말은 상기 음악 파일의 전체 구간에 대해 서브 구간별 음악 분위기 값을 결정할 수 있다. Thereafter, in
이후, 상기 단말은 215단계에서 상기 선택된 하나 이상의 영상 파일들을 디코딩하여 각각의 영상 데이터로 변환한다. In
이후, 상기 단말은 217단계에서 상기 변환된 각 영상 데이터별로, 해당 영상 데이터를 HSV(Hue-Saturation-Value) 스페이스로 색상 변환하여, 상기 색상 변환된 전체/일부 영상 데이터에 대하여 HSV 칼라 히스토그램을 생성한 후, 상기 생성된 HSV 칼라 히스토그램을 기반으로 영상 분위기 추정값을 결정한다. 즉, 상기 단말은 상기 변환된 각 영상 데이터별로, 해당 영상 데이터를 HSV 색공간 좌표에 대응하도록 색상 변환하여, 상기 색상 변환된 전체/일부 영상 데이터에 대하여 해당 영상 데이터에 포함된 색상의 분포를 정리한 후, 이를 기반으로 영상 분위기 추정값을 결정한다. In step 217, the terminal converts the corresponding image data into a Hue-Saturation-Value (HSV) space for each of the converted image data, thereby generating an HSV color histogram for the color / converted image data. Then, the image mood estimation value is determined based on the generated HSV color histogram. That is, the terminal converts the corresponding color image data to correspond to HSV color space coordinates for each of the converted image data, and arranges the distribution of colors included in the corresponding image data with respect to the color transformed all / partial image data. Afterwards, the image mood estimation value is determined based on this.
여기서, 상기 단말은 HSV 칼라 히스토그램을 기반으로 영상 분위기 추정값을 다음과 같은 방법으로 결정한다. 예를 들어, 상기 단말은 영상 분위기 특성별 대표 색상값을 이용하여 영상 분위기 추정값을 결정하고, 영상 분위기 특성별 배색 색상값을 이용하여 영상 분위기 추정값을 결정할 수 있다. Here, the terminal determines the image mood estimation value based on the HSV color histogram as follows. For example, the terminal may determine the image mood estimation value using the representative color value for each image mood characteristic, and determine the image mood estimate value using the color tone color value for each image mood characteristic.
먼저, 영상 분위기 특성별 대표 색상값을 이용한 영상 분위기 추정값 결정 방법에 대해 살펴보면 다음과 같다. 하나의 실시 예로, 상기 단말은 상기 생성된 HSV 칼라 히스토그램을 기반으로 가장 높은 히스토그램값을 가지는 색상을 결정하고, 즉 해당 영상 데이터에 포함된 색상 중 가장 많이 분포된 색상을 결정하고, 영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 상기 결정된 색상값과의 차이가 가장 작은 영상 분위기 특성 대표 색상값을 결정한다. 이로써, 상기 단말은, 하기 <수학식 1>과 같이, 각 영상 데이터의 제1 영상 분위기 추정값을 결정할 수 있다. First, a method of determining an image atmosphere estimation value using representative color values for each image atmosphere characteristic is as follows. In one embodiment, the terminal determines the color having the highest histogram value based on the generated HSV color histogram, that is, determines the most distributed color among the colors included in the corresponding image data, Based on the table defining the representative color values, the representative color value of the image atmosphere characteristic having the smallest difference from the determined color values is determined. As a result, the terminal may determine the first image atmosphere estimation value of each image data, as shown in Equation 1 below.
여기서, 상기 은 I번째 영상 데이터의 제1 영상 분위기 추정값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y)는 영상 분위기 특성 y의 대표 색상값을 의미한다. Where Denotes a first image mood estimation value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y) denotes a representative color value of the image mood characteristic y. .
다른 실시 예로, 상기 단말은 상기 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 영상 분위기 특성별 대표 색상값 중 가장 높은 히스토그램값을 가지는 색상을 결정한다. 즉 상기 단말은 해당 영상 데이터에 포함된 색상 중 가장 많이 분포된 영상 분위기 특성 대표 색상값을 결정한다. 이로써, 상기 단말은, 하기 <수학식 2>와 같이, 각 영상 데이터의 제1 영상 분위기 추정값을 결정할 수 있다. In another embodiment, the terminal determines the color having the highest histogram value among the representative color values for each image atmosphere characteristic based on the generated HSV color histogram and a table for defining the representative color values for each image atmosphere characteristic. That is, the terminal determines the representative color value of the image atmosphere characteristic most distributed among the colors included in the corresponding image data. As a result, the terminal may determine the first image atmosphere estimation value of each image data, as shown in
다음으로, 영상 분위기 특성별 배색 색상값을 이용한 영상 분위기 추정값 결정 방법에 대해 살펴보면 다음과 같다. 하나의 실시 예로, 상기 단말은 상기 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 배색 색상값들의 히스토그램값의 합이 가장 높은 영상 분위기 특성 배색 색상값을 결정한다. 이로써, 상기 단말은, 하기 <수학식 3>과 같이, 각 영상 데이터의 제2 영상 분위기 추정값을 결정할 수 있다. Next, a method of determining an image mood estimation value using color schemes of colors according to image mood characteristics will be described. According to an embodiment, the terminal determines the image mood characteristic color value having the highest sum of the histogram values of the color scheme values based on the generated HSV color histogram and the color scheme of the color value for each image mood characteristic. . As a result, the terminal may determine the second image atmosphere estimation value of each image data, as shown in
여기서, 상기 은 I번째 영상 데이터의 제2 영상 분위기 추정값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y,i)는 영상 분위기 특성 y의 배색 색상값 중 i번째 색상값을 의미한다. 여기서, 영상 분위기 특성별로 3개의 배색 색상값이 존재하는 것을 가정하고 있으나, 이에 한정하지 않음은 물론이다. Where Denotes a second image mood estimation value of the I-th image data, wherein H (x) denotes an HSV histogram value with respect to the color value x, and M (y, i) is a color tone value of the image mood characteristic y. It means the i'th color value. Here, although it is assumed that three color schemes exist for each image atmosphere characteristic, the present invention is not limited thereto.
이후, 상기 단말은 219단계에서 상기 변환된 각 영상 데이터별로, 해당 영상 데이터에 대한 주파수 분석(예를 들어, Edge Distribution, DCT(Discrete Cosine Transform), Wavelet Transform, Garbor filtering)을 통해 영상의 복잡도와 반복 패턴 개수 등을 결정하고, 이를 기반으로 영상 분위기 추정값을 결정한다. 하나의 실시 예로, 상기 단말에는 영상의 복잡도와 반복 패턴 개수 등의 각 정보별 영상 분위기 추정값을 정의하는 테이블이 존재하며, 상기 단말은 이와 같은 테이블을 참조하여, 상기 결정된 영상의 복잡도와 반복 패턴 개수 등의 정보에 대응하는 영상 분위기 추정값을 결정한다. 이로써, 상기 단말은 각 영상 데이터의 제3 영상 분위기 추정값 을 결정할 수 있다. Afterwards, in
이후, 상기 단말은 221단계에서 각 영상 데이터별 상기 결정된 영상 분위기 추정값들을 기반으로, 각 영상 데이터별 최종 영상 분위기 값을 결정한다. 예를 들어, 상기 단말은, 하기 <수학식 4>와 같이, 각 영상 데이터별 상기 결정된 제1, 제2, 제3 영상 분위기 추정값들의 합으로 각 영상 데이터별 최종 영상 분위기 값을 결정할 수 있다.In
여기서, 상기 은 I번째 영상 데이터의 최종 영상 분위기 값을 의미하고, 상기 은 I번째 영상 데이터의 제i 영상 분위기 추정값을 의미하며, 상기 는 가중치값을 의미한다. 여기서, 다른 2개의 영상 분위기 추정값들과 나머지 하나의 영상 분위기 추정값의 차이가 현저할 경우, 상기 나머지 하나의 영상 분위기 추정값은 무시할 수 있다. Where Denotes the final image mood value of the I-th image data. Denotes an i-th image mood estimation value of the I-th image data. Denotes a weight value. Here, when the difference between the other two image atmosphere estimates and the other image atmosphere estimate is significant, the other one may be ignored.
이후, 상기 단말은 223단계에서 상기 음악 파일의 각 서브 구간별로, 상기 선택된 하나 이상의 영상 파일들 중, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기값을 가지는 영상 파일을 선택한다. 이에 따라, 도 4와 같이, 상기 단말은 음악 파일의 각 서브 구간 별로 해당 서브 구간의 분위기에 따라 가장 유사한 분위기의 영상을 자동 매칭할 수 있다. In
이후, 상기 단말은 225단계에서 상기 음악 파일의 각 서브 구간별로 선택된 연속된 두개의 영상 파일 사이에 삽입할 전환 영상을 생성한다. 하나의 실시 예로, 상기 단말은 영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 연속된 두개의 영상 파일 각각에 대응하는 영상 분위기 특성의 배색 색상값들을 추출하고, 상기 추출된 배색 색상값들을 혼합하여, 연속된 두개의 영상 파일 사이에 삽입할 전환 영상을 생성할 수 있다. 이에 따라 영상이 변하는 부분에 전환 효과를 삽입할 수 있다. In
이후, 상기 단말은 227단계에서 상기 선택된 음악 파일과 상기 음악 파일의 각 서브 구간별 영상 파일과, 연속된 두 개의 영상 파일 사이에 삽입할 전환 영상을 인코딩하여 하나의 동영상 파일을 생성하고, 상기 생성된 동영상 파일을 상기 선택된 음악 파일에 대한 뮤직비디오로서 저장한다. In
이후, 상기 단말은 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the terminal terminates the algorithm according to the present invention.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.
오디오 디코더 102, 미디 데이터 분석부 104, PCM 데이터 분석부 106, 서브 구간별 음악 분위기 결정부 108, 영상 디코더 110, 칼라 히스토그램 분석부 112, 영상 주파수 분석부 114, 영상 분위기 결정부 116, 음악/영상 매칭부 118, 전환 영상 생성부 120, 동영상 디코더 122
Claims (28)
음악 파일과 하나 이상의 영상 파일을 선택받는 과정과,
상기 선택된 음악 파일의 세그먼트별 음악 분위기 값을 결정하는 과정과,
상기 결정된 세그먼트별 음악 분위기 값을 대상으로, 상기 선택된 음악 파일의 전체 음악 구간을, 허용 가능한 오차범위 내 음악 분위기 값들을 포함하는 하나 이상의 서브 구간들로 분할하는 과정과,
상기 선택된 하나 이상의 영상 파일별 영상 분위기 값을 결정하는 과정과,
상기 음악 파일의 서브 구간별로, 상기 하나 이상의 영상 파일들 중에서, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기 값을 가지는 영상 파일을 선택하여 매칭하는 과정을 포함하는 것을 특징으로 하는 방법.
In the method for generating a music video in a mobile terminal,
Receiving a music file and one or more video files,
Determining a music mood value for each segment of the selected music file;
Dividing the entire music section of the selected music file into one or more sub-sections including music mood values within an allowable error range based on the determined music mood value for each segment;
Determining an image mood value for each of the selected one or more image files;
And selecting and matching the image file having an image mood value corresponding to the music mood value of the sub-section among the one or more image files for each sub-section of the music file.
상기 선택된 음악 파일을 디코딩하여 음악 데이터로 변환하는 과정과,
상기 변환된 음악 데이터에서 세그먼트별로 음색 특성과 템포 특성 중 적어도 하나를 추출하는 과정을 더 포함하며,
여기서, 상기 선택된 음악 파일의 세그먼트별 음악 분위기 값은, 상기 추출된 세그먼트별 음색 특성과 템포 특성 중 적어도 하나를 기반으로 결정하는 것을 특징으로 하는 방법.
The method of claim 1,
Converting the selected music file into music data;
Extracting at least one of a timbre characteristic and a tempo characteristic for each segment from the converted music data;
The music mood value of each segment of the selected music file may be determined based on at least one of the extracted segment tone characteristics and tempo characteristics.
상기 선택된 음악 파일이 미디 파일인지 여부를 검사하는 과정과,
상기 선택된 음악 파일이 미디 파일일 시, 상기 선택된 음악 파일의 비트별 음악 분위기 값을 결정하는 과정을 더 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
Checking whether the selected music file is a MIDI file;
When the selected music file is a MIDI file, determining the music mood value of each bit of the selected music file.
상기 선택된 음악 파일을 디코딩하여 음악 데이터로 변환하는 과정과,
상기 변환된 음악 데이터에서 음악의 속도, 각 음의 코드번호, 각 음의 높이, 각 음의 세기 중 적어도 하나를 추출하는 과정을 더 포함하며,
여기서, 상기 선택된 음악 파일의 비트별 음악 분위기 값은, 상기 추출된 음악의 속도, 각 음의 코드번호, 각 음의 높이, 각 음의 세기 중 적어도 하나를 기반으로 결정하는 것을 특징으로 하는 방법.
The method of claim 3, wherein
Converting the selected music file into music data;
Extracting at least one of a speed of music, a code number of each sound, a height of each sound, and an intensity of each sound from the converted music data,
The music mood value for each bit of the selected music file may be determined based on at least one of a speed of the extracted music, a code number of each sound, a height of each sound, and an intensity of each sound.
상기 선택된 하나 이상의 영상 파일을 디코딩하여 영상 데이터로 변환하는 과정과,
상기 변환된 영상 데이터별로, 해당 영상 데이터를 HSV(Hue-Saturation-Value) 스페이스로 색상 변환하고, 상기 색상 변환된 영상 데이터에 대하여 HSV 칼라 히스토그램을 생성하는 과정을 더 포함하며,
여기서, 상기 선택된 하나 이상의 영상 파일별 영상 분위기 값은, 해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램을 기반으로 결정하는 것을 특징으로 하는 방법.
The method of claim 1,
Converting the selected one or more image files into image data;
For each of the converted image data, color converting the corresponding image data into a Hue-Saturation-Value (HSV) space, and generating an HSV color histogram of the color converted image data.
The image mood value of each of the selected one or more image files may be determined based on the HSV color histogram generated for the corresponding image data.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램을 기반으로 가장 높은 히스토그램값을 가지는 색상을 결정하는 과정과,
영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 상기 결정된 색상값과의 차이가 가장 작은 영상 분위기 특성 대표 색상값을 결정하는 과정을 포함하는 것을 특징으로 하는 방법.
The method of claim 5, wherein the determining of the video mood value for each video file comprises:
Determining a color having the highest histogram value based on the HSV color histogram generated for the corresponding image data;
And determining an image color characteristic representative color value having the smallest difference from the determined color value based on a table defining a representative color value corresponding to each image atmosphere characteristic.
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 방법.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y)는 영상 분위기 특성 y의 대표 색상값을 의미함.
The method according to claim 6,
The video mood value for each video file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y) denotes a representative color value of the image mood characteristic y.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 영상 분위기 특성별 대표 색상값 중 가장 높은 히스토그램값을 가지는 색상을 결정하는 과정임을 특징으로 하는 방법.
The method of claim 5, wherein the determining of the video mood value for each video file comprises:
A method of determining a color having the highest histogram value among representative color values for each image atmosphere characteristic based on the HSV color histogram generated for the corresponding image data and a table defining representative color values for each image atmosphere characteristic. .
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 방법.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y)는 영상 분위기 특성 y의 대표 색상값을 의미함.
The method of claim 8,
The video mood value for each video file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y) denotes a representative color value of the image mood characteristic y.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 배색 색상값들의 히스토그램값의 합이 가장 높은 영상 분위기 특성 배색 색상값을 결정하는 과정임을 특징으로 하는 방법.
The method of claim 5, wherein the determining of the video mood value for each video file comprises:
Based on the HSV color histogram generated for the corresponding image data and a table defining color values of color values for each of the image mood characteristics, the sum of the histogram values of the color values of the color schemes determines the image color characteristic color value having the highest value. How to.
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 방법.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y,i)는 영상 분위기 특성 y의 배색 색상값 중 i번째 색상값을 의미함.
The method of claim 10,
The video mood value for each video file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y, i) denotes an i-th color scheme of color scheme of the image mood characteristic y. It means the color value.
상기 선택된 하나 이상의 영상 파일을 디코딩하여 영상 데이터로 변환하는 과정과,
상기 변환된 영상 데이터별로, 해당 영상 데이터에 대한 주파수 분석을 통해 영상의 복잡도와 반복 패턴 개수 중 적어도 하나를 결정하는 과정을 더 포함하며,
여기서, 상기 선택된 하나 이상의 영상 파일별 영상 분위기 값은, 해당 영상 데이터에 대해 상기 결정된 영상의 복잡도와 반복 패턴 개수 중 적어도 하나를 기반으로 결정하는 것을 특징으로 하는 방법.
The method of claim 1,
Converting the selected one or more image files into image data;
For each of the converted image data, further comprising the step of determining at least one of the complexity of the image and the number of repeating patterns through the frequency analysis of the corresponding image data,
The image mood value for each of the selected one or more image files may be determined based on at least one of the complexity of the determined image and the number of repetitive patterns for the corresponding image data.
상기 음악 파일의 서브 구간별로 매칭된 연속된 두개의 영상 파일 사이에 삽입할 전환 영상을 생성하는 과정과,
상기 음악 파일, 상기 음악 파일의 서브 구간별로 매칭된 영상 파일과, 연속된 두 개의 영상 파일 사이에 삽입할 전환 영상을 인코딩하여 동영상 파일을 생성하는 과정을 더 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
Generating a switching image to be inserted between two consecutive image files matched for each sub-section of the music file;
And generating a video file by encoding the music file, an image file matched for each sub-section of the music file, and a transition image to be inserted between two consecutive image files.
영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 연속된 두개의 영상 파일 각각에 대응하는 영상 분위기 특성의 배색 색상값들을 추출하는 과정과,
상기 추출된 배색 색상값들을 혼합하는 과정을 포함하는 것을 특징으로 하는 방법.
The method of claim 13, wherein the converting image generation process comprises:
Extracting color values of the image mood characteristics corresponding to each of two consecutive image files based on a table defining color values of the color values for each of the image mood characteristics;
And mixing the extracted color scheme values.
음악 파일과 하나 이상의 영상 파일을 선택 입력받는 입력부와,
상기 선택된 음악 파일의 세그먼트별 음악 분위기 값을 결정하는 PCM 데이터 분석부와,
상기 결정된 세그먼트별 음악 분위기 값을 대상으로, 상기 선택된 음악 파일의 전체 음악 구간을, 허용 가능한 오차범위 내 음악 분위기 값들을 포함하는 하나 이상의 서브 구간들로 분할하는 서브 구간별 음악 분위기 결정부와,
상기 선택된 하나 이상의 영상 파일별 영상 분위기 값을 결정하는 영상 분위기 결정부와,
상기 음악 파일의 서브 구간별로, 상기 하나 이상의 영상 파일들 중에서, 해당 서브 구간의 음악 분위기 값에 대응하는 영상 분위기 값을 가지는 영상 파일을 선택하여 매칭하는 음악/영상 매칭부를 포함하는 것을 특징으로 하는 장치.
In the device for generating a music video in a mobile communication terminal,
An input unit for selecting and inputting a music file and one or more image files;
A PCM data analyzer for determining a music mood value for each segment of the selected music file;
A music mood determination unit for each sub-section that divides the entire music section of the selected music file into one or more sub-sections including music mood values within an allowable error range, based on the determined music mood value for each segment;
An image atmosphere determiner configured to determine an image atmosphere value for each of the selected one or more image files;
And a music / image matching unit configured to select and match an image file having an image mood value corresponding to a music mood value of the sub-section among the one or more image files for each sub-section of the music file. .
상기 선택된 음악 파일을 디코딩하여 음악 데이터로 변환하는 오디오 디코더를 더 포함하며,
상기 PCM 데이터 분석부는, 상기 변환된 음악 데이터에서 세그먼트별로 음색 특성과 템포 특성 중 적어도 하나를 추출하고, 상기 추출된 세그먼트별 음색 특성과 템포 특성 중 적어도 하나를 기반으로 상기 선택된 음악 파일의 세그먼트별 음악 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 15,
An audio decoder which decodes the selected music file and converts the selected music file into music data;
The PCM data analyzer extracts at least one of a timbre characteristic and a tempo characteristic for each segment from the converted music data, and the music for each segment of the selected music file based on at least one of the extracted tones characteristic and the tempo characteristic for each segment. Device for determining the atmosphere value.
상기 선택된 음악 파일을 디코딩하여 음악 데이터로 변환하고, 상기 선택된 음악 파일이 미디 파일인 경우, 상기 변환된 음악 데이터를 미디 데이터 분석부로 제공하는 오디오 디코더와,
상기 선택된 음악 파일의 비트별 음악 분위기 값을 결정하는 미디 데이터 분석부를 더 포함하는 것을 특징으로 하는 장치.
The method of claim 15,
An audio decoder which decodes the selected music file and converts it into music data, and provides the converted music data to a MIDI data analyzer if the selected music file is a MIDI file;
And a MIDI data analyzer configured to determine a music mood value for each bit of the selected music file.
상기 미디 데이터 분석부는, 상기 변환된 음악 데이터에서 음악의 속도, 각 음의 코드번호, 각 음의 높이, 각 음의 세기 중 적어도 하나를 추출하고, 상기 추출된 음악의 속도, 각 음의 코드번호, 각 음의 높이, 각 음의 세기 중 적어도 하나를 기반으로 상기 선택된 음악 파일의 비트별 음악 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 17,
The MIDI data analyzer extracts at least one of a speed of music, a code number of each sound, a height of each sound, and an intensity of each sound from the converted music data, and the speed of the extracted music and the code number of each sound. And determining a music mood value for each bit of the selected music file based on at least one of the height of each sound and the strength of each sound.
상기 선택된 하나 이상의 영상 파일을 디코딩하여 영상 데이터로 변환하는 영상 디코더를 더 포함하며,
상기 영상 분위기 결정부는, 상기 변환된 영상 데이터별로, 해당 영상 데이터를 HSV(Hue-Saturation-Value) 스페이스로 색상 변환하고, 상기 색상 변환된 영상 데이터에 대하여 HSV 칼라 히스토그램을 생성하며, 상기 영상 데이터별 HSV 칼라 히스토그램을 기반으로 상기 선택된 하나 이상의 영상 파일별 영상 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 15,
And a video decoder for decoding the selected one or more video files and converting the selected video files into image data.
The image mood determination unit converts corresponding image data into a Hue-Saturation-Value (HSV) space for each of the converted image data, generates an HSV color histogram for the color converted image data, and for each of the image data. And determining an image mood value for each of the selected one or more image files based on an HSV color histogram.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램을 기반으로 가장 높은 히스토그램값을 가지는 색상을 결정하고,
영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 상기 결정된 색상값과의 차이가 가장 작은 영상 분위기 특성 대표 색상값을 결정하여, 상기 영상 파일별 영상 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 19, wherein the video mood determination unit,
The color having the highest histogram value is determined based on the HSV color histogram generated for the corresponding image data.
Based on a table defining a representative color value for each image mood characteristic, the device characterized in that the image mood characteristic representative color value having the smallest difference from the determined color value is determined, and determines the image mood value for each image file. .
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 장치.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y)는 영상 분위기 특성 y의 대표 색상값을 의미함.
The method of claim 20,
The image mood value for each image file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y) denotes a representative color value of the image mood characteristic y.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 대표 색상값을 정의하는 테이블을 기반으로, 영상 분위기 특성별 대표 색상값 중 가장 높은 히스토그램값을 가지는 색상을 결정하여, 상기 영상 파일별 영상 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 19, wherein the video mood determination unit,
Based on the HSV color histogram generated for the corresponding image data and a table defining a representative color value for each image mood characteristic, the color having the highest histogram value among the representative color values for each image mood characteristic is determined and the image for each image file is determined. Device for determining the atmosphere value.
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 장치.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y)는 영상 분위기 특성 y의 대표 색상값을 의미함.
The method of claim 22,
The image mood value for each image file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y) denotes a representative color value of the image mood characteristic y.
해당 영상 데이터에 대해 생성된 HSV 칼라 히스토그램과 영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 배색 색상값들의 히스토그램값의 합이 가장 높은 영상 분위기 특성 배색 색상값을 결정하여, 상기 영상 파일별 영상 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 19, wherein the video mood determination unit,
Based on the HSV color histogram generated for the corresponding image data and a table defining color values of color values for each of the image mood characteristics, the image file is determined by determining an image color characteristic color value having the highest sum of the histogram values of color values. Device for determining the star image mood value.
상기 영상 파일별 영상 분위기 값은, 하기 <수학식>을 이용하여 결정하는 것을 특징으로 하는 장치.
여기서, 상기 은 I번째 영상 데이터의 영상 분위기 값을 의미하고, 상기 H(x)는 색상값 x에 대한 HSV 히스토그램값을 의미하고, 상기 M(y,i)는 영상 분위기 특성 y의 배색 색상값 중 i번째 색상값을 의미함.
The method of claim 24,
The image mood value for each image file is determined using the following Equation.
Where Denotes an image mood value of the I-th image data, H (x) denotes an HSV histogram value with respect to the color value x, and M (y, i) denotes an i-th color scheme of color scheme of the image mood characteristic y. It means the color value.
상기 선택된 하나 이상의 영상 파일을 디코딩하여 영상 데이터로 변환하는 영상 디코더를 더 포함하며,
상기 영상 분위기 결정부는, 상기 변환된 영상 데이터별로, 해당 영상 데이터에 대한 주파수 분석을 통해 영상의 복잡도와 반복 패턴 개수 중 적어도 하나를 결정하고, 상기 결정된 영상의 복잡도와 반복 패턴 개수 중 적어도 하나를 기반으로 상기 영상 파일별 영상 분위기 값을 결정하는 것을 특징으로 하는 장치.
The method of claim 15,
And a video decoder for decoding the selected one or more video files and converting the selected video files into image data.
The image atmosphere determiner determines at least one of the complexity of the image and the number of repetition patterns through frequency analysis of the corresponding image data for each of the converted image data, and based on at least one of the complexity of the determined image and the number of repetition patterns. And determining an image mood value for each image file.
상기 음악 파일의 서브 구간별로 매칭된 연속된 두개의 영상 파일 사이에 삽입할 전환 영상을 생성하는 전환 영상 생성부와,
상기 음악 파일, 상기 음악 파일의 서브 구간별로 매칭된 영상 파일과, 연속된 두 개의 영상 파일 사이에 삽입할 전환 영상을 인코딩하여 동영상 파일을 생성하는 동영상 디코더를 더 포함하는 것을 특징으로 하는 장치.
The method of claim 15,
A switching image generator for generating a switching image to be inserted between two consecutive image files matched for each sub-section of the music file;
The apparatus further comprises a video decoder for generating a video file by encoding the music file, a video file matched for each sub-section of the music file, and a transition video to be inserted between two consecutive video files.
영상 분위기 특성별 배색 색상값을 정의하는 테이블을 기반으로, 연속된 두개의 영상 파일 각각에 대응하는 영상 분위기 특성의 배색 색상값들을 추출하고, 상기 추출된 배색 색상값들을 혼합하여 상기 전환 영상을 생성하는 것을 특징으로 하는 장치. The method of claim 27, wherein the conversion image generator,
Based on a table defining color values of color schemes for each image mood characteristic, color scheme color values of image mood characteristics corresponding to two consecutive image files are extracted, and the extracted color values are mixed to generate the conversion image. Device characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100041306A KR20110121830A (en) | 2010-05-03 | 2010-05-03 | Apparatus and method for automatically producing music video in mobile communication terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100041306A KR20110121830A (en) | 2010-05-03 | 2010-05-03 | Apparatus and method for automatically producing music video in mobile communication terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110121830A true KR20110121830A (en) | 2011-11-09 |
Family
ID=45392557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100041306A KR20110121830A (en) | 2010-05-03 | 2010-05-03 | Apparatus and method for automatically producing music video in mobile communication terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110121830A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015001384A1 (en) * | 2013-07-02 | 2015-01-08 | Sony Corporation | Smart feeling sensing tag for pictures |
KR20160004914A (en) * | 2014-07-03 | 2016-01-13 | 삼성전자주식회사 | Method and device for playing multimedia |
KR20170077000A (en) * | 2015-12-27 | 2017-07-05 | 전자부품연구원 | Auto Content Creation Methods and System based on Content Recognition Technology |
KR20190119135A (en) * | 2017-03-30 | 2019-10-21 | 그레이스노트, 인코포레이티드 | Create a video presentation that accompanies audio |
US20210241731A1 (en) * | 2020-01-31 | 2021-08-05 | Obeebo Labs Ltd. | Systems, devices, and methods for assigning mood labels to musical compositions |
KR20220062482A (en) * | 2014-07-03 | 2022-05-17 | 삼성전자주식회사 | Method and device for playing multimedia |
KR20220112948A (en) * | 2021-02-05 | 2022-08-12 | 이지은 | Method for servicing musical contents based on user information |
US11955141B2 (en) | 2021-01-12 | 2024-04-09 | Samsung Electronics Co., Ltd. | Electronic device, method, and non-transitory storage medium for editing video |
-
2010
- 2010-05-03 KR KR1020100041306A patent/KR20110121830A/en not_active Application Discontinuation
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015001384A1 (en) * | 2013-07-02 | 2015-01-08 | Sony Corporation | Smart feeling sensing tag for pictures |
US9495608B2 (en) | 2013-07-02 | 2016-11-15 | Sony Corporation | Smart feeling sensing tag for pictures |
KR20160004914A (en) * | 2014-07-03 | 2016-01-13 | 삼성전자주식회사 | Method and device for playing multimedia |
KR20220062482A (en) * | 2014-07-03 | 2022-05-17 | 삼성전자주식회사 | Method and device for playing multimedia |
KR20170077000A (en) * | 2015-12-27 | 2017-07-05 | 전자부품연구원 | Auto Content Creation Methods and System based on Content Recognition Technology |
WO2017116015A1 (en) * | 2015-12-27 | 2017-07-06 | 전자부품연구원 | Content recognition technology-based automatic content generation method and system |
KR20210016080A (en) * | 2017-03-30 | 2021-02-10 | 그레이스노트, 인코포레이티드 | Generating a video presentation to accompany audio |
KR20210035918A (en) * | 2017-03-30 | 2021-04-01 | 그레이스노트, 인코포레이티드 | Generating a video presentation to accompany audio |
JP2021101366A (en) * | 2017-03-30 | 2021-07-08 | グレースノート インコーポレイテッド | Generating video presentation accompanied by voice |
KR20210090734A (en) * | 2017-03-30 | 2021-07-20 | 그레이스노트, 인코포레이티드 | Generating a video presentation to accompany audio |
KR20190119135A (en) * | 2017-03-30 | 2019-10-21 | 그레이스노트, 인코포레이티드 | Create a video presentation that accompanies audio |
US11915722B2 (en) | 2017-03-30 | 2024-02-27 | Gracenote, Inc. | Generating a video presentation to accompany audio |
US20210241731A1 (en) * | 2020-01-31 | 2021-08-05 | Obeebo Labs Ltd. | Systems, devices, and methods for assigning mood labels to musical compositions |
US11955141B2 (en) | 2021-01-12 | 2024-04-09 | Samsung Electronics Co., Ltd. | Electronic device, method, and non-transitory storage medium for editing video |
KR20220112948A (en) * | 2021-02-05 | 2022-08-12 | 이지은 | Method for servicing musical contents based on user information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20110121830A (en) | Apparatus and method for automatically producing music video in mobile communication terminal | |
US10242097B2 (en) | Music selection and organization using rhythm, texture and pitch | |
US9875304B2 (en) | Music selection and organization using audio fingerprints | |
US10140305B2 (en) | Multi-structural, multi-level information formalization and structuring method, and associated apparatus | |
EP1941493B1 (en) | Content-based audio comparisons | |
KR100659672B1 (en) | Method and apparatus for producing a fingerprint, and method and apparatus for identifying an audio signal | |
US10225328B2 (en) | Music selection and organization using audio fingerprints | |
JP2020003537A (en) | Audio extraction device, learning device, karaoke device, audio extraction method, learning method and program | |
US9449083B2 (en) | Performance data search using a query indicative of a tone generation pattern | |
CN104252862B (en) | The method and apparatus for handling audio signal | |
CN109120983B (en) | Audio processing method and device | |
US20190199781A1 (en) | Music categorization using rhythm, texture and pitch | |
US20200228596A1 (en) | Streaming music categorization using rhythm, texture and pitch | |
US10453478B2 (en) | Sound quality determination device, method for the sound quality determination and recording medium | |
KR20030067377A (en) | Method and apparatus for searching of musical data based on melody | |
US20080201092A1 (en) | Waveform Display Method And Apparatus | |
Li et al. | Robust audio identification for MP3 popular music | |
CN109410972A (en) | Generate the method, apparatus and storage medium of sound effect parameters | |
JP2009526301A (en) | Method and apparatus for generating metadata | |
US9445210B1 (en) | Waveform display control of visual characteristics | |
KR101813704B1 (en) | Analyzing Device and Method for User's Voice Tone | |
KR20180012397A (en) | Management system and method for digital sound source, device and method of playing digital sound source | |
JP4202964B2 (en) | Device for adding music data to video data | |
Luo et al. | Dual-domain audio watermarking algorithm based on flexible segmentation and adaptive embedding | |
Ó Nuanáin et al. | An interactive software instrument for real-time rhythmic concatenative synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |