KR101485820B1 - Intelligent System for Generating Metadata for Video - Google Patents

Intelligent System for Generating Metadata for Video Download PDF

Info

Publication number
KR101485820B1
KR101485820B1 KR1020130082623A KR20130082623A KR101485820B1 KR 101485820 B1 KR101485820 B1 KR 101485820B1 KR 1020130082623 A KR1020130082623 A KR 1020130082623A KR 20130082623 A KR20130082623 A KR 20130082623A KR 101485820 B1 KR101485820 B1 KR 101485820B1
Authority
KR
South Korea
Prior art keywords
information
scene
cut
cuts
generation unit
Prior art date
Application number
KR1020130082623A
Other languages
Korean (ko)
Inventor
이승종
조한상
한경철
황준엽
Original Assignee
네무스텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네무스텍(주) filed Critical 네무스텍(주)
Priority to KR1020130082623A priority Critical patent/KR101485820B1/en
Application granted granted Critical
Publication of KR101485820B1 publication Critical patent/KR101485820B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

An intelligent system for generating video meta information comprises: an object information storage unit which stores a standard (object information, for example, an image of the object) capable of identifying and extracting each of objects by comparing objects (person, thing, background and the like) with each other appearing in a video; a cut generation unit which sequentially compares each of frame images of the video and divides the video into cuts in which an image of the frame image is continuous depending a similarity between a previous frame image and and the next frame image; a cut information generation unit which extracts information on whether the object appears in each cut by comparing each of cuts generated by the cut generation unit with the object information stored in the object information storage unit and stores the extracted information as cut information; a scene generation unit which extracts a scene by combining similar cuts by using at least one reference among the similarity between objects, similarity of colors, and a maximum of a predetermined section length by comparing cuts generated from the cut generation unit with the previous and next cuts and divides the video into a set of scenes; and a meta information storage unit which stores information on the existence of the object appearing in each of the scenes divided by the scene generation unit as meta information by using the cut information.

Description

지능형 동영상 메타 정보 생성 시스템{Intelligent System for Generating Metadata for Video}{Intelligent System for Generating Metadata for Video}

본 발명은 지능형 동영상 메타 정보 생성 시스템에 관한 것으로서, 동영상을 장면의 의미 단위인 복수의 씬(scene)으로 자동으로 분할하고 각 씬마다 메타 정보를 자동으로 생성하여 제공하는 지능형 동영상 메타 정보 생성 시스템에 관한 것이다.The present invention relates to an intelligent video meta information generation system, and more particularly, to an intelligent video meta information generation system that automatically divides a moving picture into a plurality of scenes as a meaning unit of a scene and automatically generates and provides meta information for each scene .

동영상에 대한 다양한 서비스를 제공하기 위하여 동영상에 등장하는 객체를 추출하고 그 객체의 출현 시각에 대한 정보를 생성함으로써 동영상을 이용하는 다양한 서비스를 제공하는 것이 가능하다.It is possible to provide various services using moving pictures by extracting the objects appearing in the moving pictures and generating information about the appearance times of the objects in order to provide various services for the moving pictures.

이와 같이 동영상에 등장하는 객체를 추출하고 그 객체의 출현 정보를 생성하는 것을 종래에는 사람이 직접 동영상의 영상을 확인하면서 생성하는 방법을 사용하였다. 이는 매우 비효율적이고 시간과 비용이 많이 소요되는 방법이다.In this way, a method of extracting an object appearing in a moving image and generating appearance information of the object is conventionally performed by a person manually checking an image of the moving image. This is a very inefficient, time-consuming and costly method.

한국 공개 특허 공보 제10-2011-0010083호에는 동영상 마크업 데이터 생성 방법이 개시되어 있다. 이와 같은 동영상 마크업 데이터 생성 방법은 동영상을 특별한 기준이 없이 구간으로 나눈 후 각 구간 내에서 객체의 출현 시점과 소멸 시점을 객체 정보로 생성한다. 즉, 객체의 출현 시점과 소멸 시점을 객체 정보로 생성하기는 하지만, 동영상을 자동으로 구간에 따라 구분하는 방법은 제공하고 있지 않다.Korean Patent Laid-Open Publication No. 10-2011-0010083 discloses a method of generating moving picture markup data. In the method of generating the moving image markup data, the moving image is divided into sections without any specific criteria, and the time of appearance and the time of disappearance of the object are generated as object information within each section. That is, although the time of appearance and the time of disappearance of an object are generated as object information, a method of automatically dividing a moving picture according to a section is not provided.

동영상에 대한 객체 정보나 그 객체에 대한 메타 정보를 제공하는 방법에 있어서, 동영상을 적절한 구간 단위로 분할하여 객체 정보와 메타 정보를 생성하는 것이 중요하다. 동영상의 구간 분할을 자동으로 그리고 효과적으로 분할하여 객체 정보를 제공함으로써 동영상에 대한 객체 정보 제공 서비스의 질을 향상시키는 것이 가능하다.In a method of providing object information about a moving picture and meta information about the object, it is important to generate the object information and the meta information by dividing the moving picture into appropriate intervals. It is possible to improve the quality of the object information providing service for the moving picture by providing the object information by automatically and effectively dividing the segmentation of the moving picture.

본 발명은 동영상을 자동으로 의미 있는 구간 단위로 분할하여 그에 대한 객체 정보 또는 메타 정보를 제공하는 지능형 동영상 메타 정보 생성 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an intelligent video meta information generation system that automatically divides a moving picture into meaningful sections and provides object information or meta information thereon.

상술한 바와 목적을 달성하기 위한 본 발명의 지능형 동영상 메타 정보 생성 시스템은, 동영상에 등장하는 각 객체(인물, 사물, 배경 등)와 비교하여 각각의 객체를 식별하고 추출할 수 있는 기준(객체 정보, 예컨대 상기 객체의 이미지)이 저장되는 객체 정보 저장부; 상기 동영상의 각 프레임 이미지를 순차적으로 비교하여 전후 프레임 이미지 사이의 유사성 여부에 따라 상기 동영상을 상기 프레임 이미지의 영상이 연속되는 구간(컷, cut)들로 분할하는 컷 생성부; 상기 컷 생성부에 의해 생성된 각 컷과 상기 객체 정보 저장부에 저장된 상기 객체 정보를 비교하여 각 컷에 상기 객체가 등장하는지 여부를 추출하여 컷 정보로서 저장하는 컷 정보 생성부; 상기 컷 생성부에서 생성된 컷들을 전후 컷과 비교하여 등장하는 객체의 유사성 여부, 색상의 유사성 여부 및 미리 설정된 구간 길이의 상한 중 적어도 하나의 기준을 사용하여 유사한 컷들끼리 결합함으로써 씬을 추출하고 상기 동영상을 씬들의 집합으로 분할하는 씬 생성부; 및 상기 씬 생성부에 의해 구분된 각 씬마다 각 씬에 등장하는 상기 객체의 출현 여부를 상기 컷 정보를 이용하여 메타 정보로서 저장하는 메타 정보 저장부;를 포함하는 점에 특징이 있다. According to an aspect of the present invention, there is provided an intelligent video meta information generation system for generating a meta information of a video object, For example, an image of the object) is stored; A cut generation unit for sequentially comparing each frame image of the moving image to divide the moving image into continuous sections (cuts) of the frame image according to similarity between the previous and next frame images; A cut information generation unit for comparing the cuts generated by the cut generation unit with the object information stored in the object information storage unit to extract whether the objects appear in each cut and store the extracted cut information; Extracting scenes by combining similar cuts using at least one of the similarities of objects appearing by comparing the cuts generated by the cut generation unit with the front and rear cuts, whether there is similarity of colors, the similarity of colors and the upper limit of a predetermined section length, A scene generation unit that divides a moving picture into a set of scenes; And a meta information storage unit for storing, as meta information, whether or not the objects appearing in the respective scenes are distinguished by the scene creation unit using the cut information.

본 발명의 지능형 동영상 메타 정보 생성 시스템은 동영상을 단순히 일정 시간 간격으로 분할하거나 장면 전환 단위로만 구분하지 않고 의미 구간 단위로 구분하여 각 구간별로 등장하는 객체에 대한 정보를 제공함으로써, 동영상의 객체와 관련된 정보를 제공하는 서비스의 수준을 향상시킬 수 있는 효과가 있다.The intelligent moving image meta information generation system of the present invention divides a moving image into a plurality of segments in a unit of a scene interval instead of dividing the moving image at a predetermined time interval or a scene change unit to provide information about an object appearing in each segment, There is an effect that the level of the service providing the information can be improved.

도 1은 본 발명에 따른 지능형 동영상 메타 정보 생성 시스템의 블록도이다.1 is a block diagram of an intelligent motion meta information generation system according to the present invention.

이하, 본 발명에 따른 지능형 동영상 메타 정보 생성 시스템을 도면을 참조하여 상세히 설명한다.Hereinafter, an intelligent moving image meta information generating system according to the present invention will be described in detail with reference to the drawings.

도 1을 참조하면, 본 실시예의 지능형 동영상 메타 정보 생성 시스템은 객체 정보 저장부(110)와 컷 생성부(130)와 컷 정보 생성부(210)외 씬 생성부(230)와 메타 정보 저장부(250)를 포함하여 이루어진다.1, the intelligent moving image meta information generation system of the present embodiment includes an object information storage unit 110, a cut generation unit 130, a cut information generation unit 210, a scene generation unit 230, (250).

객체 정보 저장부(110)에는 메타 정보를 생성하고자 하는 동영상에 등장하는 객체에 각각 대응하는 객체 정보가 저장된다. 동영상에 등장하는 인물의 이미지, 음성 등이 객체 정보가 될 수 있다. 등장인물 이외에 동영상에 등장하는 물건, 소품 등의 사물이나 건물, 광장 등의 배경도 객체가 될 수 있다. 이와 같은 객체 정보는 추후 동영상에 등장하는 객체에 대한 정보를 추출하기 위한 기준이 된다. 즉, 객체 정보 저장부(110)에 저장된 객체 정보와 동영상에 등장하는 이미지 또는 음성을 비교하여 동영상에 해당 객체가 출현하는지 여부를 판단하는 용도로 사용된다. 한편, 객체 정보에는 객체의 이미지와 음성 이외에 동영상을 시청하는 시청자에게 객체를 설명하는 텍스트 정보도 포함될 수 있다. 즉, 등장 인물을 연기한 배우에 대한 인적 정보나 동영상에 등장하는 배경의 위치 정보 등이 객체 정보로서 추가로 포함될 수 있다.The object information storage unit 110 stores object information corresponding to the objects appearing in the moving image to be generated in the meta information. An image of a person appearing in a moving picture, a voice, and the like can be object information. In addition to characters, objects such as objects appearing in videos, objects such as small objects, buildings, and plazas can be objects. Such object information is a criterion for extracting information on an object appearing later in a moving image. That is, the object information stored in the object information storage unit 110 is compared with an image or voice appearing in the moving image to determine whether or not the corresponding object appears in the moving image. In addition, the object information may include text information describing the object to the viewer watching the moving image, in addition to the image and voice of the object. In other words, human information about the actor who plays the character can be additionally included as the object information.

컷 생성부(130)는 동영상의 프레임 이미지를 순차적으로 비교하여 동영상의 장면이 전환되는 지점을 기준으로 동영상을 복수의 컷(cut)으로 분할한다. 본 발명에 있어서 동영상의 컷은 일반적으로 영화 또는 방송에서 의미하는 컷과 동일한 의미이다. 동영상에 있어서 프레임 이미지의 영상이 끊김 없이 연속적으로 계속되는 구간이 컷(cut)이 된다. 즉, 카메라에 의해 한번에 촬영된 영상의 구간이 컷이 된다. 본 발명의 경우 컷 생성부(130)는 동영상을 구성하는 프레임 이미지를 순차적으로 비교하여 인접하는 전후 프레임 이미지의 유사성 여부에 따라 프레임 이미지들을 동일 컷으로 분류하거나 다른 컷으로 분리하게 된다. The cut generation unit 130 sequentially compares frame images of a moving image and divides the moving image into a plurality of cuts based on a point at which a moving image is switched. In the present invention, the cut of a moving image is generally the same as a cut in a movie or broadcast. In the moving picture, the section of the frame image continuously continuous without interruption becomes a cut. That is, the section of the image shot at one time by the camera is cut. In the case of the present invention, the cut generation unit 130 sequentially compares the frame images constituting the moving image and classifies the frame images into the same cut or the other cut according to the similarity of the adjacent front and rear frame images.

본 실시예의 경우 컷 생성부(130)는 전후 프레임 이미지의 각 픽셀별 색상(hue)값의 유사 정도를 기준으로 컷을 분리한다. 이와 같이 프레임 이미지 사이의 색상값의 유사 정도를 비교하는 방법은 다양한 방법이 사용될 수 있다. 예를 들어, 각 프레임 이미지마다 픽셀별 색상(hue)값을 히스토그램 분포로 나타내고, 인접하는 전후 프레임 이미지의 색상 히스토그램 분포와 비교하여 그 유사도에 따라 컷을 분리하는 것이 가능하다. 색상값을 수치 범위에 따라 복수의 구간으로 구분하고 해당 구간의 색상값을 갖는 픽셀의 수를 도수로 계산하여 히스토그램 분포를 발생시킨다. In the present embodiment, the cut generation unit 130 separates cuts based on similarity of hue values of respective pixels of the front and rear frame images. Various methods can be used as a method of comparing the degree of similarity of color values between frame images. For example, it is possible to represent hue values for each pixel in each frame image as histogram distributions, compare the histogram distributions of the adjacent front and rear frame images, and separate the cuts according to the similarity. The histogram distribution is generated by dividing the color value into a plurality of intervals according to the numerical range and calculating the number of pixels having the color value of the corresponding interval as a frequency.

색상 히스토그램 분포를 비교하는 방법 역시 다양한 방법이 가능하다. 예를 들어, 색상 히스토그램 분포의 유사 여부를 결정하는 임계값을 미리 설정하고, 각 색상별(색상값 구간별) 히스토그램 분포(도수)의 차이를 계산하여 그 차이의 총합이 임계값 이상이면 프레임 이미지가 서로 유사하지 않은 것으로 판단하여 그 지점에서 컷을 분리할 수 있다.There are also various ways to compare the color histogram distributions. For example, if a threshold value for determining similarity of a color histogram distribution is set in advance, a difference in histogram distribution (frequency) of each color (per color value interval) is calculated, and if the sum of the differences is greater than a threshold value, Are not similar to each other and can separate the cut at that point.

이와 같은 방법으로 동영상의 컷을 분할하면, 사전적 의미의 컷과 완전히 동일하지는 않지만 거의 동일한 수준으로 동영상을 컷마다 분리할 수 있다. 특히, 사람의 작업을 거치지 않고 자동으로 동영상의 컷을 추출하여 컷을 분리할 수 있는 장점이 있다.By dividing the cuts of a movie in this way, the videos can be separated by cuts at approximately the same level, although not exactly the same as the cuts in the dictionary meaning. In particular, there is an advantage that the cuts can be separated by extracting the cuts of the video automatically without going through the work of the person.

이와 같이 컷 생성부(130)에서 동영상이 컷 단위로 분리되면 컷 정보 생성부(210)는 각각의 컷마다 객체 정보 저장부(110)에 저장된 객체들이 등장하는지 여부를 추출하여 이를 컷 정보로서 저장한다. 경우에 따라서 컷 생서부(130)는 각각의 컷에 객체가 출현하는 시각과 소멸하는 시각도 함께 컷 정보로서 저장할 수도 있다.If the moving image is separated in units of cuts in the cut generation unit 130, the cut information generation unit 210 extracts whether the objects stored in the object information storage unit 110 appear for each cut, and stores the extracted cut information do. Depending on the case, the cut raw ward 130 may store the time at which the object appears and the time at which the object appears at each cut as cut information.

컷 정보 생성부(210)는 각각의 컷의 프레임 이미지와 객체 정보 저장부(110)에 저장된 각 객체의 이미지를 비교하여 각각의 컷에 어떠한 객체가 출현하는지 여부를 추출한다. 컷 정보 생성부(210)는 컷의 식별번호와 해당 컷에서 추출된 객체의 식별번호를 컷 정보로서 저장한다. 예를 들어, 3번 컷에 5번 객체(영화배우 브레드 피트)가 출현한다는 사실을 컷 정보의 형태로 저장한다. 상술한 바와 같이 경우에 따라서는 컷 정보 생성부(210)가 각 객체의 출현 시각과 소멸 시각도 함께 컷 정보로 저장할 수도 있다.The cut information generation unit 210 compares a frame image of each cut with an image of each object stored in the object information storage unit 110 to extract whether or not an object appears in each cut. The cut information generation unit 210 stores the identification number of the cut and the identification number of the object extracted from the cut as cut information. For example, it stores the fact that the object 5 (movie actor breadfeet) appears in the cut 3, in the form of cut information. As described above, the cut information generating unit 210 may store the appearance time and the extinction time of each object as cut information.

객체가 이미지 정보가 아니라 음성 정보인 경우에는 객체 정보의 음성과 해당 컷의 음성을 비교하여 그 음성의 출현 여부를 컷 정보로서 저장한다. 예를 들어, 3번 컷에 6번 객체(영화배우 기네스 펠트로의 목소리)가 출현한다는 사실을 컷 정보의 형태로 저장한다. 이 경우 화면에 해당 객체의 영상은 나타나지 않지만 음성의 형태로 객체가 나타나는 것을 컷 정보의 형태로 인식하여 저장하게 된다. 사람의 목소리뿐만 아니라 배경 음악도 객체로 인식하여 컷 정보 생성부(210)에 의해 컷 정보로 저장된다.If the object is not the image information but the voice information, the voice of the object information is compared with the voice of the corresponding cut, and whether or not the voice appears is stored as the cut information. For example, we store the fact that the number 6 object (movie actress Guinness Felto's voice) appears in the third cut in the form of cut information. In this case, the image of the corresponding object is not displayed on the screen, but the appearance of the object in the form of voice is recognized as a form of cut information and stored. Not only the human voice but also the background music are recognized as objects and are stored as cut information by the cut information generation unit 210. [

씬 생성부(230)는 컷 정보 생성부(210)로부터 컷 정보를 전달받아 컷들을 이어 붙여서 씬을 생성한다. 본 발명에 있어서 씬(scene)은 사전적 의미의 씬과 대체로 일치한다. 전후의 인접하는 컷들 중 서로 유사한 컷들을 연결하여 씬을 형성하게 된다. 서로 다른 컷을 하나의 씬으로 결합하는 기준은 다양한 방법이 사용될 수 있다. 예를 들어, 동일한 객체가 인접하는 전후의 컷에 연속적으로 등장하면 동일한 씬으로 판단할 수 있다. 또한, 앞서 설명한 색상의 유사 판단 방법과 동일한 방법으로 인접하는 컷들 사이의 색상이 유사한 것으로 판단되면 동일한 씬으로 판단할 수 있다. 또한, 씬의 구간 길이의 상한을 미리 설정하고 컷들을 누적하여 누적된 컷들의 길이가 구간 길이의 상한 보다 작으면 하나의 씬으로 결합하고 구간 길이의 상한을 넘어서는 시점에서 씬을 분리하는 것도 가능하다. 경우에 따라서는 두 개의 객체의 교대로 연속하여 출현하는 경우 동일 씬에 속하는 것으로 컷을 결합할 수 있다. 이 경우 등장인물이 컷마다 교대로 출현하면서 서로 대화하는 장면이거나 등장인물의 음성이 교대로 출현하여 대화하는 장면이 하나의 씬으로 묶이게 된다. 경우에 따라서는 객체의 출현이 반복되는 경우에도 이들 컷을 하나의 씬으로 결합할 수 있다. The scene generation unit 230 receives the cut information from the cut information generation unit 210 and adds the cuts to generate a scene. In the present invention, a scene generally matches a scene in a dictionary meaning. Similar cuts among adjacent front and rear cuts are connected to form a scene. Various methods can be used as criteria for combining different cuts into one scene. For example, if the same object appears consecutively in adjacent front and rear cuts, the same scene can be judged. Also, if it is determined that the colors of adjacent cuts are similar in the same manner as the above-described similarity judging method of colors, the same scene can be judged. It is also possible to divide the scene at a time when the upper limit of the section length of the scene is preset and the cuts are accumulated and the accumulated cuts are smaller than the upper limit of the section length to combine them into one scene and exceed the upper limit of the section length . In some cases, if the two objects appear consecutively in succession, the cuts can be combined to belong to the same scene. In this case, the characters are alternately appearing on each cut, and the scenes where the characters are alternately appearing and conversing are bundled into one scene. In some cases, even if the appearance of an object is repeated, these cuts can be combined into one scene.

앞서 설명한 컷을 결합하여 씬을 구성하는 기준 또는 방법을 2개 이상 동시에 사용하여 씬을 생성하는 것도 가능하고 위 기준마다 포인트를 부여하여 그 포인트의 합이 임계 포인트를 넘는 경우 동일 씬에 속하는 컷으로 판단하는 것도 가능하다. 경우에 따라서는 상술한바와 같은 씬을 구성하는 기준 또는 방법을 2개 이상 동시에 적용하여 그 결과를 미리 설정된 가중치 함수에 입력한 후 그 결과값과 임계값을 비교하여 씬을 구분하는 것도 가능하다.It is also possible to create scenes by using two or more criteria or methods of composing the scenes by combining the cuts described above. If the sum of the points exceeds the threshold point by assigning points to each of the above criteria, the cuts belonging to the same scene It is also possible to judge. In some cases, it is also possible to apply two or more criteria or methods for constructing a scene as described above, input the result into a predetermined weight function, and compare the resultant value with a threshold value to identify the scene.

이와 같이 씬 생성부(230)에 의해 동영상은 씬들의 집합으로 분할된다. 이와 같은 씬 생성부(230)에 의해 동영상은 개개의 의미 있는 구간들에 해당하는 씬으로 분할된다. 즉, 복수의 컷이 결합되어 완성되는 결투 씬, 회상 씬, 키스 씬 등과 같은 공통 의미의 컷들의 집합으로 분할된다. 동일한 씬 내에서 장면이 전환되어 컷이 구분되더라도 배경이 공통되거나, 등장인물이 공통되거나, 배경음악이 공통되거나, 등장인물이 대화를 주고 받는 것이 연속되는 점 등을 이용하여 이와 같은 컷들을 하나의 씬으로 결합하게 된다. As described above, the moving image is divided into a set of scenes by the scene generating unit 230. [ The moving image is divided into scenes corresponding to individual meaningful intervals by the scene generating unit 230 as described above. That is, it is divided into a set of cuts having a common meaning such as a duel scene, a recall scene, a kiss scene, etc., in which a plurality of cuts are combined and completed. Even if the scene is switched in the same scene and the cut is divided, the cuts can be divided into one, two, or three, using the common background, the common characters, the background music, Scene.

이와 같은 방법에 의해 동영상을 자동으로 복수의 씬으로 구분하는 것이 가능하다. With this method, it is possible to automatically divide a moving picture into a plurality of scenes.

메타 정보 저장부(250)는 씬 생성부(230)에 의해 구분된 씬의 정보와 컷 정보 생성부(210)에 의해 생성된 컷 정보를 이용하여 각 씬에 각각의 객체가 출현하는지 여부를 메타 정보로서 저장한다. 각 객체의 출현 시각 및 소멸 시각을 메타 정보로서 저장할 수도 있다. 메타 정보 저장부(250)는 각 씬마다 각 씬에 등장하는 객체의 전체 화면 대비 노출 비율을 메타 정보로서 추가로 저장할 수도 있고 복수의 객체들 간에 화면에 동시 노출되는 시간의 정도를 메타 정보로서 추가로 저장할 수도 있다. 메타 정보 저장부(250)는 각 객체에 대한 설명 정보나 객체 정보 자체를 추가로 메타 정보로서 저장할 수 있다. 메타 정보 저장부는, 각 씬의 화면에 노출되는 주된 색상을 메타 정보로서 추가로 저장하는 것도 가능하다. The meta information storage unit 250 stores information on the scene classified by the scene generation unit 230 and the cut information generated by the cut information generation unit 210 to determine whether each object appears in each scene, And stores it as information. The appearance time and the disappearance time of each object may be stored as meta information. The meta information storage unit 250 may additionally store as a meta information a total screen contrast ratio of an object appearing in each scene in each scene, and may further store the degree of time during which a plurality of objects are simultaneously exposed on the screen as meta information . ≪ / RTI > The meta information storage unit 250 may store descriptive information about each object or object information itself as meta information. The meta information storage unit may further store the main colors exposed on the screen of each scene as meta information.

위와 같은 방법으로 동영상을 복수의 씬으로 구분하고 각 씬마다 메타 정보를 자동으로 생성하여 다양한 용도로 활용하는 것이 가능하다. 동영상을 구간별로 사용자에게 메타 정보를 제공하고 사용자에게 구간별로 시청권을 판매하는 것도 가능하고, 각 구간별로 광고 정보를 입력하는 것도 가능하며, 구간별로 동영상에 대한 프리뷰를 제공하는 것도 가능하다. 본 발명의 지능형 동영상 메타 정보 생성 시스템을 이용하면 동영상을 단순히 일정 시간 간격으로 분할하는 것이 아니라 동영상의 내용에 맞추어 의미 단위로 분리함으로써 사용자에게 보다 양질의 서비스를 제공하는 것이 가능하다. 특히, 의미 단위로 분리된 각각의 씬에 대하여 객체에 대한 설명 정보, 객체의 등장 비율의 정도, 주된 색상, 객체들 간의 동시 노출 시간의 비율, 특정 객체를 기준으로 다른 객체의 동반 등장 비율, 객체가 배경인 경우에는 해당 배경의 위치 정보 등과 같은 다양한 형태의 메타 정보를 사용자에게 제공함으로써 사용자가 해당 씬을 선별하여 시청하거나 동영상 관련 사업자가 특정 씬만 선택하여 동영상 관련 사업에 효과적을 이용하도록 도울 수 있는 장점이 있다.It is possible to divide a movie into a plurality of scenes in the same manner as above, and to automatically generate meta information for each scene and utilize it for various purposes. It is also possible to provide the user with meta information for each section of the moving picture and to sell the audience for each section. Also, it is possible to input advertisement information for each section, and to provide a preview of the moving picture for each section. The intelligent moving image meta information generating system of the present invention can provide a better quality of service to the user by separating the moving image into meaning units instead of dividing the moving image at a predetermined time interval. In particular, for each scene separated by semantic units, the description information of the object, the degree of appearance of the object, the main color, the ratio of the simultaneous exposure time of the objects, the co- The background information of the background may be provided to the user so that the user can selectively view the scene or the video related provider can select a specific scene and use it effectively for the video related business There are advantages.

이하에서는 상술한 바와 같은 과정을 거쳐서 씬 단위로 구분되고 각 씬마다 메타 정보가 마련된 상태에서 이를 광고주에게 제공하고 공고 입찰을 받는 용도로 활용하는 경우를 예로 들어 설명한다.Hereinafter, the case will be described in which the scene is divided into scene units through the above-described process, meta information is provided for each scene, and the advertisement information is provided to the advertiser and used for receiving announcement bids.

메타 정보 제공부(310)는 메타 정보 저장부(250)에 저장된 메타 정보를 각 씬에 대응하여 광고주가 조회할 수 있도록 제공한다. The meta information providing unit 310 provides the meta information stored in the meta information storage unit 250 so that the advertiser can view meta information corresponding to each scene.

광고주는 씬별로 구분된 동영상의 메타 정보를 조회하여 자신이 필요하거나 원하는 씬에 대해서만 광고 여부를 결정하고 응찰할 수 있다.The advertiser can view the meta information of the videos classified by the scene and decide whether to advertise only the scenes that are necessary or desired by the advertiser.

입찰 정보 수신부(330)는 광고주가 광고를 게재하고자 선택한 씬의 식별번호와 선택된 씬에 대한 광고비 입찰액을 수신한다.The bid information receiving unit 330 receives the identification number of the scene selected by the advertiser to display the advertisement and the bid amount of the advertisement cost for the selected scene.

연관 정보 수신부(330)는 상기 광고주가 입찰하고자 선택한 씬에 게재하고자 하는 광고의 내용인 연관 정보를 수신한다.The related information receiving unit 330 receives the related information, which is the content of the advertisement to be displayed in the scene selected by the advertiser.

연관 정보 설정부(410)는 입찰 정보 수신부(330)에서 수신한 각 씬의 식별번호에 대응하는 입찰액 중 최고액을 선택하여 낙찰 여부를 결정하고 낙찰된 광고주의 연관 정보를 해당 씬에 설정한다. 연관 정보를 설정하는 방법은 다양한 방법이 가능하다. 대표적으로 해당 씬의 화면에 자막의 형식으로 연관 정보를 입력하는 것이 가능하다. 자막이 아닌 이미지 입력의 방식으로 연관 정보를 입력할 수도 있고 음성입력의 방법으로 연관 정보를 설정하는 것도 가능하다.The association information setting unit 410 determines the winning bid amount by selecting the highest bid amount corresponding to the identification number of each scene received by the bid information receiving unit 330 and sets association information of the successful bidder in the corresponding scene. There are various methods for setting the association information. Typically, it is possible to input association information in the form of subtitles on the screen of the corresponding scene. It is also possible to input the association information by a method of image input rather than a caption, or to set association information by a method of inputting a voice.

이상 본 발명에 대해 바람직한 경우를 예로 들어 서명하였으나, 본 발명의 범위가 앞에서 설명하고 도시한 형태로 한정되는 것은 아니다.Although the preferred embodiment of the present invention has been described as an example, the scope of the present invention is not limited to the above described and illustrated forms.

예를 들어, 앞에서 씬별로 구분되고 메타 정보가 생성된 동영상을 광고 입찰에 사용하는 경우를 예로 들어 설명하였으나, 메타 정보 제공부(310), 입찰 정보 수신부(330), 연관 정보 수신부(350), 연관 정보 설정부(410) 등을 구비하지 않는 지능형 동영상 메타 정보 생성 시스템을 구성하는 것도 가능하다. 이 경우 메타 정보와 씬 정보가 추출된 동영상을 제공하고 사용자는 이와 같이 메타 정보와 씬 정보가 구비된 동영상을 이용하여 광고 입찰의 용도 이외에 다른 다양한 용도로 본 발명의 지능형 동영상 메타 정보 생성 시스템을 사용할 수 있다. For example, the case where the video classified into the scenes and generated the meta information is used for the advertisement bidding has been described as an example, but the meta information providing unit 310, the bid information receiving unit 330, the related information receiving unit 350, It is also possible to construct an intelligent video meta information generation system that does not include the association information setting unit 410 and the like. In this case, the meta information and the scene information are extracted, and the user uses the meta information and the scene information to use the intelligent video meta information generation system of the present invention for various purposes other than the purpose of advertisement bidding .

110: 객체 정보 저장부 130: 컷 생성부
210: 컷 정보 생성부 230: 씬 생성부
250: 메타 정보 저장부 310: 메타 정보 제공부
330: 입찰 정보 수신부 350: 연관 정보 수신부
410: 연관 정보 설정부
110: object information storage unit 130:
210: Cut information generating unit 230:
250: meta information storage unit 310: meta information providing unit
330: auction information receiving unit 350: related information receiving unit
410: association information setting unit

Claims (11)

동영상에 등장하는 각 객체(인물, 사물, 배경 등)와 비교하여 각각의 객체를 식별하고 추출할 수 있는 기준(객체 정보, 예컨대 상기 객체의 이미지)이 저장되는 객체 정보 저장부;
상기 동영상의 각 프레임 이미지를 순차적으로 비교하여 전후 프레임 이미지 사이의 유사성 여부에 따라 상기 동영상을 상기 프레임 이미지의 영상이 연속되는 구간(컷, cut)들로 분할하는 컷 생성부;
상기 컷 생성부에 의해 생성된 각 컷과 상기 객체 정보 저장부에 저장된 상기 객체 정보를 비교하여 각 컷에 상기 객체가 등장하는지 여부를 추출하여컷 정보로서 저장하는 컷 정보 생성부;
상기 컷 생성부에서 생성된 컷들을 전후 컷과 비교하여 등장하는 객체의 유사성 여부, 색상의 유사성 여부 및 미리 설정된 구간 길이의 상한 중 적어도 하나의 기준을 사용하여 유사한 컷들끼리 결합함으로써 씬을 추출하고 상기 동영상을 씬들의 집합으로 분할하는 씬 생성부; 및
상기 씬 생성부에 의해 구분된 각 씬마다 각 씬에 등장하는 상기 객체의 출현 여부를상기 컷 정보를 이용하여 메타 정보로서 저장하는 메타 정보 저장부;를 포함하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
An object information storage unit for storing a reference (object information, for example, the image of the object) that can identify and extract each object compared with each object (person, object, background, etc.) appearing in the moving image;
A cut generation unit for sequentially comparing each frame image of the moving image to divide the moving image into continuous sections (cuts) of the frame image according to similarity between the previous and next frame images;
A cut information generation unit for comparing the cuts generated by the cut generation unit with the object information stored in the object information storage unit to extract whether the objects appear in each cut and store the extracted cut information;
Extracting scenes by combining similar cuts using at least one of the similarities of objects appearing by comparing the cuts generated by the cut generation unit with the front and rear cuts, whether there is similarity of colors, the similarity of colors and the upper limit of a predetermined section length, A scene generation unit that divides a moving picture into a set of scenes; And
And a meta information storage unit for storing the presence or absence of the object appearing in each scene as meta information using the cut information for each scene classified by the scene creation unit, system.
제1항에 있어서,
상기 객체 정보 저장부에 저장되는 객체 정보는 인물의 음성과 배경 음악을 더 포함하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
The method according to claim 1,
Wherein the object information stored in the object information storage unit further includes a voice of a person and a background music.
제1항 또는 제2항에 있어서,
상기 컷 생성부는, 전후 프레임 이미지의 각 픽셀별 색상(hue)값의 유사 정도를 기준으로 컷을 분리하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
3. The method according to claim 1 or 2,
Wherein the cut generation unit separates cuts based on a degree of similarity of hue values of respective pixels of the front and rear frame images.
제3항에 있어서,
상기 컷 생성부는, 각 프레임 이미지마다 픽셀별 색상(hue)값의 히스토그램을 생성하여 전후 프레임 이미지의 색상 히스토그램 분포와 비교하여 그 유사도에 따라 컷을 분리하는 것을 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
The method of claim 3,
Wherein the cut generation unit generates a histogram of pixel-by-pixel hue values for each frame image, compares the histogram with a color histogram distribution of the frame images before and after, and separates the cuts according to the similarity. .
제4항에 있어서,
상기 컷 생성부는, 인접하는 상기 전후 프레임 이미지의 색상 히스토그램 분포의 차이를 계산하고 그 총합이 미리 설정된 임계값 이상이면 컷으로 분리하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
5. The method of claim 4,
Wherein the cut generation unit calculates a difference of a color histogram distribution of adjacent front and rear frame images and separates the color histogram distribution into cuts if the sum is greater than or equal to a preset threshold value.
제1항 또는 제2항에 있어서,
상기 씬 생성부는, 상기 객체 출현의 반복 여부의 기준도 추가로 고려하여 인접하는 컷들의 결합에 의해 씬을 생성하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
3. The method according to claim 1 or 2,
Wherein the scene generation unit further generates a scene by combining neighboring cuts by further considering a criterion of whether or not the appearance of the object is repeated.
제1항에 있어서,
상기 메타 정보 저장부는, 각 씬마다 각 씬에 등장하는 상기 객체의 전체 화면 대비 노출 비율과 복수의 객체들 간에 화면에 동시 노출되는 시간의 정도 중 적어도 하나를 메타 정보로서 추가로 저장하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
The method according to claim 1,
Wherein the meta information storage unit further stores at least one of the exposure ratio of the object in the respective scenes as a whole screen and the degree of time of simultaneous exposure on the screen among the plurality of objects as meta information for each scene, Intelligent video meta information generation system.
제1항에 있어서,
상기 메타 정보 저장부는, 각 씬의 화면에 노출되는 주된 색상을 메타 정보로서 추가로 저장하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
The method according to claim 1,
Wherein the meta information storage unit further stores main colors exposed on the screen of each scene as meta information.
제1항, 제7항 또는 제8항 중 어느 한 항에 있어서,
상기 객체 정보는, 상기 객체를 상기 동영상의 시청자에게 설명하는 텍스트 정보를 더 포함하고,
상기 메타 정보는, 상기 객체 정보를 더 포함하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
The method according to any one of claims 1, 7, and 8,
Wherein the object information further includes text information describing the object to a viewer of the moving image,
Wherein the meta information further includes the object information.
제9항에 있어서,
상기 동영상의 각 씬에 대응하는 상기 메타 정보를 광고주가 조회할 수 있도록 제공하는 메타 정보 제공부;
광고주가 광고를 게재하고자 선택한 씬의 식별번호와 선택된 씬에 대한 광고비 입찰액을 수신하는 입찰 정보 수신부; 및
상기 광고주가 입찰하고자 선택한 씬에 게재하고자 하는 광고의 내용인 연관 정보를 수신하는 연관 정보 수신부;를 더 포함하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
10. The method of claim 9,
A meta information providing unit for providing the meta information corresponding to each scene of the moving picture to be viewed by the advertiser;
A bidding information receiving unit for receiving an identification number of a scene selected by an advertiser to display an advertisement and an advertisement bidding amount for the selected scene; And
And an association information receiver for receiving association information, which is the contents of an advertisement to be displayed in a scene selected by the advertiser for bid.
제10항에 있어서,
상기 입찰 정보 수신부에서 수신한 각 씬의 식별번호에 대응하는 입찰액 중 최고액을 선택하여 낙찰 여부를 결정하고 낙찰된 광고주의 연관 정보를 상기 동영상의 해당 씬에 설정하는 연관 정보 설정부;를 더 포함하는 것을 특징으로 하는 지능형 동영상 메타 정보 생성 시스템.
11. The method of claim 10,
And an association information setting unit for determining whether to win the bid by selecting the highest bid amount corresponding to the identification number of each scene received by the bid information receiving unit and setting association information of the successful bidder in the corresponding scene of the moving image Wherein the intelligent video meta information generation system comprises:
KR1020130082623A 2013-07-15 2013-07-15 Intelligent System for Generating Metadata for Video KR101485820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130082623A KR101485820B1 (en) 2013-07-15 2013-07-15 Intelligent System for Generating Metadata for Video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130082623A KR101485820B1 (en) 2013-07-15 2013-07-15 Intelligent System for Generating Metadata for Video

Publications (1)

Publication Number Publication Date
KR101485820B1 true KR101485820B1 (en) 2015-01-26

Family

ID=52592455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130082623A KR101485820B1 (en) 2013-07-15 2013-07-15 Intelligent System for Generating Metadata for Video

Country Status (1)

Country Link
KR (1) KR101485820B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855241B1 (en) 2018-04-11 2018-05-08 고현승 Method for providing content
KR101865545B1 (en) * 2018-03-07 2018-06-08 고현승 Method for providing content
WO2018164488A1 (en) * 2017-03-07 2018-09-13 고현승 Content providing method and device
WO2020076014A1 (en) * 2018-10-08 2020-04-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
CN111711855A (en) * 2020-05-27 2020-09-25 北京奇艺世纪科技有限公司 Video generation method and device
CN112055225A (en) * 2019-06-06 2020-12-08 阿里巴巴集团控股有限公司 Live broadcast video interception, commodity information generation and object information generation methods and devices
CN113190713A (en) * 2021-05-06 2021-07-30 百度在线网络技术(北京)有限公司 Video searching method and device, electronic equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276449A (en) * 1997-03-31 1998-10-13 Nippon Hoso Kyokai <Nhk> Video editing system and moving image dividing method
KR20060115123A (en) * 2005-05-04 2006-11-08 삼성전자주식회사 Apparatus and method for extracting moving image
KR100828166B1 (en) * 2007-06-12 2008-05-08 고려대학교 산학협력단 Method of extracting metadata from result of speech recognition and character recognition in video, method of searching video using metadta and record medium thereof
KR101024165B1 (en) * 2009-09-29 2011-03-22 성균관대학교산학협력단 Contents generating and providing method using image recognition based on location

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276449A (en) * 1997-03-31 1998-10-13 Nippon Hoso Kyokai <Nhk> Video editing system and moving image dividing method
KR20060115123A (en) * 2005-05-04 2006-11-08 삼성전자주식회사 Apparatus and method for extracting moving image
KR100828166B1 (en) * 2007-06-12 2008-05-08 고려대학교 산학협력단 Method of extracting metadata from result of speech recognition and character recognition in video, method of searching video using metadta and record medium thereof
KR101024165B1 (en) * 2009-09-29 2011-03-22 성균관대학교산학협력단 Contents generating and providing method using image recognition based on location

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018164488A1 (en) * 2017-03-07 2018-09-13 고현승 Content providing method and device
KR101865545B1 (en) * 2018-03-07 2018-06-08 고현승 Method for providing content
KR101855241B1 (en) 2018-04-11 2018-05-08 고현승 Method for providing content
WO2020076014A1 (en) * 2018-10-08 2020-04-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
US11184679B2 (en) 2018-10-08 2021-11-23 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
CN112055225A (en) * 2019-06-06 2020-12-08 阿里巴巴集团控股有限公司 Live broadcast video interception, commodity information generation and object information generation methods and devices
CN112055225B (en) * 2019-06-06 2023-02-17 阿里巴巴集团控股有限公司 Live broadcast video interception, commodity information generation and object information generation methods and devices
CN111711855A (en) * 2020-05-27 2020-09-25 北京奇艺世纪科技有限公司 Video generation method and device
CN113190713A (en) * 2021-05-06 2021-07-30 百度在线网络技术(北京)有限公司 Video searching method and device, electronic equipment and medium

Similar Documents

Publication Publication Date Title
KR101485820B1 (en) Intelligent System for Generating Metadata for Video
CN108322788B (en) Advertisement display method and device in live video
US10623826B2 (en) Advertisement detection system and method based on fingerprints
US9754166B2 (en) Method of identifying and replacing an object or area in a digital image with another object or area
US11330329B2 (en) System and method for detecting and classifying direct response advertisements using fingerprints
WO2015058557A1 (en) Advertisement insertion method and device during video playback
US8457402B2 (en) Method for rating areas in video frames
KR20150122673A (en) Pictorial summary of a video
CN106792005A (en) A kind of content detection algorithm combined based on audio frequency and video
KR101927965B1 (en) System and method for producing video including advertisement pictures
CN103984778A (en) Video retrieval method and video retrieval system
KR100681017B1 (en) Mobile terminal capable of summary providing of moving image and summary providing method using it
CN104899820A (en) Method, system and device for adding tag to image
JP6917788B2 (en) Summary video generator and program
US20230276082A1 (en) Producing video for content insertion
KR20160095440A (en) Method and system of bidding for advertising on video content
KR101540613B1 (en) Apparatus and method for selecting virtual advertising image
CA3024179C (en) Detecting sentinel frames in video delivery using a pattern analysis
JP6363015B2 (en) Electronic device and display method
WO2024034401A1 (en) Video editing device, video editing program, and video editing method
KR20120131425A (en) Interactive advertisement authoring device and interactive advertisement authoring method
Neri et al. Unsupervised video orchestration based on aesthetic features
KR101503029B1 (en) Marker removal apparatus for inserting digital product placement and method for the same
KR101578080B1 (en) A making method for multi object information in video clip
CN110580729A (en) image color matching method and device and electronic equipment

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190117

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200114

Year of fee payment: 6