KR102558504B1 - Scene-based video organization method - Google Patents

Scene-based video organization method Download PDF

Info

Publication number
KR102558504B1
KR102558504B1 KR1020210072700A KR20210072700A KR102558504B1 KR 102558504 B1 KR102558504 B1 KR 102558504B1 KR 1020210072700 A KR1020210072700 A KR 1020210072700A KR 20210072700 A KR20210072700 A KR 20210072700A KR 102558504 B1 KR102558504 B1 KR 102558504B1
Authority
KR
South Korea
Prior art keywords
scene
information
video
image
target
Prior art date
Application number
KR1020210072700A
Other languages
Korean (ko)
Other versions
KR20220164217A (en
Inventor
이태형
최완호
정범기
Original Assignee
주식회사 지에프티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지에프티 filed Critical 주식회사 지에프티
Priority to KR1020210072700A priority Critical patent/KR102558504B1/en
Publication of KR20220164217A publication Critical patent/KR20220164217A/en
Application granted granted Critical
Publication of KR102558504B1 publication Critical patent/KR102558504B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

장면 기반의 동영상 정리 방법이 개시된다. 본 발명의 일측면에 따른 컴퓨팅 장치에서 수행되는 동영상 정리 방법은, 복수의 장면에 대한 정보를 포함하는 입력정보를 기반으로 하는 영상컨텐츠정보를 저장하는 단계; 대상영상의 화면 및 음원을 분석하여 장면인식을 위한 인식정보를 생성하는 단계; 및 영상컨텐츠정보를 기반으로, 인식정보에 상응하는 장면을 결정하는 단계를 포함한다.A scene-based video organizing method is disclosed. A video organizing method performed in a computing device according to an aspect of the present invention includes the steps of storing image content information based on input information including information about a plurality of scenes; generating recognition information for scene recognition by analyzing the screen and sound source of the target image; and determining a scene corresponding to the recognition information based on the image content information.

Description

장면 기반의 동영상 정리 방법{Scene-based video organization method}Scene-based video organization method {Scene-based video organization method}

본 발명은 장면 기반의 동영상 정리 방법에 관한 것이다.The present invention relates to a method for arranging a video based on a scene.

영화, 드라마와 같은 영상 컨텐츠의 경우 복수의 장면(scene)으로 구성된다. 종래에는 슬레이트 또는 클래퍼보드(Clapperboard)를 치는 것을 함께 촬영하고, 이를 통해 편집자가 육안으로 직접 어떤 장면(scene)에 대한 영상인지를 인식하는 방법을 이용한다. 즉, 슬레이트 또는 클래퍼보드에는 날짜, 장면 번호(Scene Number), 촬영 감독 등에 대한 정보가 기재되어 있고, 촬영 스테프(staff)가 이 슬레이트 또는 클래퍼보드를 조작하는 장면을 영상 콘텐츠 장면의 시작 및/또는 끝에 촬영하여, 편집자가 어떤 장면에 대한 촬영인지를 구분할 수 있도록 하는 것이다. Video contents such as movies and dramas are composed of a plurality of scenes. Conventionally, a method in which hitting a slate or a clapperboard is filmed together, and through this, an editor directly recognizes which scene the video is about with the naked eye is used. That is, information about the date, scene number, cinematographer, etc. is written on the slate or clapper board, and the scene in which the filming staff manipulates the slate or clapper board is filmed at the beginning and/or end of the video content scene, so that the editor can distinguish which scene was filmed.

이러한 방법에 따르면, 편집자가 촬영된 영상을 일일이 확인하여 장면을 인식하여야 하므로 촬영된 영상의 장면 확인 및 구분하기 위한 많은 노력이 필요하게 된다. 또한, 촬영 도중 계속 슬레이트 또는 클래퍼보드의 촬영이 삽입되어야 하는 번거로움도 있다. According to this method, since the editor has to check the captured images one by one and recognize the scenes, much effort is required to identify and classify the scenes of the captured images. In addition, there is a hassle in that the slate or clapper board must be continuously inserted during the shooting.

대한민국 공개특허 제10-2019-0087711, 영상 전처리 방법, 장치 및 컴퓨터 프로그램Korean Patent Publication No. 10-2019-0087711, image pre-processing method, device and computer program

따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 딥러닝을 이용하여 영상의 분석에 의한 장면을 분류하는 장면 기반의 동영상 정리 방법 및 장치를 제공하기 위한 것이다.Therefore, the present invention has been made to solve the above problems, and is to provide a scene-based video organizing method and apparatus for classifying scenes by image analysis using deep learning.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become clearer through preferred embodiments described below.

본 발명의 일 측면에 따르면, 컴퓨팅 장치에서 수행되는 동영상 정리 방법에 있어서, 영상컨텐츠를 구성하는 복수의 장면에 대한 정보를 포함하는 입력정보를 기반으로 하는 컨텐츠정보를 저장하는 단계; 대상영상의 화면 및 음원 중 하나 이상을 분석하여 씬(scene) 인식을 위한 인식정보를 생성하는 단계; 및 상기 컨텐츠정보를 기반으로, 상기 인식정보에 상응하는 씬을 상기 대상영상에 대한 확인씬으로서 결정하는 단계를 포함하는, 장면 기반의 동영상 정리 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.According to one aspect of the present invention, in a video organizing method performed on a computing device, the step of storing content information based on input information including information on a plurality of scenes constituting video content; generating recognition information for recognizing a scene by analyzing at least one of a screen and a sound source of a target image; and determining, based on the content information, a scene corresponding to the recognition information as a confirmation scene for the target video, a scene-based moving picture arrangement method and a recording medium recording a program for executing the method.

여기서, 상기 대상영상에 대해 상기 확인씬에 대한 정보를 포함하는 식별정보를 부여하는 단계를 더 포함하되, 기 저장된 영상들 중 상기 확인씬과 동일한 것으로 결정된 영상의 존재여부 및 개수에 따라 상기 식별정보로서 테이크 번호를 부여한다.Here, the step of assigning identification information including information about the confirmation scene to the target video, wherein a take number is given as the identification information according to the existence and number of videos determined to be the same as the confirmation scene among pre-stored videos.

또한, 상기 컨텐츠정보를 기반으로 상기 인식정보에 상응하는 샷(shot)을 구분하여 상기 대상영상을 확인씬을 세분화한다.In addition, based on the content information, shots corresponding to the recognition information are divided into subdivided scenes to check the target image.

또한, 상기 대상영상의 확인씬에 대한 정보를 기반으로, 상기 대상영상이 구간부족으로 판단되는 경우, 상기 대상영상을 삭제하거나 NG영상으로서 관리한다.In addition, based on the information about the confirmed scene of the target video, when the target video is determined to be short of a section, the target video is deleted or managed as an NG video.

또한, 상기 대상영상이 상기 NG영상으로 결정되면, 상기 대상영상에 웃음소리가 포함되는지 여부를 확인하고, 확인 결과에 따라 구분하여 분류한다.In addition, if the target video is determined to be the NG video, it is checked whether the target video contains a sound of laughter, and classified according to the check result.

또한, 상기 웃음소리의 레벨을 구분하여 관리하며, 상기 레벨을 이용하여 NG영상을 복수개 추출하여 병합함으로써 NG영상모음 컨텐츠를 생성하는 단계를 더 포함한다. The method further includes generating NG video collection contents by dividing and managing the level of the laughing sound, and extracting and merging a plurality of NG videos using the level.

본 발명에 따르면, 촬영된 영상의 장면을 자동 인식하고 분류함으로써, 촬영의 편의성뿐 아니라 영상을 분류하는 후작업을 최소화할 수 있다.According to the present invention, by automatically recognizing and classifying scenes of captured images, it is possible to minimize not only the convenience of shooting but also the post-work of classifying images.

도 1은 본 발명의 일 실시예에 따른 장면 기반의 동영상 정리를 위한 전체 시스템을 개략적으로 도시한 구성도.
도 2는 본 발명의 일 실시예에 따른 촬영영상의 장면이 구분되는 식별정보를 예시한 테이블.
도 3은 본 발명의 일 실시예에 따른 대상영상의 장면을 결정하는 과정을 도시한 흐름도.
도 4는 본 발명의 일 실시예에 따른 장면, 샷, 테이크 번호에 대한 식별정보를 부여하는 과정을 도시한 흐름도.
도 5 및 도 6은 본 발명의 각 실시예에 따른 NG영상을 식별하는 과정을 도시한 흐름도들.
1 is a configuration diagram schematically illustrating an entire system for arranging a scene-based video according to an embodiment of the present invention.
2 is a table illustrating identification information for distinguishing scenes of a captured image according to an embodiment of the present invention.
3 is a flowchart illustrating a process of determining a scene of a target image according to an embodiment of the present invention;
4 is a flowchart illustrating a process of assigning identification information for scene, shot, and take numbers according to an embodiment of the present invention.
5 and 6 are flowcharts illustrating a process of identifying an NG image according to each embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It should be understood that when an element is referred to as being “connected” or “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, terms such as a first threshold and a second threshold, which will be described later, may be substantially different from each other or some of them may be pre-designated as thresholds having the same value.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but it should be understood that the presence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, the components of the embodiments described with reference to each drawing are not limitedly applied to the corresponding embodiment, and may be implemented to be included in other embodiments within the scope of maintaining the technical idea of the present invention, and even if a separate description is omitted, it is natural that a plurality of embodiments may be re-implemented as one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same or related reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

도 1은 본 발명의 일 실시예에 따른 장면 기반의 동영상 정리를 위한 전체 시스템을 개략적으로 도시한 구성도이고, 도 2는 본 발명의 일 실시예에 따른 촬영영상의 장면이 구분되는 식별정보를 예시한 테이블이며, 도 3은 본 발명의 일 실시예에 따른 대상영상의 장면을 결정하는 과정을 도시한 흐름도이다.1 is a configuration diagram schematically illustrating an entire system for organizing a scene-based video according to an embodiment of the present invention, FIG. 2 is a table illustrating identification information for distinguishing scenes of a captured image according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating a process of determining a scene of a target video according to an embodiment of the present invention.

먼저 도 1을 참조하면, 본 실시예에 따른 전체 시스템은 영상 촬영 장치(10), 영상 처리 장치(20) 및 컨텐츠정보DB(30)를 포함한다.Referring first to FIG. 1 , the entire system according to the present embodiment includes an image capturing device 10 , an image processing device 20 and a content information DB 30 .

영상 촬영 장치(10)는 영상을 생성할 수 있는 장치로서, 카메라(Camera)를 포함할 수 있다. 영상 촬영 장치(10)는 하나 이상의 카메라를 포함하는 단일의 장치일 수 있다. 영상 촬영 장치(10)는 유선 또는 무선을 통해 영상 처리 장치(20)와 연결될 수 있다. The image capture device 10 is a device capable of generating an image, and may include a camera. The image capturing device 10 may be a single device including one or more cameras. The image capture device 10 may be connected to the image processing device 20 through a wired or wireless connection.

영상 처리 장치(20)는 하나 이상의 카메라와 같은 영상 촬영 장치(10)에서 촬영된 영상에 대해 씬(scene), 샷(shot), 테이크(take)를 구분 및 분류하여 식별정보를 생성하여 컨텐츠정보DB(30)에 저장한다. 예를 들어, 영상 처리 장치(20)는 연결된 영상 촬영 장치(10)로부터 촬영영상에 대한 데이터를 수신할 수 있다. 또한, 영상 처리 장치(20)는 촬영영상이 수신되면, 미리 설정된 방법에 따라 촬영영상에 상응하는 식별정보를 생성할 수 있다. 이때, 영상 처리 장치(20)는 촬영영상에 상응하는 식별정보를 생성하기 위해 컨텐츠정보DB(30)에 저장된 컨텐츠정보를 이용할 수 있다. The image processing device 20 classifies and classifies images captured by the image capturing device 10, such as one or more cameras, into scenes, shots, and takes, generates identification information, and stores it in the content information DB 30. For example, the image processing device 20 may receive data about a photographed image from the connected image capturing device 10 . Also, when a captured image is received, the image processing device 20 may generate identification information corresponding to the captured image according to a preset method. At this time, the image processing device 20 may use content information stored in the content information DB 30 to generate identification information corresponding to the captured image.

컨텐츠정보DB(30)는 영상 처리 장치(20)와 유무선으로 연결된 장치로서, 여기에는 영상 컨텐츠를 구성하는 복수의 장면(씬)에 대한 정보가 컨텐츠정보로서 저장될 수 있다. 컨텐츠정보는 각 씬(Scene)에 대한 등장인물 정보(성별, 인원수 등), 촬영 장소 정보, 소품 정보, 대사 정보 등을 포함할 수 있다. The content information DB 30 is a device connected to the image processing device 20 by wire or wirelessly, and information on a plurality of scenes constituting image content may be stored therein as content information. The content information may include character information (gender, number of people, etc.), shooting location information, props information, dialogue information, etc. for each scene.

따라서, 영상 처리 장치(20)는 각 촬영영상마다 씬, 샷(또는 컷(cut)), 테이크에 대한 식별정보를 자동 부여할 수 있다. 도 2에는 영상 처리 장치(20)에서 수행되는 촬영영상의 분석에 의한 씬 분류 과정이 도시되어 있다. Accordingly, the image processing device 20 may automatically assign identification information about scenes, shots (or cuts), and takes to each captured image. 2 illustrates a scene classification process by analyzing a photographed image performed by the image processing device 20 .

도 2를 참조하면, 영상 처리 장치(20)는 컨텐츠정보를 저장할 수 있다(S310). 컨텐츠정보는 입력정보를 기반으로 하는 정보로서, 영상컨텐츠를 구성하는 복수의 장면에 대한 정보를 포함하는 것일 수 있다. 컨텐츠정보는 컨텐츠정보DB(30)에 저장된 정보로서 영상 처리 장치(20)가 컨텐츠정보DB(30)에서 다운로드받은 것일 수 있다. 또는 컨텐츠정보는 영상 처리 장치(20)와 연결된 다른 외부 장치(미도시)로부터 수신된 것일 수도 있다. 또는, 컨텐츠정보는 영상 처리 장치(20)에서 자동 생성된 정보일 수도 있다. 예를 들어, 영상 처리 장치(20)는 영화 시나리오에 상응하는 텍스트정보가 입력되면, 이를 분석하여 해당 시나리오의 텍스트 또는 이미지 등을 분석하여 각 씬의 등장인물, 장소, 대사, 소품 등의 컨텐츠정보를 추출하여 컨텐츠정보로서 저장할 수 있다.Referring to FIG. 2 , the image processing device 20 may store content information (S310). Content information is information based on input information, and may include information about a plurality of scenes constituting video content. The content information may be information stored in the content information DB 30 and downloaded from the content information DB 30 by the image processing device 20 . Alternatively, the content information may be received from another external device (not shown) connected to the image processing device 20 . Alternatively, the content information may be information automatically generated by the image processing device 20 . For example, when text information corresponding to a movie scenario is input, the image processing device 20 analyzes the text or image of the scenario to extract content information such as characters, places, lines, props, etc. of each scene and store it as content information.

이후, 영상 처리 장치(20)는 정리의 대상이 되는 촬영영상(이하 '대상영상'이라 칭함)이 입력되면, 대상영상의 화면(영상을 구성하는 각 프레임 이미지)과 음원(효과음, 대사 등)을 분석하여, 씬 인식을 위한 인식정보를 생성할 수 있다(S320). 예를 들어, 대상영상 내 등장인물의 수, 등장인물의 성별, 등장인물의 나이, 등장인물의 감정, 주요 배경과 소품, 음성을 통한 텍스트 정보 등이 인식정보로서 이용될 수 있다.Then, when a captured image (hereinafter referred to as 'object image') to be arranged is input, the image processing device 20 analyzes the screen of the target video (each frame image constituting the video) and the sound source (effect sound, lines, etc.) to generate recognition information for scene recognition (S320). For example, the number of characters in the target image, the character's gender, the character's age, the character's "emotion, main" background and props, "text" information through voice, etc. can be used as recognition information.

여기서, 영상의 분석에 의한 인식정보 추출의 정확성을 높이기 위해, 딥러닝 기술이 이용될 수 있다. Here, deep learning technology may be used to increase the accuracy of extracting recognition information by image analysis.

즉, 영상 처리 장치(20)는 대상영상 내 각 컷(cut)마다 등장인물의 수를 분석할 수 있다. 이때, 영상 처리 장치(20)는 얼굴 인식 알고리즘을 이용할 수 있을 것이다. 영상 처리 장치(20)에는 미리 설정된 얼굴 인식 알고리즘이 저장될 수 있고, 영상 처리 장치(20)는 얼굴 인식 알고리즘을 이용하여 대상영상 내 각 컷에 촬영된 등장인물의 수, 나이, 성별 등을 분석할 수 있는 것이다. That is, the image processing device 20 may analyze the number of characters for each cut in the target image. At this time, the image processing device 20 may use a face recognition algorithm. A preset face recognition algorithm may be stored in the image processing device 20, and the image processing device 20 may use the face recognition algorithm to analyze the number, age, gender, etc. of characters photographed in each cut in the target image.

또한, 영상 처리 장치(20)는 대상영상 내 각 컷(cut)마다 등장하는 객체의 종류를 분석할 수 있다. 이때, 영상 처리 장치(20)는 객체 인식 알고리즘(Object Detection Algorithm)을 이용할 수 있을 것이다. 영상 처리 장치(20)에는 미리 설정된 객체 인식 알고리즘이 저장될 수 있고, 영상 처리 장치(20)는 객체 인식 알고리즘을 이용하여 대상영상 내 각 컷에 촬영된 객체(예를 들어, 테이블, 의자, 시계, 침대 등)를 분석할 수 있는 것이다. Also, the image processing device 20 may analyze the types of objects appearing in each cut in the target image. At this time, the image processing device 20 may use an object detection algorithm. A preset object recognition algorithm may be stored in the image processing device 20, and the image processing device 20 may analyze objects (eg, tables, chairs, clocks, beds, etc.) captured in each cut in the target image using the object recognition algorithm.

또한, 영상 처리 장치(20)는 대상영상에 포함된 오디오를 분석하여 오디오의 종류(바람, 새소리, 물소리, 악기 소리 등)를 분석할 수 있다. 이때, 영상 처리 장치(20)는 소리 인식을 위한 딥러닝 알고리즘(Audio Detection Deep-learning Algorithm)을 이용할 수 있을 것이다. Also, the image processing device 20 may analyze the audio included in the target image to analyze the type of audio (wind, bird sound, water sound, musical instrument sound, etc.). At this time, the image processing device 20 may use an audio detection deep-learning algorithm for sound recognition.

또한, 영상 처리 장치(20)는 대상영상에 포함된 오디오가 사람의 목소리라면, 그 대사를 텍스트로 추출할 수도 있다.Also, if the audio included in the target image is a human voice, the image processing device 20 may extract the dialogue as text.

영상 내의 각 이미지를 분석하여 이미지에 포함된 피사체를 인식하는 기술은 현재에도 다양한 분야에서 이용되고 있으며(예를 들어, 욜료(YOLO) 알고리즘 등), 음성을 텍스트로 변환하는 기술, 음성의 파형 등을 분석하여 성별, 나이뿐 아니라 감정까지도 분석하는 음성인식 기술도 널리 이용되고 있다. 따라서, 상술한 딥러닝 알고리즘의 구현 방법은 당업자에게는 자명하다 할 것이다. 따라서, 이에 대한 구체적인 설명은 생략한다. A technology for analyzing each image in a video and recognizing a subject included in the image is still used in various fields (e.g., YOLO algorithm, etc.), and a technology for converting voice into text and a voice recognition technology that analyzes emotions as well as gender and age by analyzing voice waveforms are also widely used. Therefore, the implementation method of the above-described deep learning algorithm will be obvious to those skilled in the art. Therefore, a detailed description thereof will be omitted.

그리고, 영상 처리 장치(20)는 미리 저장된 컨텐츠정보와 S320에서 생성한 인식정보를 비교하여, 인식정보에 상응하는 씬을 결정하고, 결정된 씬을 대상영상에 대한 확인씬으로서 설정할 수 있다(S330).Then, the image processing device 20 may compare the pre-stored content information with the recognition information generated in S320, determine a scene corresponding to the recognition information, and set the determined scene as a confirmation scene for the target image (S330).

추가적으로, 영상 처리 장치(20)는 대상영상의 씬이 확인되면, 해당 씬이 어떤 샷으로 촬영된 것인지에 대해서도 구분 관리할 수 있으며, 동일한 씬(및 샷 또는 컷)이 기존재한다면, 테이크 번호를 달리하여 관리할 수도 있을 것이다. 도 4는 본 발명의 일 실시예에 따른 장면, 샷, 테이크 번호에 대한 식별정보를 부여하는 과정을 도시한 흐름도이다.Additionally, when the scene of the target video is confirmed, the image processing device 20 can classify and manage which shot the corresponding scene was filmed in, and if the same scene (and shot or cut) already exists, it can be managed with different take numbers. 4 is a flowchart illustrating a process of assigning identification information for scene, shot, and take numbers according to an embodiment of the present invention.

도 4를 참조하면, 영상 처리 장치(20)는 인식정보를 이용하여 씬 뿐 아니라 샷도 구분하여 대상영상에 대한 확인씬을 세분화할 수 있다(S410). 즉, 영상 처리 장치(20)는 확인씬, 확인샷을 포함하는 식별정보를 대상영상에 부여하고(S420), 이와 동일한 씬과 샷을 식별정보로서 갖는 영상이 미리 저장되어 있는지를 확인할 수 있다(S430). Referring to FIG. 4 , the image processing device 20 may subdivide a confirmation scene for a target image by classifying not only scenes but also shots using recognition information (S410). That is, the image processing device 20 may assign identification information including a confirmation scene and a confirmation shot to the target image (S420), and check whether an image having the same scene and shot as identification information is stored in advance (S430).

만일 존재하지 않는다면, 영상 처리 장치(20)는 대상영상의 테이크 번호를 #1로 부여할 수 있다(S440). 반면, 동일한 씬과 샷을 식별정보로서 갖는 영상이 기존재한다면, 영상 처리 장치(20)는 가장 높은 테이크 번호의 다음번 번호를 당해 대상영상의 테이크 번호로 부여할 수 있다(S450).If it does not exist, the image processing device 20 may assign the take number of the target image to #1 (S440). On the other hand, if a video having the same scene and shot as identification information already exists, the video processing device 20 may assign a number next to the highest take number as the take number of the corresponding target video (S450).

한편, 영화와 같은 영상 컨텐츠를 제작할 때, 촬영된 영상들 중 일부는 NG(No Good) 영상으로서 구분될 필요가 있다. NG 영상의 경우 해당 씬의 정상적인 구성시간(예를 들어, 1분짜리 또는 10개의 대사 등)보다 짧은 구간을 갖는 경우가 많을 것이다. 통상 NG는 씬을 구성하는 모든 대사가 진행되기 전에 중단되는 경우가 많기 때문이다. 따라서, 영상 처리 장치(20)는 이를 이용하여 NG 영상을 구분할 수 있다.Meanwhile, when producing video content such as a movie, some of the captured videos need to be classified as NG (No Good) videos. In the case of NG videos, there will be many cases where the scene has a shorter section than the normal composition time (eg, 1 minute or 10 lines). This is because NG is often stopped before all the lines constituting the scene are progressed. Accordingly, the image processing device 20 may use this to discriminate the NG image.

도 5 및 도 6은 본 발명의 각 실시예에 따른 NG영상을 식별하는 과정을 도시한 흐름도들이다.5 and 6 are flowcharts illustrating a process of identifying an NG image according to each embodiment of the present invention.

도 5를 참조하면, 영상 처리 장치(20)는 대상영상의 확인씬에 해당하는 씬의 구간(구성시간 또는 전체 대사)를 확인할 수 있다(S510). Referring to FIG. 5 , the image processing device 20 may check a section (composition time or entire dialogue) of a scene corresponding to a confirmed scene of a target image (S510).

그리고, 영상 처리 장치(20)는 확인된 구간과 대상영상의 구간을 비교하여 부족 여부를 판단할 수 있다(S520). 예를 들어, 확인된 구간이 5분인데, 대상영상의 구간은 2분이라면 영상 처리 장치(20)는 이를 '부족'이라 판단될 수 있다.Then, the image processing device 20 may compare the identified section with the section of the target image to determine whether the section is insufficient (S520). For example, if the checked section is 5 minutes, but the section of the target video is 2 minutes, the image processing device 20 may determine this as 'insufficient'.

만일 부족하지 않다면, 영상 처리 장치(20)는 대상영상에 테이크 번호를 부여할수 있다(S530). 반대로, 만일 부족하다면, 영상 처리 장치(20)는 대상영상을 삭제하거나 NG영상 으로서 구분하여 관리할 수 있다(S540). If not enough, the image processing device 20 may assign a take number to the target image (S530). Conversely, if insufficient, the image processing device 20 may delete the target image or classify and manage it as an NG image (S540).

이에 대한 구체적인 실시예를 도시한 도 6을 참조하면, 대상영상의 구간이 부족하다 판단되면, 대상영상 내에 웃음소리가 존재하는지를 추가적으로 확인할 수 있다(S541).Referring to FIG. 6 showing a specific embodiment of this, if it is determined that the section of the target video is insufficient, it can be additionally checked whether there is a sound of laughter in the target video (S541).

웃음소리가 존재하지 않는 경우, 영상 처리 장치(20)는 당해 NG 영상을 일반 NG영상으로서 분류할 수 있다(S543). 반대로, 웃음소리가 존재한다면, 영상 처리 장치(20)는 당해 대상영상을 활용NG영상으로서 구분하여 관리할 수 있다(S545). If there is no laughing sound, the image processing device 20 may classify the NG image as a normal NG image (S543). Conversely, if there is a sound of laughter, the image processing device 20 may classify and manage the corresponding target image as a utilized NG image (S545).

특히, 영상 처리 장치(20)는 웃음소리의 레벨(예를 들어, 웃음소리의 크기)을 구분하여 함께 관리할 수도 있다. 이에 의해, 영상 처리 장치(20)는 차후 활용NG영상들 중 웃음소리 레벨이 큰 것들을 추출 병합함으로써 NG영상모음 컨텐츠를 자동 생성할 수도 있을 것이다.In particular, the image processing device 20 may classify the level of laughter (eg, loudness of laughter) and manage them together. Accordingly, the image processing device 20 may automatically generate NG video collection contents by extracting and merging those having a high laughing sound level among NG videos to be used in the future.

여기서, NG영상으로 저장된 대상영상도 관리자에 의해 그 분류가 바뀔 수 있음은 당연하다. 즉, 영상 처리 장치(20)는 촬영영상들을 자동 분류한 이후 관리자에게 분류된 정보를 제공하고, 관리자가 분류된 정보를 변경할 수 있도록 하는 인터페이스를 제공할 수 있을 것이다. Here, it is natural that the classification of target images stored as NG images can be changed by the administrator. That is, after automatically classifying captured images, the image processing device 20 may provide classified information to a manager and provide an interface allowing the manager to change the classified information.

상술한 본 발명에 따른 장면(Scene) 기반의 동영상 정리 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The above-described method for arranging a video based on a scene according to the present invention can be implemented as computer readable code on a computer readable recording medium. Computer-readable recording media includes all types of recording media in which data that can be decoded by a computer system is stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed to computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.

또한, 상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.In addition, although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the present invention described in the claims below.

10 : 영상 촬영 장치
20 : 영상 처리 장치
30 : 컨텐츠정보 DB
10: video recording device
20: image processing device
30: Content Information DB

Claims (6)

컴퓨팅 장치에서 수행되는 동영상 정리 방법에 있어서,
영상컨텐츠를 구성하는 복수의 씬(scene)에 대한 정보를 포함하는 입력정보를 기반으로 하는 컨텐츠정보를 저장하는 단계;
대상영상의 화면 및 음원 중 하나 이상을 분석하여, 씬(scene) 인식을 위한 인식정보를 생성하는 단계; 및
상기 컨텐츠정보와 상기 인식정보를 비교하여, 상기 인식정보에 상응하는 씬(scene)을 결정하고, 결정된 씬(scene)을 상기 대상영상에 대한 확인씬으로서 결정하는 단계;
를 포함하되,
상기 대상영상은 상기 영상컨텐츠의 임의의 씬의 일부 또는 전부의 후보에 상응하고,
상기 컨텐츠정보는 상기 복수의 씬(Scene) 각각에 대한 등장인물 정보, 소품 정보 및 대사 정보 중 하나 이상을 포함하고,
상기 인식정보는 상기 대상영상 내 등장인물의 수, 등장인물 정보, 소품정보및 음성을 통한 텍스트 정보 중 하나 이상을 포함하는, 장면 기반의 동영상 정리 방법.
In the video organizing method performed on a computing device,
Storing content information based on input information including information on a plurality of scenes constituting video content;
generating recognition information for recognizing a scene by analyzing at least one of a screen and a sound source of the target image; and
comparing the content information with the recognition information, determining a scene corresponding to the recognition information, and determining the determined scene as a confirmation scene for the target image;
Including,
The target image corresponds to some or all candidates of an arbitrary scene of the image content,
The content information includes at least one of character information, prop information, and dialogue information for each of the plurality of scenes,
The recognition information includes at least one of the number of characters in the target image, character information, prop information, and text information through voice.
제1항에 있어서,
상기 대상영상에 대해 상기 확인씬에 대한 정보를 포함하는 식별정보를 부여하는 단계;
를 더 포함하되,
기 저장된 영상들 중 상기 확인씬에 상응하는 영상의 존재여부 및 개수에 따라 상기 식별정보로서 테이크 번호를 부여하는, 장면 기반의 동영상 정리 방법.
According to claim 1,
assigning identification information including information about the confirmation scene to the target image;
Including more,
A scene-based video organizing method of assigning a take number as the identification information according to the existence and number of images corresponding to the confirmed scene among pre-stored images.
제2항에 있어서,
상기 인식정보를 이용하여 상기 확인씬을 확인샷((shot)으로 세분화하는 단계;
를 더 포함하는, 장면 기반의 동영상 정리 방법.
According to claim 2,
Subdividing the verification scene into verification shots using the recognition information;
Further comprising a scene-based video organizing method.
제1항에 있어서,
상기 인식정보에 상응하는 상기 컨텐츠정보를 기반으로, 상기 대상영상이 구간부족으로 판단되는 경우, 상기 대상영상을 삭제하거나 NG영상으로서 관리하는 단계;
를 더 포함하는, 장면 기반의 동영상 정리 방법.
According to claim 1,
deleting or managing the target video as an NG video when it is determined that the target video is short of a section based on the content information corresponding to the recognition information;
Further comprising a scene-based video organizing method.
제4항에 있어서,
상기 대상영상이 상기 NG영상으로 결정되면, 상기 대상영상에 웃음소리가 포함되는지 여부를 확인하는 단계; 및
상기 확인 결과에 따라 구분하여 분류하는 단계;
를 더 포함하는, 장면 기반의 동영상 정리 방법.
According to claim 4,
if the target video is determined to be the NG video, checking whether a laughing sound is included in the target video; and
Classifying and classifying according to the confirmation result;
Further comprising a scene-based video organizing method.
제5항에 있어서,
상기 웃음소리의 레벨을 구분하는 단계; 및
상기 레벨을 이용하여 복수의 NG영상을 추출함으로써 NG영상모음 컨텐츠를 자동 생성하는 단계;
를 더 포함하는, 장면 기반의 동영상 정리 방법.
According to claim 5,
Classifying the level of the laughter; and
automatically generating NG video collection contents by extracting a plurality of NG videos using the level;
Further comprising a scene-based video organizing method.
KR1020210072700A 2021-06-04 2021-06-04 Scene-based video organization method KR102558504B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210072700A KR102558504B1 (en) 2021-06-04 2021-06-04 Scene-based video organization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072700A KR102558504B1 (en) 2021-06-04 2021-06-04 Scene-based video organization method

Publications (2)

Publication Number Publication Date
KR20220164217A KR20220164217A (en) 2022-12-13
KR102558504B1 true KR102558504B1 (en) 2023-07-25

Family

ID=84439306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072700A KR102558504B1 (en) 2021-06-04 2021-06-04 Scene-based video organization method

Country Status (1)

Country Link
KR (1) KR102558504B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102102164B1 (en) 2018-01-17 2020-04-20 오드컨셉 주식회사 Method, apparatus and computer program for pre-processing video
KR102148392B1 (en) * 2018-11-12 2020-08-26 주식회사 코난테크놀로지 Video metadata tagging system and method thereof
KR20210051473A (en) * 2019-10-30 2021-05-10 한국전자통신연구원 Apparatus and method for recognizing video contents

Also Published As

Publication number Publication date
KR20220164217A (en) 2022-12-13

Similar Documents

Publication Publication Date Title
US10417501B2 (en) Object recognition in video
US10108709B1 (en) Systems and methods for queryable graph representations of videos
US7184100B1 (en) Method of selecting key-frames from a video sequence
CN111460219B (en) Video processing method and device and short video platform
KR100828166B1 (en) Method of extracting metadata from result of speech recognition and character recognition in video, method of searching video using metadta and record medium thereof
US10304458B1 (en) Systems and methods for transcribing videos using speaker identification
US8805123B2 (en) System and method for video recognition based on visual image matching
CN101202864B (en) Player for movie contents
US9594957B2 (en) Apparatus and method for identifying a still image contained in moving image contents
KR20070118038A (en) Information processing apparatus, information processing method, and computer program
CN106462744A (en) Rule-based video importance analysis
US10978077B1 (en) Knowledge point mark generation system and method thereof
CN113613065B (en) Video editing method and device, electronic equipment and storage medium
US20180197577A1 (en) Thumbnail generation for video
KR102233175B1 (en) Method for determining signature actor and for identifying image based on probability of appearance of signature actor and apparatus for the same
JP2009245314A (en) Identification system of time-series data, and apparatus of giving personal meta information to moving image
US9542976B2 (en) Synchronizing videos with frame-based metadata using video content
CN112434185A (en) Method, system, server and storage medium for searching similar video clips
CN112380922A (en) Method and device for determining compound video frame, computer equipment and storage medium
CN114117120A (en) Video file intelligent index generation system and method based on content analysis
KR102558504B1 (en) Scene-based video organization method
KR102254037B1 (en) Apparatus for Image Analysis and Driving Method Thereof
TWI684964B (en) Knowledge point mark generation system and method thereof
KR102229261B1 (en) Apparatus and method for summarizing object conditions reated to object using a plurality of camera modules
JP2018137639A (en) Moving image processing system, encoder and program, decoder and program

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant