KR102414211B1 - Method and system for providing video - Google Patents

Method and system for providing video Download PDF

Info

Publication number
KR102414211B1
KR102414211B1 KR1020200136947A KR20200136947A KR102414211B1 KR 102414211 B1 KR102414211 B1 KR 102414211B1 KR 1020200136947 A KR1020200136947 A KR 1020200136947A KR 20200136947 A KR20200136947 A KR 20200136947A KR 102414211 B1 KR102414211 B1 KR 102414211B1
Authority
KR
South Korea
Prior art keywords
information
video
indexing
image
indexing information
Prior art date
Application number
KR1020200136947A
Other languages
Korean (ko)
Other versions
KR20220052705A (en
Inventor
박영기
김태진
윤규식
Original Assignee
주식회사 인튜웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인튜웍스 filed Critical 주식회사 인튜웍스
Priority to KR1020200136947A priority Critical patent/KR102414211B1/en
Publication of KR20220052705A publication Critical patent/KR20220052705A/en
Application granted granted Critical
Publication of KR102414211B1 publication Critical patent/KR102414211B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using shape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7857Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using texture

Abstract

본 발명은 동영상 제공 방법 및 장치를 개시한다. 본 발명은 복수의 동영상에 포함된 각 장면마다 객체를 추출하고, 해당 객체의 특성을 나타내는 인덱싱 정보를 생성한 후, 해당 인덱싱 정보에 따라서, 동영상 식별 정보와 해당 장면이 표시되는 시간 정보를 포함하는 객체 식별 정보를 분류하여 저장한다. 그 후, 사용자 단말이 동영상 제공을 요청하는 요청 이미지를 보내오면, 요청 이미지에서 객체들을 추출하여 인덱싱 정보와 동일한 방식으로 검색 정보를 생성하고, 검색 정보와 인덱싱 정보를 비교함으로써 요청 이미지에 포함된 객체에 대응되는 객체의 객체 식별 정보를 확인하고, 해당 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 동영상 데이터를 사용자 단말로 전송하면서, 시간 정보에 대응되는 시간부터 재생될 수 있도록 한다. 따라서, 본 발명은 상술한 바와 같이, 동영상에서 추출된 객체의 특성을 나타내는 인덱싱 정보들에 따라서 분류하여 객체 식별 정보를 저장함으로써, 사용자의 요청 이미지에 포함된 객체 및 해당 객체가 나오는 동영상을 매우 신속하게 검색할 수 있을뿐만 아니라, 동영상 중에서 사용자 단말로부터 수신한 요청 이미지가 나오는 장면부터 사용자가 재생할 수 있도록 함으로써, 사용자의 편의를 극대화할 수 있다.The present invention discloses a video providing method and apparatus. The present invention extracts an object for each scene included in a plurality of moving images, generates indexing information indicating the characteristics of the object, and then includes, according to the indexing information, video identification information and time information at which the scene is displayed Classifies and stores object identification information. After that, when the user terminal sends a request image requesting video provision, it extracts objects from the requested image, generates search information in the same way as indexing information, and compares the search information with the indexing information to find objects included in the request image. Check the object identification information of the object corresponding to , and transmit the video data to the user terminal according to the video identification information included in the corresponding object identification information, and play the video data from a time corresponding to the time information. Therefore, as described above, the present invention stores object identification information by classifying according to the indexing information indicating the characteristics of the object extracted from the video, so that the object included in the user's request image and the video in which the object appears are very quickly User convenience can be maximized by allowing the user to play from the scene in which the requested image received from the user terminal appears in the video as well as the user's ability to search.

Description

동영상 제공 방법 및 장치{Method and system for providing video}Method and system for providing video

본 발명은 동영상 제공 방법 및 장치에 관한 것으로서, 보다 구체적으로는 사용자 단말로부터 제공받은 이미지가 포함된 동영상을 검색하여 제공하는 동영상 제공 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for providing a video, and more particularly, to a method and apparatus for providing a video by searching for a video including an image provided from a user terminal.

최근 스마트폰의 보급이 확대되고, 초고속 통신망이 보편화됨에 따라서, 소비자들이 동영상 콘텐츠를 소비하는 방식이 텔레비전에서 스마트폰으로 옮겨가는 추세이다. Recently, as the spread of smartphones has expanded and high-speed communication networks have become common, the way consumers consume video content is shifting from TVs to smartphones.

또한, 인터넷 포털사이트 등을 통해서 제공되는 뉴스 콘텐츠 뿐만 아니라, 다양한 콘텐츠에, 동영상이 삽입되어 제공되거나, 동영상의 한 장면을 캡쳐한 이미지가 삽입되어 제공되며, 이를 본 소비자들이 해당 동영상 또는 이미지에 대응되는 동영상을 검색하여 소비하는 방식이 일반화되고 있다.In addition, as well as news content provided through Internet portal sites, various contents are provided with a video inserted or an image captured from a video is inserted and provided, and consumers who have viewed it respond to the video or image The method of retrieving and consuming videos that are used is becoming common.

그런데, 소비자가 해당 동영상 또는 이미지에 대응되는 전체 동영상을 검색하는데에는 상당히 많은 노력과 시간이 소요될 뿐만 아니라, 해당 동영상이 검색된다 하더라도, 해당 전체 동영상에서 소비자가 원하는 장면을 검색하는 것은 매우 어려운 문제이다.However, it takes a lot of effort and time for the consumer to search for the entire video corresponding to the video or image, and even if the video is found, it is very difficult for the consumer to search for the scene desired by the consumer from the entire video. .

예컨대, 사용자가 인터넷 기사를 통해서 자신이 좋아하는 배우가 출연한 영화의 한 장면 이미지를 접하고, 영화에서 해당 이미지가 표시된 장면을 보고자 한다면, 사용자는 영화를 제공하는 OTT 서비스를 통해서 해당 영화를 다운로드하거나 스트리밍을 실행해야 한다. 또한, 영화 콘텐츠가 실행되면, 사용자는 영화를 처음부터 보거나, 일정한 시간 구간을 건너뛰면서 영화 내에서 해당 장면을 찾아 헤메어야 한다.For example, if a user encounters an image of a scene in a movie starring his/her favorite actor through an Internet article and wants to see a scene in which the image is displayed, the user downloads the movie through the OTT service that provides the movie, or You need to run streaming. In addition, when movie content is executed, the user has to either watch the movie from the beginning or search for a corresponding scene in the movie while skipping a predetermined time period.

그나마, 사용자가 자신이 찾는 동영상의 제목과 해당 동영상을 다운로드 또는 스트리밍할 수 있는 서비제공자를 알고 있는 경우에는 동영상 검색이 가능하지만, 단순 이미지만으로 동영상을 찾는 것은 더 더욱 어려운 문제이다. However, if the user knows the title of the video he is looking for and a service provider that can download or stream the video, video search is possible, but it is more difficult to find a video only with a simple image.

이렇게 소비자가 동영상을 찾아 헤메는 수고를 덜기 위해서, 사용자가 특정 이미지를 전송하면, 해당 이미지가 포함된 동영상을 찾아주는 서비스가 요구되지만, 아직 이러한 서비스가 제공되지 못하는 실정이다. In this way, in order to reduce the effort of the consumer to find a video, a service is required to find a video including the corresponding image when the user transmits a specific image, but such a service is not yet provided.

이는 일반적인 이미지 검색 과정에서, 사용자의 쿼리 이미지의 해쉬값과 사전에 저장된 이미지들의 해쉬값을 비교하여 이미지의 일치 여부를 판정하는 종래 기술의 한계 때문인 것으로 보인다. 즉, 사용자에게 표시되어 사용자가 검색을 요청하는 이미지의 경우, 여러 사람들에 의해서 자막이 추가되거나, 밝기가 조절되거나, 영상의 일부가 잘리는 등 다양한 변형이 가해져서, 원본 동영상과 해쉬값이 달라지고, 이에 따라서 정확한 검색이 어렵기 때문에 이미지 검색 결과가 정확하지 않은 한계가 존재한다.This seems to be due to the limitation of the prior art for determining whether the images match by comparing the hash value of the user's query image with the hash value of the images stored in advance in a general image search process. That is, in the case of an image that is displayed to the user and the user requests a search, various modifications are applied, such as subtitles added, brightness adjusted, or a part of the image cut off by several people, so that the hash value is different from the original video. , since it is difficult to accurately search for it, there is a limitation in that the image search result is not accurate.

본 발명이 해결하고자 하는 과제는 사용자가 원하는 동영상을 신속하고 정확하게 검색하여 제공하는 것은 물론, 사용자가 단말을 이용하여 동영상을 재생할 때, 사용자가 원하는 장면부터 재생할 수 있도록 하여 사용자의 편의를 향상시키는 동영상 제공 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is not only to quickly and accurately search for and provide a user's desired video, but also to improve the user's convenience by allowing the user to play the video from the desired scene when the user plays the video using the terminal. It is to provide a method and apparatus for providing.

상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 동영상 제공 방법은, (a) 동영상 제공 장치가 복수의 동영상들에 대해서, 각 동영상의 장면마다 표시되는 객체들 각각에 대한 객체 식별 정보 및 인덱싱 정보를 생성하는 단계; (b) 상기 동영상 제공 장치가 상기 객체 식별 정보들 및 상기 인덱싱 정보들을 동영상 데이터와 상호 연계시켜 저장하는 단계; (c) 상기 동영상 제공 장치가 사용자 단말로부터 요청 이미지를 수신하면, 상기 요청 이미지로부터 객체를 추출한 후, 추출된 각 객체에 대한 검색 정보를 생성하는 단계; (d) 상기 동영상 제공 장치가 상기 검색 정보에 대응되는 인덱싱 정보 및 인덱싱 정보에 대응되는 객체 식별 정보를 검색하여, 상기 요청 이미지에 대응되는 동영상 및 요청 이미지가 재생되는 시간 정보를 확인하는 단계; 및 (e) 상기 동영상 제공 장치가 상기 요청 이미지에 대응되는 동영상이 상기 시간 정보에 대응되는 시간부터 재생될 수 있도록 동영상 데이터를 상기 사용자 단말로 제공하는 단계를 포함한다.In a video providing method according to a preferred embodiment of the present invention for solving the above-described problems, (a) the video providing apparatus for a plurality of videos, object identification information for each of the objects displayed for each scene of each video and generating indexing information; (b) storing, by the video providing device, the object identification information and the indexing information in correlation with video data; (c) when the video providing device receives the requested image from the user terminal, extracting an object from the requested image, and then generating search information for each extracted object; (d) checking, by the video providing apparatus, indexing information corresponding to the search information and object identification information corresponding to the indexing information, and checking time information at which the video corresponding to the requested image and the requested image are reproduced; and (e) providing, by the video providing apparatus, video data to the user terminal so that the video corresponding to the requested image can be played from the time corresponding to the time information.

또한, 상기 (a) 단계의 상기 인덱싱 정보는 다음의 ① 내지 ④ 에 의해서 생성된 코드들 [① 객체 이미지에 대한 컬러히스토그램을 구하고, 컬러성분의 크기에 따라서 순차적으로 컬러 성분을 나타내는 번호를 결합하여 생성된 코드, ② 상기 객체 이미지의 기울기에 따라서 부여된 코드, ③ 상기 객체 이미지의 가로 대 세로 비율에 따라서 부여된 코드, ④ 상기 객체 이미지에 접하는 외접 사각형에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드] 중 둘 이상을 조합하여 생성되는 제 1 인덱싱 정보를 포함할 수 있다.In addition, the indexing information in step (a) is obtained by obtaining the color histogram for the object image with the codes generated by the following ① to ④, and combining the numbers indicating the color components sequentially according to the size of the color components. Generated code, ② Code assigned according to the inclination of the object image, ③ Code assigned according to the horizontal to vertical ratio of the object image, ④ Assigned according to the area ratio of the object image to the circumscribed rectangle touching the object image code], and may include first indexing information generated by combining two or more.

또한, 상기 제 1 인덱싱 정보는 상기 ① 내지 ④ 및 다음의 ⑤ 내지 ⑦ 에 의해서 생성된 코드들 [⑤ 상기 객체 이미지에 접하는 외접 타원에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드, ⑥ 객체 이미지의 최말단 점들간의 기울기를 이용하여 부여된 코드, ⑦ 객체 인식 결과를 이용하여 부여된 코드] 중 둘 이상을 조합하여 생성될 수 있다.In addition, the first indexing information is a code given according to the area ratio of the object image to the circumscribed ellipse touching the object image, ⑥ the code generated by the ① to ④ and the following ⑤ to ⑦ It can be generated by combining two or more of a code assigned using the gradient between the most distal points and a code assigned using the object recognition result].

또한, 상기 인덱싱 정보는, 상기 객체 이미지에 대해서 생성된 푸리에 디스크립터로 구현되는 제 2 인덱싱 정보를 더 포함하고, 상기 (b) 단계에서, 상기 동영상 제공 장치는 상기 객체 식별 정보를 상기 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 저장할 수 있다.In addition, the indexing information further includes second indexing information implemented as a Fourier descriptor generated for the object image, and in step (b), the video providing apparatus converts the object identification information into the first indexing information may be classified primarily according to , and secondarily classified and stored according to the second indexing information.

또한, 상기 (c) 단계에서, 상기 동영상 제공 장치는 상기 제 1 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보를 생성하고, 상기 제 2 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 2 검색 정보를 생성하며, 상기 (d) 단계에서, 상기 동영상 제공 장치는 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류된 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인할 수 있다.Also, in step (c), the video providing device generates first search information for the object extracted from the requested image in the same manner as the first indexing information, and uses the second indexing information in the same manner Generates second search information for the object extracted from the request image, and in step (d), the video providing device includes a first search information corresponding to the first search information from among the object identification information stored in step (b). 1 According to the video identification information included in the object identification information classified primarily according to the indexing information and secondarily classified according to the second indexing information corresponding to the second search information, check the video corresponding to the requested image, Time information for displaying the requested image may be checked.

또한, 상기 인덱싱 정보는 객체 이미지에 포함된 각 화소값들과 주변 화소값들과의 관계를 나타내는 제 3 인덱싱 정보를 더 포함하고, 상기 (b) 단계에서, 상기 동영상 제공 장치는 상기 객체 식별 정보를 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 상기 제 3 인덱싱 정보와 함께 저장할 수 있다.In addition, the indexing information further includes third indexing information indicating a relationship between each pixel value included in the object image and neighboring pixel values, and in step (b), the video providing apparatus provides the object identification information may be primarily classified according to the first indexing information and secondarily classified according to the second indexing information and stored together with the third indexing information.

또한, 상기 (c) 단계에서, 상기 동영상 제공 장치는 상기 제 1 인덱싱 정보, 상기 제 2 인덱싱 정보 및 상기 제 3 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보, 제 2 검색 정보, 및 제 3 검색 정보를 각각 생성하며, 상기 (d) 단계에서, 상기 동영상 제공 장치는 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류되며, 상기 제 3 검색 정보와 상기 제 3 인덱싱 정보가 사전에 정의된 임계 비율 이상으로 일치하는 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인할 수 있다.In addition, in step (c), the video providing apparatus provides first search information, first search information, Generates second search information and third search information, respectively, and in step (d), the video providing apparatus performs a first indexing corresponding to the first search information among the object identification information stored in step (b). Objects classified primarily according to information, classified secondarily according to second indexing information corresponding to the second search information, and in which the third search information and the third indexing information match more than a predefined threshold ratio According to the video identification information included in the identification information, a video corresponding to the requested image may be checked, and information about a time at which the requested image is displayed may be checked.

한편, 상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 동영상 제공 장치는, 프로세서 및 소정의 명령어들을 저장하는 저장 장치를 포함하는 동영상 제공 장치로서, 상기 저장 장치에 저장된 명령어들을 실행한 상기 프로세서는 (a) 복수의 동영상들에 대해서, 각 동영상의 장면마다 표시되는 객체들 각각에 대한 객체 식별 정보 및 인덱싱 정보를 생성하는 단계; (b) 상기 객체 식별 정보들 및 상기 인덱싱 정보들을 동영상 데이터와 상호 연계시켜 저장하는 단계; (c) 사용자 단말로부터 요청 이미지를 수신하면, 상기 요청 이미지로부터 객체를 추출한 후, 추출된 각 객체에 대한 검색 정보를 생성하는 단계; (d) 상기 검색 정보에 대응되는 인덱싱 정보 및 인덱싱 정보에 대응되는 객체 식별 정보를 검색하여, 상기 요청 이미지에 대응되는 동영상 및 요청 이미지가 재생되는 시간 정보를 확인하는 단계; 및 (e) 상기 요청 이미지에 대응되는 동영상이 상기 시간 정보에 대응되는 시간부터 재생될 수 있도록 동영상 데이터를 상기 사용자 단말로 제공하는 단계를 수행하여 동영상 제공 방법을 수행한다.On the other hand, a video providing apparatus according to a preferred embodiment of the present invention for solving the above-described problems is a video providing apparatus including a processor and a storage device for storing predetermined instructions, wherein the instructions stored in the storage device are executed. The processor may include: (a) generating object identification information and indexing information for each of the objects displayed for each scene of each moving picture with respect to a plurality of moving images; (b) storing the object identification information and the indexing information in association with video data; (c) upon receiving the requested image from the user terminal, extracting an object from the requested image, and then generating search information for each extracted object; (d) searching for indexing information corresponding to the search information and object identification information corresponding to the indexing information, and checking time information at which a video corresponding to the requested image and the requested image are reproduced; and (e) providing video data to the user terminal so that the video corresponding to the requested image can be played from the time corresponding to the time information to perform the video providing method.

또한, 상기 (a) 단계의 상기 인덱싱 정보는 다음의 ① 내지 ④ 에 의해서 생성된 코드들 [① 객체 이미지에 대한 컬러히스토그램을 구하고, 컬러성분의 크기에 따라서 순차적으로 컬러 성분을 나타내는 번호를 결합하여 생성된 코드, ② 상기 객체 이미지의 기울기에 따라서 부여된 코드, ③ 상기 객체 이미지의 가로 대 세로 비율에 따라서 부여된 코드, ④ 상기 객체 이미지에 접하는 외접 사각형에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드] 중 둘 이상을 조합하여 생성되는 제 1 인덱싱 정보를 포함한다.In addition, the indexing information in step (a) is obtained by obtaining the color histogram for the object image with the codes generated by the following ① to ④, and combining the numbers indicating the color components sequentially according to the size of the color components. Generated code, ② Code assigned according to the inclination of the object image, ③ Code assigned according to the horizontal to vertical ratio of the object image, ④ Assigned according to the area ratio of the object image to the circumscribed rectangle touching the object image code], including first indexing information generated by combining two or more.

또한, 상기 제 1 인덱싱 정보는 상기 ① 내지 ④ 및 다음의 ⑤ 내지 ⑦ 에 의해서 생성된 코드들[⑤ 상기 객체 이미지에 접하는 외접 타원에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드, ⑥ 객체 이미지의 최말단 점들간의 기울기를 이용하여 부여된 코드, ⑦ 객체 인식 결과를 이용하여 부여된 코드] 중 둘 이상을 조합하여 생성될 수 있다.In addition, the first indexing information is a code given according to the area ratio of the object image to the circumscribed ellipse touching the object image, ⑥ the code generated by the ① to ④ and the following ⑤ to ⑦. It can be generated by combining two or more of a code assigned using the gradient between the most distal points and a code assigned using the object recognition result].

또한, 상기 인덱싱 정보는 상기 객체 이미지에 대해서 생성된 푸리에 디스크립터로 구현되는 제 2 인덱싱 정보를 더 포함하고, 상기 (b) 단계는, 상기 객체 식별 정보를 상기 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 저장할 수 있다.In addition, the indexing information further includes second indexing information implemented as a Fourier descriptor generated for the object image, and in step (b), the object identification information is primarily classified according to the first indexing information. and secondarily classified and stored according to the second indexing information.

또한, 상기 (c) 단계는, 상기 제 1 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보를 생성하고, 상기 제 2 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 2 검색 정보를 생성하며, 상기 (d) 단계는, 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류된 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인할 수 있다.In addition, in step (c), first search information is generated for the object extracted to the request image in the same manner as the first indexing information, and extracted to the requested image in the same manner as the second indexing information Second search information is generated for an object, and in step (d), from among the object identification information stored in step (b), the first search information is classified according to first indexing information corresponding to the first search information, Check the video corresponding to the requested image according to the video identification information included in the object identification information classified secondly according to the second indexing information corresponding to the second search information, and check the time information at which the requested image is displayed can

또한, 상기 인덱싱 정보는 객체 이미지에 포함된 각 화소값들과 주변 화소값들과의 관계를 나타내는 제 3 인덱싱 정보를 더 포함하고, 상기 (b) 단계는, 상기 객체 식별 정보를 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 상기 제 3 인덱싱 정보와 함께 저장하며, 상기 (c) 단계는, 상기 제 1 인덱싱 정보, 상기 제 2 인덱싱 정보 및 상기 제 3 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보, 제 2 검색 정보, 및 제 3 검색 정보를 각각 생성하며, 상기 (d) 단계는, 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류되며, 상기 제 3 검색 정보와 상기 제 3 인덱싱 정보가 사전에 정의된 임계 비율 이상으로 일치하는 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인할 수 있다.In addition, the indexing information further includes third indexing information indicating a relationship between each pixel value included in the object image and neighboring pixel values, and the step (b) includes converting the object identification information into the first indexing information is classified primarily according to First search information, second search information, and third search information are respectively generated for the object extracted from the request image in the same manner as the third indexing information, wherein step (d) is performed in step (b) Among the stored object identification information, primary classification according to first indexing information corresponding to the first search information, secondary classification according to second indexing information corresponding to the second search information, and the third search information and the third indexing information check the video corresponding to the requested image according to the video identification information included in the object identification information that matches by more than a predefined threshold ratio, and check the time information at which the requested image is displayed have.

본 발명은 복수의 동영상에 포함된 각 장면마다 객체를 추출하고, 해당 객체의 특성을 나타내는 인덱싱 정보를 생성한 후, 해당 인덱싱 정보에 따라서, 동영상 식별 정보와 해당 장면이 표시되는 시간 정보를 포함하는 객체 식별 정보를 분류하여 저장한다. The present invention extracts an object for each scene included in a plurality of moving images, generates indexing information indicating the characteristics of the object, and then includes, according to the indexing information, video identification information and time information at which the scene is displayed Classifies and stores object identification information.

그 후, 사용자 단말이 동영상 제공을 요청하는 요청 이미지를 보내오면, 요청 이미지에서 객체들을 추출하여 인덱싱 정보와 동일한 방식으로 검색 정보를 생성하고, 검색 정보와 인덱싱 정보를 비교함으로써 요청 이미지에 포함된 객체에 대응되는 객체의 객체 식별 정보를 확인하고, 해당 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 동영상 데이터를 사용자 단말로 전송하면서, 시간 정보에 대응되는 시간부터 재생될 수 있도록 한다.After that, when the user terminal sends a request image requesting to provide a video, the object included in the request image is extracted by extracting the objects from the request image to generate search information in the same manner as the indexing information, and by comparing the search information with the indexing information. Check the object identification information of the object corresponding to , and transmit the video data to the user terminal according to the video identification information included in the corresponding object identification information, and play the video data from a time corresponding to the time information.

따라서, 본 발명은 상술한 바와 같이, 동영상에서 추출된 객체의 특성을 나타내는 인덱싱 정보들에 따라서 분류하여 객체 식별 정보를 저장함으로써, 사용자의 요청 이미지에 포함된 객체 및 해당 객체가 나오는 동영상을 매우 신속하게 검색할 수 있을뿐만 아니라, 동영상 중에서 사용자 단말로부터 수신한 요청 이미지가 나오는 장면부터 사용자가 재생할 수 있도록 함으로써, 사용자의 편의를 극대화할 수 있다.Therefore, as described above, the present invention stores object identification information by classifying according to the indexing information indicating the characteristics of the object extracted from the video, so that the object included in the user's request image and the video in which the object appears are very quickly User convenience can be maximized by allowing the user to play from the scene in which the requested image received from the user terminal appears in the video as well as the user's ability to search.

도 1은 본 발명의 바람직한 실시예에 따른 동영상 제공 장치의 전체 구성을 도시하는 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 동영상 제공 방법을 설명하는 흐름도이다.
도 3은 본 발명의 바람직한 실시예에서 따라서 동영상에서 객체를 추출하는 과정을 설명하는 도면이다.
도 4는 본 발명의 바람직한 실시예에서 따라서 제 1 인덱싱 정보를 생성하는 과정을 설명하는 도면이다.
도 5는 본 발명의 바람직한 실시예에서 따라서 제 2 인덱싱 정보를 생성하는 과정을 설명하는 도면이다.
도 6은 본 발명의 바람직한 실시예에서 따라서 제 3 인덱싱 정보를 생성하는 과정을 설명하는 도면이다.
도 7a 및 도 7b는 본 발명의 바람직한 실시예에서 따라서 제 3 인덱싱 정보의 일치 여부를 비교하는 과정을 설명하는 도면이다.
도 8은 본 발명의 바람직한 실시예에서 따라서 객체 식별 정보가 인덱싱 정보에 따라서 분류되어 저장 장치에 저장되는 방식을 설명하는 도면이다.
1 is a diagram showing the overall configuration of a video providing apparatus according to a preferred embodiment of the present invention.
2 is a flowchart illustrating a video providing method according to a preferred embodiment of the present invention.
3 is a view for explaining a process of extracting an object from a video according to a preferred embodiment of the present invention.
4 is a view for explaining a process of generating first indexing information according to a preferred embodiment of the present invention.
5 is a diagram for explaining a process of generating second indexing information according to a preferred embodiment of the present invention.
6 is a diagram for explaining a process of generating third indexing information according to a preferred embodiment of the present invention.
7A and 7B are diagrams for explaining a process of comparing whether the third indexing information matches according to a preferred embodiment of the present invention.
8 is a view for explaining a method in which object identification information is classified according to indexing information and stored in a storage device according to a preferred embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 따른 동영상 제공 장치의 전체 구성과 사용자 단말과의 연결 관계를 설명하는 도시하는 도면이다.1 is a diagram illustrating the overall configuration of a video providing apparatus according to a preferred embodiment of the present invention and a connection relationship with a user terminal.

도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 동영상 제공 장치(200)는 프로세서(210), 저장 장치(220), 입력부(230) 및 출력부(240)를 포함한다. Referring to FIG. 1 , an apparatus 200 for providing a video according to a preferred embodiment of the present invention includes a processor 210 , a storage device 220 , an input unit 230 , and an output unit 240 .

본 발명의 바람직한 실시예에 따른 저장 장치(220)는 프로세서(210)에 의해 실행 가능한 명령어들, 및 프로세서(210)에 의해 실행되는 프로그램들을 저장할 수 있고, 입/출력되는 데이터들을 저장할 수도 있다.The storage device 220 according to the preferred embodiment of the present invention may store instructions executable by the processor 210 and programs executed by the processor 210 , and may also store input/output data.

또한, 저장 장치(220)는 동영상 데이터들을 저장하고, 동영상 데이터들과 연계된 객체 식별 정보와 동영상 인덱싱 정보들을 저장할 수 있다. 여기서, 객체 식별 정보는 동영상에서 보여지는 각 객체들이, 어떤 동영상의 어떤 시간에 재생되는 장면에 포함되는지를 나타내는 정보이고, 동영상 인덱싱 정보들은 해당 객체가 저장된 동영상 데이터들을 신속하게 검색하기 위한 것으로서, 자세한 내용은 후술한다.Also, the storage device 220 may store video data, and may store object identification information and video indexing information associated with the video data. Here, the object identification information is information indicating whether each object shown in the video is included in a scene reproduced at what time of a certain video, and the video indexing information is for quickly searching video data in which the object is stored. The contents will be described later.

아울러, 저장 장치(220)는 인터넷(internet)상에서 저장 매체의 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버로 대체 운영될 수도 있고, 별도의 데이터 베이스 서버로 독립 운영될 수도 있다. 또한, 저장 장치(220)는 프로세서(210)를 구동하기 위한 구성과, 동영상 데이터들 및 동영상 인덱싱 정보를 저장하는 구성으로 분리되어 운영될 수도 있다.In addition, the storage device 220 may be alternatively operated as a web storage or a cloud server performing a function of a storage medium on the Internet, or may be independently operated as a separate database server. Also, the storage device 220 may be operated separately with a configuration for driving the processor 210 and a configuration for storing video data and video indexing information.

본 발명의 바람직한 실시예에 따른 프로세서(210)는 저장 장치(220)에 저장된 명령어들을 실행함으로써, 도 2를 참조하여 후술하는 동영상 제공 방법의 각 단계를 수행한다. 프로세서(210)가 수행하는 구체적인 동작에 대해서는 도 2를 참조하여 후술한다.The processor 210 according to the preferred embodiment of the present invention executes instructions stored in the storage device 220, thereby performing each step of the method for providing a video to be described later with reference to FIG. 2 . A detailed operation performed by the processor 210 will be described later with reference to FIG. 2 .

입력부(230)는 마우스 및 키보드와 같은 전형적인 입력 수단으로 구현되어, 관리자로부터 설정 정보 및 선택 정보 등을 입력받아 프로세서(210)로 출력할 수 있다.The input unit 230 may be implemented as a typical input means such as a mouse and a keyboard, and may receive setting information and selection information from an administrator and output it to the processor 210 .

출력부(240)는 모니터 등으로 구현되어 프로세서(210)에서 생성한 데이터 및 정보등을 사용자에게 표시할 수 있다.The output unit 240 may be implemented as a monitor or the like to display data and information generated by the processor 210 to the user.

본 발명의 동영상 제공 장치(200)는 유무선 통신망을 통해서 복수의 사용자 단말들(100)과 연결되고, 복수의 사용자 단말들(100)로부터 동영상에 포함된 특정 장면의 이미지를 수신하면, 해당 이미지가 포함된 동영상을 검색하여, 동영상의 해당 이미지부터 사용자 단말(100)이 재생할 수 있도록, 동영상 데이터를 스트리밍 방식으로 제공하거나, 동영상 파일과 해당 장면의 시간 정보를 함께 제공하여 사용자 단말(100)이 해당 장면부터 재생할 수 있도록 한다. The video providing apparatus 200 of the present invention is connected to a plurality of user terminals 100 through a wired/wireless communication network, and when receiving an image of a specific scene included in a video from the plurality of user terminals 100, the image is Search for a video included and provide video data in a streaming method so that the user terminal 100 can play from the corresponding image of the video, or provide a video file and time information of the scene together so that the user terminal 100 can Make it playable from the scene.

도 2는 본 발명의 바람직한 실시예에 따른 동영상 제공 방법을 설명하는 흐름도이다. 이하, 도 2를 더 참조하여 동영상 제공 장치(200)의 동작 및 동영상 제공 방법에 대해서 설명한다. 2 is a flowchart illustrating a video providing method according to a preferred embodiment of the present invention. Hereinafter, an operation of the video providing apparatus 200 and a video providing method will be described with further reference to FIG. 2 .

먼저, 동영상 제공 장치(200)는 사용자 단말들(100)로 사용자가 원하는 동영상을 제공하기 위해서, 사전에 다수의 동영상 데이터를 저장하고, 각 동영상에서 각 장면마다 표시되는 객체들에 대한 객체 식별 정보 및 인덱싱 정보를 생성하며(S210), 각 객체 식별 정보 및 인덱싱 정보를 동영상 데이터와 연계하여 저장한다(S220).First, the video providing apparatus 200 stores a plurality of video data in advance in order to provide a video desired by a user to the user terminals 100 , and object identification information for objects displayed for each scene in each video and generating indexing information (S210), and storing each object identification information and indexing information in association with video data (S220).

도 3 내지 도 6 은 본 발명의 바람직한 실시예에 따라서 인덱싱 정보를 생성하는 과정을 설명하는 도면이다. 이하, 도 3 내지 도 6을 참조하여, 상술한 제 S210 단계에서 인덱싱 정보를 생성하는 과정을 설명한다. 3 to 6 are diagrams for explaining a process of generating indexing information according to a preferred embodiment of the present invention. Hereinafter, a process of generating the indexing information in step S210 will be described with reference to FIGS. 3 to 6 .

본 발명의 객체 식별 정보 및 인덱싱 정보는 동영상의 각 장면마다, 해당 장면을 대표하는 이미지에 포함되는 객체마다 생성된다. 여기서, 각 장면을 대표하는 이미지는 사전에 정의된 규칙에 따라서 선정될 수 있고, 해당 장면에 포함된 키 프레임 이미지일 수 있다. 또한, 인덱싱 정보는 하나의 객체에 대한 제 1 인덱싱 정보, 제 2 인덱싱 정보 및 제 3 인덱싱 정보를 포함하여 구성된다. The object identification information and indexing information of the present invention are generated for each scene of a moving picture and for each object included in an image representing the scene. Here, the image representing each scene may be selected according to a predefined rule, and may be a key frame image included in the corresponding scene. In addition, the indexing information is configured to include first indexing information, second indexing information, and third indexing information for one object.

인덱싱 정보를 생성하기 위해서, 먼저 동영상 제공 장치(200)는 동영상의 각 장면마다 선정된 대표 이미지에서 객체를 추출한다. In order to generate indexing information, first, the video providing apparatus 200 extracts an object from a representative image selected for each scene of the video.

도 3을 참조하면, 동영상 제공 장치(200)는, 장면을 대표하는 이미지에서 객체를 추출하고, 추출된 각 객체의 윤곽선을 파악한다.Referring to FIG. 3 , the video providing apparatus 200 extracts an object from an image representing a scene, and identifies an outline of each extracted object.

한편, 동영상 제공 장치(200)는 각 객체에 대해서 객체의 컬러 및 기하학적 특성을 이용하여 일련의 코드를 생성하고, 이 코드들을 조합하여 제 1 인덱싱 정보를 생성한다.Meanwhile, the video providing apparatus 200 generates a series of codes for each object by using the color and geometric characteristics of the object, and combines the codes to generate first indexing information.

도 4는 본 발명의 바람직한 실시예에 따라서 제 1 인덱싱 정보를 생성하는 방식을 설명하는 도면이다. 도 4를 참조하여 설명하면, 동영상 제공 장치(200)는 아래의 ① ~ ⑦ 방법들을 이용하여 객체 이미지의 특성을 나타내는 다양한 코드값들을 생성할 수 있고, ① ~ ⑦ 방법들 중 적어도 2개의 방법을 이용하여 생성된 코드값들을 조합하여 제 1 인덱싱 정보를 생성할 수 있다.4 is a view for explaining a method of generating first indexing information according to a preferred embodiment of the present invention. Referring to FIG. 4 , the video providing apparatus 200 may generate various code values representing characteristics of an object image using the following methods ① to ⑦, and use at least two methods among the methods ① to ⑦. The first indexing information may be generated by combining the generated code values.

① 컬러 정보를 이용한 코드 생성① Code generation using color information

동영상 제공 장치(200)는 객체로서 추출된 객체 이미지에 대해서 컬러 히스토그램을 구하고, 컬러 성분의 크기가 가장 큰 것부터(또는 가장 작은 것부터) RGB 성분을 나타내는 번호를 순차적으로 결합하여 3자리수의 코드를 생성한다. 예컨대, 도 4에 도시된 객체 이미지에 대해서 컬러 히스토그램을 구하면, (R,G,B)=(35.75,81.77,45.81)와 같고, (R,G,B) 각각의 코드번호를 (1,2,3)으로 부여하여, 컬러히스토그램의 컬러 성분의 크기에 따라서 순차적으로 코드를 배열하면 2(G),3(B),1(R)이 된다. 따라서, 컬러정보를 이용한 코드는 231 이 생성된다.The video providing device 200 obtains a color histogram for the object image extracted as an object, and sequentially combines the numbers representing the RGB components from the largest (or smallest) color component to generate a 3-digit code. do. For example, if a color histogram is obtained for the object image shown in Fig. 4, (R, G, B) = (35.75, 81.77, 45.81), and (R, G, B) code numbers of each are (1,2) ,3) and arranging the codes sequentially according to the size of the color components of the color histogram, it becomes 2(G), 3(B), 1(R). Accordingly, 231 is generated as a code using color information.

② 객체의 기울기를 이용한 코드 생성② Code generation using object gradient

동영상 제공 장치(200)는 객체로서 추출된 객체 이미지의 기울기에 따라서 1자리수의 코드를 생성한다. 예컨대, 도 4의 (a) 에 도시된 객체 이미지에 대해서 기울기를 구하면 우하향하는 것을 알 수 있고, 이에 대응되는 코드 0을 생성한다. 참고로, 객체의 기울기가 우상향하는 경우에는 코드 1이 생성된다.The video providing apparatus 200 generates a one-digit code according to the inclination of the object image extracted as an object. For example, when the gradient of the object image shown in FIG. 4(a) is obtained, it can be seen that the object image moves downward, and a corresponding code 0 is generated. For reference, code 1 is generated when the gradient of the object is upward.

③ 객체의 가로 대 세로 비율에 따른 코드 생성③ Code generation according to the aspect ratio of the object

동영상 제공 장치(200)는 객체로서 추출된 객체 이미지의 가로 대 세로 비율에 따라서 1자리수의 코드를 생성한다. 예컨대, 도 4의 (b) 에 도시된 객체 이미지에 대해서 객체에 접하는 외접 사각형을 그리고, 가로의 길이보다 세로의 길이가 더 길므로 코드 1을 생성하였다. 만약, 가로의 길이보다 세로의 길이가 더 짧으면 코드 0을 생성한다.The video providing apparatus 200 generates a one-digit code according to the aspect ratio of the object image extracted as an object. For example, with respect to the object image shown in (b) of FIG. 4 , a circumscribed rectangle is drawn in contact with the object, and since the vertical length is longer than the horizontal length, code 1 is generated. If the vertical length is shorter than the horizontal length, code 0 is generated.

④ 객체의 외접 사각형에 대한 면적 비율에 따른 코드 생성④ Code generation according to the ratio of the area to the circumscribed rectangle of the object

동영상 제공 장치(200)는 객체로서 추출된 객체 이미지가 외접 사각형에 대해서 차지하는 면적 비율에 따라서 1자리수의 코드를 생성한다. 예컨대, 도 4의 (b) 에 도시된 객체 이미지에 대해서 객체에 접하는 외접 사각형을 그리고, 외접 사각형의 면적이 10이라고 할 때, 객체가 차지하는 비율은 4이므로, 코드 4가 생성된다.The video providing apparatus 200 generates a one-digit code according to the ratio of the area occupied by the object image extracted as an object to the circumscribed rectangle. For example, when a circumscribed rectangle adjoining the object is drawn with respect to the object image shown in FIG.

⑤ 객체의 외접 타원에 대한 면적 비율에 따른 코드 생성⑤ Code generation according to the ratio of area to circumscribed ellipse of object

상기한 ④ 와 유사한 방식으로, 동영상 제공 장치(200)는 객체로서 추출된 객체 이미지가 외접 타원에 대해서 차지하는 면적 비율에 따라서 1자리수의 코드를 생성한다. 예컨대, 도 4에 도시된 객체에 대해서 객체에 접하는 외접 타원을 그리고, 외접 타원의 면적이 10이라고 할 때, 객체가 차지하는 비율은 6이면, 코드 6이 생성된다.In a manner similar to ④ above, the video providing apparatus 200 generates a one-digit code according to the area ratio occupied by the object image extracted as an object with respect to the circumscribed ellipse. For example, when a circumscribed ellipse is drawn with respect to the object shown in FIG. 4 and the area of the circumscribed ellipse is 10, if the proportion of the object is 6, code 6 is generated.

⑥ 최말단 점들간의 기울기를 이용한 코드 생성⑥ Code generation using the slope between the extreme points

동영상 제공 장치(200)는 추출된 객체 이미지의 상,하,좌,우 최말단 점들간의 기울기를 이용하여 4자리수의 코드를 생성한다. 예컨대, 도 4의 (c) 에 도시된 객체 이미지에 대해서 객체의 최말단 점들(A,B,C,D)를 구하고, 점 A와 B를 연결하는 선분(AB)의 기울기가 우상향하므로 1을 코드값으로 부여한다. 마찬가지로, 점 B와 C를 연결하는 선분(BC)의 기울기는 우하향하므로 0을 코드값으로 부여한다. 동일한 방식으로 CD = 1, DA = 0을 코드값으로 부여한다. 이들 코드값을 연결하면, 4자리수 코드 1010 이 생성된다.The video providing apparatus 200 generates a 4-digit code by using the inclination between the upper, lower, left, and rightmost points of the extracted object image. For example, for the object image shown in (c) of FIG. 4, the most distal points (A, B, C, D) of the object are obtained, and the slope of the line segment (AB) connecting the points A and B is set to 1 because the slope is upward. It is given as a code value. Similarly, since the slope of the line segment BC connecting the points B and C is downward sloping, 0 is assigned as a code value. In the same way, CD = 1 and DA = 0 are assigned as code values. By concatenating these code values, a 4-digit code 1010 is generated.

⑦ 객체 인식 결과를 이용한 코드 생성⑦ Code generation using object recognition result

동영상 제공 장치(200)는 추출된 객체 이미지를 인공 지능 엔진에 입력하여 해당 이미지의 인식 결과값을 이용하여 코드를 생성한다. 예컨대, 도 4의 객체 이미지를 80개의 객체를 인식할 수 있는 PreTrained 모델에 입력하면 그 결과는 사람으로 인식되고, 이에 따라서 인식 결과값인 00 이 코드로서 생성된다. 참고로, 해당 모델은 강아지에 대해서는 09, 의자는 73 의 인식 결과값을 출력한다. 다만, 이 때 이용되는 인식 모델은 저장되는 동영상 데이터를 인식할 때와, 사용자 단말(100)로부터 수신된 이미지를 인식할 때 동일한 것을 이용해야 한다. The video providing apparatus 200 inputs the extracted object image to the artificial intelligence engine and generates a code using the recognition result value of the image. For example, if the object image of FIG. 4 is input into the PreTrained model capable of recognizing 80 objects, the result is recognized as a person, and accordingly, 00, which is a recognition result value, is generated as a code. For reference, the model outputs a recognition result value of 09 for a puppy and 73 for a chair. However, the recognition model used at this time should use the same when recognizing the stored video data and when recognizing the image received from the user terminal 100 .

상술한 바와 같이, 동영상 제공 장치(200)는 상기한 ① ~ ⑦을 이용하여 생성한 코드값들 중 적어도 2개 이상을 조합하여 제 1 인덱싱 정보를 생성할 수 있는데, 예컨대, 본 발명의 바람직한 실시예에서는, 상술한 ① ~ ⑦의 방법을 이용하여 생성된 코드들을 모두 순차적으로 결합하여 [231 0 1 4 6 1010 00] 을 제 1 인덱싱 정보로서 생성하였다. 이 때, ① ~ ⑦ 의 방법들 중 3개, 4개, 5개 등을 이용하여 생성된 코드값들을 사전에 정의된 순서대로 조합하여 제 1 인덱싱 정보를 생성할 수도 있음은 물론이다.As described above, the video providing apparatus 200 may generate the first indexing information by combining at least two or more of the code values generated using ① to ⑦. For example, a preferred embodiment of the present invention In the example, [231 0 1 4 6 1010 00] was generated as the first indexing information by sequentially combining all the codes generated using the above-described methods ① to ⑦. In this case, it goes without saying that the first indexing information may be generated by combining the code values generated by using 3, 4, 5, etc. among the methods of ① to ⑦ in a predefined order.

한편, 동영상 제공 장치(200)는 도 3에서와 같이 추출된 각 객체마다 객체의 형상 특징을 나타내는 제 2 인덱싱 정보를 생성한다. 도 5에 도시된 바와 같이, 본 발명의 바람직한 실시예에서는 동영상 제공 장치(200)는 제 2 인덱싱 정보로서 각 객체의 푸리에 디스크립터(Fourier descriptor)를 생성하는데, 푸리에 디스크립터는 평면상의 곡선을 주파수 영역에서 기술하는 방법으로서 푸리에 디스크립터 자체는 공지된 기술이므로 구체적인 설명은 생략한다.Meanwhile, the video providing apparatus 200 generates second indexing information indicating the shape characteristics of the object for each extracted object as shown in FIG. 3 . As shown in FIG. 5 , in a preferred embodiment of the present invention, the video providing apparatus 200 generates a Fourier descriptor of each object as the second indexing information. The Fourier descriptor converts a curve on a plane in the frequency domain. As a description method, since the Fourier descriptor itself is a known technology, a detailed description thereof will be omitted.

마지막으로, 동영상 제공 장치(200)는 제 S210 단계에서, 객체 이미지에 포함된 각 화소값들과 주변 화소값들과의 관계를 나타내는 제 3 인덱싱 정보를 생성한다. Finally, in operation S210 , the video providing apparatus 200 generates third indexing information indicating a relationship between each pixel value included in the object image and neighboring pixel values.

도 6은 본 발명의 바람직한 실시예에 따라서 동영상 제공 장치(200)가 제 3 인덱싱 정보를 생성하는 과정을 설명하는 도면이다.6 is a diagram for explaining a process in which the video providing apparatus 200 generates third indexing information according to a preferred embodiment of the present invention.

도 6을 참조하여 예시적으로 설명하면, 동영상 제공 장치(200)는 동영상 이미지에서 추출된 각 객체를 사전에 정의된 사이즈의 영상으로 정규화한다. 도 6 에 도시된, 본 발명의 바람직한 실시예에서, 동영상 제공 장치(200)는 추출된 객체 이미지를 32*40 크기의 영상으로 정규화를 하였으나, 정규화된 이미지의 크기는 실시예에 따라서 변경이 가능하다. Referring to FIG. 6 as an example, the video providing apparatus 200 normalizes each object extracted from the video image to an image of a predefined size. 6 , in a preferred embodiment of the present invention, the video providing apparatus 200 normalized the extracted object image to an image having a size of 32*40, but the size of the normalized image can be changed according to embodiments. do.

그 후, 동영상 제공 장치(200)는 정규화된 객체 이미지(601)의 각 화소의 화소값을 주변 8개 화소들의 값들과 비교하여, 비교 결과에 따라서 해당 화소에 대한 인덱싱 화소값을 부여함으로써 제 3 인덱싱 정보(인덱싱 이미지)를 생성한다.Thereafter, the video providing apparatus 200 compares the pixel value of each pixel of the normalized object image 601 with the values of eight surrounding pixels, and assigns an indexing pixel value to the corresponding pixel according to the comparison result. Create indexing information (indexing image).

도 6에 도시된 예에서, 익덱싱 화소값을 부여할 화소의 원래 화소값이 163 이라고 할 때(도면부호 602 참조), 해당 화소값을 주변의 8개 화소들의 화소값들(194,183,173,142,114,167,191,191)과 순차적으로 비교하여 주변 화소값이 더 크면 해당 주변 화소에 1을 부여하고, 주변 화소값이 더 작으면 해당 주변 화소에 0을 부여한다(도면부호 603 참조). 도 6에 도시된 예에서, 주변 8개 화소들에 부여된 값은 1,1,1,0,0,1,1,1 이고, 이를 연결하여 8비트로 표현하면 11100111=233이 된다. 동영상 제공 장치(200)는 이렇게 구해진 값 233을 해당 화소의 인덱싱 화소값으로 부여한다(도면부호 604 참조). In the example shown in FIG. 6 , when the original pixel value of the pixel to which the indexing pixel value is to be assigned is 163 (refer to reference numeral 602), the pixel value is sequentially set with the pixel values 194,183,173,142,114,167,191,191 of 8 surrounding pixels. , if the value of the neighboring pixel is larger, 1 is assigned to the neighboring pixel, and if the value of the neighboring pixel is smaller, 0 is assigned to the neighboring pixel (refer to reference numeral 603). In the example shown in FIG. 6 , the values given to the surrounding 8 pixels are 1,1,1,0,0,1,1,1, and when expressed in 8 bits by connecting them, 11100111=233. The video providing apparatus 200 assigns the thus obtained value 233 as an indexing pixel value of the corresponding pixel (refer to reference numeral 604).

이와 동일한 방식으로 정규화된 모든 화소들에 대해서 인덱싱 화소값을 부여하면, 도 6의 도면부호 605에 도시된 바와 같은 제 3 인덱싱 정보(인덱싱 이미지)가 생성된다. 도 6은 도 4에서 제 1 인덱싱 정보 생성에 이용된 객체 이미지에 대해서 생성된 제 3 인덱싱 정보를 도시한다.When indexing pixel values are assigned to all pixels normalized in the same way, third indexing information (indexing image) as shown in reference numeral 605 of FIG. 6 is generated. FIG. 6 illustrates third indexing information generated with respect to the object image used to generate the first indexing information in FIG. 4 .

한편, 도 7a 및 도 7b를 참조하여, 후술하는 제 S240 단계에서, 상기한 제 3 인덱싱 정보(인덱싱 이미지)를 다른 제 3 인덱싱 정보(인덱싱 이미지) 또는 제 3 검색 정보와 비교하여 일치도를 측정하는 과정을 먼저 설명하면, 제 3 인덱싱 정보(인덱싱 이미지)(A)와 제 3 인덱싱 정보(인덱싱 이미지)(B) 는 그 크기가 정규화되어 있으므로, 서로 대응되는 화소가 존재하고, 각 화소의 화소값은 사전에 정의된 비트수(도 7a의 경우 8비트)로 구성된다. Meanwhile, with reference to FIGS. 7A and 7B, in step S240 to be described later, the third indexing information (indexing image) is compared with other third indexing information (indexing image) or third search information to measure the degree of matching First, explaining the process, since the sizes of the third indexing information (indexing image) (A) and the third indexing information (indexing image) (B) are normalized, there are pixels corresponding to each other, and the pixel value of each pixel is composed of a predefined number of bits (8 bits in the case of FIG. 7A).

이에, 동영상 제공 장치(200)는 각 비트별로 대응되는 화소값을 비교하여, 사전에 정의된 수의 화소값이 일치하면 해당 화소가 상호 일치하는 것으로 판단하고(도 7a 참조), 전체 화소수에서 상호 일치되는 화소수가 사전에 정의된 임계 비율 이상이면 서로 비교되는 이미지가 동일한 이미지라고 판단하고, 임계 비율 미만이면 서로 다른 이미지로 판단한다(도 7b 참조).Accordingly, the video providing apparatus 200 compares the pixel values corresponding to each bit, and if a predefined number of pixel values match, it is determined that the corresponding pixels match each other (refer to FIG. 7A ), and in the total number of pixels If the number of pixels matched with each other is greater than or equal to a predefined threshold ratio, it is determined that the images compared to each other are the same image, and if the number of pixels is less than the threshold ratio, it is determined that they are different images (see FIG. 7B ).

본 발명의 바람직한 실시예에서는 화소값을 나타내는 8비트 6개 이상의 비트값이 일치해야 상호 일치하는 화소로 판단하므, 도 7a에 도시된 예는 상호 불일치하는 화소에 해당한다.In a preferred embodiment of the present invention, since the pixel is determined to be a mutually identical pixel when 6 or more bit values of 8 bits representing a pixel value match, the example shown in FIG. 7A corresponds to a pixel that does not match with each other.

또한, 본 발명의 바람직한 실시예에서는 전체 화소들 중에서 90% 이상이 일치해야 동일한 이미지라고 판단하므로, 도 7b에 도시된 예에서 일치도가 30%인 이미지들은 상호 불일치하고, 일치도가 100%인 이미지들이 상호 일치하는 것으로 판정된다. In addition, in the preferred embodiment of the present invention, since 90% or more of all pixels are judged to be the same image, images with a degree of agreement of 30% in the example shown in FIG. 7B do not match each other, and images with a degree of agreement of 100% are judged to be consistent with each other.

다시 도 2를 참조하면, 상술한 과정을 수행하여 동영상의 주요 장면에 포함된 객체에 대해서 인덱싱 정보가 생성되면, 객체 식별 정보를 인덱싱 정보에 따라서 분류하여 동영상 데이터와 상호 연계하여 저장한다(S220). Referring back to FIG. 2 , when indexing information is generated for an object included in a main scene of a video by performing the above-described process, object identification information is classified according to the indexing information and stored in correlation with video data (S220) .

도 8은 본 발명의 바람직한 실시예에 따른 인덱싱 정보에 따라서 객체 식별 정보가 저장된 일 예를 도시한 도면이다. 도 8을 참조하면, 각 객체에 대한 객체 식별 정보는 먼저 제 1 인덱싱 정보에 따라서 분류되어 있다. 동영상 제공 장치(200)는 제 1 인덱싱 정보가 동일한 객체 식별 정보들을 하나의 분류로 정의할 수도 있고, 제 1 인덱싱 정보의 값들이 유사한 정보들을 하나의 분류로 정의할 수도 있다. 도 8에 도시된 예에서, 본 발명의 바람직한 실시예는 제 1 인덱싱 정보가 동일한 객체 식별 정보들을 1차로 분류하였다. 8 is a diagram illustrating an example in which object identification information is stored according to indexing information according to a preferred embodiment of the present invention. Referring to FIG. 8 , object identification information for each object is first classified according to first indexing information. The video providing apparatus 200 may define object identification information having the same first indexing information as one classification, and may define information having similar values of the first indexing information as one classification. In the example shown in FIG. 8 , in a preferred embodiment of the present invention, object identification information having the same first indexing information is primarily classified.

그 후, 동영상 제공 장치(200)는 제 1 인덱싱 정보에 따라서 1차 분류된 객체 식별 정보들을, 제 2 인덱싱 정보에 따라서 2차로 분류한다. 본 발명의 바람직한 실시예에서, 제 2 인덱싱 정보로서 푸리에 디스크립터를 이용하였고, 객체 식별 정보들 중 푸리에 디스크립터의 파형이 유사한 정보들이 동일한 그룹에 속하도록 객체 식별 정보들 그룹핑하여 분류를 실시하였다.Thereafter, the video providing apparatus 200 classifies the object identification information first classified according to the first indexing information, and secondarily classifies the object identification information according to the second indexing information. In a preferred embodiment of the present invention, a Fourier descriptor is used as the second indexing information, and the object identification information is grouped and classified so that information having a similar waveform of the Fourier descriptor among the object identification information belongs to the same group.

마지막으로, 제 2 인덱싱 정보에 따라서 분류된 각 그룹마다, 제 3 인덱싱 정보가 저장되고, 이와 연계하여 대응되는 객체 식별 정보가 저장된다. 제 3 인덱싱 정보와 연계되어 저장되는 객체 식별 정보는 복수의 필드를 포함하는데, 기본적으로 해당 객체가 포함되는 동영상 식별 정보(예컨대, 동영상 파일명, 동영상 코드, 동영상 일련번호 등)와 해당 객체가 표시되는 동영상 내 시간 정보를 포함한다. 또한, 객체 식별 정보는 동영상 식별 정보 및 시간 정보 외에 제 1 인덱싱 정보, 객체 정보(사람, 자동차, 의자 등) 등을 더 포함할 수 있다.Finally, for each group classified according to the second indexing information, third indexing information is stored, and object identification information corresponding thereto is stored. The object identification information stored in association with the third indexing information includes a plurality of fields. Basically, the video identification information (eg, video file name, video code, video serial number, etc.) including the corresponding object and the corresponding object are displayed. Include time information in the video. In addition, the object identification information may further include first indexing information and object information (person, car, chair, etc.) in addition to video identification information and time information.

도 8에 도시된 예에서, 객체 식별 정보는 제 1 인덱싱 정보, 객체 정보, 동영상 식별 정보, 시간 정보가 순차적으로 결합되어, 제 3 인덱싱 정보와 연계되어 저장되어 있다. In the example shown in FIG. 8 , the object identification information is stored in association with the third indexing information by sequentially combining first indexing information, object information, video identification information, and time information.

지금까지 설명한 제 S210 단계 및 제 S220 단계는 새로운 동영상이 저장장치에 추가로 저장될 때마다 수행된다.Steps S210 and S220 described so far are performed whenever a new video is additionally stored in the storage device.

한편, 사용자가 사용자 단말(100)을 이용하여 동영상에서 캡쳐된 이미지를 확인하고, 이에 대응되는 동영상을 열람하고자 해당 이미지(검색 이미지)를 동영상 제공 장치(200)로 전송하면, 이를 동영상 제공 장치(200)가 수신하고, 동영상 제공 장치(200)는 검색 이미지로부터 객체를 추출한 후, 추출된 각 객체에 대한 검색 정보를 생성한다(S230).On the other hand, when the user checks the image captured from the video using the user terminal 100 and transmits the image (search image) to the video providing device 200 to view the video corresponding thereto, it is transmitted to the video providing device ( 200), the video providing apparatus 200 extracts an object from the search image, and then generates search information for each extracted object (S230).

각 객체에 대한 검색 정보는 제 S210 단계에서 생성된 인덱싱 정보와 실질적으로 동일한 것으로서, 검색 정보는 제 1 검색 정보 내지 제 3 검색 정보로 구성되고, 이들은 제 S210 단계에서 설명한 제 1 인덱싱 정보 내지 제 3 인덱싱 정보와 각각 동일한 방식으로 생성되며, 그 구성도 동일하므로 구체적인 설명은 생략한다.The search information for each object is substantially the same as the indexing information generated in step S210, and the search information consists of first to third search information, which are the first to third indexing information described in step S210. Each of the indexing information is generated in the same manner, and the configuration thereof is also the same, so a detailed description thereof will be omitted.

각 객체에 대한 검색 정보가 생성된 후, 동영상 제공 장치(200)는 각 검색 정보에 대응되는 인덱싱 정보를 검색하여, 사용자가 요청한 이미지에 대응되는 동영상 및 해당 이미지가 재생되는 시간 정보를 확인한다(S240).After the search information for each object is generated, the video providing apparatus 200 searches for indexing information corresponding to each search information, and checks the video corresponding to the image requested by the user and the time information at which the image is played ( S240).

제 S240 단계에 대해서 보다 구체적으로 설명하면, 먼저, 동영상 제공 장치(200)는 제 1 검색 정보를 저장 장치(220)에 저장된 제 1 인덱싱 정보들과 비교하여, 제 1 검색 정보와 동일하거나 대응되는 제 1 인덱싱 정보들로 분류된 객체 식별 정보들을 선별한다. To describe step S240 in more detail, first, the video providing device 200 compares the first search information with the first indexing information stored in the storage device 220, and is the same as or corresponding to the first search information. The object identification information classified into the first indexing information is selected.

예컨대, 도 8에 도시된 예에서, 제 S230 단계에서 생성된 제 1 검색 정보가 0100010221057 이라면, 동영상 제공 장치(200)는 저장 장치에 저장된 객체 식별 정보들 중 제 1 인덱싱 정보가 0100010221057 로 분류된 객체 식별 정보들을 선별한다.For example, in the example shown in FIG. 8 , if the first search information generated in step S230 is 0100010221057, the video providing apparatus 200 is an object in which the first indexing information among the object identification information stored in the storage device is classified as 0100010221057 Identification information is selected.

그 후, 동영상 제공 장치(200)는 제 2 검색 정보인 푸리에 디스크립터와 동일 또는 가장 유사한 파형을 나타내는 제 2 인덱싱 정보를 검색하고, 검색된 제 2 인덱싱 정보로 분류된 객체 식별 정보들을 2차로 선별한다.Thereafter, the video providing apparatus 200 searches for second indexing information indicating the same or most similar waveform to the Fourier descriptor as the second search information, and secondarily selects object identification information classified as the searched second indexing information.

마지막으로, 동영상 제공 장치(200)는 2차로 선별된 객체 식별 정보들 중에서, 제 3 검색 정보와 일치하거나 대응되는 제 3 인덱싱 정보를 검색한다. 상술한 바와 같이, 제 3 인덱싱 정보와 제 3 검색 정보는 사전에 정의된 사이즈의 이미지로 구현되고, 제 3 인덱싱 정보와 제 3 검색 정보를 서로 대응되는 화소끼리 비교하여 일치 여부를 판정한다. Finally, the video providing apparatus 200 searches for third indexing information that matches or corresponds to the third search information from among the secondarily selected object identification information. As described above, the third indexing information and the third search information are implemented as images of a predefined size, and the third indexing information and the third search information are compared between corresponding pixels to determine whether they match.

본 발명의 바람직한 실시예에서, 제 3 인덱싱 정보와 제 3 검색 정보는 32*40 크기의 이미지로서 각 화소는 8비트로 구현되고, 각 화소값의 서로 대응되는 비트끼리 비교하여 8비트 중 6개 이상의 비트가 일치하면 서로 동일한 비트로 판단하고, 동일한 비트로 판단된 화소의 수가 사전에 정의된 비율(예컨대, 90%)을 초과하면 제 3 검색 정보와 제 3 인덱싱 정보는 동일한 것으로 판단한다. 제 3 검색 정보와 제 3 인덱싱 정보의 대응 여부를 판단하는 방식은, 도 7a 및 도 7b를 참조하여 설명한 바와 같다.In a preferred embodiment of the present invention, the third indexing information and the third search information are images of a size of 32*40, each pixel is implemented with 8 bits, and 6 or more of the 8 bits are compared between the corresponding bits of each pixel value. If the bits match, it is determined as the same bit, and when the number of pixels determined as the same bit exceeds a predefined ratio (eg, 90%), the third search information and the third indexing information are determined to be the same. A method of determining whether the third search information and the third indexing information correspond is the same as described with reference to FIGS. 7A and 7B .

제 S240 단계를 수행하여, 검색 정보에 대응되는 인덱싱 정보가 존재하지 않으면, 동영상 제공 장치(200)는 사용자 단말(100)이 요청한 동영상이 존재하지 않음을 사용자 단말(100)로 통지한다(S250,S260).If indexing information corresponding to the search information does not exist by performing step S240, the video providing apparatus 200 notifies the user terminal 100 that the video requested by the user terminal 100 does not exist (S250, S260).

한편, 제 3 검색 정보와 대응되는 제 3 인덱싱 정보가 존재하면, 동영상 제공 장치(200)는 해당 인덱싱 정보에 대응되는 객체 식별 정보에 포함된 동영상 데이터를 확인하고, 시간 정보가 나타내는 시간부터 해당 동영상 데이터를 사용자 단말(100)에서 재생될 수 있도록 스트리밍 방식 또는 다운로드 방식으로 사용자 단말(100)로 동영상을 제공한다(S270).On the other hand, if the third indexing information corresponding to the third search information exists, the video providing apparatus 200 checks the video data included in the object identification information corresponding to the indexing information, and starts the corresponding video from the time indicated by the time information. A video is provided to the user terminal 100 in a streaming method or a download method so that the data can be reproduced in the user terminal 100 (S270).

사용자 단말(100)이 요청한 이미지에 포함된 객체가 복수인 경우, 각 객체마다 상술한 제 S240 단계가 수행되는데, 대다수의 경우, 각 객체에 대해서 검색된 동영상 식별 정보가 나타내는 동영상과 시간 정보는 일치하게 된다. 그러나, 복수의 객체에 대해서 검색된 동영상과 시간 정보가 서로 다른 경우에는, 더 많은 객체의 검색 결과에 대응되는 동영상을 선정한다. 예컨대, 요청 이미지에서 추출된 3개의 객체 중 2개의 객체는 동영상 A 에 대응되고 1개의 객체는 동영상 B 에 대응되면 동영상 A가 사용자 단말(100)이 요청한 동영상이라고 판단한다. 만약, 복수의 객체 모두 서로 다른 동영상에 대응되는 것으로 판정되면, 동영상 제공 장치(200)는 제 3 검색 정보와 제 3 인덱싱 정보의 일치율이 가장 높은 객체를 기준으로 일치되는 동영상을 판정한다. When there are a plurality of objects included in the image requested by the user terminal 100, the above-described step S240 is performed for each object, in most cases, the video and time information indicated by the video identification information searched for each object match do. However, when the video and time information searched for a plurality of objects are different from each other, a video corresponding to a search result of more objects is selected. For example, if two of the three objects extracted from the requested image correspond to the video A and one object corresponds to the video B, it is determined that the video A is the video requested by the user terminal 100 . If it is determined that all of the plurality of objects correspond to different videos, the video providing apparatus 200 determines the matching video based on the object having the highest matching rate between the third search information and the third indexing information.

지금까지 설명한 본 발명의 바람직한 실시예에 따른, 동영상 제공 방법은, 컴퓨터에서 실행가능한 명령어로 구현되어 비일시적 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The video providing method according to the preferred embodiment of the present invention described so far may be implemented as a computer program stored in a non-transitory storage medium by being implemented as instructions executable by a computer.

저장매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 저장매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The storage medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable storage media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable storage medium is distributed in network-connected computer systems, and computer-readable codes can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, with respect to the present invention, the preferred embodiments have been looked at. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

100 : 사용자 단말
200 : 동영상 제공 장치
210 : 프로세서
220 : 저장 장치
230 : 입력부
240 : 출력부
100: user terminal
200: video providing device
210: processor
220: storage device
230: input unit
240: output unit

Claims (14)

삭제delete (a) 동영상 제공 장치가 복수의 동영상들에 대해서, 각 동영상의 장면마다 표시되는 객체들 각각에 대한 객체 식별 정보(해당 객체가 포함된 동영상 식별 정보 및 해당 객체가 표시되는 시간 정보를 포함함) 및 인덱싱 정보를 생성하는 단계;
(b) 상기 동영상 제공 장치가 상기 객체 식별 정보들 및 상기 인덱싱 정보들을 동영상 데이터와 상호 연계시켜 저장하는 단계;
(c) 상기 동영상 제공 장치가 사용자 단말로부터 요청 이미지를 수신하면, 상기 요청 이미지로부터 객체를 추출한 후, 추출된 각 객체에 대해서 상기 인덱싱 정보와 동일한 방식으로 검색 정보를 생성하는 단계;
(d) 상기 동영상 제공 장치가 상기 검색 정보에 대응되는 인덱싱 정보 및 인덱싱 정보에 대응되는 객체 식별 정보를 검색하여, 상기 요청 이미지에 대응되는 동영상 및 요청 이미지가 재생되는 시간 정보를 확인하는 단계; 및
(e) 상기 동영상 제공 장치가 상기 요청 이미지에 대응되는 동영상이 상기 시간 정보에 대응되는 시간부터 재생될 수 있도록 동영상 데이터를 상기 사용자 단말로 제공하는 단계를 포함하고,
상기 (a) 단계의 상기 인덱싱 정보는 다음의 ① 내지 ④ 에 의해서 생성된 코드들 중
① 객체 이미지에 대한 컬러히스토그램을 구하고, 컬러성분의 크기에 따라서 순차적으로 컬러 성분을 나타내는 번호를 결합하여 생성된 코드
② 상기 객체 이미지에 접하는 외접 타원에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드
③ 상기 객체 이미지의 가로 대 세로 비율에 따라서 부여된 코드
④ 상기 객체 이미지에 접하는 외접 사각형에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드
둘 이상을 조합하여 생성되는 제 1 인덱싱 정보를 포함하는 것을 특징으로 하는 동영상 제공 방법.
(a) object identification information for each of the objects displayed for each scene of each video by the video providing device for a plurality of videos (including video identification information including the corresponding object and time information at which the object is displayed) and generating indexing information;
(b) storing, by the video providing device, the object identification information and the indexing information in correlation with video data;
(c) when the video providing apparatus receives the requested image from the user terminal, extracting an object from the requested image, and then generating search information for each extracted object in the same manner as the indexing information;
(d) checking, by the video providing apparatus, indexing information corresponding to the search information and object identification information corresponding to the indexing information, and checking time information at which the video corresponding to the requested image and the requested image are reproduced; and
(e) providing, by the video providing device, video data to the user terminal so that the video corresponding to the requested image can be played from the time corresponding to the time information,
The indexing information of step (a) is among the codes generated by the following ① to ④
① A code generated by obtaining a color histogram for an object image and sequentially combining numbers representing color components according to the size of the color components.
② Code assigned according to the ratio of the area of the object image to the circumscribed ellipse tangent to the object image
③ Code assigned according to the aspect ratio of the object image
④ Code assigned according to the ratio of the area of the object image to the circumscribed rectangle touching the object image
A method for providing a video, characterized in that it includes first indexing information generated by combining two or more.
제 2 항에 있어서,
상기 제 1 인덱싱 정보는 상기 ① 내지 ④ 및 다음의 ⑤ 내지 ⑦ 에 의해서 생성된 코드들 중
⑤ 상기 객체 이미지의 기울기에 따라서 부여된 코드
⑥ 객체 이미지의 최말단 점들간의 기울기를 이용하여 부여된 코드
⑦ 객체 인식 결과를 이용하여 부여된 코드
둘 이상을 조합하여 생성되는 것을 특징으로 하는 동영상 제공 방법.
3. The method of claim 2,
The first indexing information is among the codes generated by ① to ④ and the following ⑤ to ⑦
⑤ Code assigned according to the gradient of the object image
⑥ Code assigned using the gradient between the extreme points of the object image
⑦ Code assigned using the object recognition result
A method of providing a video, characterized in that it is generated by combining two or more.
제 3 항에 있어서, 상기 인덱싱 정보는
상기 객체 이미지에 대해서 생성된 푸리에 디스크립터로 구현되는 제 2 인덱싱 정보를 더 포함하고,
상기 (b) 단계에서, 상기 동영상 제공 장치는 상기 객체 식별 정보를 상기 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 저장하는 것을 특징으로 하는 동영상 제공 방법.
4. The method of claim 3, wherein the indexing information is
Further comprising second indexing information implemented as a Fourier descriptor generated for the object image,
In step (b), the video providing device provides a video characterized in that the object identification information is primarily classified according to the first indexing information, and then classified and stored secondarily according to the second indexing information. Way.
제 4 항에 있어서,
상기 (c) 단계에서, 상기 동영상 제공 장치는 상기 제 1 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보를 생성하고, 상기 제 2 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 2 검색 정보를 생성하며,
상기 (d) 단계에서, 상기 동영상 제공 장치는 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류된 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인하는 것을 특징으로 하는 동영상 제공 방법.
5. The method of claim 4,
In step (c), the video providing device generates first search information for the object extracted from the request image in the same manner as the first indexing information, and the requested image in the same manner as the second indexing information Creates second search information for the extracted object,
In step (d), the video providing apparatus is classified primarily according to the first indexing information corresponding to the first search information, among the object identification information stored in the step (b), and added to the second search information. A video characterized in that the video corresponding to the requested image is checked according to video identification information included in the object identification information classified secondly according to the corresponding second indexing information, and information about the time at which the requested image is displayed is checked How to provide.
제 4 항에 있어서,
상기 인덱싱 정보는 객체 이미지에 포함된 각 화소값들과 주변 화소값들과의 관계를 나타내는 제 3 인덱싱 정보를 더 포함하고,
상기 (b) 단계에서, 상기 동영상 제공 장치는 상기 객체 식별 정보를 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 상기 제 3 인덱싱 정보와 함께 저장하는 것을 특징으로 하는 동영상 제공 방법.
5. The method of claim 4,
The indexing information further includes third indexing information indicating a relationship between each pixel value included in the object image and neighboring pixel values,
In the step (b), the video providing device primarily classifies the object identification information according to the first indexing information, and secondarily classifies it according to the second indexing information and stores it together with the third indexing information A method of providing a video, characterized in that.
제 6 항에 있어서,
상기 (c) 단계에서, 상기 동영상 제공 장치는 상기 제 1 인덱싱 정보, 상기 제 2 인덱싱 정보 및 상기 제 3 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보, 제 2 검색 정보, 및 제 3 검색 정보를 각각 생성하며,
상기 (d) 단계에서, 상기 동영상 제공 장치는 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류되며, 상기 제 3 검색 정보와 상기 제 3 인덱싱 정보가 사전에 정의된 임계 비율 이상으로 일치하는 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인하는 것을 특징으로 하는 동영상 제공 방법.
7. The method of claim 6,
In step (c), the video providing apparatus provides first search information, second search for the object extracted from the requested image in the same manner as the first indexing information, the second indexing information, and the third indexing information. information, and third search information, respectively;
In step (d), the video providing apparatus is classified primarily according to the first indexing information corresponding to the first search information, among the object identification information stored in the step (b), and added to the second search information. Secondary classification is made according to the corresponding second indexing information, and according to the video identification information included in the object identification information in which the third search information and the third indexing information match more than a predefined threshold ratio, the requested image is added to the image. A method of providing a video, characterized in that by checking a corresponding video and checking time information for displaying the requested image.
비일시적 저장매체에 저장되고, 프로세서를 포함하는 컴퓨터에서 실행되어, 상기 제 2 항 내지 제 7 항 중 어느 한 항의 동영상 제공 방법을 수행하는 컴퓨터 프로그램.
A computer program that is stored in a non-transitory storage medium and is executed in a computer including a processor to perform the method for providing a video according to any one of claims 2 to 7.
삭제delete 프로세서 및 소정의 명령어들을 저장하는 저장 장치를 포함하는 동영상 제공 장치로서,
상기 저장 장치에 저장된 명령어들을 실행한 상기 프로세서는
(a) 복수의 동영상들에 대해서, 각 동영상의 장면마다 표시되는 객체들 각각에 대한 객체 식별 정보(해당 객체가 포함된 동영상 식별 정보 및 해당 객체가 표시되는 시간 정보를 포함함) 및 인덱싱 정보를 생성하는 단계;
(b) 상기 객체 식별 정보들 및 상기 인덱싱 정보들을 동영상 데이터와 상호 연계시켜 저장하는 단계;
(c) 사용자 단말로부터 요청 이미지를 수신하면, 상기 요청 이미지로부터 객체를 추출한 후, 추출된 각 객체에 대해서 상기 인덱싱 정보와 동일한 방식으로 검색 정보를 생성하는 단계;
(d) 상기 검색 정보에 대응되는 인덱싱 정보 및 인덱싱 정보에 대응되는 객체 식별 정보를 검색하여, 상기 요청 이미지에 대응되는 동영상 및 요청 이미지가 재생되는 시간 정보를 확인하는 단계; 및
(e) 상기 요청 이미지에 대응되는 동영상이 상기 시간 정보에 대응되는 시간부터 재생될 수 있도록 동영상 데이터를 상기 사용자 단말로 제공하는 단계를 수행하여 동영상 제공 방법을 수행하고,
상기 (a) 단계의 상기 인덱싱 정보는 다음의 ① 내지 ④ 에 의해서 생성된 코드들 중
① 객체 이미지에 대한 컬러히스토그램을 구하고, 컬러성분의 크기에 따라서 순차적으로 컬러 성분을 나타내는 번호를 결합하여 생성된 코드
② 상기 객체 이미지에 접하는 외접 타원에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드
③ 상기 객체 이미지의 가로 대 세로 비율에 따라서 부여된 코드
④ 상기 객체 이미지에 접하는 외접 사각형에 대한 객체 이미지의 면적 비율에 따라서 부여된 코드
둘 이상을 조합하여 생성되는 제 1 인덱싱 정보를 포함하는 것을 특징으로 하는 동영상 제공 장치.
A video providing device comprising a processor and a storage device for storing predetermined instructions,
The processor executing the instructions stored in the storage device
(a) For a plurality of videos, object identification information (including video identification information including the object and time information at which the object is displayed) and indexing information for each of the objects displayed for each scene of each video generating;
(b) storing the object identification information and the indexing information in association with video data;
(c) upon receiving the requested image from the user terminal, extracting an object from the requested image, and then generating search information for each extracted object in the same manner as the indexing information;
(d) searching for indexing information corresponding to the search information and object identification information corresponding to the indexing information, and checking time information at which a video corresponding to the requested image and the requested image are reproduced; and
(e) performing a video providing method by performing the step of providing video data to the user terminal so that the video corresponding to the requested image can be played from the time corresponding to the time information,
The indexing information of step (a) is among the codes generated by the following ① to ④
① A code generated by obtaining a color histogram for an object image and sequentially combining numbers representing color components according to the size of the color components.
② Code assigned according to the ratio of the area of the object image to the circumscribed ellipse tangent to the object image
③ Code assigned according to the aspect ratio of the object image
④ Code assigned according to the ratio of the area of the object image to the circumscribed rectangle touching the object image
A video providing apparatus, characterized in that it includes first indexing information generated by combining two or more.
제 10 항에 있어서,
상기 제 1 인덱싱 정보는 상기 ① 내지 ④ 및 다음의 ⑤ 내지 ⑦ 에 의해서 생성된 코드들 중
⑤ 상기 객체 이미지의 기울기에 따라서 부여된 코드
⑥ 객체 이미지의 최말단 점들간의 기울기를 이용하여 부여된 코드
⑦ 객체 인식 결과를 이용하여 부여된 코드
둘 이상을 조합하여 생성되는 것을 특징으로 하는 동영상 제공 장치.
11. The method of claim 10,
The first indexing information is among the codes generated by ① to ④ and the following ⑤ to ⑦
⑤ Code assigned according to the gradient of the object image
⑥ Code assigned using the gradient between the extreme points of the object image
⑦ Code assigned using the object recognition result
A video providing device, characterized in that generated by combining two or more.
제 11 항에 있어서,
상기 인덱싱 정보는 상기 객체 이미지에 대해서 생성된 푸리에 디스크립터로 구현되는 제 2 인덱싱 정보를 더 포함하고,
상기 (b) 단계는, 상기 객체 식별 정보를 상기 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 저장하는 것을 특징으로 하는 동영상 제공 장치.
12. The method of claim 11,
The indexing information further includes second indexing information implemented as a Fourier descriptor generated for the object image,
In the step (b), the object identification information is primarily classified according to the first indexing information, and is secondarily classified and stored according to the second indexing information.
제 12 항에 있어서,
상기 (c) 단계는, 상기 제 1 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보를 생성하고, 상기 제 2 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 2 검색 정보를 생성하며,
상기 (d) 단계는, 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류된 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인하는 것을 특징으로 하는 동영상 제공 장치.
13. The method of claim 12,
In the step (c), first search information is generated for the object extracted to the request image in the same manner as the first indexing information, and in the same way as the second indexing information, it is added to the object extracted from the request image. to create second search information for
In step (d), from among the object identification information stored in step (b), first classification is performed according to first indexing information corresponding to the first search information, and second indexing corresponding to the second search information is performed. A video providing apparatus, characterized in that the video corresponding to the requested image is checked according to video identification information included in the object identification information classified secondarily according to the information, and information about a time at which the requested image is displayed is checked.
제 12 항에 있어서,
상기 인덱싱 정보는 객체 이미지에 포함된 각 화소값들과 주변 화소값들과의 관계를 나타내는 제 3 인덱싱 정보를 더 포함하고,
상기 (b) 단계는, 상기 객체 식별 정보를 제 1 인덱싱 정보에 따라서 1차적으로 분류하고, 상기 제 2 인덱싱 정보에 따라서 2차적으로 분류하여 상기 제 3 인덱싱 정보와 함께 저장하며,
상기 (c) 단계는, 상기 제 1 인덱싱 정보, 상기 제 2 인덱싱 정보 및 상기 제 3 인덱싱 정보와 동일한 방식으로 상기 요청 이미지에 추출된 객체에 대해서 제 1 검색 정보, 제 2 검색 정보, 및 제 3 검색 정보를 각각 생성하며,
상기 (d) 단계는, 상기 (b) 단계에서 저장된 객체 식별 정보들 중에서, 상기 제 1 검색 정보에 대응되는 제 1 인덱싱 정보에 따라서 1차로 분류되고, 상기 제 2 검색 정보에 대응되는 제 2 인덱싱 정보에 따라서 2차로 분류되며, 상기 제 3 검색 정보와 상기 제 3 인덱싱 정보가 사전에 정의된 임계 비율 이상으로 일치하는 객체 식별 정보에 포함된 동영상 식별 정보에 따라서 상기 요청 이미지에 대응되는 동영상을 확인하고, 상기 요청 이미지가 표시되는 시간 정보를 확인하는 것을 특징으로 하는 동영상 제공 장치.
13. The method of claim 12,
The indexing information further includes third indexing information indicating a relationship between each pixel value included in the object image and neighboring pixel values,
In the step (b), the object identification information is primarily classified according to the first indexing information, and is secondarily classified according to the second indexing information and stored together with the third indexing information,
In step (c), first search information, second search information, and third Each of the search information is created,
In step (d), from among the object identification information stored in step (b), first classification is performed according to first indexing information corresponding to the first search information, and second indexing corresponding to the second search information is performed. The video is classified according to the information, and the video corresponding to the requested image is identified according to the video identification information included in the object identification information in which the third search information and the third indexing information match more than a predefined threshold ratio. And, the video providing device, characterized in that for checking the information on the display time of the requested image.
KR1020200136947A 2020-10-21 2020-10-21 Method and system for providing video KR102414211B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200136947A KR102414211B1 (en) 2020-10-21 2020-10-21 Method and system for providing video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200136947A KR102414211B1 (en) 2020-10-21 2020-10-21 Method and system for providing video

Publications (2)

Publication Number Publication Date
KR20220052705A KR20220052705A (en) 2022-04-28
KR102414211B1 true KR102414211B1 (en) 2022-06-28

Family

ID=81446752

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200136947A KR102414211B1 (en) 2020-10-21 2020-10-21 Method and system for providing video

Country Status (1)

Country Link
KR (1) KR102414211B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231806A1 (en) * 1999-07-30 2003-12-18 Vlad Troyanker Perceptual similarity image retrieval
KR101602878B1 (en) * 2014-09-26 2016-03-11 삼성전자주식회사 Method and apparatus for processing of image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101462473B1 (en) * 2013-04-05 2014-11-18 주식회사 브이플랩 Search Method by Object Recognition on Image and Search Server thereof
KR102018295B1 (en) * 2017-06-14 2019-09-05 주식회사 핀인사이트 Apparatus, method and computer-readable medium for searching and providing sectional video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231806A1 (en) * 1999-07-30 2003-12-18 Vlad Troyanker Perceptual similarity image retrieval
KR101602878B1 (en) * 2014-09-26 2016-03-11 삼성전자주식회사 Method and apparatus for processing of image

Also Published As

Publication number Publication date
KR20220052705A (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US20230012732A1 (en) Video data processing method and apparatus, device, and medium
CN107534796B (en) Video processing system and digital video distribution system
KR101382499B1 (en) Method for tagging video and apparatus for video player using the same
US8750602B2 (en) Method and system for personalized advertisement push based on user interest learning
US9253511B2 (en) Systems and methods for performing multi-modal video datastream segmentation
US9202523B2 (en) Method and apparatus for providing information related to broadcast programs
US10296534B2 (en) Storing and searching fingerprints derived from media content based on a classification of the media content
CN107846561B (en) Method and system for determining and displaying contextually targeted content
US8929657B2 (en) System and method for indexing object in image
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US20160014482A1 (en) Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
KR20050057578A (en) Commercial recommender
JP2008217428A (en) Image-retrieving program, method, and device
CN110287375B (en) Method and device for determining video tag and server
KR100896336B1 (en) System and Method for related search of moving video based on visual content
CN112000024A (en) Method, device and equipment for controlling household appliance
KR102414211B1 (en) Method and system for providing video
KR102534270B1 (en) Apparatus and method for providing meta-data
US10990456B2 (en) Methods and systems for facilitating application programming interface communications
US11249823B2 (en) Methods and systems for facilitating application programming interface communications
CN111901629A (en) Method and device for generating and playing video stream
KR101330524B1 (en) Method, Terminal, Server and System for Searching Subtitle of Video
KR102636431B1 (en) Method of providing video skip function and apparatus performing thereof
US20070028285A1 (en) Using common-sense knowledge to characterize multimedia content
CN113190710B (en) Semantic video image generation method, semantic video image playing method and related devices

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant