KR20190069136A - Method and system for video retrieval based on image queries - Google Patents

Method and system for video retrieval based on image queries Download PDF

Info

Publication number
KR20190069136A
KR20190069136A KR1020170169547A KR20170169547A KR20190069136A KR 20190069136 A KR20190069136 A KR 20190069136A KR 1020170169547 A KR1020170169547 A KR 1020170169547A KR 20170169547 A KR20170169547 A KR 20170169547A KR 20190069136 A KR20190069136 A KR 20190069136A
Authority
KR
South Korea
Prior art keywords
image
feature information
query
input data
generating
Prior art date
Application number
KR1020170169547A
Other languages
Korean (ko)
Other versions
KR102054211B1 (en
Inventor
이영구
줄리 줄레카
김태연
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020170169547A priority Critical patent/KR102054211B1/en
Publication of KR20190069136A publication Critical patent/KR20190069136A/en
Application granted granted Critical
Publication of KR102054211B1 publication Critical patent/KR102054211B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate

Abstract

The present invention relates to a method for searching for an image based on an image query of a server which comprises: a step (a) of constructing an image feature information database using at least one image data stored in an image database; a step (b) of generating a feature information query using an image query when the image query is received; and a step (c) of searching for image feature information corresponding to the feature information query in the image feature information database. The step (a) includes: a preprocessing step of selecting a preset number of key frames among one or more key frames included in the image data; and a step of extracting a feature information query of input data using the key frames as the input data. The step (b) includes a step of extracting a feature information query of input data using the image query as the input data. The step of extracting the feature information query of the input data includes the steps of: extracting a square block from the input data; generating upper and lower threshold values using an average value of one or more pixel values constituting the block and a preset threshold value; generating upper and lower patterns using the difference between the pixel values of the block and the upper and lower threshold values; and converting the upper and lower patterns into a histogram to extract the feature information query of the input data.

Description

이미지 쿼리 기반의 영상 검색 방법 및 시스템{METHOD AND SYSTEM FOR VIDEO RETRIEVAL BASED ON IMAGE QUERIES}TECHNICAL FIELD [0001] The present invention relates to an image retrieval method and system based on image query,

본 발명은 이미지 쿼리 기반의 영상 검색 방법 및 시스템에 관한 것으로, 보다 구체적으로 영상에서 추출한 이미지를 기반으로 유사한 영상을 검색하는 방법 및 시스템에 관한 것이다.The present invention relates to an image query-based image search method and system, and more particularly, to a method and system for searching similar images based on an image extracted from an image.

증강 현실은 가상 현실의 한 분야로, 실제 환경에 가상의 사물 또는 정보를 합성하여 기존의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법으로, 최근 교육, 네비게이션, 관광, 엔터테인먼트, 전자 상거래, 의료, 건설 등 다양한 분야에서 적용되고 있다. 그 중 모바일에서 구동되는 증강 현실인 e-러닝, 증강 현실 기반 박물관 및 모바일 어플리케이션에 대한 관심이 대두되고 있다. 모바일 증강 현실은 영상을 실시간으로 인식하여 유사한 영상을 검색하는 기술이 중요하다. 이는 영상 데이터베이스에서 인식한 텍스트, 이미지 또는 영상의 쿼리에 기초하여 검색할 수 있다. 그러나 영상 검색 기술에 있어서 가장 널리 사용되는 SIFT(Scale Invariant Feature Transform), HOG(Histogram of Oriented Gradient), Haar, Frens, LBP(Local Binary Pattern), 그리고 MCT(Modified Census Transform)와 같은 특징 추출 알고리즘은 그 복잡성으로 인하여 실시간 환경에 적합하지 않다는 단점이 있다.Augmented reality is a field of virtual reality. It is a computer graphics technique that combines virtual objects or information into actual environments and makes them look like objects existing in the existing environment. Recently, education, navigation, tourism, entertainment, electronic commerce, , And construction. Interest in e-learning, augmented reality-based museums and mobile applications, which are mobile augmented reality, is emerging. It is important for mobile augmented reality to recognize images in real time and search similar images. It can be searched based on a query of text, image or image recognized in the image database. However, feature extraction algorithms such as Scale Invariant Feature Transform (SIFT), Histogram of Oriented Gradient (HOG), Haar, Frens, Local Binary Pattern (LBP), and Modified Census Transform It is not suitable for real-time environment due to its complexity.

영상 검색에 있어서 종래의 기술에는 대한민국 등록특허공보 10-1713189호 비디오 객체 행동 분류를 위한 HOG/HOF 기반 특징정보 추출 방법 및 추출기가 있다. 상기 기술은 HOG 알고리즘을 도입하였는데, HOG 알고리즘의 계산 과정 중 제곱근을 연산하는 단계와 방향 히스토그램의 정규화를 연산하는 단계가 포함되어 계산 속도가 빠르지 않다는 문제점이 있다.Conventional techniques for image retrieval include Korean Patent Registration No. 10-1713189, a HOG / HOF-based feature information extraction method and extractor for video object behavior classification. The above technique introduces the HOG algorithm, which includes a step of calculating the square root of the calculation process of the HOG algorithm and a step of calculating the normalization of the direction histogram, so that the calculation speed is not high.

대한민국 등록특허공보 10-1713189호(2017년 02월 28일)Korean Registered Patent No. 10-1713189 (Feb. 28, 2017)

본 발명은 전술한 문제를 해결하기 위한 것으로, 영상에서 추출한 상위 프레임을 이용하여 영상 처리에 소모되는 메모리와 계산 속도를 감소시켜 효율성을 향상시키는 것을 일 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to improve efficiency by reducing memory and calculation speed consumed in image processing using an upper frame extracted from an image.

또한 본 발명은 영상 처리에 사용되는 연산을 간소화함으로써 영상 처리에 소요되는 시간을 단축시키면서도 일정 수준 이상의 검색 정확도를 확보하는 것을 일 목적으로 한다. Another object of the present invention is to shorten the time required for image processing by simplifying the operations used in the image processing and to secure a search accuracy higher than a certain level.

또한 본 발명은 임계 값을 이용하여 생성한 히스토그램으로 유사 영상을 검색하여 처리 속도를 감소시켜 효율성을 향상시키는 것을 일 목적으로 한다.Another object of the present invention is to improve the efficiency by reducing the processing speed by retrieving similar images using a histogram generated by using a threshold value.

이러한 목적을 달성하기 위한 본 발명은 서버의 이미지 쿼리 기반 영상 검색 방법에 있어서, 영상 데이터베이스에 저장된 하나 이상의 영상 데이터를 이용하여 영상 특징 정보 데이터베이스를 구축하는 a단계, 이미지 쿼리를 수신하면, 상기 이미지 쿼리를 이용하여 특징 정보 쿼리를 생성하는 b단계, 상기 특징 정보 쿼리에 대응되는 영상 특징 정보를 상기 영상 특징 정보 데이터베이스에서 검색하는 c단계를 포함하며, 상기 a단계는 상기 영상 데이터에 포함된 하나 이상의 프레임에서 기 설정된 개수의 키 프레임을 선정하는 전처리 단계, 상기 키 프레임을 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하고, 상기 b단계는 상기 이미지 쿼리를 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하며, 상기 입력 데이터의 특징 정보 쿼리를 추출하는 단계는 입력 데이터에서 정방형의 블록을 추출하는 단계, 상기 블록을 구성하는 하나 이상의 픽셀 값의 평균 값과 기 설정된 임계 값을 이용하여 상부 및 하부 임계 값을 생성하는 단계, 상기 블록의 픽셀 값이 상기 상부 및 하부 임계 값과 갖는 차이를 이용하여 상부 및 하부 패턴을 생성하는 단계, 상기 상부 및 하부 패턴을 각각 히스토그램으로 변환하여 상기 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하는 일 특징으로 한다.According to another aspect of the present invention, there is provided an image query-based image retrieval method for a server, the method comprising: a) constructing an image feature information database using at least one image data stored in an image database; A step of generating a feature information query using the feature information query, and a step c of retrieving image feature information corresponding to the feature information query from the image feature information database, wherein the step a) And a step of extracting a feature information query of input data by using the key frame as input data, wherein the step b) includes the steps of: Extracting a feature information query, Wherein the extracting of the feature information query of the input data comprises extracting a square block from the input data, generating upper and lower thresholds using an average value of the one or more pixel values constituting the block and a predetermined threshold value, Generating upper and lower patterns using the difference between the pixel values of the block and the upper and lower thresholds; converting the upper and lower patterns into histograms to extract feature information queries of the input data; The method comprising the steps of:

또한 상기 전처리 단계는 상기 영상 데이터에 포함된 하나 이상의 프레임을 그레이 스케일로 변환하는 단계, 상기 프레임의 크기를 변경하는 단계를 포함하는 것을 일 특징으로 한다.The preprocessing step may include converting one or more frames included in the image data to gray scale, and changing the size of the frame.

나아가 상기 전처리 단계는 상기 하나 이상의 프레임 각각의 히스토그램을 획득하는 단계, 연속하는 제1 프레임 및 제2 프레임의 히스토그램 차이 값을 연산하는 단계, 상기 히스토그램 차이 값을 크기에 따라 정렬하여, 기 설정된 상위 n개의 차이 값을 선정하는 단계, 상기 선정된 차이 값에 대응되는 제2 프레임을 키 프레임으로 설정하는 단계를 포함하는 것을 일 특징으로 한다.Further, the preprocessing step may include obtaining a histogram of each of the one or more frames, computing a histogram difference value of successive first frames and second frames, sorting the histogram difference values according to sizes, And setting a second frame corresponding to the selected difference value as a key frame.

또한 상기 상부 및 하부 임계 값을 생성하는 단계는 상기 블록을 구성하는 픽셀 값의 평균 값을 연산하는 단계, 상기 평균 값에 상기 임계 값을 더하여 상기 상부 임계 값을 도출하고, 상기 평균 값에서 상기 임계 값을 제하여 상기 하부 임계 값을 도출하는 단계를 포함하는 것을 일 특징으로 한다.The step of generating the upper and lower thresholds may further include calculating an average value of pixel values constituting the block, adding the threshold value to the average value to derive the upper threshold value, And deriving the lower threshold value by subtracting the lower threshold value.

나아가 상기 상부 패턴을 생성하는 단계는 상기 블록의 픽셀 값이 상기 상부 임계 값보다 크거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하고, 상기 하부 패턴을 생성하는 단계는 상기 블록의 픽셀 값이 상기 하부 임계 값보다 작거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하는 것을 일 특징으로 한다.The generating of the upper pattern may further include mapping 1 to each pixel if the pixel value of the block is greater than or equal to the upper threshold value, And maps 1 to each pixel if it is less than or equal to the lower threshold value, otherwise to 0.

또한 상기 상부 및 하부 패턴을 히스토그램으로 변환하는 단계는 상기 상부 및 하부 패턴을 기 설정된 순서대로 이진수의 n비트 값에 대응시키고, 상기 n비트 값을 10진수로 변환하여 히스토그램을 생성하는 것을 일 특징으로 한다.The converting the upper and lower patterns into histograms may include generating the histogram by mapping the upper and lower patterns into n-bit values of binary numbers in a predetermined order and converting the n-bit values into decimal numbers. do.

나아가 본 발명은 이미지 쿼리 기반 영상 검색 시스템에 있어서, 이미지 쿼리를 수신하면, 상기 이미지 쿼리를 이용하여 특징 정보 쿼리를 생성하는 생성부, 상기 특징 정보 쿼리에 대응되는 영상 특징 정보를 상기 영상 특징 정보 데이터베이스에서 검색하는 검색부, 하나 이상의 영상 데이터를 저장하는 영상 데이터베이스와 영상 특징 정보를 저장하는 영상 특징 정보 데이터베이스를 포함하는 데이터베이스부를 포함하는 것을 일 특징으로 한다.In addition, the present invention provides an image query-based image search system, comprising: a generation unit that generates a feature information query using the image query upon receiving an image query; And a database unit including an image database for storing one or more image data and an image feature information database for storing image feature information.

또한 상기 생성부는 상기 영상 데이터에 포함된 하나 이상의 프레임에서 기 설정된 개수의 키 프레임을 선정하는 전처리부, 영상 데이터베이스에 저장된 하나 이상의 영상 데이터를 이용하여 영상 특징 정보 데이터베이스를 구축하는 데이터베이스 생성부, 상기 키 프레임 및 상기 이미지 쿼리를 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 특징 정보 쿼리 추출부를 포함하는 것을 일 특징으로 한다.The generating unit may include a preprocessor for selecting a preset number of key frames in one or more frames included in the image data, a database generating unit for constructing an image feature information database using one or more image data stored in the image database, And a feature information query extracting unit for extracting a feature information query of the input data by using the image query as the input data.

나아가 상기 특징 정보 쿼리 추출부는 입력 데이터에서 정방형의 블록을 추출하는 블록 추출부, 상기 블록을 구성하는 하나 이상의 픽셀 값의 평균 값과 기 설정된 임계 값을 이용하여 상부 및 하부 임계 값을 생성하는 임계 값 생성부, 상기 블록의 픽셀 값이 상기 상부 및 하부 임계 값과 갖는 차이를 이용하여 상부 및 하부 패턴을 생성하는 패턴 생성부, 상기 상부 및 하부 패턴을 각각 히스토그램으로 변환하여 상기 입력 데이터의 특징 정보 쿼리를 추출하는 특징 정보 쿼리 생성부를 포함하는 것을 일 특징으로 한다.The feature information query extracting unit may further include a block extracting unit for extracting a square block from the input data, a threshold value generating unit for generating upper and lower threshold values using an average value of one or more pixel values constituting the block and a preset threshold value, A pattern generator for generating upper and lower patterns by using a difference between the pixel values of the block and the upper and lower thresholds, a histogram transforming unit for transforming the upper and lower patterns into a histogram, And a feature information query generating unit for extracting a feature information query.

전술한 바와 같은 본 발명에 의하면, 영상에서 추출한 상위 프레임을 이용하여 영상 처리에 소모되는 메모리와 계산 속도를 감소시켜 효율성을 향상시킬 수 있다.According to the present invention as described above, the memory consumed for image processing and the calculation speed can be reduced by using the upper frame extracted from the image, thereby improving the efficiency.

또한 본 발명은 영상 처리에 사용되는 연산을 간소화함으로써 영상 처리에 소요되는 시간을 단축시키면서도 일정 수준 이상의 검색 정확도를 확보할 수 있다. In addition, the present invention simplifies the operations used in image processing, thereby shortening the time required for image processing and securing a certain level of search accuracy.

또한 본 발명은 임계 값을 이용하여 생성한 히스토그램으로 유사 영상을 검색하여 처리 속도를 감소시켜 효율성을 향상시킬 수 있다.Also, the present invention can improve the efficiency by reducing the processing speed by searching the similar image with the histogram generated using the threshold value.

도1은 본 발명의 일 실시 예에 의한 영상 검색 시스템의 구성을 도시한 도면이다.
도2는 본 발명의 일 실시 예에 의한 특징 정보 쿼리 추출부의 구성을 도시한 도면이다.
도3은 본 발명의 일 실시 예에 의한 영상 검색 방법을 설명하기 위한 도면이다.
도4는 본 발명의 일 실시 예에 의한 데이터베이스 구축 방법을 설명하기 위한 도면이다.
도5는 본 발명의 일 실시 예에 의한 키 프레임 추출 방법을 설명하기 위한 도면이다.
도6은 본 발명의 일 실시 예에 의한 특징 정보 쿼리 생성 방법을 설명하기 위한 도면이다.
도7은 본 발명의 일 실시 예에 의한 영상 검색 방법의 예시를 나타낸 도면이다.
FIG. 1 is a diagram illustrating a configuration of an image retrieval system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of a feature information query extracting unit according to an embodiment of the present invention.
3 is a diagram for explaining an image search method according to an embodiment of the present invention.
4 is a diagram for explaining a database building method according to an embodiment of the present invention.
5 is a diagram for explaining a key frame extraction method according to an embodiment of the present invention.
6 is a diagram for explaining a feature information query generation method according to an embodiment of the present invention.
7 is a diagram illustrating an example of an image search method according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. The above and other objects, features, and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings, which are not intended to limit the scope of the present invention. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용되며, 명세서 및 특허청구의 범위에 기재된 모든 조합은 임의의 방식으로 조합될 수 있다. 그리고 다른 식으로 규정하지 않는 한, 단수에 대한 언급은 하나 이상을 포함할 수 있고, 단수 표현에 대한 언급은 또한 복수 표현을 포함할 수 있음이 이해되어야 한다. In the drawings, the same reference numerals are used to designate the same or similar components, and all combinations described in the specification and claims can be combined in any manner. It is to be understood that, unless the context requires otherwise, references to singular forms may include more than one, and references to singular forms may also include plural forms.

본 명세서에서 사용되는 용어는 단지 특정 예시적 실시 예들을 설명할 목적을 가지고 있으며 한정할 의도로 사용되는 것이 아니다. 본 명세서에서 사용된 바와 같은 단수적 표현들은 또한, 해당 문장에서 명확하게 달리 표시하지 않는 한, 복수의 의미를 포함하도록 의도될 수 있다. 용어 "및/또는," "그리고/또는"은 그 관련되어 나열되는 항목들의 모든 조합들 및 어느 하나를 포함한다. 용어 "포함한다", "포함하는", "포함하고 있는", "구비하는", "갖는", "가지고 있는" 등은 내포적 의미를 갖는 바, 이에 따라 이러한 용어들은 그 기재된 특징, 정수, 단계, 동작, 요소, 및/또는 컴포넌트를 특정하며, 하나 이상의 다른 특징, 정수, 단계, 동작, 요소, 컴포넌트, 및/또는 이들의 그룹의 존재 혹은 추가를 배제하지 않는다. 본 명세서에서 설명되는 방법의 단계들, 프로세스들, 동작들은, 구체적으로 그 수행 순서가 확정되는 경우가 아니라면, 이들의 수행을 논의된 혹은 예시된 그러한 특정 순서로 반드시 해야 하는 것으로 해석돼서는 안 된다. 추가적인 혹은 대안적인 단계들이 사용될 수 있음을 또한 이해해야 한다.The terminology used herein is for the purpose of describing particular illustrative embodiments only and is not intended to be limiting. Singular representations as used herein may also be intended to include a plurality of meanings, unless the context clearly dictates otherwise. The terms "and / or" " and / or "include any and all combinations of the items listed therein. The terms "comprises," "comprising," "including," "having," "having," "having," and the like have the implicit significance, Steps, operations, elements, and / or components, and does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, and / Steps, processes, and operations of the methods described herein should not be construed as necessarily enforcing their performance in such specific order as discussed or illustrated unless specifically concluded the order of their performance . It should also be understood that additional or alternative steps may be used.

또한, 각각의 구성요소는 각각 하드웨어 프로세서로 구현될 수 있고, 위 구성요소들이 통합되어 하나의 하드웨어 프로세서로 구현될 수 있으며, 또는 위 구성요소들이 서로 조합되어 복수 개의 하드웨어 프로세서로 구현될 수도 있다. In addition, each of the components may be implemented as a hardware processor, the components may be integrated into one hardware processor, or a combination of the components may be implemented as a plurality of hardware processors.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 본 발명의 일 실시 예에 의한 영상 검색 시스템의 구성을 도시한 도면이다. 도1을 참조하면, 본 발명의 일 실시 예에 의한 영상 검색 시스템은 생성부(110), 검색부(170), 그리고 데이터베이스부(190)를 포함할 수 있다.FIG. 1 is a diagram illustrating a configuration of an image retrieval system according to an embodiment of the present invention. Referring to FIG. 1, an image search system according to an embodiment of the present invention may include a generating unit 110, a searching unit 170, and a database unit 190.

생성부(110)는 수신한 이미지 쿼리를 이용하여 특징 정보 쿼리를 생성할 수 있다. 보다 구체적으로, 생성부(110)는 전처리부(120), 데이터베이스 생성부(140), 그리고 특징 정보 쿼리 추출부(160)를 포함할 수 있다.The generating unit 110 may generate a feature information query using the received image query. More specifically, the generating unit 110 may include a preprocessing unit 120, a database generating unit 140, and a feature information query extracting unit 160.

전처리부(120)는 영상 데이터에 포함된 하나 이상의 프레임에서 기 설정된 개수의 키 프레임을 선정할 수 있다. 전처리부(120)는 영상 데이터에 포함된 하나 이상의 프레임을 그레이 스케일로 변환할 수 있고, 프레임의 크기를 변경할 수 있다. 예를 들어 변경된 프레임의 크기는 320 x 240일 수 있으며, 그 외의 크기를 가질 수도 있다.The preprocessing unit 120 may select a preset number of key frames in one or more frames included in the image data. The preprocessing unit 120 may convert one or more frames included in the image data into grayscale and change the size of the frame. For example, the size of the modified frame may be 320 x 240, or may have other sizes.

전처리부(120)는 하나 이상의 프레임 각각의 히스토그램을 획득하고, 연속하는 제1 프레임 및 제2 프레임의 히스토그램 차이 값을 연산하고, 히스토그램 차이 값을 크기에 따라 정렬하여, 기 설정된 상위 n개의 차이 값을 선정하고, 선정된 차이 값에 대응되는 제2 프레임을 키 프레임으로 설정할 수 있다. 키 프레임은 영상 데이터를 대표하는 프레임으로, 영상 데이터 처리에 필요한 메모리와 복잡성을 감소시킬 수 있다는 효과가 있다. 예를 들어 n의 값을 4로, 영상 데이터를 구성하는 10개 프레임의 히스토그램 값이 -10, 20, 90, 70, 30, 50, -30, -25, 10, 20라고 가정하면, 10개 프레임의 히스토그램 차이 값은 30, 70, 20, 40, 20, 80, 5, 35, 10의 값을 가질 수 있다. 이 때, 상위 4개의 차이 값은 80, 70, 40, 35이므로 3, 5, 7, 9번 프레임을 키 프레임으로 설정할 수 있다. The preprocessing unit 120 obtains a histogram of each of one or more frames, calculates histogram difference values of successive first and second frames, arranges the histogram difference values according to their sizes, And a second frame corresponding to the selected difference value can be set as a key frame. The key frame is a frame representing the image data, and has the effect of reducing memory and complexity required for image data processing. For example, assuming that the value of n is 4 and that the histogram values of the 10 frames constituting the image data are -10, 20, 90, 70, 30, 50, -30, -25, The histogram difference value of the frame may have a value of 30, 70, 20, 40, 20, 80, 5, 35, In this case, since the upper four difference values are 80, 70, 40, and 35, 3, 5, 7, and 9 frames can be set as key frames.

데이터베이스 생성부(140)는 영상 데이터베이스에 저장된 하나 이상의 영상 데이터를 이용하여 영상 특징 정보 데이터베이스를 구축할 수 있다. 본 발명은 구축된 영상 특징 정보 데이터베이스를 기반으로 수신한 이미지 쿼리의 특징 정보 쿼리와 유사한 영상 특징 정보를 검색할 수 있다.The database generation unit 140 may construct an image feature information database using one or more image data stored in the image database. The present invention can retrieve image feature information similar to the feature information query of the received image query based on the constructed image feature information database.

특징 정보 쿼리 추출부(160)는 상기 키 프레임 및 상기 이미지 쿼리를 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출할 수 있다. 보다 구체적으로 도2를 참조하면 특징 정보 쿼리 추출부(160)는 블록 추출부(162), 임계 값 생성부(164), 패턴 생성부(166), 그리고 특징 정보 쿼리 생성부(168)를 포함할 수 있다.The feature information query extracting unit 160 may extract the feature information query of the input data using the key frame and the image query as input data. 2, the feature information query extraction unit 160 includes a block extraction unit 162, a threshold value generation unit 164, a pattern generation unit 166, and a feature information query generation unit 168 can do.

블록 추출부(162)는 입력 데이터에서 정방형의 블록을 추출할 수 있다. 정방형 블록의 크기는 3 x 3이 될 수 있으나, 그 이상 또는 그 이하가 될 수도 있다.The block extracting unit 162 can extract a square block from the input data. The size of the square block may be 3 x 3, but may be more or less.

임계 값 생성부(164)는 블록을 구성하는 하나 이상의 픽셀 값의 평균 값과 기 설정된 임계 값을 이용하여 상부 및 하부 임계 값을 생성할 수 있다. 보다 구체적으로 임계 값 생성부(164)는 블록 추출부(162)에서 추출한 정방형 블록을 구성하는 픽셀 값의 평균 값을 연산하고, 연산된 평균 값에 기 설정된 임계 값을 더하여 상부 임계 값을 도출하고, 평균 값에 기 설정된 임계 값을 제하여 하부 임계 값을 도출할 수 있다. 예를 들어 블록 추출부(162)에서 추출한 정방형 블록을 구성하는 픽셀 값이 (0,0)=10, (0,1)=25, (0,2)=85, (1,0)=75, (1,1)=30, (1,2)=20, (2,0)=80, (2,1)=5, (2,2)=35일 때, 임계 값 생성부(164)는 정방형 블록을 구성하는 픽셀 값의 평균 값을 (10+25+85+75+30+20+80+5+35)/9의 값인 40.6으로 연산할 수 있다. 이 때 기 설정된 임계 값을 10으로 가정하면, 임계 값 생성부(164)는 상부 임계 값을 40.6+10=50.6으로, 하부 임계 값을 40.6-10=30.6으로 도출할 수 있다.The threshold value generator 164 may generate the upper and lower threshold values using the average value of the one or more pixel values constituting the block and the predetermined threshold value. More specifically, the threshold value generating unit 164 calculates an average value of pixel values constituting the square block extracted by the block extracting unit 162, adds a preset threshold value to the calculated average value, and derives an upper threshold value , The lower threshold value can be derived by subtracting the predetermined threshold value from the average value. (0, 0) = 10, (0, 1) = 25, (0, 2) = 85, (1, 0) = 75 (2,1) = 35, (1,1) = 30, (1,2) = 20, (2,0) = 80, The average value of pixel values constituting the square block can be calculated as 40.6 which is a value of (10 + 25 + 85 + 75 + 30 + 20 + 80 + 5 + 35) / 9. Assuming that the predetermined threshold value is 10, the threshold value generator 164 may derive the upper threshold value as 40.6 + 10 = 50.6 and the lower threshold value as 40.6-10 = 30.6.

패턴 생성부(166)는 블록의 픽셀 값이 상기 상부 및 하부 임계 값과 갖는 차이를 이용하여 상부 및 하부 패턴을 생성할 수 있다. 보다 구체적으로 패턴 생성부(166)는 블록의 픽셀 값이 상부 임계 값보다 크거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하여 상부 패턴을 생성할 수 있다. 도7의 예시를 참고하면, 상부 임계 값이 50.6이고 정방형 블록의 (1,1) 위치의 픽셀 값이 30일 경우, 픽셀 값이 상부 임계 값보다 작기 때문에 상부 패턴의 (1,1) 위치의 픽셀의 값은 0의 값을 가질 수 있다. 패턴 생성부(166)는 정방형 블록의 모든 픽셀 값과 상부 임계 값을 비교하여 상부 패턴을 생성할 수 있다.The pattern generation unit 166 may generate the upper and lower patterns using the difference between the pixel values of the block and the upper and lower threshold values. More specifically, the pattern generation unit 166 may generate an upper pattern by mapping 1 to each pixel if the pixel value of the block is greater than or equal to the upper threshold value, or to 0 otherwise. 7, when the upper threshold value is 50.6 and the pixel value at the (1,1) position of the square block is 30, since the pixel value is smaller than the upper threshold value, The value of the pixel may have a value of zero. The pattern generating unit 166 may generate an upper pattern by comparing all the pixel values of the square block with the upper threshold value.

또한 패턴 생성부(166)는 블록의 픽셀 값이 하부 임계 값보다 작거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하여 하부 패턴을 생성할 수 있다. 도7의 예시를 참고하면, 하부 임계 값이 30.6이고 정방형 블록의 (1,1) 위치의 픽셀 값이 30일 경우, 픽셀 값이 하부 임계 값보다 작기 때문에 하부 패턴의 (1,1) 위치의 픽셀의 값은 1의 값을 가질 수 있다. 패턴 생성부(166)는 정방형 블록의 모든 픽셀 값과 하부 임계 값을 비교하여 하부 패턴을 생성할 수 있다.In addition, the pattern generator 166 may generate a lower pattern by mapping 1 to 1 if the pixel value of the block is less than or equal to the lower threshold value, and 0 otherwise to each pixel. 7, when the lower threshold value is 30.6 and the pixel value at the (1,1) position of the square block is 30, since the pixel value is smaller than the lower threshold value, The value of the pixel may have a value of one. The pattern generation unit 166 may generate a lower pattern by comparing all the pixel values of the square block with the lower threshold value.

특징 정보 쿼리 생성부(168)는 상부 및 하부 패턴을 각각 히스토그램으로 변환하여 상기 입력 데이터의 특징 정보 쿼리를 추출할 수 있다. 보다 구체적으로, 상부 및 하부 패턴이 0과 1만의 값으로 구성되어 있기 때문에, 특징 정보 쿼리 생성부(168)은 상부 및 하부 패턴을 기 설정된 순서대로 이진수의 n비트 값에 대응시키고, n비트 값을 10진수로 변환하여 히스토그램을 생성할 수 있다. 도7의 예시를 참조하면, 상부 및 하부 패턴의 순서를 (0,0)을 1번, (0,1)을 2번, (0,2)를 3번, (1,0)을 4번, (1,1)을 5번, (1,2)를 6번, (2,0)을 7번, (2,1)을 8번, (2,2)를 9번으로 설정할 수 있다. 상부 패턴의 값을 (0,0)=0, (0,1)=0, (0,2)=1, (1,0)=1, (1,1)=0, (1,2)=0, (2,0)=1, (2,1)=0, (2,2)=0이라고 가정하면, 특징 정보 쿼리 생성부(168)는 상부 패턴의 픽셀 값을 이진수의 9비트 값에 대응시킬 수 있다. 대응된 이진수 값은 001100100일 수 있다.The feature information query generation unit 168 may convert the upper and lower patterns into a histogram, and extract a feature information query of the input data. More specifically, since the upper and lower patterns are composed of values of 0 and 1, the feature information query generation unit 168 associates the upper and lower patterns with n-bit values of binary numbers in a predetermined order, To a decimal number to generate a histogram. Referring to the example of Fig. 7, the order of the upper and lower patterns is (0,0), (0,1), (0,2) , (1,1) can be set to 5, (1,2) to 6, (2,0) to 7, (2,1) to 8, and (2,2) to 9. (1, 0) = 0, (0, 1) = 0, (0, 2) = 1, (2,2) = 0, (2,0) = 1, (2,1) = 0 and (2,2) = 0, the feature information query generator 168 converts the pixel value of the upper pattern into a 9- . The corresponding binary value may be 001100100.

특징 정보 쿼리 생성부(168)가 상부 패턴의 픽셀 값에 대한 9비트 값을 생성하면, 생성된 9비트 값을 10진수 값으로 변환할 수 있다. 도7의 예시를 참고하면 상부 패턴의 픽셀 값에 대한 9비트 값이 001100100일 경우, 001100100의 10진수 값은 76이 될 수 있다. 이 때, 특징 정보 쿼리 생성부(168)는 상부 패턴의 히스토그램 값을 76으로 설정할 수 있다.When the feature information query generator 168 generates a 9-bit value for the pixel value of the upper pattern, the generated 9-bit value can be converted into a decimal value. 7, when the 9-bit value of the pixel value of the upper pattern is 001100100, the decimal value of 001100100 may be 76. [ At this time, the feature information query generator 168 may set the histogram value of the upper pattern to 76. [

특징 정보 쿼리 생성부(168)가 상부 패턴의 히스토그램 값을 연산하는 과정은 하부 패턴의 히스토그램 값을 연산하는 과정에도 동일하게 적용될 수 있다.The process of calculating the histogram value of the upper pattern by the feature information query generating unit 168 may be applied to the process of calculating the histogram value of the lower pattern.

특징 정보 쿼리 추출부(160)가 수행하는 연산의 수식은 식1 내지 식3와 같다. 식1의 THOG는 블록의 히스토그램을 연산하는 식으로, p는 픽셀을 나타내고, HOG식은 블록의 각 픽셀 값을 나타낸다.The formulas of the operations performed by the feature information query extracting unit 160 are expressed by Equations 1 to 3. THOG in Equation 1 is a formula for calculating a histogram of a block, p represents a pixel, and HOG represents each pixel value of a block.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

검색부(170)는 특징 정보 쿼리에 대응되는 영상 특징 정보와 유사한 영상 데이터를 영상 특징 정보 데이터베이스에서 검색할 수 있다. 유사한 영상 데이터를 검색하는 데에 영상 데이터 전부를 스캐닝해야 하기 때문에 해싱 알고리즘을 사용하여 계산 속도를 단축시킬 수 있다. 유사 영상 데이터 검색에 사용되는 해싱 알고리즘에는 SBQ(Single Bit Quantization)과 DBQ(Double Bit Quantization)가 있는데, SBQ는 임계 값이 대부분 고밀도 영역에 존재하기 때문에 임계 값에 근접한 많은 비트가 완전히 다른 비트로 해싱될 수 있다는 단점이 있어 본 발명에서는 DBQ를 사용한다. 또한 DBQ는 SBQ와 비교하여 수행 속도가 빠르며 처리 횟수 또한 적다는 단점이 있다. DBQ는 두 개의 임계 값을 설정하여 이중 비트를 통해 코드를 생성할 수 있다. 검색부(170)는 DBQ에 상부 임계 값과 하부 임계 값을 적용하여 생성된 코드를 이용하여 유사한 영상 데이터를 검색할 수 있다.The search unit 170 can search the image feature information database for image data similar to the image feature information corresponding to the feature information query. Since all of the image data must be scanned to retrieve similar image data, a hashing algorithm can be used to speed up the computation. There are two types of hashing algorithms used to search similar image data: Single Bit Quantization (SBQ) and Double Bit Quantization (DBQ). Since SBQ has most of the threshold values in the high density region, many bits close to the threshold are hashed into completely different bits DBQ is used in the present invention. In addition, DBQ has a disadvantage that it has a faster execution speed and fewer processing times than SBQ. DBQ can generate code through double bits by setting two thresholds. The searching unit 170 may search similar image data using a code generated by applying an upper threshold value and a lower threshold value to DBQ.

검색부(170)는 검색된 수신된 이미지 쿼리와 유사한 영상 데이터의 순위를 지정할 수 있다. 이 때 유사한 영상 데이터의 순위를 설정하기 위해 본 발명은 코사인 유사성을 사용할 수 있다. 코사인 유사성은 수신된 이미지 쿼리(Dq)에 대응되는 상부 및 하부 히스토그램 값과 후보 영상 데이터(Dd)의 각 키 프레임 사이의 각도를 연산하는 것으로, 보다 구체적으로 식4와 같이 연산될 수 있다.The search unit 170 may specify a ranking of image data similar to the retrieved image query. At this time, the present invention can use the cosine similarity to set the ranking of similar image data. The cosine similarity is calculated by calculating the angle between each key frame of the candidate image data Dd and the upper and lower histogram values corresponding to the received image query Dq, and more specifically,

Figure pat00004
Figure pat00004

데이터베이스부(190)는 하나 이상의 영상 데이터를 저장하는 영상 데이터베이스와 영상 특징 정보를 저장하는 영상 특징 정보 데이터베이스를 포함할 수 있다.The database unit 190 may include an image database for storing one or more image data and an image feature information database for storing image feature information.

이하에서는 도3 내지 도6을 참조하여 본 발명의 일 실시 예에 의한 영상 검색 방법을 설명한다. 영상 검색 방법에 관한 설명에서 전술한 영상 검색 시스템과 중복되는 세부 실시 예는 생략될 수 있다.Hereinafter, an image search method according to an embodiment of the present invention will be described with reference to FIGS. 3 to 6. FIG. In the description of the image retrieval method, detailed embodiments overlapping with the above-described image retrieval system may be omitted.

도3은 본 발명의 일 실시 예에 의한 영상 검색 방법을 설명하기 위한 도면이다. 도3을 참조하면, 서버는 데이터베이스를 구축할 수 있다(S100). 데이터베이스를 구축하는 과정은 하기 도4의 설명에서 자세히 기술한다.3 is a diagram for explaining an image search method according to an embodiment of the present invention. Referring to FIG. 3, the server can construct a database (S100). The process of building the database is described in detail in the description of FIG. 4 below.

서버가 데이터베이스를 구축하면, 이미지 쿼리를 수신하여 이미지 쿼리의 특징 정보 쿼리를 생성할 수 있다(S500). 특징 정보 쿼리를 생성하는 과정은 하기 도6의 설명에서 자세히 기술한다.When the server establishes the database, it can receive the image query and generate the feature information query of the image query (S500). The process of generating the feature information query will be described in detail in the description of FIG. 6 below.

서버가 수신한 이미지 쿼리의 특징 정보 쿼리를 생성하면, 생성된 특징 정보 쿼리를 이용하여 영상 데이터의 특징 정보 쿼리가 저장된 특징 정보 데이터베이스에 유사한 특징 정보 쿼리를 검색할 수 있다(S900).When the feature information query of the image query received by the server is generated, a feature information query similar to the feature information database stored in the feature information query of the image data can be retrieved using the generated feature information query (S900).

도4는 본 발명의 일 실시 예에 의한 데이터베이스 구축 방법을 설명하기 위한 도면이다. 도4를 참조하면, 서버는 영상 데이터에서 하나 이상의 프레임을 추출할 수 있다(S110).4 is a diagram for explaining a database building method according to an embodiment of the present invention. Referring to FIG. 4, the server may extract one or more frames from the image data (S110).

서버는 추출한 프레임을 그레이 스케일로 변환하고, 프레임의 크기를 변경할 수 있다(S120).The server may convert the extracted frame into grayscale and change the size of the frame (S120).

프레임의 크기가 변경되면, 서버는 하나 이상의 프레임에서 키 프레임을 추출할 수 있다(S130). 키 프레임을 추출하는 과정은 하기 도5의 설명에서 자세히 기술한다.When the size of the frame is changed, the server may extract the key frame in one or more frames (S130). The process of extracting key frames will be described in detail in the description of FIG. 5 below.

서버가 키 프레임을 추출하면, 키 프레임의 특징 정보 쿼리를 추출할 수 있다(S150).When the server extracts the key frame, the feature information query of the key frame can be extracted (S150).

서버는 키 프레임의 특징 정보 쿼리를 특징 정보 데이터베이스에 저장할 수 있다(S160). 생성된 특징 정보 데이터베이스를 통하여 서버는 수신한 이미지 쿼리에 대한 특징 정보 쿼리와 유사한 특징 정보를 포함하는 영상 데이터를 검색할 수 있다.The server may store the feature information query of the key frame in the feature information database (S160). Through the generated feature information database, the server can retrieve image data including feature information similar to the feature information query for the received image query.

도5는 본 발명의 일 실시 예에 의한 키 프레임 추출 방법을 설명하기 위한 도면이다. 도5를 참조하면, 서버는 영상 데이터로부터 추출한 프레임의 히스토그램을 획득할 수 있다(S151).5 is a diagram for explaining a key frame extraction method according to an embodiment of the present invention. Referring to FIG. 5, the server may obtain a histogram of a frame extracted from the image data (S151).

서버는 하나 이상의 프레임 중 연속하는 제1 프레임과 제2 프레임의 히스토그램의 차이 값을 연산할 수 있다(S153).The server can calculate the difference value between the histograms of the first and second consecutive frames of one or more frames (S153).

서버가 차이 값을 모두 연산하면, 연산된 하나 이상의 차이 값 중 상위 n개의 차이 값을 추출할 수 있다(S155).If the server computes all of the difference values, it is possible to extract the difference values of the n highest one of the calculated difference values (S155).

상위 n개의 차이 값이 추출되면, 서버는 추출된 차이 값에 대응되는 제2 프레임을 키 프레임으로 설정할 수 있다(S157).When the difference value of the top n is extracted, the server can set the second frame corresponding to the extracted difference value as a key frame (S157).

도6은 본 발명의 일 실시 예에 의한 특징 정보 쿼리 생성 방법을 설명하기 위한 도면이다. 도6을 참조하면, 서버는 추출한 프레임에서 정방형 블록을 추출할 수 있다(S510). 정방형 블록의 크기는 3 x 3일 수 있으나, 그 외의 크기를 가질 수도 있다.6 is a diagram for explaining a feature information query generation method according to an embodiment of the present invention. Referring to FIG. 6, the server extracts a square block from the extracted frame (S510). The size of the square block may be 3 x 3, but it may have other sizes.

서버는 추출한 블록을 구성하는 픽셀 값의 평균 값을 연산하여, 상부 및 하부 임계 값을 생성할 수 있다(S520). 보다 구체적으로 서버는 연산된 평균 값에 기 설정된 임계 값을 더하여 상부 임계 값을 생성하고, 평균 값에 기 설정된 임계 값을 제하여 하부 임계 값을 생성할 수 있다.The server may generate the upper and lower threshold values by calculating an average value of pixel values constituting the extracted block (S520). More specifically, the server may generate an upper threshold value by adding a predetermined threshold value to the calculated average value, and generate a lower threshold value by subtracting the predetermined threshold value from the average value.

서버는 생성된 상부 및 하부 임계 값과 블록을 구성하는 픽셀의 값을 비교하여 상부 및 하부 패턴을 생성할 수 있다(S530).The server may generate the upper and lower patterns by comparing the generated upper and lower threshold values with the values of the pixels constituting the block (S530).

서버는 생성된 상부 및 하부 패턴을 9비트의 이진수 값에 대응시켜 특징 정보 쿼리를 추출할 수 있다(S540).The server may extract the feature information query by associating the generated upper and lower patterns with 9-bit binary values (S540).

본 발명에 대한 일 실시 예에 의하면, 유사한 영상 데이터를 검색하는 데에 소요되는 시간과 정확도를 측정할 수 있다. 이 때 사용되는 영상 데이터는 UCSB 데이터 및 UCF-50 데이터를 포함할 수 있으나 이에 한정되지는 않는다. UCSB 데이터는 640 x 480 해상도를 갖는 6889 개의 영상과 6개의 상이한 평면 텍스처, 그리고 방대한 모션 패턴을 포함할 수 있으며, UCF-50 데이터는 320 x 240 해상도를 갖는 6681 개의 영상으로 구성될 수 있다.According to an embodiment of the present invention, it is possible to measure the time and accuracy required for searching similar image data. The image data used at this time may include, but is not limited to, UCSB data and UCF-50 data. The UCSB data may include 6889 images having 640 x 480 resolution, 6 different plane textures, and a large motion pattern, and the UCF-50 data may be composed of 6681 images having 320 x 240 resolution.

UCSB 데이터, UCF-50 데이터에 대한 유사한 영상 데이터를 검색하는 데에 소요되는 시간은 표1과 같으며, 정확도는 표2와 같다.The time required to retrieve similar image data for UCSB data and UCF-50 data is shown in Table 1, and the accuracy is shown in Table 2.

알고리즘algorithm 특징 정보 추출 시간Feature information extraction time 검색 시간Search Time HOGHOG 60.7160.71 1820.71820.7 LBPLBP 53.3953.39 1569.81569.8 SIFTSIFT 3420.23420.2 2376.22376.2 STPMSTPM 5167.85167.8 2837.42837.4 LAIDLAID 59.3559.35 1765.21765.2 THOGTHOG 56.6356.63 1692.51692.5

알고리즘algorithm UCSB 데이터 정확도UCSB data accuracy UCF-50 데이터 정확도UCF-50 Data Accuracy HOGHOG 79.3%79.3% 85.6%85.6% LBPLBP 81.8%81.8% 87.3%87.3% SIFTSIFT 87.5%87.5% 94.7%94.7% STPMSTPM 89.1%89.1% 95.3%95.3% LAIDLAID 83.1%83.1% 89.6%89.6% THOGTHOG 85.2%85.2% 93.8%93.8%

표1과 표2는 UCSB 데이터와 UCF-50 데이터에서 랜덤하게 선택된 데이터를 추출하여 유사한 영상 데이터를 검색한 결과로, 본 발명의 알고리즘인 THOG 뿐 아니라 HOG, LBP, SIFT, STPM, LAID 알고리즘을 사용하였을 때 소요되는 시간과 정확도를 확인할 수 있다.Table 1 and Table 2 show the results of retrieving similar image data by extracting randomly selected data from UCSB data and UCF-50 data and using HOG, LBP, SIFT, STPM, LAID algorithm as well as THOG algorithm of the present invention And the time and accuracy required when it is done.

표1과 표2를 참고하면, SIFT와 STPM 알고리즘은 정확도는 높으나 계산 속도에는 그 효율성이 떨어지는 반면 본 발명의 THOG 알고리즘은 경쟁력 있는 정확도와 효율적인 계산 속도를 가질 수 있어 기존 알고리즘과 대비하여 효율적이다.Referring to Tables 1 and 2, the SIFT and STPM algorithms are highly accurate, but their efficiency is poor for computation speed. However, the THOG algorithm of the present invention is competitive with conventional algorithms because it has competitive accuracy and efficient computation speed.

본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The embodiments of the present invention disclosed in the present specification and drawings are merely illustrative of specific embodiments of the present invention and are not intended to limit the scope of the present invention in order to facilitate understanding of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

Claims (9)

서버의 이미지 쿼리 기반 영상 검색 방법에 있어서,
영상 데이터베이스에 저장된 하나 이상의 영상 데이터를 이용하여 영상 특징 정보 데이터베이스를 구축하는 a단계;
이미지 쿼리를 수신하면, 상기 이미지 쿼리를 이용하여 특징 정보 쿼리를 생성하는 b단계;
상기 특징 정보 쿼리에 대응되는 영상 특징 정보를 상기 영상 특징 정보 데이터베이스에서 검색하는 c단계를 포함하며,
상기 a단계는
상기 영상 데이터에 포함된 하나 이상의 프레임에서 기 설정된 개수의 키 프레임을 선정하는 전처리 단계;
상기 키 프레임을 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하고,
상기 b단계는 상기 이미지 쿼리를 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하며,
상기 입력 데이터의 특징 정보 쿼리를 추출하는 단계는
입력 데이터에서 정방형의 블록을 추출하는 단계;
상기 블록을 구성하는 하나 이상의 픽셀 값의 평균 값과 기 설정된 임계 값을 이용하여 상부 및 하부 임계 값을 생성하는 단계;
상기 블록의 픽셀 값이 상기 상부 및 하부 임계 값과 갖는 차이를 이용하여 상부 및 하부 패턴을 생성하는 단계;
상기 상부 및 하부 패턴을 각각 히스토그램으로 변환하여 상기 입력 데이터의 특징 정보 쿼리를 추출하는 단계를 포함하는 영상 검색 방법.
1. An image query-based image retrieval method for a server,
A) constructing an image feature information database using one or more image data stored in an image database;
B) upon receipt of the image query, generating a feature information query using the image query;
And searching for the image feature information corresponding to the feature information query in the image feature information database,
In the step a,
A preprocessing step of selecting a preset number of key frames in one or more frames included in the image data;
Extracting a feature information query of input data using the key frame as input data,
Wherein the step (b) includes extracting a feature information query of input data using the image query as input data,
The step of extracting the feature information query of the input data
Extracting a square block from the input data;
Generating upper and lower thresholds using an average value and a predetermined threshold value of one or more pixel values constituting the block;
Generating upper and lower patterns using the difference between the pixel values of the block and the upper and lower thresholds;
And converting the upper and lower patterns into a histogram to extract a feature information query of the input data.
제1항에 있어서,
상기 전처리 단계는
상기 영상 데이터에 포함된 하나 이상의 프레임을 그레이 스케일로 변환하는 단계;
상기 프레임의 크기를 변경하는 단계를 포함하는 영상 검색 방법.
The method according to claim 1,
The pre-
Converting one or more frames included in the image data to gray scale;
And changing a size of the frame.
제1항에 있어서,
상기 전처리 단계는
상기 하나 이상의 프레임 각각의 히스토그램을 획득하는 단계;
연속하는 제1 프레임 및 제2 프레임의 히스토그램 차이 값을 연산하는 단계;
상기 히스토그램 차이 값을 크기에 따라 정렬하여, 기 설정된 상위 n개의 차이 값을 선정하는 단계;
상기 선정된 차이 값에 대응되는 제2 프레임을 키 프레임으로 설정하는 단계를 포함하는 영상 검색 방법.
The method according to claim 1,
The pre-
Obtaining a histogram of each of the one or more frames;
Calculating histogram difference values of successive first and second frames;
Arranging the histogram difference values according to their sizes, and selecting predetermined difference values of n;
And setting a second frame corresponding to the selected difference value as a key frame.
제1항에 있어서,
상기 상부 및 하부 임계 값을 생성하는 단계는
상기 블록을 구성하는 픽셀 값의 평균 값을 연산하는 단계;
상기 평균 값에 상기 임계 값을 더하여 상기 상부 임계 값을 도출하고, 상기 평균 값에서 상기 임계 값을 제하여 상기 하부 임계 값을 도출하는 단계를 포함하는 영상 검색 방법.
The method according to claim 1,
Wherein generating the upper and lower thresholds comprises:
Calculating an average value of pixel values constituting the block;
Adding the threshold value to the average value to derive the upper threshold value, and subtracting the threshold value from the average value to derive the lower threshold value.
제1항에 있어서,
상기 상부 패턴을 생성하는 단계는
상기 블록의 픽셀 값이 상기 상부 임계 값보다 크거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하고,
상기 하부 패턴을 생성하는 단계는
상기 블록의 픽셀 값이 상기 하부 임계 값보다 작거나 같으면 1을, 그렇지 않으면 0을 각 픽셀에 맵핑하는 것을 특징으로 하는 영상 검색 방법.
The method according to claim 1,
The step of generating the top pattern
Mapping 1 to each pixel if the pixel value of the block is greater than or equal to the upper threshold value,
The step of generating the lower pattern
Wherein if the pixel value of the block is less than or equal to the lower threshold value, 1 is mapped to 0 otherwise.
제1항에 있어서,
상기 상부 및 하부 패턴을 히스토그램으로 변환하는 단계는
상기 상부 및 하부 패턴을 기 설정된 순서대로 이진수의 n비트 값에 대응시키고, 상기 n비트 값을 10진수로 변환하여 히스토그램을 생성하는 것을 특징으로 하는 영상 검색 방법.
The method according to claim 1,
The step of converting the upper and lower patterns into a histogram
Wherein the histogram is generated by mapping the upper and lower patterns into n-bit values of binary numbers in a predetermined order, and converting the n-bit values into decimal numbers.
이미지 쿼리 기반 영상 검색 시스템에 있어서,
이미지 쿼리를 수신하면, 상기 이미지 쿼리를 이용하여 특징 정보 쿼리를 생성하는 생성부;
상기 특징 정보 쿼리에 대응되는 영상 특징 정보를 상기 영상 특징 정보 데이터베이스에서 검색하는 검색부;
하나 이상의 영상 데이터를 저장하는 영상 데이터베이스와 영상 특징 정보를 저장하는 영상 특징 정보 데이터베이스를 포함하는 데이터베이스부를 포함하는 영상 검색 시스템.
1. An image query based image retrieval system,
A generating unit, upon receipt of the image query, for generating a feature information query using the image query;
A searching unit for searching the image feature information database for image feature information corresponding to the feature information query;
An image database for storing at least one image data; and a database including an image feature information database for storing image feature information.
제7항에 있어서,
상기 생성부는
상기 영상 데이터에 포함된 하나 이상의 프레임에서 기 설정된 개수의 키 프레임을 선정하는 전처리부;
영상 데이터베이스에 저장된 하나 이상의 영상 데이터를 이용하여 영상 특징 정보 데이터베이스를 구축하는 데이터베이스 생성부;
상기 키 프레임 및 상기 이미지 쿼리를 입력 데이터로 하여 입력 데이터의 특징 정보 쿼리를 추출하는 특징 정보 쿼리 추출부를 포함하는 영상 검색 시스템.
8. The method of claim 7,
The generating unit
A preprocessing unit for selecting a preset number of key frames in one or more frames included in the image data;
A database generation unit for constructing an image feature information database using at least one image data stored in an image database;
And a feature information query extracting unit for extracting a feature information query of input data using the key frame and the image query as input data.
제8항에 있어서,
상기 특징 정보 쿼리 추출부는
입력 데이터에서 정방형의 블록을 추출하는 블록 추출부;
상기 블록을 구성하는 하나 이상의 픽셀 값의 평균 값과 기 설정된 임계 값을 이용하여 상부 및 하부 임계 값을 생성하는 임계 값 생성부;
상기 블록의 픽셀 값이 상기 상부 및 하부 임계 값과 갖는 차이를 이용하여 상부 및 하부 패턴을 생성하는 패턴 생성부;
상기 상부 및 하부 패턴을 각각 히스토그램으로 변환하여 상기 입력 데이터의 특징 정보 쿼리를 추출하는 특징 정보 쿼리 생성부를 포함하는 영상 검색 시스템.
9. The method of claim 8,
The feature information query extraction unit
A block extracting unit for extracting a square block from the input data;
A threshold value generation unit for generating upper and lower threshold values by using an average value and a predetermined threshold value of one or more pixel values constituting the block;
A pattern generating unit for generating upper and lower patterns using the difference between the pixel values of the block and the upper and lower thresholds;
And a feature information query generating unit for converting the upper and lower patterns into a histogram and extracting a feature information query of the input data.
KR1020170169547A 2017-12-11 2017-12-11 Method and system for video retrieval based on image queries KR102054211B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170169547A KR102054211B1 (en) 2017-12-11 2017-12-11 Method and system for video retrieval based on image queries

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170169547A KR102054211B1 (en) 2017-12-11 2017-12-11 Method and system for video retrieval based on image queries

Publications (2)

Publication Number Publication Date
KR20190069136A true KR20190069136A (en) 2019-06-19
KR102054211B1 KR102054211B1 (en) 2019-12-10

Family

ID=67104503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169547A KR102054211B1 (en) 2017-12-11 2017-12-11 Method and system for video retrieval based on image queries

Country Status (1)

Country Link
KR (1) KR102054211B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11886490B2 (en) 2020-04-03 2024-01-30 Samsung Electronics Co, Ltd. Neural network device for retrieving image and operating method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066159A (en) * 2010-12-14 2012-06-22 주식회사 케이티 Method and system for providing image information with main frame
KR101713189B1 (en) 2015-04-20 2017-03-08 전남대학교산학협력단 Tensor Divergence Feature Extraction System based on HoG and HOF for video obejct action classification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066159A (en) * 2010-12-14 2012-06-22 주식회사 케이티 Method and system for providing image information with main frame
KR101713189B1 (en) 2015-04-20 2017-03-08 전남대학교산학협력단 Tensor Divergence Feature Extraction System based on HoG and HOF for video obejct action classification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11886490B2 (en) 2020-04-03 2024-01-30 Samsung Electronics Co, Ltd. Neural network device for retrieving image and operating method thereof

Also Published As

Publication number Publication date
KR102054211B1 (en) 2019-12-10

Similar Documents

Publication Publication Date Title
US10366304B2 (en) Localization and mapping method
US9009149B2 (en) Systems and methods for mobile search using Bag of Hash Bits and boundary reranking
JP5261501B2 (en) Permanent visual scene and object recognition
US20120287304A1 (en) Image recognition system
JP2007249981A (en) Image search using distance measurement method
CN109582813B (en) Retrieval method, device, equipment and storage medium for cultural relic exhibit
KR20020031591A (en) Shape descriptor extracting method
KR20010055492A (en) Image retrival system and method using image histogram
US9047534B2 (en) Method and apparatus for detecting near-duplicate images using content adaptive hash lookups
US11822595B2 (en) Incremental agglomerative clustering of digital images
JPWO2018134964A1 (en) Image search system, image search method and program
JP2023510945A (en) Scene identification method and apparatus, intelligent device, storage medium and computer program
CN103995864B (en) A kind of image search method and device
US8031979B2 (en) Method and device for verifying multimedia entities and in particular for verifying digital images
Abdel-Mottaleb Image retrieval based on edge representation
KR102054211B1 (en) Method and system for video retrieval based on image queries
TW202201249A (en) Device, method and program of generating two-dimensional mapping wherein the device includes a two-dimensional processing unit and a two-dimensional mapping generation unit
US10509986B2 (en) Image similarity determination apparatus and image similarity determination method
CN110704667A (en) Semantic information-based rapid similarity graph detection algorithm
Aarthi et al. Sketch based image retrieval using information content of orientation
CN109272013B (en) Similarity measurement method based on learning
CN106886783A (en) A kind of image search method and system based on provincial characteristics
Berezsky et al. Biomedical Image Search and Retrieval Algorithms
JP2015130041A (en) Image processing apparatus and image processing program
JP6336827B2 (en) Image search device, image search method, and search system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant