KR101838207B1 - Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance - Google Patents

Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance Download PDF

Info

Publication number
KR101838207B1
KR101838207B1 KR1020160170336A KR20160170336A KR101838207B1 KR 101838207 B1 KR101838207 B1 KR 101838207B1 KR 1020160170336 A KR1020160170336 A KR 1020160170336A KR 20160170336 A KR20160170336 A KR 20160170336A KR 101838207 B1 KR101838207 B1 KR 101838207B1
Authority
KR
South Korea
Prior art keywords
image
feature matrix
frame sequence
reference image
sequence length
Prior art date
Application number
KR1020160170336A
Other languages
Korean (ko)
Inventor
최현석
이상헌
손명규
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020160170336A priority Critical patent/KR101838207B1/en
Application granted granted Critical
Publication of KR101838207B1 publication Critical patent/KR101838207B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a similarity determination apparatus and a distance calculation method. The similarity determination apparatus can improve the reliability of a distance calculation result by reflecting a frame sequence length difference between images which can act as a noise component when calculating a distance between feature matrixes representing a feature dimension for each image frame as a matrix. The similarity determination apparatus comprises: a processing part; a contribution calculation part; and a distance calculation part.

Description

유사도판별장치 및 거리 계산 방법{APPARATUS FOR DISTINGUISHING SIMILARITY, AND CALCULATION METHOD FOR CALCULATION METRIX CORRELATION DISTANCE}[0001] APPARATUS FOR DISTINGUISHING SIMILARITY, AND CALCULATION METHOD FOR CALCULATION [0002] METRIX CORRELATION DISTANCE [

본 발명은 영상의 프레임 별 특징 차원을 행렬로 표현한 특징 행렬 간에 거리(correlation distance)를 계산함에 있어서, 영상 간 프레임 시퀀스 길이 차이를 반영하기 위한 방안에 관한 것이다.The present invention relates to a method for reflecting a difference in frame sequence length between images in calculating a correlation distance between feature matrices representing a feature dimension for each frame of the image by a matrix.

유사도란 개체 사이의 닮음의 정도를 표시하는 척도로서 패턴(동작) 인식에 있어 유사도라 함은 이를 수치적으로 표현한 것이며, 기하학적으로는 동일한 공간에서 두 점 사이의 거리에 반비례하는 값을 의미하기도 한다.Similarity is a measure of the degree of resemblance between individuals. Similarity in pattern recognition is expressed numerically, and geometrically refers to a value that is inversely proportional to the distance between two points in the same space .

통상적으로 패턴 인식을 위한 데이터는 비디오 신호 즉 영상으로 주어지게 되며, 이러한 영상을 분석하기 위해서는 해당 영상을 인식에 용이한 형태로 나타낼 필요가 있다.Generally, data for pattern recognition is given as a video signal, that is, an image. In order to analyze such an image, it is necessary to display the image in a form easy to recognize.

따라서, 영상은 2 차원 행렬 데이터 즉 프레임 별 특징 차원을 행렬로 표현한 특징 행렬로 나타낼 수 있으며, 이러한 영상에서의 패턴 인식은 특징 행렬 간의 유사도 판별하는 방식 다시 말해, 특징 행렬 간의 거리(correlation distance)를 계산하는 방식을 통해서 이루어질 수 있다.Accordingly, the image can be represented by a matrix of two-dimensional matrix data, that is, a feature matrix for each frame, and pattern recognition in such an image is a method for determining the similarity between feature matrices, that is, a correlation distance between feature matrices And the like.

한편, 이러한 특징 행렬에서는 영상의 프레임 시퀀스가 행(Row)의 형태로 그대로 보존됨에 따라 특징 행렬 간 거리를 계산하기 위해서는 두 특징 행렬 간 크기를 동일하게 맞춰야 하며, 이는 영상 간 프레임 시퀀스 길이를 일치시키는 것으로 이해될 수 있다.In order to calculate the distances between the feature matrices, the sizes of the two feature matrices must be equal to each other, since the frame sequence of the image is preserved in the form of a row in the feature matrix, ≪ / RTI >

그러나, 이처럼 영상 간 프레임 시퀀스 길이를 일치시키는 경우, 영상 내 중복된 프레임이 존재하게 되며, 이러한 중복된 프레임은 거리 계산에 있어서 잡음 요소로 작용하는 문제가 발생하게 된다.However, when the frame sequence lengths are matched with each other, a redundant frame exists in the image, and such a duplicated frame has a problem of acting as a noise component in the distance calculation.

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 영상의 프레임 별 특징 차원을 행렬로 표현한 특징 행렬 간에 거리(correlation distance)를 계산함에 있어서, 잡음 요소로 작용할 수 있는 영상 간 프레임 시퀀스 길이 차이를 반영하는데 있다.The present invention has been made in view of the above circumstances, and an object to be achieved by the present invention is to provide a method and apparatus capable of acting as a noise element in calculating a correlation distance between feature matrices, The frame sequence length difference between the images.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 유사도판별장치는, 비교 영상과 기준 영상 간의 유사도 판별과 관련하여, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리하는 처리부; 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 기초로, 상기 비교 영상을 나타내는 제1특징 행렬과 상기 기준 영상을 나타내는 제2 특징 행렬 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출하는 산출부; 및 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각의 행과 열이 가지는 데이터 값에 대해 상기 기여도를 반영하여 상기 제1 특징 행렬과 상기 제2 특징 행렬 간의 거리를 계산하는 계산부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a similarity determination apparatus for determining a similarity between a comparison image and a reference image, A processing unit for processing frame sequence alignment so that a frame sequence length becomes the same between an image and the reference image; Wherein at least one of a row and a column of each of a first feature matrix representing the comparison image and a second feature matrix representing the reference image is generated based on a frame sequence length difference between the comparison image and the reference image A calculating unit for calculating a contribution to be made; And a calculation unit for calculating a distance between the first feature matrix and the second feature matrix by reflecting the contribution to data values of rows and columns of the first feature matrix and the second feature matrix, respectively .

보다 구체적으로, 상기 산출부는, 상기 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각에서 행과 열이 가지게 되는 기여도를 낮게 산출하는 것을 특징으로 한다.More specifically, the calculating unit may calculate the contribution of each of the first feature matrix and the second feature matrix to have a row and a column, respectively, as the frame sequence length difference becomes larger between the comparison image and the reference image. do.

보다 구체적으로, 상기 비교 영상과 상기 기준 영상 각각은, 프레임마다의 픽셀 값을 이웃한 이전 프레임의 픽셀 값에 대해 빼기(substract) 연산하여 획득되는 차 영상인 것을 특징으로 한다.More specifically, each of the comparison image and the reference image is a difference image obtained by subtracting a pixel value of each frame from a pixel value of a neighboring previous frame.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 거리 계산 방법은, 비교 영상과 기준 영상 간의 유사도 판별과 관련하여, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리하는 처리단계; 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 기초로, 상기 비교 영상을 나타내는 제1특징 행렬과 상기 기준 영상을 나타내는 제2 특징 행렬 각각의 행과 열이 가지게 되는 기여도를 산출하는 산출단계; 및 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각의 행(Row)과 열(Column)이 가지는 데이터 값에 대해 상기 기여도를 반영하여 상기 제1 특징 행렬과 상기 제2 특징 행렬 간의 거리를 계산하는 계산단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a distance calculation method for determining a similarity degree between a comparison image and a reference image, wherein when there is a frame sequence length difference between the comparison image and the reference image, A processing step of processing frame sequence alignment so that a frame sequence length becomes equal between an image and the reference image; A calculating step of calculating a contribution degree of each of a first feature matrix representing the comparison image and a second feature matrix representing the reference image based on a frame sequence length difference between the comparison image and the reference image; And calculating distances between the first feature matrix and the second feature matrix by reflecting the contribution of data values of a row and a column of each of the first feature matrix and the second feature matrix And a calculation step.

보다 구체적으로, 상기 산출단계는, 상기 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각에서 행과 열이 가지게 되는 기여도를 낮게 산출하는 것을 특징으로 한다.More specifically, the calculating step calculates a lower contribution degree that a row and a column are included in each of the first feature matrix and the second feature matrix as the frame sequence length difference becomes larger between the comparison image and the reference image .

보다 구체적으로, 상기 비교 영상과 상기 기준 영상 각각은, 프레임마다의 픽셀 값을 이웃한 이전 프레임의 픽셀 값에 대해 빼기(subtract) 연산하여 획득되는 차 영상인 것을 특징으로 한다.More specifically, each of the comparison image and the reference image is a difference image obtained by subtracting a pixel value of each frame from a pixel value of a neighboring previous frame.

본 발명의 일 실시예에 따른 거리 계산 방법은, 전술한 방법의 각 단계를 실행시키도록 구현되어 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램의 형태를 가지는 것을 특징으로 한다.The distance calculation method according to an embodiment of the present invention is characterized by having the form of a computer program stored in a computer-readable recording medium, which is implemented to execute each step of the above-described method.

본 발명의 일 실시예에 따른 거리 계산 방법은, 전술한 방법의 각 단계를 실행시키기 위한 명령어를 포함하는 컴퓨터 판독 가능한 기록매체의 형태를 가지는 것을 특징으로 한다.A distance calculation method according to an embodiment of the present invention is characterized by having the form of a computer-readable recording medium including a command for executing each step of the above-described method.

이에, 본 발명에 따른 유사도판별장치 및 거리 계산 방법에 의하면, 영상의 프레임 별 특징 차원을 행렬로 표현한 특징 행렬 간의 거리를 계산하는데 있어서, 잡음 요소로 작용할 수 있는 영상 간 프레임 시퀀스 길이 차이를 반영함으로써, 거리 계산 결과의 신뢰도를 제고시킬 수 있는 효과가 성취된다.According to the similarity determination apparatus and the distance calculation method according to the present invention, in calculating the distances between the feature matrices representing the feature dimensions for each frame of the image by the matrix, the difference in frame sequence length between the images, , The reliability of the distance calculation result can be enhanced.

도 1은 본 발명의 일 실시예에 따른 유사도 판별 환경을 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 프레임 시퀀스 길이 차이를 설명하기 위한 예시도.
도 3은 본 발명의 일 실시예에 따른 유사도판별장치의 개략적인 구성도.
도 4는 본 발명의 일 실시예에 따른 기여도를 설명하기 위한 예시도.
도 5는 본 발명의 일 실시예에 따른 유사도판별장치에서의 동작 흐름을 설명하기 위한 순서도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a similarity determination environment according to an embodiment of the present invention; FIG.
FIG. 2 is an exemplary diagram for explaining frame sequence length difference according to an embodiment of the present invention; FIG.
3 is a schematic configuration diagram of a similarity determination device according to an embodiment of the present invention;
4 is an exemplary diagram for explaining a contribution according to an embodiment of the present invention;
FIG. 5 is a flowchart illustrating an operation flow in the similarity determination device according to an embodiment of the present invention; FIG.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 유사도 판별 환경을 도시하고 있다.FIG. 1 illustrates a similarity determination environment according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 유사도 판별 환경은, 유사도 판별과 관련하여 T-by-D 크기를 가지는 두 특징 행렬(Xi, Xj) 간의 거리(Matrix correlation distance)를 계산하는 유사도판별장치(100)를 포함하게 된다.1, the similarity degree determination environment according to an embodiment of the present invention is characterized in that a degree of similarity is determined by calculating a distance between two feature matrices (X i , X j ) having a T-by-D size And a similarity determination device 100 for calculating the similarity degree.

여기서, 본 발명의 일 실시예에 따라 정의되는 특징 행렬은 하나의 영상(동영상)을 행렬의 형태로 표현한 것으로서, 예컨대, 아래 [수식 1]과 같이 정의될 수 있다.Here, a feature matrix defined according to an embodiment of the present invention is a representation of one image (moving image) in the form of a matrix, and can be defined as, for example,

[수식 1][Equation 1]

Figure 112016122636180-pat00001
Figure 112016122636180-pat00001

예를 들어, 데이터의 길이가 'T1'인 경우에는 특징 행렬 'A'는 아래 [수식 2]와 같이 표현될 수 있다.For example, if the length of the data is 'T 1 ', the feature matrix 'A' can be expressed as [Formula 2] below.

[수식 2][Equation 2]

Figure 112016122636180-pat00002
Figure 112016122636180-pat00002

여기서, 'T'는 데이터 시퀀스 길이 즉 영상의 프레임 시퀀스를 의미하며, D는 프레임 내 패턴 인식 대상이 되는 특징(객체) 차원의 개수를 의미하게 된다.Here, 'T' denotes a data sequence length, that is, a frame sequence of an image, and D denotes a number of feature (object) dimensions to be pattern recognition objects in a frame.

즉, 본 발명의 일 실시예에 따른 특징 행렬에서는 행(Row)은 영상에서 하나의 프레임에 해당되며, 열(Column)은 특징 차원을 의미하는 것으로 이해될 수 있다.That is, in the feature matrix according to an exemplary embodiment of the present invention, a row corresponds to one frame in an image, and a column refers to a feature dimension.

이로써, 본 발명의 일 실시예에 따른 특징 행렬은, 하나의 프레임이 하나의 특징 벡터가 되어 프레임 시퀀스에 따라 순차적으로 쌓인 형태로 정의될 수 있다.Accordingly, the feature matrix according to an exemplary embodiment of the present invention can be defined as a feature vector in which one frame is a feature vector and is sequentially stacked according to a frame sequence.

나아가, 본 발명의 일 실시예에서는 두 특징 행렬 'Xi', Xj'간의 거리(Matrix correlation distance)가 아래 [수식 3]과 같이 정의된다.Further, in one embodiment of the present invention, the distance between two feature matrices' X i 'and X j ' is defined as follows.

[수식 3][Equation 3]

Figure 112016122636180-pat00003
Figure 112016122636180-pat00003

또한, 이처럼 [수식 3]을 통해 정의되는 값들은 아래 [수식 4]에서와 같이 표현될 수 있다.Also, the values defined by [Equation 3] can be expressed as in Equation 4 below.

[수식 4][Equation 4]

Figure 112016122636180-pat00004
Figure 112016122636180-pat00004

여기서, 'Xi,d'와 'Xj,d'는 각각 두 특징 행렬의 d 번째 열 벡터를 의미하며, 'Xi,t'와 'Xj,t'는 각각 두 특징 행렬의 t 번째 행 벡터를 의미하게 된다.Here, 'X i, d ' and 'X j, d ' are the dth column vectors of the two feature matrices, and 'X i, t ' and 'X j, t ' Which means a row vector.

한편, 본 발명의 일 실시예에 따른 특징 행렬에서는 영상의 프레임 시퀀스가 행(Row)의 형태로 그대로 보존됨에 따라 특징 행렬(Xi, Xj) 간 거리를 계산하기 위해서는 두 특징 행렬(Xi, Xj)의 크기를 동일하게 맞춰야 할 필요가 있다.On the other hand, in the feature matrix according to an embodiment of the present invention to a sequence of frames of the image to calculate the inter-row (Row) feature matrix (X i, X j) as preserved in the form of a distance two feature matrix (X i , And X j need to be equal to each other.

여기서, 두 특징 행렬(Xi, Xj)의 크기를 동일하게 맞춘다는 것은 두 특징 행렬(Xi, Xj) 각각에 해당하는 영상 간에 프레임 시퀀스 길이를 일치시키는 것으로 이해될 수 있으며, 이는 동적 시간 정합(DTW, Dynamic Time Warping)을 통해서 처리될 수 있다.Here, matching the sizes of the two feature matrices (X i , X j ) equally can be understood as matching the frame sequence lengths between the images corresponding to the two feature matrices (X i , X j ) Can be processed through DTW (Dynamic Time Warping).

허나, 이처럼 영상 간 프레임 시퀀스 길이를 일치시키는 경우, 영상 내 중복된 프레임이 존재하게 되며, 이러한 중복된 프레임은 거리 계산에 있어서 잡음 요소로 작용하여 앞선 [수식 3], [수식 4]에서 'drow' 및 'dcol'계산에 영향을 미치게 된다.However, when the frame sequence lengths are matched with each other, there is a redundant frame in the image. The overlapping frame acts as a noise element in the distance calculation and is expressed by Equation 3 and Equation 4, row 'and' d col 'calculations.

결국, 특징 행렬(Xi, Xj) 간의 거리 계산의 신뢰도를 제고하기 위해선 동적 시간 정합(DTW) 처리에 따라 발생되는 중복되는 프레임의 영향을 최소화할 필요가 있음을 알 수 있다.As a result, it is necessary to minimize the influence of the overlapping frames generated by the dynamic time alignment (DTW) processing in order to improve the reliability of the distance calculation between the feature matrices (X i , X j ).

참고로, 도 2에는 기 공개된 3 개의 동작 데이터베이스의 동작 별 프레임 시퀀스 길이를 나타내는 것으로서, 동작 별로 평균 프레임 시퀀스 길이의 차이가 있음을 확인할 수 있다.For reference, FIG. 2 shows the frame sequence length of each operation of the three operation databases, and it can be confirmed that there is a difference in the average frame sequence length for each operation.

관련하여, 아래 [표 1]에는 각 데이터베이스에서 동일 클래스 샘플 간의 프레임 시퀀스 길이 차이 및 다른 클래스 샘플과의 프레임 시퀀스 길이 차이를 보여주고 있으며, 이를 통해 동일 클래스 샘플 간의 프레임 시퀀스 길이 차이와, 다른 클래스 샘플과의 프레임 시퀀스 길이 차이에는 유의한 차이가 존재하게 됨을 확인할 수 있다.Table 1 below shows the frame sequence length difference between the same class samples and the frame sequence length difference with other class samples in each database in the following Table 1, A difference in frame sequence length between the frame sequence length and the frame sequence length can be confirmed.

데이터(영상)Data (video) 동일 클래스 간 프레임 시퀀스 길이 차이(평균)Frame sequence length difference between the same classes (average) 타 클래스와의 프레임 시퀀스 길이 차이(평균)Frame sequence length difference with other classes (average) Cambridge Hand GestureCambridge Hand Gesture 14.088114.0881 15.278015.2780 ChaLearnChaLearn 9.70569.7056 13.251713.2517 SKIGSKIG 5.76275.7627 13.101413.1014

이에, 본 발명의 일 실시예에서는 특징 행렬(Xi, Xj) 간의 거리를 계산함에 있어서, 프레임 시퀀스 길이 차이를 반영하기 위한 방안을 제안하고자 며, 이하에서는 이를 위한 유사도판별장치(100)의 구성에 대해 구체적으로 설명하기로 한다.Accordingly, in an embodiment of the present invention, a method for reflecting the difference in frame sequence length in calculating the distances between the feature matrices (X i , X j ) is proposed. Hereinafter, the similarity determination device 100 The configuration will be described in detail.

도 3은 본 발명의 일 실시예에 따른 유사도판별장치(100)의 개략적인 구성을 보여주고 있다.FIG. 3 shows a schematic configuration of a similarity determination apparatus 100 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 유사도판별장치(100)는 프레임 시퀀스 정렬을 처리하는 처리부(110), 기여도를 산출하는 산출부(120), 및 특징 행렬(Xi, Xj) 간 거리를 계산하는 계산부(130)를 포함하는 구성을 가질 수 있다.3, the similarity determination apparatus 100 according to an exemplary embodiment of the present invention includes a processing unit 110 for processing frame sequence alignment, a calculation unit 120 for calculating a contribution, and a feature matrix X i , X j ), and a calculation unit 130 for calculating the inter-vehicle distance.

이상의 처리부(110), 산출부(120), 및 계산부(130)를 포함하는 유사도판별장치(100)의 구성 전체 내지는 적어도 일부는, 하드웨어 모듈 또는 소프트웨어 모듈 형태로 구현되거나, 내지는 하드웨어 모듈과 소프트웨어 모듈이 조합된 형태로 구현될 수 있다.All or at least a part of the similarity determination apparatus 100 including the processing unit 110, the calculation unit 120 and the calculation unit 130 may be implemented in the form of a hardware module or a software module, Modules may be implemented in a combined form.

여기서, 소프트웨어 모듈이란, 예컨대, 유사도판별장치(100) 내에서 연산을 처리하는 프로세서에 의해 실행되는 명령어로 이해될 수 있으며, 이러한 명령어는 유사도판별장치(100) 내 메모리 또는 별도의 메모리에 저장된 형태를 가질 수 있다.Here, the software module may be understood as, for example, a command executed by a processor that processes an operation in the similarity determination apparatus 100, and the command may be stored in a memory in the similarity determination apparatus 100 or in a form stored in a separate memory Lt; / RTI >

결국, 본 발명의 일 실시예에 따른 유사도판별장치(100)는 전술한 구성을 통해 프레임 시퀀스 길이 차이를 반영하여 두 특징 행렬(Xi, Xj) 간의 거리를 계산할 수 있게 되는데, 이하에서는 이를 위한 유사도판별장치(100) 내 각 구성에 대해 보다 구체적으로 설명하기로 한다.As a result, the similarity determination apparatus 100 according to an embodiment of the present invention can calculate the distance between two feature matrices X i and X j by reflecting the frame sequence length difference through the above-described configuration. Hereinafter, Will be described in more detail with reference to FIG.

한편, 이하에서는 설명의 편의를 위해 특징 행렬 'Xi'는 비교 영상의 프레임 별 특징 차원을 행렬로 표현한 '제1특징 행렬'이라 명명하며, 특징 행렬 'Xj'는 비교 영상과 유사도 판별이 이루어지는 기준 영상의 프레임 별 특징 차원을 행렬로 표현한 '제2특징 행렬'이라 명명하기로 한다.Hereinafter, for convenience of explanation, the feature matrix 'X i ' is referred to as a 'first feature matrix' in which the feature dimension for each frame of the comparison image is expressed by a matrix, and the feature matrix 'X j ' And a second feature matrix in which the feature dimension of each reference frame of the reference image is expressed by a matrix.

또한, 본 발명의 일 실시예에 따라 제1특징 행렬(Xi)과 제2특징 행렬(Xj)로 각각 표현되는 비교 영상과 기준 영상은 모두 프레임마다의 픽셀 값을 이웃한 이전 프레임의 픽셀 값에 대해 빼기(subtract) 연산하여 획득되는 차 영상에 해당된다.In addition, according to an exemplary embodiment of the present invention, a comparison image and a reference image expressed by a first feature matrix X i and a second feature matrix X j , respectively, Value subtracted from the difference image.

예를 들어, T + 1개의 프레임으로 구성된 영상으로부터는 프레임 간 픽셀 값의 빼기 연산을 거쳐 T개의 프레임으로 구성된 차 영상을 획득할 수 있는 것이다.For example, from an image composed of T + 1 frames, a difference image composed of T frames can be obtained through subtraction of pixel values between frames.

처리부(110)는 프레임 시퀀스 정렬을 처리하는 기능을 수행한다.The processing unit 110 performs a function of processing frame sequence alignment.

보다 구체적으로, 처리부(110)는 비교 영상과 기준 영상 간의 유사도 판별과 관련하여 비교 영상과 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 비교 영상과 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리한다.In more detail, when there is a frame sequence length difference between the comparison image and the reference image in relation to the determination of the similarity degree between the comparison image and the reference image, the processing unit 110 determines that the frame sequence length is the same between the comparison image and the reference image, Process the alignment.

이때, 처리부(110)는 동적 시간 정합(DTW, Dynamic Time Warping) 방식을 통해서 비교 영상과 기준 영상 간 프레임 시퀀스 정렬을 처리함으로써 비교 영상과 기준 영상 간에 프레임 시퀀스 길이를 동일해지도록 한다.At this time, the processing unit 110 processes the frame sequence alignment between the comparison image and the reference image through a dynamic time warping (DTW) method, thereby making the frame sequence length equal between the comparison image and the reference image.

산출부(120)는 유사도 판별과 관련된 기여도를 산출하는 기능을 수행한다.The calculation unit 120 calculates the contribution degree associated with the determination of the degree of similarity.

보다 구체적으로, 산출부(120)는 비교 영상과 기준 영상 간에 프레임 시퀀스 정렬이 처리되는 경우, 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 기초로, 제1특징 행렬(Xi)과 제2 특징 행렬(Xj) 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출하게 된다.More specifically, when the frame sequence alignment is performed between the comparison image and the reference image, the calculating unit 120 calculates the difference between the first feature matrix X i and the second feature matrix X i based on the frame sequence length difference between the comparison image and the reference image. The contribution degree of at least one of the row and the column of each of the feature matrices X j is calculated.

이때, 산출부(120)는 기여도 산출을 위해서 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 확인하게 되며, 이러한 프레임 시퀀스 길이 차이는 절대 값으로 아래 [수식 5]와 같이 정의될 수 있다.At this time, the calculation unit 120 checks the frame sequence length difference between the comparison image and the reference image to calculate the contribution, and the difference of the frame sequence length can be defined as an absolute value as shown in [Equation 5] below.

[수식 5][Equation 5]

Figure 112016122636180-pat00005
Figure 112016122636180-pat00005

이처럼, 확인되는 프레임 시퀀스 길이 차이는 제1특징 행렬(Xi)을 기준으로 스케일링이 수행되는데, 이를 통해 다양한 값을 갖게 되는 프레임 시퀀스 길이 차이는 특정 범위 내의 값인 '

Figure 112016122636180-pat00006
'로 한정되며, 이때의 값은 아래 [수식 6]와 같이 정의될 수 있다.As described above, the frame sequence length difference that is verified is scaled based on the first feature matrix X i , and the frame sequence length difference, which has various values,
Figure 112016122636180-pat00006
Quot ;, and the value at this time can be defined as " (6) "

[수식 6][Equation 6]

Figure 112016122636180-pat00007
Figure 112016122636180-pat00007

최종적으로, 산출부(120)는 프레임 시퀀스 길이 차이에 대한 스케일링이 완료되는 경우, 스케일링된 값을 반영한 아래 [수식 7]을 통해서 제1특징 행렬(Xi)과 제2 특징 행렬(Xj) 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출할 수 있게 된다.Finally, when the scaling of the difference of the frame sequence length is completed, the calculating unit 120 calculates the first characteristic matrix X i and the second characteristic matrix X j through the following equation (7) reflecting the scaled value: It is possible to calculate the contribution that at least one of each row and column has.

[수식 7][Equation 7]

Figure 112016122636180-pat00008
Figure 112016122636180-pat00008

결국, 본 발명의 일 실시예에 따라 산출되는 기여도는 도 4에 도시된 바와1/4에서 1/2 사이의 값을 가지게 됨을 확인할 수 있으며, 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 낮게 즉, 1/4에 가까운 값으로 산출되는 것으로 이해될 수 있다.As a result, it can be seen that the contribution calculated according to an exemplary embodiment of the present invention has a value between 1/4 and 1/2 as shown in FIG. 4, and the frame sequence length difference between the comparison image and the reference image is It can be understood that the larger the value, the closer to 1/4 is calculated.

참고로, 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 크다는 것은, 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 커질수록 프레임 시퀀스 정렬과정에서 중복되는 프레임의 개수가 증가하는 것으로 이해될 수 있다.For reference, the fact that the frame sequence length difference between the comparison image and the reference image is large indicates that as the frame sequence length difference between the comparison image and the reference image increases, the number of overlapping frames increases in the frame sequence alignment process .

본 발명의 일 실시에서는 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 낮게 산출함으로써, 이후 거리 계산에 있어서 산출된 기여도의 반영을 통해서 중복되는 프레임의 영향의 상쇄를 도모하게 된다.In one embodiment of the present invention, as the frame sequence length difference between the comparison image and the reference image increases, the contribution of at least one of a row and a column is calculated to be low, And reflects the effect of overlapping frames.

계산부(130)는 특징 행렬 간의 거리를 계산하는 기능을 수행한다.The calculation unit 130 calculates a distance between the feature matrices.

보다 구체적으로, 계산부(130)는 제1특징 행렬(Xi)과 제2특징 행렬(Xj)의 행과 열이 가지게 되는 기여도 산출이 완료되면, 제1특징 행렬(Xi)과 제2특징 행렬(Xj)의 행과 열이 가지는 데이터 값에 대해 산출된 기여도를 반영함으로써, 제1특징 행렬(Xi)과 제2특징 행렬(Xj) 간의 거리를 계산하게 된다.More specifically, when the calculation of the contribution of the rows and columns of the first feature matrix X i and the second feature matrix X j is completed, the calculation unit 130 calculates the first feature matrix X i , second feature matrix by reflecting the calculated contribution for the data values having a row and a column of the (X j), the first characteristic matrix is calculated a distance between the (X i) and the second feature matrix (X j).

이때, 계산부(130)는 앞선 [수식 3] 및 [수식 4]과 같이 정의되는 계산식에 대해 산출된 기여도를 반영하는 방식을 통해서 제1특징 행렬(Xi)과 제2특징 행렬(Xj) 간의 거리를 계산하게 되는데, 이처럼 기여도를 반영하기 위한 유사도 함수 계산식은 아래 [수식 8]과 같이 정의될 수 있다.At this time, the calculation unit 130 obtains the first feature matrix X i and the second feature matrix X j ( i , j ) through a method that reflects the calculated contribution to the calculation formula defined by Expressions 3 and 4, ). The similarity function equation for reflecting the contribution can be defined as [Equation 8].

[수식 8][Equation 8]

Figure 112016122636180-pat00009
Figure 112016122636180-pat00009

한편, 위 [수식 8]에 따르면, 최종적으로 제1특징 행렬(Xi)과 제2특징 행렬(Xj) 각각에서 행에 반영되는 기여도(υ, 1/4~1/2)의 영향이 열에 반영되는 기여도(1-υ, 1/4~1/2) 영향보다 크다는 것을 확인할 수 있는데, 이는 프레임 시퀀스 정렬 과정에서 중복되는 프레임이 앞선 [수식 3], [수식 4]에서 'dcol'보다 'drow'계산에 보다 큰 영향을 미치게 되므로 'drow'의 영향을 보다 크게 감소시키기 위함이다.On the other hand, according to the above [formula 8], the final effect of the first feature matrix (X i) and the second feature matrix (X j) contribution (υ, 1/4 ~ 1 /2) is reflected in the line from each from the contribution (1-υ, 1/4 ~ 1/2) may verify that is larger than the effect which the frame is advanced [formula 3] to be duplicated in the frame sequence alignment process, [formula 4] is reflected column 'd col' more 'd row' to further greatly reduce the influence of 'd row' so effect a more significant impact on the calculated friction.

이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 유사도판별장치(100)의 구성에 따르면, 비교 영상의 특징 차원을 행렬로 표현한 제1 특징 행렬(Xi)과 기준 영상의 특징 차원을 행렬로 표현한 제2 특징 행렬(Xj) 간의 거리를 계산하는데 있어서, 잡음 요소로 작용할 수 있는 영상 간 프레임 시퀀스 길이 차이를 반영함으로써, 비교 영상과 기준 영상 간 프레임 시퀀스 정렬에 따라 발생되는 중복된 프레임의 영향을 최소화시킬 수 있으므로 거리 계산 결과의 신뢰도를 제고시키는 효과가 성취될 수 있다.As described above, according to the configuration of the similarity degree determination unit 100 in accordance with one embodiment of the present invention, a first feature image of the characteristic dimension of the comparative image to the matrix the matrix (X i) and matrix characteristics dimension of the reference image (X j ) by reflecting the difference in frame sequence length between the images that can act as a noise component, it is possible to reduce the number of overlapping frames generated due to the frame sequence alignment between the comparison image and the reference image Since the influence can be minimized, the effect of increasing the reliability of the distance calculation result can be achieved.

이하에서는, 도 5를 참조하여 본 발명의 일 실시예에 따른 유사도판별장치(100)에서의 동작 흐름 즉, 유사도 판별을 위한 특징 행렬 간 거리 계산 방법에 대해 설명하기로 한다.Hereinafter, an operation flow in the similarity determination apparatus 100 according to an embodiment of the present invention, that is, a method of calculating a distance between feature matrices for determining similarity, will be described with reference to FIG.

먼저, 처리부(110)는 단계 'S10' 내지 'S30'에 따라, 비교 영상과 기준 영상 간의 유사도 판별과 관련하여 비교 영상과 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 비교 영상과 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리한다.First, in accordance with steps 'S10' to 'S30', when there is a frame sequence length difference between a comparison image and a reference image in relation to the determination of similarity between the comparison image and the reference image, The frame sequence alignment is processed such that the frame sequence length becomes equal.

이때, 처리부(110)는 동적 시간 정합(DTW, Dynamic Time Warping) 방식을 통해서 비교 영상과 기준 영상 간 프레임 시퀀스 정렬을 처리함으로써 비교 영상과 기준 영상 간에 프레임 시퀀스 길이를 동일해지도록 한다.At this time, the processing unit 110 processes the frame sequence alignment between the comparison image and the reference image through a dynamic time warping (DTW) method, thereby making the frame sequence length equal between the comparison image and the reference image.

이어서, 산출부(120)는 비교 영상과 기준 영상 간에 프레임 시퀀스 정렬이 처리되는 경우, 단계 'S40' 및 'S50'에 따라, 비교 영상과 기준 영상 간에 프레임 시퀀스 길이 차이를 특정 범위 내의 값으로 한정하기 위한 스케일링을 수행하며, 최종적으로 스케일링된 값을 반영하여 제1특징 행렬(Xi)과 제2 특징 행렬(Xj) 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출한다.If the frame sequence alignment is performed between the comparison image and the reference image, the calculating unit 120 limits the frame sequence length difference between the comparison image and the reference image to a value within a specific range in accordance with steps 'S40' and 'S50' And the contribution of at least one of the row and column of each of the first feature matrix X i and the second feature matrix X j is calculated by reflecting the finally scaled value, .

이때, 산출부(120)는 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 제1특징 행렬(Xi)과 제2 특징 행렬(Xj) 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 낮게 산출하게 된다.At this time, the calculation unit 120 calculates the number of rows and columns of the first feature matrix X i and the second feature matrix X j as the frame sequence length difference between the comparison image and the reference image increases, The contribution of at least one of them is calculated to be low.

참고로, 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 크다는 것은, 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 커질수록 프레임 시퀀스 정렬과정에서 중복되는 프레임의 개수가 증가하는 것으로 이해될 수 있다.For reference, the fact that the frame sequence length difference between the comparison image and the reference image is large indicates that as the frame sequence length difference between the comparison image and the reference image increases, the number of overlapping frames increases in the frame sequence alignment process .

이에, 본 발명의 일 실시에서는 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 낮게 산출함으로써, 이후 거리 계산에 있어서 산출된 기여도의 반영을 통해서 중복되는 프레임의 영향의 상쇄를 도모하게 된다.Therefore, in one embodiment of the present invention, as the frame sequence length difference between the comparison image and the reference image is increased, the contribution of at least one of the row and the column is calculated to be low, By reflecting the contribution, the effect of overlapping frames is canceled.

이후, 계산부(130)는 제1특징 행렬(Xi)과 제2특징 행렬(Xj)의 행과 열이 가지게 되는 기여도 산출이 완료되면, 단계 'S60' 및 'S70'에 따라 제1특징 행렬(Xi)과 제2특징 행렬(Xj)의 행과 열이 가지는 데이터 값에 대해 산출된 기여도를 반영함으로써, 제1특징 행렬(Xi)과 제2특징 행렬(Xj) 간의 거리를 계산한다.When the calculation of the contribution of the rows and columns of the first feature matrix X i and the second feature matrix X j is completed, the calculation unit 130 calculates the contribution of the first feature matrix X i and the second feature matrix X j according to steps S60 and S70 The difference between the first feature matrix X i and the second feature matrix X j is calculated by reflecting the calculated contribution to the data values of the rows and columns of the feature matrix X i and the second feature matrix X j . Calculate the distance.

한편, 계산부(130)는 앞선 'S20' 단계에서 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 존재하지 않는 경우에는, 제1특징 행렬(Xi)과 제2특징 행렬(Xj)의 행과 열이 가지는 데이터 값에 대해 기 정의된 기본 기여도(예: 0.5)를 동일하게 반영함으로써, 제1특징 행렬(Xi)과 제2특징 행렬(Xj) 간의 거리를 계산할 수 있다.If the frame sequence length difference does not exist between the comparison image and the reference image in step S20, the calculation unit 130 calculates the first feature matrix Xi and the second feature matrix Xj , The distance between the first feature matrix X i and the second feature matrix X j can be calculated by equally reflecting the predefined basic contribution (for example, 0.5) to the data values of the rows and columns of the first feature matrix X i .

이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 유사도판별장치(100)에서의 동작 흐름에 따르면, 비교 영상의 특징 차원을 행렬로 표현한 제1 특징 행렬(Xi)과 기준 영상의 특징 차원을 행렬로 표현한 제2 특징 행렬(Xj) 간의 거리를 계산하는데 있어서, 잡음 요소로 작용할 수 있는 영상 간 프레임 시퀀스 길이 차이를 반영함으로써, 비교 영상과 기준 영상 간 프레임 시퀀스 정렬에 따라 발생되는 중복된 프레임의 영향을 최소화시킬 수 있으므로 거리 계산 결과의 신뢰도를 제고시키는 효과가 성취될 수 있다.As described above, according to the operation flow of the similarity determination apparatus 100 according to an embodiment of the present invention, the feature matrix of the comparison image is expressed by a matrix of a first feature matrix X i , And the second feature matrix X j expressing the first feature matrix X j by reflecting the difference in frame sequence length between the images that can act as a noise component, Since the influence of the frame can be minimized, the effect of improving the reliability of the distance calculation result can be achieved.

한편, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다.  본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 처리 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.It should be understood that the functional operations and subject matter implementations described herein may be implemented as digital electronic circuitry, or may be embodied in computer software, firmware, or hardware, including the structures disclosed herein, and structural equivalents thereof, . Implementations of the subject matter described herein may be implemented as one or more computer program products, i. E. One or more modules relating to computer program instructions encoded on a type of program storage medium for execution by, or control of, the operation of the processing system Can be implemented.

컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

본 명세서에서 "시스템"이나 "장치"라 함은 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 처리 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.As used herein, the term " system "or" device "encompasses any apparatus, apparatus, and machine for processing data, including, for example, a programmable processor, a computer or a multiprocessor or computer. The processing system may, in addition to the hardware, comprise code that forms an execution environment for a computer program upon request, such as, for example, code comprising a processor firmware, a protocol stack, a database management system, an operating system, .

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language, a priori or procedural language, Components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in the file system. The program may be stored in a single file provided to the requested program, or in multiple interactive files (e.g., a file storing one or more modules, subprograms, or portions of code) (E.g., one or more scripts stored in a markup language document). A computer program may be deployed to run on multiple computers or on one computer, located on a single site or distributed across multiple sites and interconnected by a communications network.

한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer readable media suitable for storing computer program instructions and data include semiconductor memory devices such as, for example, EPROM, EEPROM and flash memory devices, such as magnetic disks such as internal hard disks or external disks, Non-volatile memory, media and memory devices, including ROM and DVD-ROM disks. The processor and memory may be supplemented by, or incorporated in, special purpose logic circuits.

본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein may include, for example, a back-end component such as a data server, or may include a middleware component, such as an application server, or may be a web browser or a graphical user, for example a user, who may interact with an implementation of the subject- Front-end components such as client computers with interfaces, or any combination of one or more of such back-end, middleware, or front-end components. The components of the system may be interconnected by any form or medium of digital data communication, such as, for example, a communications network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Likewise, the specific features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다It is also to be understood that although the present invention is described herein with particular sequence of operations in the drawings, it is to be understood that it is to be understood that it is to be understood that all such illustrated acts have to be performed or that such acts must be performed in their particular order or sequential order, Can not be done. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood that

이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, the present specification is not intended to limit the invention to the specific terminology presented. Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, modifications, and variations on these examples without departing from the scope of the present invention. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명에 일 실시예에 따른 유사도판별장치 및 거리 계산 방법에 따르면, 영상 간 프레임 시퀀스 길이 차이를 반영하여 영상의 프레임 별 특징 차원을 행렬로 표현한 특징 행렬 간에 거리(correlation distance) 계산이 이루어지고 있다는 점에서 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.According to the similarity determination apparatus and the distance calculation method according to an embodiment of the present invention, a correlation distance calculation is performed between feature matrices representing a feature dimension for each frame of an image by reflecting a frame sequence length difference between images It is not only the use of the related technology but also the possibility of commercialization or operation of the applied device as well as the possibility of being practically and practically possible because it exceeds the limit of the existing technology.

100: 유사도판별장치
110: 처리부 120: 산출부
130: 계산부
100:
110: processing unit 120:
130:

Claims (8)

비교 영상과 기준 영상 간의 유사도 판별과 관련하여, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리하는 처리부;
상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 기초로, 상기 비교 영상을 나타내는 제1특징 행렬과 상기 기준 영상을 나타내는 제2 특징 행렬 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출하며, 상기 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각에서 행과 열이 가지게 되는 기여도를 낮게 산출하는 산출부; 및
상기 제1 특징 행렬과 상기 제2 특징 행렬 각각의 행과 열이 가지는 데이터 값에 대해 상기 기여도를 반영하여 상기 제1 특징 행렬과 상기 제2 특징 행렬 간의 거리를 계산하는 계산부를 포함하는 것을 특징으로 하는 유사도판별장치.
In case of a similarity between the comparison image and the reference image, if there is a difference in frame sequence length between the comparison image and the reference image, the frame sequence alignment is processed so that the frame sequence length becomes equal between the comparison image and the reference image A processor;
Wherein at least one of a row and a column of each of a first feature matrix representing the comparison image and a second feature matrix representing the reference image is generated based on a frame sequence length difference between the comparison image and the reference image A calculating unit for calculating a degree of contribution of the first feature matrix and the second feature matrix to each other as the frame sequence length difference between the comparison image and the reference image increases; And
And a calculation unit for calculating a distance between the first feature matrix and the second feature matrix by reflecting the contribution to data values of rows and columns of the first feature matrix and the second feature matrix, .
삭제delete 제 1 항에 있어서,
상기 비교 영상과 상기 기준 영상 각각은,
프레임마다의 픽셀 값을 이웃한 이전 프레임의 픽셀 값에 대해 빼기(subtract) 연산하여 획득되는 차 영상인 것을 특징으로 하는 유사도판별장치.
The method according to claim 1,
Wherein each of the comparison image and the reference image comprises:
Wherein the difference image is a difference image obtained by subtracting a pixel value of each frame from a pixel value of a neighboring previous frame.
비교 영상과 기준 영상 간의 유사도 판별과 관련하여, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이가 존재하는 경우, 상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이가 동일해지도록 프레임 시퀀스 정렬을 처리하는 처리단계;
상기 비교 영상과 상기 기준 영상 간에 프레임 시퀀스 길이 차이를 기초로, 상기 비교 영상을 나타내는 제1특징 행렬과 상기 기준 영상을 나타내는 제2 특징 행렬 각각의 행(Row)과 열(Column) 중 적어도 하나가 가지게 되는 기여도를 산출하며, 상기 비교 영상과 상기 기준 영상 간에 상기 프레임 시퀀스 길이 차이가 클수록 상기 제1 특징 행렬과 상기 제2 특징 행렬 각각에서 행과 열이 가지게 되는 기여도를 낮게 산출하는 산출단계; 및
상기 제1 특징 행렬과 상기 제2 특징 행렬 각각의 행과 열이 가지는 데이터 값에 대해 상기 기여도를 반영하여 상기 제1 특징 행렬과 상기 제2 특징 행렬 간의 거리를 계산하는 계산단계를 포함하는 것을 특징으로 하는 거리 계산 방법.
In case of a similarity between the comparison image and the reference image, if there is a difference in frame sequence length between the comparison image and the reference image, the frame sequence alignment is processed so that the frame sequence length becomes equal between the comparison image and the reference image Processing step;
Wherein at least one of a row and a column of each of a first feature matrix representing the comparison image and a second feature matrix representing the reference image is generated based on a frame sequence length difference between the comparison image and the reference image Calculating a contribution of the first feature matrix and the second feature matrix to each other as the frame sequence length difference between the comparison image and the reference image increases; And
And calculating the distance between the first feature matrix and the second feature matrix by reflecting the contribution to data values of the rows and columns of the first feature matrix and the second feature matrix, respectively .
삭제delete 제 4 항에 있어서,
상기 비교 영상과 상기 기준 영상 각각은,
프레임마다의 픽셀 값을 이웃한 이전 프레임의 픽셀 값에 대해 빼기(subtract) 연산하여 획득되는 차 영상인 것을 특징으로 하는 거리 계산 방법.
5. The method of claim 4,
Wherein each of the comparison image and the reference image comprises:
Wherein the difference image is a difference image obtained by subtracting a pixel value of each frame from a pixel value of a neighboring previous frame.
제 4 항 또는 제 6 항의 각 단계를 실행시키도록 구현되어 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable recording medium, the computer program being embodied to execute the steps of claim 4 or 6. 제 4 항 또는 제 6 항의 각 단계를 실행시키기 위한 명령어를 포함하는 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium containing instructions for executing the steps of claim 4 or claim 6.
KR1020160170336A 2016-12-14 2016-12-14 Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance KR101838207B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160170336A KR101838207B1 (en) 2016-12-14 2016-12-14 Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160170336A KR101838207B1 (en) 2016-12-14 2016-12-14 Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance

Publications (1)

Publication Number Publication Date
KR101838207B1 true KR101838207B1 (en) 2018-03-13

Family

ID=61660930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160170336A KR101838207B1 (en) 2016-12-14 2016-12-14 Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance

Country Status (1)

Country Link
KR (1) KR101838207B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109782811A (en) * 2019-02-02 2019-05-21 绥化学院 A kind of automatic tracing control system and method for unmanned model car

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109782811A (en) * 2019-02-02 2019-05-21 绥化学院 A kind of automatic tracing control system and method for unmanned model car
CN109782811B (en) * 2019-02-02 2021-10-08 绥化学院 Automatic following control system and method for unmanned model vehicle

Similar Documents

Publication Publication Date Title
US11593654B2 (en) System for performing convolutional image transformation estimation
US11170210B2 (en) Gesture identification, control, and neural network training methods and apparatuses, and electronic devices
US9542621B2 (en) Spatial pyramid pooling networks for image processing
US9967516B2 (en) Stereo matching method and device for performing the method
US20160307074A1 (en) Object Detection Using Cascaded Convolutional Neural Networks
CN111160288A (en) Gesture key point detection method and device, computer equipment and storage medium
US9633280B2 (en) Image processing apparatus, method, and storage medium for determining pixel similarities
US9838587B2 (en) System for registration of virtual space and real space, method for registering display apparatus and image sensor, and electronic device registered using the method
CN111801706A (en) Video object detection
US11822900B2 (en) Filter processing device and method of performing convolution operation at filter processing device
JP2010266964A (en) Image retrieval device, its control method, and program
KR101838207B1 (en) Apparatus for distinguishing similarity, and calculation method for calculation metrix correlation distance
CN112949576B (en) Attitude estimation method, apparatus, device and storage medium
KR101836346B1 (en) Apparatus for distinguishing similarity, and calculation method for calculation matrix correlation distance
US9171227B2 (en) Apparatus and method extracting feature information of a source image
JP2016021097A (en) Image processing device, image processing method, and program
CN115630663A (en) Two-dimensional code identification method and device and electronic equipment
CN107977628B (en) Neural network training method, face detection method and face detection device
CN113255700B (en) Image feature map processing method and device, storage medium and terminal
Kanaeva et al. Camera pose and focal length estimation using regularized distance constraints
CN107967691B (en) Visual mileage calculation method and device
KR102371594B1 (en) Apparatus for automatic calibration of stereo camera image, system having the same and method thereof
JPWO2017209213A1 (en) Image processing apparatus, image processing method, and program
KR102187192B1 (en) Method for acquiring image disparity and apparatus for the same
WO2019186833A1 (en) Image processing device, image processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant