KR20180054406A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
KR20180054406A
KR20180054406A KR1020170058547A KR20170058547A KR20180054406A KR 20180054406 A KR20180054406 A KR 20180054406A KR 1020170058547 A KR1020170058547 A KR 1020170058547A KR 20170058547 A KR20170058547 A KR 20170058547A KR 20180054406 A KR20180054406 A KR 20180054406A
Authority
KR
South Korea
Prior art keywords
target
candidate selection
frame
image processing
processing apparatus
Prior art date
Application number
KR1020170058547A
Other languages
Korean (ko)
Other versions
KR102369413B1 (en
Inventor
린 마
데헹 퀴안
남동경
광웨이 왕
허진구
징타오 쑤
밍카이 저우
퀴앙 왕
자이란 왕
지화 리우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/794,677 priority Critical patent/US10565713B2/en
Publication of KR20180054406A publication Critical patent/KR20180054406A/en
Application granted granted Critical
Publication of KR102369413B1 publication Critical patent/KR102369413B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

An image processing device comprises: a calculation part calculating a location offset related to each of a plurality of candidate selection regions in a second frame based on a location of a basis image in a first frame; and a determination part determining a final selection region including a target in the second frame according to the calculated location offset and a weight assigned to each of the plurality of candidate selection regions.

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}[0001] IMAGE PROCESSING APPARATUS AND METHOD [0002]

아래의 설명은 영상 처리 기술에 관한 것이다.The following description relates to image processing technology.

스마트 폰, 태블릿 PC(personal computer), 랩탑 컴퓨터 등과 같은 휴대용 단말들이 널리 보급되고 있다. 이에 따라, 휴대용 단말에 있는 촬영 장치를 통해 관심 있는 타겟(target)을 연속적으로 촬영하는 것이 가능해졌다. 연속 촬영되는 비디오 파일 내에서 명확한 프레임을 획득하기 위해서는, 타겟에 대한 추적과 그에 따른 초점 조정을 수행하는 과정이 필요할 것이다.Portable terminals such as a smart phone, a personal computer (PC), a laptop computer, and the like are becoming popular. Thus, a target of interest can be continuously photographed through a photographing apparatus in the portable terminal. In order to acquire a clear frame in a video file continuously shot, it is necessary to perform a process of tracking the target and adjusting the focus accordingly.

타겟 추적 방법에는 예를 들어, 복수의 영역 중 특정 바운딩 박스(bounding box)에 대해 선택적 탐색(selective search)을 수행하는 방법, 각각의 포인트들의 확률적 움직임을 예측하는 파티클 필터(particle filter)를 이용하여 프레임 내 타겟을 추적하는 방법 등이 존재하고 있다.The target tracking method includes, for example, a method of performing selective search for a specific bounding box among a plurality of regions, a method of using a particle filter for predicting stochastic movement of each point, And tracking the target in the frame.

일측에 따르면, 제1 프레임 내의 기저 영상(basis image)의 위치에 기초하여 제2 프레임 내의 복수의 후보 선택 영역 각각에 관한 위치 오프셋을 계산하는 계산부 및 상기 계산된 위치 오프셋 및 상기 복수의 후보 선택 영역 각각에 할당된 가중치에 따라 상기 제2 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정하는 결정부를 포함할 수 있다.According to one aspect, there is provided a computing unit for calculating a position offset for each of a plurality of candidate selection regions in a second frame based on a position of a basis image in a first frame, And a determination unit that determines a final selection area including the target in the second frame according to a weight assigned to each of the areas.

일실시예에 따르면, 상기 결정부는 상기 복수의 후보 선택 영역 각각의 상기 제2 프레임 내의 위치에 기초하여 상기 가중치를 결정할 수 있다.According to one embodiment, the determination unit may determine the weight based on a position in the second frame of each of the plurality of candidate selection areas.

다른 일실시예에 따르면, 상기 계산부는 상기 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산하고, 상기 복수의 위치 오프셋 각각에 대해 상기 가중치를 적용하여 상기 타겟을 추적하는 타겟 위치 오프셋을 계산할 수 있다.According to another embodiment, the calculation unit calculates a plurality of position offsets by applying a characteristic regression matrix to each of the plurality of candidate selection regions, and applies the weight to each of the plurality of position offsets to track the target The target position offset can be calculated.

또 다른 일실시예에 따르면, 상기 계산부는 미리 학습된 복수의 특징회귀행렬을 이용하여 제1 후보 선택 영역에 관한 복수의 위치 오프셋을 계산하고, 상기 복수의 위치 오프셋의 평균값을 이용하여 상기 제1 후보 선택 영역에 대응하는 제1 위치 오프셋을 계산할 수 있다. 또한, 상기 복수의 특징회귀행렬은 상기 기저 영상 내의 특징 포인트 및 복수의 샘플 프레임 각각의 특징 포인트들에 따른 위치 오프셋에 기초하여 학습될 수 있다.According to another embodiment, the calculation unit may calculate a plurality of position offsets with respect to the first candidate selection region using a plurality of previously learned feature regression matrices, and calculate a plurality of position offsets using the average of the plurality of position offsets, And calculate a first position offset corresponding to the candidate selection area. Further, the plurality of feature regression matrices may be learned based on feature points in the base image and position offsets according to feature points of each of the plurality of sample frames.

또 다른 일실시예에 따르면, 상기 영상 처리 장치는 상기 제1 프레임 내의 기저 영상에 기초하여 상기 제2 프레임에서 상기 타겟에 관한 초기 선택 영역을 결정하고, 상기 결정된 초기 선택 영역을 중심으로 상기 복수의 후보 선택 영역을 추출하는 추출부를 더 포함할 수 있다. 상기 추출부는 상기 제1 프레임 및 상기 제2 프레임 사이의 전체 위치 오프셋을 계산하고, 상기 계산된 전체 위치 오프셋과 상기 기저 영상 내에 타겟이 존재하는 위치 정보에 기초하여 초기 선택 영역을 결정할 수 있다.According to another embodiment, the image processing apparatus may determine an initial selection region related to the target in the second frame based on a base image in the first frame, and determine, based on the determined initial selection region, And an extraction unit for extracting the candidate selection area. The extracting unit may calculate an overall position offset between the first frame and the second frame, and may determine an initial selection area based on the calculated total position offset and position information of the target in the base image.

또 다른 일실시예에 따르면, 상기 추출부는 상기 기저 영상 내의 특징 포인트에 대응하는 투영 포인트들을 상기 제2 프레임 내에서 추출하고, 상기 추출된 투영 포인트들과 소정 범위 내에 존재하는 포인트들의 텍스처 값을 이용하여 상기 전체 위치 오프셋을 결정할 수 있다. 상기 추출부는 상기 추출된 투영 포인트를 중심으로 소정 범위 내의 포인트들을 추출하고, 추출된 포인트들의 텍스처 값과 상기 특징 포인트의 텍스처 값의 유사도에 따라 상기 특징 포인트에 대응하는 매칭 포인트를 결정하고, 상기 특징 포인트의 위치 및 상기 매칭 포인트의 위치를 비교하여 상기 전체 위치 오프셋을 결정할 수 있다.According to another embodiment, the extraction unit extracts projection points corresponding to feature points in the base image in the second frame, and uses texture values of the extracted projection points and points within a predetermined range To determine the overall position offset. Wherein the extraction unit extracts points within a predetermined range around the extracted projection point, determines a matching point corresponding to the feature point according to a similarity between a texture value of the extracted points and a texture value of the feature point, The position of the point and the position of the matching point may be compared to determine the overall position offset.

또 다른 일실시예에 따르면, 상기 영상 처리 장치는 상기 최종 선택 영역이 결정된 상기 제2 프레임을 저장하고, 저장된 프레임들의 개수가 임계치 이상이 되는 경우에 상기 프레임들의 타겟 추적 결과값에 따라 상기 기저 영상을 업데이트 하는 저장부를 더 포함할 수 있다.According to another embodiment, the image processing apparatus stores the second frame in which the final selection area is determined, and when the number of stored frames becomes equal to or greater than a threshold value, And a storage unit for updating the storage unit.

다른 일측에 따르면, 영상 처리 방법은 타겟의 특징에 관한 포지티브 샘플(positive sample)과 복수의 후보 선택 영역 각각이 갖는 유사도를 계산하는 단계 및 상기 계산된 유사도에 따라 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정하는 단계를 포함할 수 있다.According to another aspect, an image processing method includes calculating a similarity of each of a positive sample and a plurality of candidate selection regions with respect to a characteristic of a target, and determining a final selection And determining a region.

일실시예에 따르면, 상기 유사도를 계산하는 단계는 희소 부분공간 클러스터링(SSC: Sparse Subspace Clustering) 모델에 포함되는 상기 포지티브 샘플의 특징과 각각의 후보 선택 영역 내의 서브 영역의 특징을 비교하여 상기 유사도를 계산하는 단계를 포함할 수 있다.According to an exemplary embodiment, the step of calculating the similarity may include comparing the features of the positive sample included in the Sparse Subspace Clustering (SSC) model with the features of the sub-regions within each candidate selection region, And a step of calculating.

다른 일실시예에 따르면, 상기 유사도를 계산하는 단계는 제1 후보 선택 영역에 포함되는 복수의 서브 영역에 관한 유사도들의 합에 따라 상기 제1 후보 선택 영역의 유사도를 계산하는 단계를 포함할 수 있다.According to another embodiment, calculating the similarity may include calculating the similarity of the first candidate selection region according to the sum of the similarities with respect to the plurality of subareas included in the first candidate selection region .

또 다른 일실시예에 따르면, 상기 희소 부분공간 클러스터링 모델은 상기 타겟의 특징에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역의 특징에 관한 네거티브 샘플의 유클리드 거리에 기초하여 복수의 샘플 프레임으로부터 학습될 수 있다.According to yet another embodiment, the sparse subspace clustering model can be learned from a plurality of sample frames based on the Euclidean distance of the positive sample with respect to the characteristic of the target and the negative sample with respect to the characteristic of the neighborhood of the target have.

또 다른 일실시예에 따르면, 상기 영상 처리 방법은 상기 프레임의 최종 선택 영역과 상기 포지티브 샘플의 유사도와 이전 프레임들과 상기 포지티브 샘플의 유사도 평균값을 비교하는 단계 및 상기 비교 결과에 따라 상기 프레임을 새롭게 저장하는 단계를 포함할 수 있다. 보다 구체적으로, 상기 영상 처리 방법은 저장된 프레임들의 개수와 소정의 임계치를 비교하고, 상기 비교의 결과에 따라 상기 저장된 프레임들을 샘플 프레임으로서 이용하여 희소 부분공간 클러스터링 모델을 업데이트하는 단계를 더 포함할 수 있다.According to another embodiment of the present invention, the image processing method further comprises the steps of: comparing a similarity degree between the last selected region of the frame and the positive sample, a similarity average value between the previous frames and the positive sample; And storing it. More specifically, the image processing method may further comprise the step of comparing the number of stored frames with a predetermined threshold, and updating the sparse subspace clustering model using the stored frames as a sample frame according to a result of the comparison have.

또 다른 일측에 따르면, 기저 영상을 이용하여 입력 프레임으로부터 복수의 후보 선택 영역을 추출하는 추출부, 상기 복수의 후보 선택 영역 각각에 존재하는 특징 포인트들로부터 타겟을 추적하는 타겟 위치 오프셋을 계산하는 제1 계산부, 타겟의 특징에 관한 포지티브 샘플과 상기 복수의 후보 선택 영역 각각이 갖는 유사도를 계산하는 제2 계산부 및 상기 타겟 위치 오프셋에 제1 가중치를 적용하고 상기 복수의 후보 선택 영역 각각의 유사도에 제2 가중치를 적용하여, 상기 타겟을 포함하는 최종 선택 영역을 결정하는 결정부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for calculating a target position offset for tracking a target from feature points existing in each of a plurality of candidate selection regions, A second calculator for calculating a similarity of each of the plurality of candidate selection regions with respect to a positive sample with respect to a feature of the target, and a second calculation unit for applying a first weight to the target position offset, And a determination unit for determining a final selection region including the target by applying a second weight to the target.

일실시예에 따르면, 상기 제1 계산부는 상기 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산하고, 상기 계산된 복수의 위치 오프셋에 가중치를 적용하여 상기 타겟 위치 오프셋을 계산할 수 있다.According to one embodiment, the first calculator calculates a plurality of position offsets by applying a characteristic regression matrix to each of the plurality of candidate selection regions, and applies a weight to the calculated plurality of position offsets to calculate the target position offset Can be calculated.

다른 일실시예에 따르면, 상기 제2 계산부는 상기 타겟에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역에 관한 네거티브 샘플을 이용하여 학습된 혼합 희소 부분공간 클러스터링(HSSC: Hybrid Sparse Subspace Clustering) 모델에 따라 상기 유사도를 계산할 수 있다.According to another embodiment, the second calculation unit may calculate a target value of the target according to a Hybrid Sparse Subspace Clustering (HSSC) model learned using a positive sample of the target and a negative sample of a neighboring region of the target. The degree of similarity can be calculated.

또 다른 일측에 따르면 현재 프레임 중 타겟에 관한 후보 선택 영역을 획득하는 단계 및 상기 획득한 후보 선택 영역에 대해 특징회귀를 진행하여 최종 선택 영역을 획득하는 단계를 포함하는 타겟 추적 방법이 제공된다.According to another aspect, there is provided a target tracking method comprising obtaining a candidate selection region for a target of a current frame and proceeding with characteristic regression for the obtained candidate selection region to obtain a final selection region.

일실시예에 따르면, 상기 현재 프레임 중 타겟에 관한 후보 선택 영역을 획득하는 단계는, 미리 저장된 프레임 중 타겟의 기저 영상에 기초하여 상기 현재 프레임 중 타겟의 초기 선택 영역의 정보를 결정하는 단계 및 상기 타겟의 초기 선택 영역 주위의 제1 설정 개수의 후보 선택 영역의 정보를 획득하는 단계를 포함할 수 있다.According to one embodiment, the step of acquiring the candidate selection region relating to the target among the current frames includes the steps of: determining information of an initially selected region of the target of the current frame based on a base image of the target among the previously stored frames; And obtaining information of a first set number of candidate selection areas around the initial selection area of the target.

다른 일실시예에 따르면, 상기 획득한 후보 선택 영역에 대하여 특징회귀를 진행하여 최종 선택 영역을 획득하는 단계는, 특징회귀행렬에 기초하여 획득한 각각의 후보 선택 영역의 정보에 대하여 회귀하는 단계 및 상기 회귀로 획득한 후보 선택 영역의 종합 회귀 후의 정보에 기초하여 상기 타겟의 최종 선택 영역을 결정하는 단계를 포함할 수 있다.According to another embodiment, the step of performing the feature regression for the obtained candidate selection region to obtain the final selection region includes the steps of: regressing the information of each candidate selection region obtained based on the feature regression matrix; And determining a final selected region of the target based on information after comprehensive regression of the candidate selection region obtained by the regression.

또 다른 일실시예에 따르면, 상기 획득한 후보 선택 영역에 대하여 특징회귀를 진행하여 최종 선택 영역을 획득하는 단계는, 획득한 후보 선택 영역에 대하여 특징회귀와 특징평가를 진행하여 최종 선택 영역을 획득하는 단계를 더 포함할 수 있다.According to still another embodiment of the present invention, the step of performing the feature regression for the obtained candidate selection region to acquire the final selection region includes the steps of: performing the feature regression and the feature evaluation on the obtained candidate selection region, The method comprising the steps of:

또 다른 일측에 따르면, 현재 프레임 중 타겟에 관한 후보 선택 영역을 획득하는 단계 및 획득한 후보 선택 영역에 대하여 특징평가를 진행하여 최종 선택 영역을 획득하는 단계를 포함하고, 상기 특징평가는 희소 부분공간 클러스터링 모델에 기초하여 진행되는 타겟 추적 방법이 제공된다.According to another aspect, the method includes obtaining a candidate selection region with respect to a target of a current frame, and performing a feature evaluation on the obtained candidate selection region to obtain a final selection region, A progress tracking method based on the clustering model is provided.

일실시예에 따르면, 상기 획득한 후보 선택 영역에 대하여 특징평가를 하여 최종 선택 영역을 획득하는 단계는, 희소 부분공간 클러스터링 모델에 기초하여 획득한 각각의 후보 선택 영역의 정보에 대하여 평가를 하는 단계 및 상기 평가로 획득한 최대 평가 값의 후보 선택 영역의 정보에 기초하여 상기 타겟의 최종 선택 영역을 결정하는 단계를 포함할 수 있다.According to an exemplary embodiment, the step of performing feature evaluation on the obtained candidate selection region to obtain a final selection region includes evaluating information of each candidate selection region acquired based on the sparse partial space clustering model And determining the final selected region of the target based on the information of the candidate selection region of the maximum evaluation value obtained by the evaluation.

다른 일실시예에 따르면, 상기 희소 부분공간 클러스터링 모델에 기초하여 획득한 각각의 후보 선택 영역의 정보에 대하여 평가를 하는 단계는, 상기 희소 부분공간 클러스터링 모델에 기초하여 획득한 각각의 후보 선택 영역의 각각의 서브 후보 선택 영역의 영상 특징에 대하여 평가를 하는 단계, 각각의 서브 후보 선택 영역의 영상 특징의 평가값에 기초하여 상기 후보 선택 영역의 영상 특징의 평가값을 결정하는 단계 및 각각의 후보 선택 영역 특징의 평가 값에서 최대 평가 값을 결정하는 단계를 포함할 수 있다.According to another embodiment, the step of evaluating information of each candidate selection area acquired based on the sparse subspace clustering model may include the step of evaluating information of each candidate selection area obtained based on the sparse subspace clustering model Determining an evaluation value of an image feature of the candidate selection area based on evaluation values of image features of each sub-candidate selection area; And determining the maximum evaluation value from the evaluation value of the area feature.

도 1은 일실시예에 따른 영상 처리 장치의 동작을 설명하는 예시도이다.
도 2는 일실시예에 따른 영상 처리 장치를 설명하는 블록도이다.
도 3a 및 도 3b는 도 2에서 설명된 영상 처리 장치가 기저 영상을 이용하여 초기 선택 영역을 결정하는 과정을 도시하는 예시도이다.
도 4는 도 2에서 설명된 영상 처리 장치가 타겟을 포함하는 최종 선택 영역을 결정하는 과정을 설명하는 흐름도이다.
도 5는 다른 일실시예에 따른 영상 처리 장치가 특징회귀행렬을 학습하는 과정을 설명하는 흐름도이다.
도 6은 또 다른 일실시예에 따른 영상 처리 장치가 타겟을 포함하는 최종 선택 영역을 결정하는 과정을 설명하는 흐름도이다.
도 7a 및 도 7b는 또 다른 일실시예에 따른 영상 처리 장치가 샘플 프레임을 이용하여 포지티브 샘플과 네거티브 샘플을 추출하는 과정을 설명하는 예시도이다.
도 8은 도 7a에서 설명된 영상 처리 장치가 희소 부분공간 클러스터링 모델을 학습하는 과정을 설명하는 흐름도이다.
도 9는 또 다른 일실시예에 따른 영상 처리 장치를 설명하는 블록도이다.
FIG. 1 is a diagram illustrating an operation of an image processing apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating an image processing apparatus according to an embodiment.
FIG. 3A and FIG. 3B are views illustrating a process of determining an initial selection region using a base image by the image processing apparatus illustrated in FIG. 2. FIG.
4 is a flowchart illustrating a process of determining a final selection area including a target by the image processing apparatus illustrated in FIG.
FIG. 5 is a flowchart illustrating a process of learning a characteristic regression matrix by an image processing apparatus according to another embodiment.
FIG. 6 is a flowchart illustrating a process of determining a final selection area including a target according to another embodiment of the present invention.
FIGS. 7A and 7B are diagrams for explaining a process of extracting a positive sample and a negative sample using a sample frame according to another embodiment of the present invention.
FIG. 8 is a flowchart illustrating a process of learning a sparse partial space clustering model by the image processing apparatus illustrated in FIG. 7A.
9 is a block diagram illustrating an image processing apparatus according to another embodiment.

본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions disclosed herein may be implemented by way of example only, and that the embodiments may be embodied in various other forms and are not limited to the embodiments described herein It does not.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second may be used to describe various components, but such terms should be understood only for the purpose of distinguishing one component from another. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. As used herein, the terms "comprise", "comprising" and "comprising" are used herein to designate the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, Elements or parts thereof, or combinations thereof, without departing from the spirit and scope of the invention.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일실시예에 따른 영상 처리 장치의 동작을 설명하는 예시도이다. 영상 처리 장치(100)는 컴퓨터 장치로 구현될 수 있다. 이를테면, 영상 처리 장치(100)는 적어도 하나의 소프트웨어 모듈, 적어도 하나의 하드웨어 모듈, 또는 이들의 다양한 조합으로 구현될 수 있다. 도 1을 참조하면, 영상 처리 장치(100)는 입력 영상을 수신하고, 수신된 입력 영상 내에서 타겟을 포함하는 최종 선택 영역을 결정할 수 있다. 이하의 설명에서, 타겟은 사용자의 관심 영역으로서 영상 데이터 내에서 추적되는 객체를 의미한다. 예를 들어, 타겟은 전체 영상의 프레임 내에서 특정 사용자의 눈 및 코로 지정될 수 있다. 또는, 타겟은 복수의 플레이어들이 함께 움직이는 스포츠 영상 내에서 특정 플레이어의 위치로 지정될 수 있다.FIG. 1 is a diagram illustrating an operation of an image processing apparatus according to an exemplary embodiment of the present invention. The image processing apparatus 100 may be implemented as a computer device. For example, the image processing apparatus 100 may be implemented with at least one software module, at least one hardware module, or various combinations thereof. Referring to FIG. 1, the image processing apparatus 100 may receive an input image and determine a final selection area including a target in the received input image. In the following description, the target means an object that is tracked in the image data as a region of interest of the user. For example, the target may be designated as a particular user's eye and nose within the frame of the entire image. Alternatively, the target may be designated as the position of a particular player within a sports image in which a plurality of players move together.

타겟을 포함하는 최종 선택 영역을 결정하기 위해, 영상 처리 장치(100)는 미리 저장된 기저 영상(basis image)을 이용할 수 있다. 이하의 설명에서, 기저 영상은 특정 프레임 내에서 타겟이 존재하는 것으로 결정된 영역을 의미한다. 기저 영상은 복수의 픽셀 포인트들을 연결하는 다변형 영역, 타원형 영역 및 불규칙형 영역과 같이 다양한 형태로 저장될 수 있다. 예시적으로, 다변형은 삼각형, 오각형, 오각별형, 육각형 등과 같은 형태로 구현될 수 있다.In order to determine the final selection area containing the target, the image processing apparatus 100 may use a pre-stored basis image. In the following description, the base image means an area determined as a target in a specific frame. The base image may be stored in various forms such as a polymorphic region, an elliptical region, and an irregular region connecting a plurality of pixel points. Illustratively, polymorphism can be implemented in the form of triangles, pentagons, pentagons, hexagons, and the like.

보다 구체적으로, 영상 처리 장치(100)는 기저 영상의 위치에 기반하여 제1 프레임(F1) 내의 최종 선택 영역(110)을 결정할 수 있다. 마찬가지로, 영상 처리 장치(100)는 기저 영상의 위치에 기반하여 제N 프레임(FN) 내의 최종 선택 영역(120)을 결정할 수 있다. 영상 처리 장치(100)는 최종 선택 영역이 결정된 프레임의 개수에 따라 상기 기저 영상을 업데이트할 수 있다. 기저 영상이 선택되고, 업데이트 되는 과정에 대해서는 이하에서 보다 자세하게 설명될 것이다.More specifically, the image processing apparatus 100 can determine the final selection area 110 in the first frame F 1 based on the position of the base image. Similarly, the image processing apparatus 100 can determine the final selection area 120 in the Nth frame F N based on the position of the base image. The image processing apparatus 100 may update the base image according to the number of frames for which the final selection area is determined. The process of selecting and updating the base image will be described in more detail below.

도 2는 일실시예에 따른 영상 처리 장치를 설명하는 블록도이다. 도 2를 참조하면, 영상 처리 장치(200)는 추출부(210), 계산부(220), 결정부(230) 및 저장부(240)를 포함할 수 있다. 추출부(210)는 제1 프레임 내의 기저 영상에 기초하여 제2 프레임에서 타겟에 관한 초기 선택 영역을 결정할 수 있다. 예시적으로, 제1 프레임은 전체 입력 영상 내에 존재하는 임의의 프레임으로서, 기저 영상에 관한 정보가 미리 저장된 프레임을 나타낼 수 있다. 상기 기저 영상은 상기 제1 프레임 내에서 타겟을 포함하는 영역의 영상을 나타낼 수 있다. 예시적으로, 상기 기저 영상에 관한 정보는 기저 영상 내에 존재하는 특징 포인트들에 관한 정보를 나타낼 수 있다. 또한, 제2 프레임은 상기 전체 입력 영상에서 상기 제1 프레임 이후에 영상 처리 장치(200)로 입력되는 프레임을 나타낼 수 있다.2 is a block diagram illustrating an image processing apparatus according to an embodiment. 2, the image processing apparatus 200 may include an extraction unit 210, a calculation unit 220, a determination unit 230, and a storage unit 240. The extracting unit 210 can determine an initial selection area for the target in the second frame based on the base image in the first frame. Illustratively, the first frame is an arbitrary frame existing in the entire input image, and may indicate a frame in which information related to the base image is stored in advance. The base image may represent an image of a region including a target in the first frame. Illustratively, the information about the base image may represent information about feature points existing in the base image. In addition, the second frame may indicate a frame input to the image processing apparatus 200 after the first frame in the entire input image.

또한, 추출부(210)는 상기 제2 프레임 내에서 결정된 초기 선택 영역을 중심으로 복수의 후보 선택 영역을 추출할 수 있다. 예시적으로, 추출부(210)는 타겟에 관한 초기 선택 영역을 중심으로 소정 개수의 후보 선택 영역을 추출할 수 있다.The extracting unit 210 may extract a plurality of candidate selection regions around the initial selection region determined in the second frame. Illustratively, the extraction unit 210 may extract a predetermined number of candidate selection regions around the initial selection region with respect to the target.

계산부(220)는 상기 제1 프레임 내의 기저 영상의 위치에 기초하여 상기 제2 프레임 내의 복수의 후보 선택 영역 각각의 위치 오프셋을 계산할 수 있다. 일실시예로서, 계산부(220)는 상기 복수의 후보 선택 영역 각각에 대해 특징회귀를 수행하여 상기 위치 오프셋을 계산할 수 있다. 이하의 설명에서, 특징회귀란 각각의 후보 선택 영역에 대해 기저 영상 내의 특징 포인트들이 이동된 위치 오프셋을 추적하는 과정을 나타낸다.The calculation unit 220 may calculate a position offset of each of the plurality of candidate selection regions in the second frame based on the position of the base image in the first frame. In one embodiment, the calculator 220 may perform a feature regression for each of the plurality of candidate selection regions to calculate the position offset. In the following description, feature regression refers to the process of tracking a position offset in which feature points in a base image are shifted for each candidate selection region.

일실시예로서, 계산부(220)는 상기 복수의 후보 선택 영역 각각에 미리 학습된 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산할 수 있다. 이하의 설명에서, 특징회귀행렬은 기저 영상 내의 특징 포인트들과 후보 선택 영역 내의 특징 포인트들의 위치 차이를 정의하는 행렬식을 나타낼 수 있다. 영상 처리 장치(200)는 특징회귀행렬에 기초하여 타겟이 존재하는 기저 영상의 위치와 후보 선택 영역의 크기 및 위치를 비교하고, 상기 비교의 결과에 따라 상기 기저 영상과 가장 유사한 특징을 갖는 후보 선택 영역을 추적할 수 있다.In one embodiment, the calculation unit 220 may calculate a plurality of position offsets by applying a learned feature regression matrix to each of the plurality of candidate selection regions. In the following description, the feature regression matrix may represent a determinant that defines the positional difference between the feature points in the base image and the feature points in the candidate selection area. The image processing apparatus 200 compares the position of the base image in which the target exists and the size and position of the candidate selection region on the basis of the feature regression matrix and selects candidates having the most similar characteristics to the base image, You can track areas.

또한, 계산부(220)는 계산된 복수의 위치 오프셋 각각에 대해 가중치를 적용하여 타겟을 추적하는 타겟 위치 오프셋을 계산할 수 있다.In addition, the calculation unit 220 may calculate a target position offset that tracks the target by applying a weight to each of the calculated plurality of position offsets.

결정부(230)는 계산된 위치 오프셋 및 복수의 후보 선택 영역 각각에 할당된 가중치에 따라 상기 제2 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정할 수 있다. 결정부(230)는 복수의 후보 선택 영역 각각이 상기 제2 프레임 내에 존재하는 위치에 따라 상기 가중치를 결정할 수 있다.The determination unit 230 may determine a final selection area including the target in the second frame according to the calculated position offset and the weight assigned to each of the plurality of candidate selection areas. The determination unit 230 may determine the weight according to the position in which each of the plurality of candidate selection regions is present in the second frame.

저장부(240)는 상기 최종 선택 영역이 결정된 제2 프레임을 영상 처리 장치(200) 내의 메모리에 저장할 수 있다. 또한, 저장부(240)는 저장된 프레임들의 개수가 임계치 이상이 되는 경우, 프레임들의 타겟 추적 결과값에 따라 기저 영상을 새롭게 업데이트할 수 있다.The storage unit 240 may store the second frame for which the final selection area is determined in the memory in the image processing apparatus 200. [ In addition, when the number of stored frames is equal to or greater than the threshold value, the storage unit 240 may update the base image according to the target tracking result of the frames.

다른 일실시예로서, 저장부(240)는 새롭게 저장된 프레임을 이용하여 특징회귀행렬을 업데이트할 수 있다. 또한, 저장부(240)는 가장 오래 업데이트 되지 않은 특징회귀행렬을 새로운 특징회귀행렬로서 치환할 수 있다.In another embodiment, the storage unit 240 may update the feature regression matrix using the newly stored frame. In addition, the storage unit 240 may replace the least recently updated feature regression matrix as a new feature regression matrix.

도 3a 및 도 3b는 도 2에서 설명된 영상 처리 장치가 기저 영상을 이용하여 초기 선택 영역을 결정하는 과정을 도시하는 예시도이다. 도 3a을 참조하면, 영상 처리 장치는 미리 저장된 제1 프레임(F1)을 이용하여 새롭게 입력된 제2 프레임(F2) 내의 초기 선택 영역(340)을 결정할 수 있다. 일실시예로서, 추출부(210)는 기저 영상(310) 내의 특징 포인트들(320)에 기초하여 상기 제2 프레임(F2) 내의 복수의 매칭 포인트들(330)을 결정할 수 있다. 이하의 설명에서, 특징 포인트는 프레임 내의 픽셀 포인트들 중 영상 처리 장치에 의해 식별 가능한 포인트를 의미한다. 이를테면, 특징 포인트는 타겟의 얼굴 윤곽 포인트 및 얼굴 기관(눈, 코, 입 등) 포인트 등과 같은 포인트들로 정의될 수 있다.FIG. 3A and FIG. 3B are views illustrating a process of determining an initial selection region using a base image by the image processing apparatus illustrated in FIG. 2. FIG. Referring to FIG. 3A, the image processing apparatus may determine an initial selection region 340 in a second frame F 2 that is newly input using a first frame F 1 that is stored in advance. In one embodiment, the extractor 210 may determine a plurality of matching points 330 in the second frame F 2 based on feature points 320 in the base image 310. In the following description, the feature point means a point among the pixel points in the frame that can be identified by the image processing apparatus. For example, the feature point may be defined as points of the face contour point of the target and points such as a face organ (eye, nose, mouth, etc.) point.

추출부(210)는 미리 저장된 제1 프레임(F1) 내의 특징 포인트들(320)을 이용하여 입력 영상의 제2 프레임(F2) 내의 복수의 투영 포인트들을 추출할 수 있다. 이하의 설명에서, 투영 포인트는 상기 특징 포인트들(320)에 대응하는 제2 프레임 내의 픽셀 포인트를 나타낼 수 있다. 추출부(210)는 상기 투영 포인트를 중심으로 소정 범위 내에 존재하는 픽셀 포인트들을 추출할 수 있다. 예시적으로, 추출부(210)는 상기 투영 포인트의 위치를 중심으로 하여 3행 3열 행렬에 대응하는 포인트들을 상기 픽셀 포인트들로서 추출할 수 있다. 3행 3열의 크기는 이해를 돕기 위한 예시적 기재일 뿐 다른 실시예의 범위를 제한하거나 한정하는 것으로 해석되어서는 안되고, 기술 분야의 전문가의 선택에 따라 다양한 범위의 픽셀 포인트들이 추출될 수 있을 것이다.The extracting unit 210 may extract a plurality of projection points in the second frame F 2 of the input image using the feature points 320 in the first frame F 1 stored in advance. In the following description, the projection point may represent a pixel point in a second frame corresponding to the feature points 320. [ The extraction unit 210 may extract pixel points existing within a predetermined range around the projection point. Illustratively, the extraction unit 210 may extract the points corresponding to the 3-by-3 matrix about the position of the projection point as the pixel points. The size of the third row and third column should be construed as illustrative only for the sake of understanding, and should not be construed as limiting or limiting the scope of other embodiments, and a wide range of pixel points may be extracted according to the choice of an expert in the art.

일실시예로서, 추출부(210)는 상기 특징 포인트들(320)의 텍스처 값과 상기 추출된 픽셀 포인트들의 텍스처 값을 비교하고, 비교의 결과에 따라 상기 제2 프레임 내의 매칭 포인트를 결정할 수 있다. 예시적으로, 추출부(210)는 상기 특징 포인트들(320)의 텍스처 값에 대해 가장 높은 유사도를 갖는 픽셀 포인트들을 상기 제2 프레임 내의 매칭 포인트로 결정할 수 있다.As an example, the extracting unit 210 may compare the texture value of the feature points 320 with the texture value of the extracted pixel points, and determine a matching point in the second frame according to a result of the comparison . Illustratively, the extractor 210 may determine pixel points having the highest similarity to the texture values of the feature points 320 as matching points in the second frame.

다른 일실시예로서, 추출부(210)는 상기 투영 포인트와 상기 추출된 픽셀 포인트들의 텍스처 그래디언트 값을 계산하고, 상기 계산된 텍스처 그래디언트 값이 소정의 임계치를 초과하는 픽셀 포인트들을 후보 매칭 포인트로서 추출할 수 있다. 또한, 추출부(210)는 상기 특징 포인트들(320)의 텍스처 값과 상기 후보 매칭 포인트들의 텍스처 값을 비교하고, 비교의 결과에 따라 상기 제2 프레임 내의 매칭 포인트(330)를 결정할 수 있다. 보다 구체적으로, 추출부(210)는 상기 특징 포인트들(320)의 텍스처 값에 대해 가장 높은 유사도를 갖는 픽셀 포인트들을 상기 제2 프레임 내의 매칭 포인트(330)로 결정할 수 있다. 본 실시예에 따른 영상 처리 장치는 투영 포인트에 기초하여 타겟을 추적하기 위한 초기 선택 영역을 선택할 수 있어 타겟 추적의 정확성과 효율을 향상 시킬 수 있다.In another embodiment, the extracting unit 210 calculates a texture gradient value of the projection point and the extracted pixel points, and extracts pixel points whose calculated texture gradient value exceeds a predetermined threshold value as a candidate matching point can do. The extracting unit 210 may compare the texture value of the feature points 320 with the texture value of the candidate matching points and determine the matching point 330 in the second frame according to the result of the comparison. More specifically, the extracting unit 210 may determine the pixel points having the highest similarity to the texture value of the feature points 320 as the matching point 330 in the second frame. The image processing apparatus according to the present embodiment can select the initial selection area for tracking the target based on the projection point, thereby improving the accuracy and efficiency of the target tracking.

일실시예로서, 추출부(210)는 제1 프레임(F1) 내에서 상기 특징 포인트들(320)의 위치 및 제2 프레임(F2) 내에서 상기 매칭 포인트들(330)의 위치를 비교하고, 상기 비교의 결과에 따라 입력 영상의 상기 제2 프레임(F2)에 관한 전체 위치 오프셋을 결정할 수 있다.In one embodiment, the extractor 210 compares the position of the feature points 320 in the first frame F 1 and the position of the match points 330 in the second frame F 2 And determine an overall position offset for the second frame (F 2 ) of the input image according to the result of the comparison.

다른 일실시예로서, 추출부(210)는 각각의 특징 포인트들(320)에 대응하는 가중치를 이용하여 입력 영상의 상기 제2 프레임(F2)에 관한 전체 위치 오프셋을 결정할 수 있다. 보다 구체적으로, 추출부(210)는 각각의 특징 포인트(320)와 매칭 포인트(330) 사이의 위치 오프셋을 계산하고, 계산된 위치 오프셋에 상기 가중치를 적용한 가중 평균(weighting average)값을 상기 제2 프레임(F2)에 관한 전체 위치 오프셋으로서 계산할 수 있다. 예시적으로, 상기 가중치는 상기 특징 포인트(320)의 텍스처 값 및 상기 매칭 포인트(330)의 텍스처 값의 유사도에 따라 결정될 수 있다.In another embodiment, the extractor 210 may use the weights corresponding to the respective feature points 320 to determine the overall position offset for the second frame (F 2 ) of the input image. More specifically, the extracting unit 210 calculates a position offset between each feature point 320 and the matching point 330, and outputs a weighting average value obtained by applying the weight to the calculated position offset, Can be calculated as the total position offset with respect to the two frames (F 2 ). Illustratively, the weight may be determined according to the texture value of the feature point 320 and the similarity of the texture value of the match point 330.

추출부(210)는 제1 프레임(F1) 내의 기저 영상(310)의 영역 정보 및 계산된 전체 위치 오프셋을 이용하여 제2 프레임(F2) 내에서 초기 선택 영역(340)의 영역 정보를 계산할 수 있다. 예시적으로, 영역 정보는 영역 내의 영상 데이터, 영역의 크기 정보, 프레임 내의 영역의 위치 정보 및 영역 내의 특징 포인트들에 관한 정보 중 적어도 하나를 포함할 수 있다.The extracting unit 210 extracts region information of the initial selection region 340 in the second frame F 2 using the region information of the base image 310 in the first frame F 1 and the calculated total position offset Can be calculated. Illustratively, the area information may include at least one of image data in the area, size information of the area, position information of the area within the frame, and information about the feature points in the area.

추출부(210)는 제1 프레임(F1) 내에서 기저 영상(310)의 위치 정보 및 제2 프레임(F2)에 관한 전체 위치 오프셋에 기초하여 상기 제2 프레임(F2) 내에서 타겟의 위치 정보를 추정할 수 있다. 상기 타겟의 위치 정보는 상기 기저 영상(310)이 제2 프레임(F2) 내에 존재하는 위치를 의미할 수 있다. 또한, 추출부(210)는 상기 추정된 타겟의 위치 정보에 따라 제2 프레임(F2) 내에서 타겟에 관한 초기 선택 영역(340)을 결정할 수 있다. 예시적으로, 초기 선택 영역(340)의 크기와 기저 영상(310)의 크기는 동일할 수 있다.Extraction unit 210 includes a first frame (F 1) located in the base image (310) in the information and a second frame (F 2) on the basis of the total offset position with the second frame (F 2) target within about Can be estimated. The position information of the target may indicate a position where the base image 310 exists in the second frame F 2 . In addition, the extracting unit 210 may determine the initial selection region 340 about the target in the second frame F 2 according to the estimated position information of the target. Illustratively, the size of the initial selection region 340 and the size of the base image 310 may be the same.

도 3b를 참조하면, 영상 처리 장치는 추출된 초기 선택 영역(340)에 기반하여 복수의 후보 선택 영역(351, 352, 353, 354)을 추출할 수 있다. 일실시예로서, 추출부(210)는 초기 선택 영역(340)의 이웃한 공간 내에서 후보 선택 영역 Xi(단, i=1, … , N이고, N은 양의 정수) 샘플링하고, 추출된 후보 선택 영역 Xi에 관한 영역 정보를 획득할 수 있다. 상기 영역 정보는 후보 선택 영역 Xi의 크기 정보, 위치 정보 및 영역 내 특징 포인트들(331, 332, 333, 334, 335, 336)의 정보를 포함할 수 있다.Referring to FIG. 3B, the image processing apparatus can extract a plurality of candidate selection regions 351, 352, 353, and 354 based on the extracted initial selection region 340. In one embodiment, the extractor 210 samples the candidate selection area X i (where i = 1, ..., N, N is a positive integer) within the neighboring space of the initial selection area 340, It is possible to obtain the area information on the candidate selection area X i . The region information may include size information of the candidate selection region X i , position information, and information of feature points 331, 332, 333, 334, 335, and 336 in the region.

다른 일실시예로서 기저 영상이 적어도 두 개 이상의 기저 서브 영상을 포함하는 경우, 추출부(210)는 추출된 후보 선택 영역에 기초하여 각각의 기저 서브 영상에 대응하는 서브 후보 선택 영역의 정보를 획득할 수 있다. 예시적으로, 하나의 기저 영상이 네 개의 기저 서브 영상으로 구분되어 메모리 내에 저장된 경우가 존재할 수 있다. 이 경우에, 추출부(210)는 네 개의 기저 서브 영상에 각각 대응하는 서브 후보 선택 영역을 추출하고, 각각의 서브 후보 선택 영역에 대응하는 정보를 획득할 수 있다.As another example, if the base image includes at least two or more base sub-images, the extracting unit 210 obtains the information of the sub-candidate selection regions corresponding to the respective base sub-images based on the extracted candidate selection region can do. As an example, there may be a case where one base image is divided into four base sub images and stored in the memory. In this case, the extracting unit 210 can extract the sub candidate selection regions respectively corresponding to the four base sub images and obtain information corresponding to each of the sub candidate selection regions.

도 4는 도 2에서 설명된 영상 처리 장치가 타겟을 포함하는 최종 선택 영역을 결정하는 과정을 설명하는 흐름도이다. 도 4를 참조하면, 영상 처리 장치는 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산하는 단계(410), 상기 복수의 위치 오프셋 각각에 대해 가중치를 적용하여 타겟 위치 오프셋을 계산하는 단계(420) 및 타겟 위치 오프셋을 이용하여 타겟을 포함하는 최종 선택 영역을 결정하는 단계(430)를 수행할 수 있다.4 is a flowchart illustrating a process of determining a final selection area including a target by the image processing apparatus illustrated in FIG. Referring to FIG. 4, the image processing apparatus includes a step 410 of calculating a plurality of position offsets by applying a characteristic regression matrix to each of a plurality of candidate selection regions, applying a weight to each of the plurality of position offsets, (Step 420), and determining (430) a final selection area containing the target using the target position offset.

단계(410)에서, 영상 처리 장치는 특징회귀를 수행하여 제1 프레임 내의 기저 영상의 위치와 제2 프레임 내의 후보 선택 영역 각각의 대표 위치의 차이값을 계산할 수 있다. 보다 구체적으로, 영상 처리 장치는 미리 학습된 특징회귀행렬을 각각의 후보 선택 영역에 적용하여 복수의 위치 오프셋을 계산할 수 있다.In step 410, the image processing apparatus may perform feature regression to calculate the difference between the position of the base image in the first frame and the representative position of each of the candidate selection regions in the second frame. More specifically, the image processing apparatus can calculate a plurality of position offsets by applying a learned feature regression matrix to each candidate selection region.

후보 선택 영역의 대표 위치가 (x, y)인 경우가 존재할 수 있다. 이 경우에, 특징회귀행렬 H는 대표 위치 (x, y)를 기저 영상 내로 특징회귀 하도록 하는 H=[h1,h2] 행렬로 정의될 수 있다. 특징회귀행렬은 기저 영상 내의 특징 포인트 및 샘플 프레임 내의 특징 포인트들의 위치 차이에 기반하여 학습되는 행렬을 나타낼 수 있다. 특징회귀행렬이 기계 학습되어 생성되는 과정에 관한 보다 자세한 설명은 이하에서 추가될 도면과 함께 보다 자세하게 설명될 것이다.There may be a case where the representative position of the candidate selection area is (x, y). In this case, the feature regression matrix H may be defined as a matrix H = [h 1 , h 2 ], which causes the representative position (x, y) to be featured within the base image. The feature regression matrix may represent a matrix that is learned based on feature points in the base image and feature points in the sample frame. A more detailed description of the process by which a regression matrix is generated mechanically is described in more detail below with reference to the figures to be added.

일실시예로서, 영상 처리 장치는 후보 선택 영역 Xi(단, i=1, … , N이고, N은 양의 정수) 내에 존재하는 특징 포인트 qi에 따라, 아래의 수학식 1에 기초하여 상기 후보 선택 영역 Xi에 대응하는 위치 오프셋 Ti을 계산할 수 있다.According to one embodiment, the image processing apparatus calculates, based on the feature point q i existing in the candidate selection area X i (where i = 1, ..., N, N is a positive integer) The position offset T i corresponding to the candidate selection area X i can be calculated.

Figure pat00001
Figure pat00001

상기 수학식 1에서 HT는 특징회귀행렬의 전치 행렬을 나타낼 수 있다. 상기 수학식 1에 따라, 영상 처리 장치는 샘플링된 N 개의 후보 선택 영역 각각에 대응하는 위치 오프셋 Ti(단, i=1, … , N이고, N은 양의 정수)를 계산할 수 있다.In Equation (1), H T can represent the transpose matrix of the feature regression matrix. According to Equation (1), the image processing apparatus can calculate a position offset T i (where i = 1, ..., N, N is a positive integer) corresponding to each of the N candidate selection regions sampled.

다른 일실시예로서, 복수의 샘플 프레임에 기초하여 복수의 특징회귀행렬 Hj(단, j=1, … , M이고, M은 양의 정수)이 미리 학습된 경우가 존재할 수 있다. 이 경우에, 영상 처리 장치는 각각의 후보 선택 영역에 대해 복수의 특징회귀행렬을 반복 적용하여 복수의 위치 오프셋을 계산할 수 있다. 보다 구체적으로, 영상 처리 장치는 후보 선택 영역 Xi에 대응하는 위치 오프셋 Ti j를 아래의 수학식 2와 같이 계산할 수 있다.As another embodiment, there may be a case where a plurality of characteristic regression matrices H j (where j = 1, ..., M, M is a positive integer) are learned in advance based on a plurality of sample frames. In this case, the image processing apparatus can repeatedly apply a plurality of feature regression matrices to each candidate selection region to calculate a plurality of position offsets. More specifically, the image processing apparatus can calculate the position offset T i j corresponding to the candidate selection area X i as shown in the following equation (2).

Figure pat00002
Figure pat00002

상기 수학식 2에서, qi는 후보 선택 영역 Xi(단, i=1, … , N이고, N은 양의 정수) 내에 존재하는 특징 포인트를 나타내고, Ti j는 제i 후보 선택 영역 Xi에 제j 특징회귀행렬이 적용되어 계산된 위치 오프셋을 나타낸다. 또한, 상기 수학식 2에서 Hj T는 제j 특징회귀행렬의 전치 행렬을 나타낸다. 영상 처리 장치는 아래의 수학식 3에 기반하여, 제i 후보 선택 영역 Xi에 대응하는 제i 위치 오프셋 Ti을 계산할 수 있다.In Equation (2), q i denotes a feature point existing in a candidate selection region X i (where i = 1, ..., N, N is a positive integer), T i j denotes an i- th candidate selection region X The i- th feature regression matrix is applied to i to represent the calculated position offset. In Equation (2), H j T denotes a transpose matrix of the j-th feature regression matrix. The image processing apparatus can calculate the i- th position offset T i corresponding to the i-th candidate selection area X i based on the following equation (3).

Figure pat00003
Figure pat00003

영상 처리 장치는 복수의 특징회귀행렬을 이용하여 계산된 위치 오프셋들의 평균값을 계산하여 제i 후보 선택 영역 Xi에 대응하는 제i 위치 오프셋 Ti을 계산할 수 있다.The image processing apparatus can calculate an i-th position offset T i corresponding to the i-th candidate selection region X i by calculating an average value of the calculated position offsets using a plurality of feature regression matrices.

단계(420)에서 영상 처리 장치는 복수의 위치 오프셋 Ti 각각에 대해 가중치를 적용하여, 타겟을 추적하기 위한 타겟 위치 오프셋을 계산할 수 있다. 영상 처리 장치는 후보 선택 영역 Xi에 대응하는 위치 오프셋 Ti j들의 분산 Vi에 따라 상기 가중치를 결정할 수 있다. 보다 구체적으로, 가중치

Figure pat00004
Figure pat00005
에 비례하도록 정의될 수 있다.In step 420, the image processing apparatus generates a plurality of position offsets T i By applying a weight to each of them, a target position offset for tracking the target can be calculated. The image processing apparatus can determine the weight according to the variance V i of the positional offset T i j corresponding to the candidate selection area X i . More specifically,
Figure pat00004
The
Figure pat00005
. ≪ / RTI >

또한, 영상 처리 장치는 서로 이웃한 위치에 존재하는 후보 선택 영역이 유사한 가중치를 갖도록 결정할 수 있다. 보다 구체적으로, 영상 처리 장치는 타겟 함수 f(g)를 최소화하는 가중행렬 g를 계산하고, 상기 가중행렬 g에 따라 상기 가중치를 결정할 수 있다. 상기 타겟 함수 f(g)는 아래의 수학식 4와 같이 정의될 수 있다.Further, the image processing apparatus can determine that candidate selection regions existing at neighboring positions have similar weight. More specifically, the image processing apparatus can calculate the weighting matrix g that minimizes the target function f (g), and determine the weighting factor according to the weighting matrix g. The target function f (g) can be defined as Equation (4) below.

Figure pat00006
Figure pat00006

mij는 제i 후보 선택 영역 Xi와 제j 후보 선택 영역 Xj의 중첩률(overlapping rate)을 나타낼 수 있다. 상기 중첩률은 제i 후보 선택 영역 Xi 및 제j 후보 선택 영역 Xj이 함께 공유하는 영역의 크기와 제i 후보 선택 영역 Xi 및 제j 후보 선택 영역 Xj 중 적어도 하나가 차지하는 영역의 크기의 비율을 의미한다. Q는 mij를 원소로 하는 N by N 행렬을 나타낼 수 있다. di

Figure pat00007
이고, D가 Diag{d1, … , dN}인 경우에, 상기 수학식 4의 라플라시안 행렬(Laplacian matrix) L은 D-Q로 계산될 수 있다. g=
Figure pat00008
는 각각의 후보 선택 영역의 위치에 따라 결정된 가중치의 가중 행렬을 나타내고,
Figure pat00009
을 나타낼 수 있다. 또한, 상기 수학식 4에서, 가중행렬 g는 각각의 원소가 0보다 작지 않도록 정의될 수 있다.m ij may represent the overlapping rate of the i-th candidate selection area X i and the j-th candidate selection area X j . The overlap rate is the i-th candidate selection X i and the j-th candidate selection, X j is selected, the size and the i-th candidate for the region shared with the area X i and the j-th candidate selection X j size of the area with at least one account of the . Q can represent an N by N matrix with m ij as an element. d i is
Figure pat00007
, D is Diag {d 1 , ... , d N }, the Laplacian matrix L of Equation (4) can be calculated as DQ. g =
Figure pat00008
Represents a weighted matrix of weights determined according to the position of each candidate selection area,
Figure pat00009
Lt; / RTI > In Equation (4), the weighting matrix g may be defined such that each element is not smaller than zero.

또한, 단계(420)에서 영상 처리 장치는 각각의 후보 선택 영역의 위치, 각각의 위치 오프셋 및 가중치에 따라 상기 후보 선택 영역의 특징회귀 후 위치를 결정할 수 있다. 보다 구체적으로, 영상 처리 장치는 아래의 수학식 5와 같이 타겟을 추적하기 위한 타겟 위치 오프셋 T를 계산할 수 있다.Also, in step 420, the image processing apparatus can determine the positions of the candidate selection regions after the feature regression according to the positions of the respective candidate selection regions, the respective position offsets, and the weights. More specifically, the image processing apparatus can calculate the target position offset T for tracking the target as shown in Equation (5) below.

Figure pat00010
Figure pat00010

상기 수학식 5에서, Xi D는 제i 후보 선택 영역 Xi의 대표 위치를 나타내는 위치 벡터를 나타낸다. 그에 따라, 상기 제i 후보 선택 영역 Xi에 대한 특징회귀 후의 위치는 Xi D+Ti로 계산될 수 있다. 영상 처리 장치는 각각의 후보 선택 영역에 대응하는 가중치 gi를 이용하여 종합회귀 후의 타겟 위치 오프셋 T를 계산할 수 있다.In Equation (5), X i D represents a position vector representing a representative position of the i-th candidate selection region X i . Accordingly, the position after the feature regression for the i-th candidate selection area X i can be calculated as X i D + T i . The image processing apparatus can calculate the target position offset T after generalized regression using the weight g i corresponding to each candidate selection region.

단계(430)에서 영상 처리 장치는 타겟 위치 오프셋 T를 이용하여 타겟을 포함하는 최종 선택 영역을 결정할 수 있다. 영상 처리 장치는 타겟 위치 오프셋 T에 기초하여 후보 선택 영역 각각의 회귀 후 위치를 결정할 수 있다. 일실시예로서, 영상 처리 장치는 미리 저장된 기저 영상의 위치에 계산된 타겟 위치 오프셋 T를 적용하는 방식으로 현재 프레임 내의 최종 선택 영역을 결정할 수 있다.In step 430, the image processing apparatus may determine a final selection region containing the target using the target position offset T. [ The image processing apparatus can determine the position of each of the candidate selection regions after the regression based on the target position offset T. [ In one embodiment, the image processing apparatus can determine the last selected area in the current frame by applying the calculated target position offset T to the position of the previously stored base image.

도 4에서 도시되지는 않았지만, 영상 처리 장치는 최종 선택 영역이 결정된 제2 프레임을 메모리에 저장할 수 있다. 또한, 영상 처리 장치는 메모리 내에 저장된 프레임의 개수가 소정의 임계치를 초과하는 경우, 저장된 프레임을 이용하여 기저 영상을 업데이트할 수 있다. 보다 구체적으로, 영상 처리 장치는 각각의 저장된 프레임에 대응하는 최종 선택 영역의 평가 결과값에 기반하여 새롭게 업데이트될 기저 영상을 선택할 수 있다.Although not shown in Fig. 4, the image processing apparatus can store the second frame in which the final selection area is determined in the memory. In addition, when the number of frames stored in the memory exceeds a predetermined threshold value, the image processing apparatus can update the base image using the stored frame. More specifically, the image processing apparatus can select the base image to be newly updated based on the evaluation result value of the final selection area corresponding to each stored frame.

도 5는 다른 일실시예에 따른 영상 처리 장치가 특징회귀행렬을 학습하는 과정을 설명하는 흐름도이다. 도 5를 참고하면, 영상 처리 장치는 샘플 프레임의 기저 영상을 이용하여 복수의 후보 선택 영역을 추출하는 단계(510), 추출된 복수의 후보 선택 영역과 상기 기저 영상 사이의 위치 오프셋 행렬을 계산하는 단계(520) 및 상기 계산된 위치 오프셋 행렬에 기초하여 입력 영상에 관한 특징회귀행렬을 학습하는 단계(530)를 수행할 수 있다.FIG. 5 is a flowchart illustrating a process of learning a characteristic regression matrix by an image processing apparatus according to another embodiment. Referring to FIG. 5, the image processing apparatus includes a step 510 of extracting a plurality of candidate selection regions using a base image of a sample frame, a step of calculating a position offset matrix between the extracted plurality of candidate selection regions and the base image Step 530 of learning a feature regression matrix on the input image based on step 520 and the calculated position offset matrix.

단계(510)에서 영상 처리 장치는 샘플 프레임의 기저 영상을 중심으로 복수의 후보 선택 영역을 추출할 수 있다. 일실시예로서, 영상 처리 장치는 기저 영상의 위치를 중심으로 하여 이웃한 영역의 N 개의 후보 선택 영역을 샘플링할 수 있다. 보다 구체적으로, 영상 처리 장치는 후보 선택 영역의 위치 분포가 균등 분포 또는 가우스 분포를 따르도록 상기 복수의 후보 선택 영역을 추출할 수 있다.In step 510, the image processing apparatus can extract a plurality of candidate selection regions around the base image of the sample frame. In one embodiment, the image processing apparatus may sample N candidate selection regions of neighboring regions around the position of the base image. More specifically, the image processing apparatus can extract the plurality of candidate selection regions so that the position distribution of the candidate selection region follows an even distribution or a Gaussian distribution.

다른 일실시예로서, 영상 처리 장치는 고정된 크기를 갖는 각각의 후보 선택 영역을 추출할 수 있다. 예시적으로, 하나의 후보 선택 영역은 32 by 32로 정의되는 픽셀 블록 공간으로 정의될 수 있다. 또는, 후보 선택 영역의 크기는 미리 저장된 기저 영상의 크기와 동일할 수 있다.In another embodiment, the image processing apparatus can extract each candidate selection region having a fixed size. By way of example, one candidate selection region may be defined as a pixel block space defined by 32 by 32. Alternatively, the size of the candidate selection area may be the same as the size of the base image stored in advance.

단계(520)에서 영상 처리 장치는 추출된 복수의 후보 선택 영역과 기저 영상의 위치를 이용하여 위치 오프셋 행렬을 계산할 수 있다. 보다 구체적으로, 영상 처리 장치는 복수의 후보 선택 영역 각각의 대표 위치와 기저 영상의 위치의 차이를 위치 오프셋으로 계산할 수 있다. 예시적으로, 후보 선택 영역의 대표 위치는 상기 후보 선택 영역 내의 중심점의 위치를 나타낼 수 있다. 영상 처리 장치는 제1 후보 선택 영역의 대표 위치 (x1, y1)를 기저 영상의 위치와 비교하여, 제1 위치 오프셋 (P1 x, P2 x)을 계산한다. 마찬가지로, 영상 처리 장치는 복수의 후보 선택 영역 각각에 대응하는 (x, y) 좌표의 복수의 위치 오프셋을 각각

Figure pat00011
Figure pat00012
로서 계산할 수 있다. 또한, 영상 처리 장치는 계산된 복수의 위치 오프셋을 이용하여 위치 오프셋 행렬 C=[C1, C2]를 계산해낼 수 있다. 보다 구체적으로,
Figure pat00013
으로 각각 정의될 수 있다.In step 520, the image processing apparatus can calculate the position offset matrix using the extracted positions of the candidate selection region and the base image. More specifically, the image processing apparatus can calculate the difference between the representative position of each of the plurality of candidate selection regions and the position of the base image as a position offset. Illustratively, the representative position of the candidate selection area may indicate the position of the center point in the candidate selection area. The image processing apparatus compares the representative position (x 1 , y 1 ) of the first candidate selection region with the position of the base image to calculate the first position offset (P 1 x , P 2 x ). Similarly, the image processing apparatus sets a plurality of position offsets of (x, y) coordinates corresponding to each of the plurality of candidate selection regions
Figure pat00011
and
Figure pat00012
. Further, the image processing apparatus can calculate the position offset matrix C = [C 1 , C 2 ] using a plurality of calculated position offsets. More specifically,
Figure pat00013
Respectively.

단계(530)에서 영상 처리 장치는 상기 계산된 위치 오프셋 행렬에 기초하여 입력 영상에 관한 특징회귀행렬을 학습할 수 있다. 보다 구체적으로, 영상 처리 장치는 각각의 후보 선택 영역이 포함하는 특징 포인트 및 기저 영상 내의 특징 포인트에 상기 위치 오프셋 행렬을 적용하여 샘플 프레임에 대응하는 특징회귀행렬을 결정하고 저장할 수 있다.In operation 530, the image processing apparatus may learn a feature regression matrix for the input image based on the calculated position offset matrix. More specifically, the image processing apparatus can determine and store a feature regression matrix corresponding to a sample frame by applying the position offset matrix to feature points included in each candidate selection region and feature points in the base image.

영상 처리 장치는 아래의 수학식 6과 같은 타겟 함수 f(H)를 최소화하여 특징회귀행렬 H(h1, h2)를 계산할 수 있다.The image processing apparatus can calculate the characteristic regression matrix H (h 1 , h 2 ) by minimizing the target function f (H) as shown in Equation (6) below.

Figure pat00014
Figure pat00014

상기 수학식 6에서 제i 후보 선택 영역 Xi에 대응하는 특징 포인트는 qi이고, X 좌표 및 Y 좌표 각각에 대한 특징회귀벡터는 h1 및 h2이며, γ는 상수를 나타낸다. 일실시예로서, 영상 처리 장치는 로지스틱 회귀(logistic regression)에 기초하여 특징회귀행렬 H를 계산할 수 있다. 영상 처리 장치에 의해 계산된 특징회귀행렬 H는 아래의 수학식 7과 같이 정리될 수 있다.In Equation (6), the feature point corresponding to the i- th candidate selection region X i is q i , and the characteristic regression vectors for the X-coordinate and Y-coordinate are h 1 and h 2 , respectively. In one embodiment, the image processing apparatus may calculate the feature regression matrix H based on a logistic regression. The feature regression matrix H calculated by the image processing apparatus can be summarized as Equation (7) below.

Figure pat00015
Figure pat00015

상기 수학식 7에서, X는 후보 선택 영역의 대표 위치에 관한 행렬을 나타내고, I는 대각선 상의 원소를 1로 갖고 나머지 원소들을 0으로 갖는 단위행렬을 나타낸다. 영상 처리 장치는 학습된 특징회귀행렬을 메모리 내에 저장할 수 있다.In Equation (7), X represents a matrix relating to a representative position of the candidate selection region, and I represents a unit matrix having 1 on the diagonal and 0 as the remaining elements. The image processing apparatus can store the learned feature regression matrix in memory.

다른 일실시예로서, 영상 처리 장치는 서로 다른 M 개의 샘플 프레임을 이용하여 M 개의 특징회귀행렬을 트레이닝하고 저장할 수 있다. 위와 같은 경우에, 하나의 샘플 프레임은 하나의 특징회귀행렬에 대응되며 M은 2보다 작지 않은 양의 정수를 나타낼 수 있다. 본 실시예에 따른 영상 처리 장치는 복수의 특징회귀행렬을 이용하여 아웃라이어(outlier)를 보다 효과적으로 제거하여 타겟 추적의 정확도를 향상시킬 수 있다. 트레이닝되어 학습된 특징회귀행렬은 입력 영상에 포함되는 임의의 프레임의 타겟을 추적하는데 이용될 수 있다. 타겟 추적 과정에 대한 자세한 설명은 앞선 도 1 내지 도 4의 설명이 그대로 적용될 수 있어, 중복되는 설명은 생략하기로 한다.In another embodiment, the image processing apparatus may train and store M characteristic regression matrices using different M sample frames. In such a case, one sample frame corresponds to one feature regression matrix and M can represent a positive integer not less than two. The image processing apparatus according to the present embodiment can improve the accuracy of target tracking by more effectively removing outliers using a plurality of characteristic regression matrices. The trained and learned feature regression matrix can be used to track the target of any frame included in the input image. The detailed description of the target tracking process can be applied to the description of FIGS. 1 to 4 as it is, and a duplicate description will be omitted.

도 6은 또 다른 일실시예에 따른 영상 처리 장치가 타겟을 포함하는 최종 선택 영역을 결정하는 과정을 설명하는 흐름도이다. 도 6을 참조하면, 최종 선택 영역을 결정하는 방법은 타겟의 특징에 관한 포지티브 샘플(positive sample)과 복수의 후보 선택 영역 각각이 갖는 유사도를 계산하는 단계(610) 및 상기 계산된 유사도에 따라 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정하는 단계(620)를 포함할 수 있다.FIG. 6 is a flowchart illustrating a process of determining a final selection area including a target according to another embodiment of the present invention. Referring to FIG. 6, a method for determining a final selection region includes calculating (610) a similarity of each of a positive sample and a plurality of candidate selection regions with respect to a characteristic of a target, And determining (620) a final selection region that includes the target within the first region.

단계(610)에서 영상 처리 장치는 저장된 클러스터링 모델(clustering model)을 이용하여 복수의 후보 선택 영역 각각이 상기 포지티브 샘플에 대해 갖는 유사도를 계산할 수 있다. 도 6에서 도시되지 않았지만, 영상 처리 장치는 입력된 프레임 내에서 타겟에 관한 초기 선택 영역을 결정하고, 결정된 초기 선택 영역을 중심으로 복수의 후보 선택 영역을 추출할 수 있다. 영상 처리 장치가 복수의 후보 선택 영역을 추출하는 과정에 대해서는 도 3a 및 도 3b 등과 함께 자세하게 설명되었기 때문에 중복되는 설명은 생략하기로 한다.In operation 610, the image processing apparatus may calculate a degree of similarity that each of the plurality of candidate selection regions has with respect to the positive sample using a stored clustering model. Although not shown in FIG. 6, the image processing apparatus can determine an initial selection region for a target within an input frame, and extract a plurality of candidate selection regions around the determined initial selection region. The process of extracting a plurality of candidate selection regions by the image processing apparatus has been described in detail with reference to FIG. 3A and FIG. 3B, and therefore a duplicated description will be omitted.

보다 구체적으로, 상기 클러스터링 모델은 기저 영상 내의 타겟 영역의 특징을 포지티브 샘플로 추출하여 학습된 포지티브 샘플 행렬을 포함할 수 있다. 또한, 상기 클러스터링 모델은 상기 타겟 영역을 중심으로 소정 범위 내에 존재하는 주위 영역의 특징을 네거티브 샘플로 추출하여 학습된 네거티브 샘플 행렬을 포함할 수 있다. 예시적으로, 영상의 특징으로서 휘도 영상(gray image) 및 오리엔티드 그래디언트 히스토그램(histogram of oriented gradients) 중 적어도 하나가 이용될 수 있다.More specifically, the clustering model may include a learned positive sample matrix by extracting features of a target region in a base image as positive samples. In addition, the clustering model may include a learned negative sample matrix by extracting a characteristic of a surrounding region existing within a predetermined range around the target region as negative samples. Illustratively, at least one of a gray image and a histogram of oriented gradients may be used as a feature of an image.

일실시예로서, 단계(610)에서 영상 처리 장치는 복수의 기저 서브 영상에 기반하여 학습된 희소 부분공간 클러스터링 모델(SSC: Sparse Subspace Clustering model)을 이용하여 복수의 후보 선택 영역 각각이 상기 포지티브 샘플에 대해 갖는 유사도를 계산할 수 있다. 보다 구체적으로, 희소 부분공간 클러스터링 모델은 포지티브 샘플 행렬과 네거티브 샘플 행렬을 포함하는 혼합 희소 부분공간 클러스터링 모델(HSSC: Hybrid Sparse Subspace Clustering model)로 구현될 수 있다.In one embodiment, in step 610, the image processing apparatus may use a sparse subspace clustering model (SSC), which is learned based on a plurality of base sub images, Can be calculated. More specifically, the sparse subspace clustering model may be implemented with a hybrid sparse subspace clustering model (HSSC) that includes a positive sample matrix and a negative sample matrix.

단계(610)에서 영상 처리 장치는 희소 부분공간 클러스터링 모델에 포함되는 포지티브 샘플 행렬과 각각의 후보 선택 영역에 포함되는 특징 포인트들의 유사도를 계산할 수 있다. 다른 일실시예로서, 영상 처리 장치는 상기 포지티브 샘플 행렬과 상기 후보 선택 영역에 포함되는 서브 영역의 특징 포인트를 비교하여 상기 유사도를 계산할 수 있다. 영상 처리 장치는 후보 선택 영역 각각에 포함되는 복수의 서브 영역에 관한 유사도들을 더할 수 있다.In operation 610, the image processing apparatus may calculate the similarity between the positive sample matrix included in the sparse partial spatial clustering model and the feature points included in each candidate selection region. In another embodiment, the image processing apparatus may calculate the similarity by comparing the positive sample matrix with feature points of a sub-region included in the candidate selection region. The image processing apparatus may add similarities with respect to a plurality of sub regions included in each of the candidate selection regions.

또한, 영상 처리 장치는 후보 선택 영역에 포함되는 복수의 서브 영역에 관한 유사도의 합에 기반하여 상기 후보 선택 영역에 대응하는 유사도를 결정할 수 있다. 보다 구체적으로, 영상 처리 장치는 복수의 서브 영역에 관한 유사도들의 평균값을 상기 후보 선택 영역의 유사도로서 계산할 수 있다.In addition, the image processing apparatus can determine the similarity degree corresponding to the candidate selection region based on the sum of similarities of the plurality of sub regions included in the candidate selection region. More specifically, the image processing apparatus can calculate an average value of similarities with respect to a plurality of sub-regions as the similarity of the candidate selection region.

단계(620)에서 영상 처리 장치는 각각의 후보 선택 영역에 대응하는 유사도에 따라, 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정할 수 있다. 보다 구체적으로, 영상 처리 장치는 복수의 후보 선택 영역 중 포지티브 샘플에 대해 최대 유사도를 갖는 후보 선택 영역을 타겟에 관한 최종 선택 영역으로 결정할 수 있다. 또한, 영상 처리 장치는 상기 결정된 최종 선택 영역의 정보를 현재 프레임에 대한 타겟 추적 결과로서 저장할 수 있다. 예시적으로, 최종 선택 영역의 정보는 영역의 크기, 영역의 위치, 영역 내의 영상 데이터 및 영상 내의 특징 데이터 중 적어도 하나를 포함할 수 있다.In step 620, the image processing apparatus may determine the final selection area containing the target in the frame, according to the similarity degree corresponding to each candidate selection area. More specifically, the image processing apparatus can determine the candidate selection region having the maximum similarity to the positive sample among the plurality of candidate selection regions as the final selection region for the target. Further, the image processing apparatus may store the determined information of the final selection area as a target tracking result for the current frame. Illustratively, the information of the final selection region may include at least one of the size of the region, the position of the region, the image data in the region, and the feature data in the image.

도 6에서 도시되지는 않았지만, 영상 처리 장치는 상기 프레임의 최종 선택 영역과 메모리 내에 저장된 이전 프레임들을 비교할 수 있다. 보다 구체적으로, 영상 처리 장치는 상기 최종 선택 영역의 포지티브 샘플에 대한 유사도와 이전 프레임들의 상기 포지티브 샘플에 대한 유사도 평균값을 비교할 수 있다. 비교 결과로서 상기 최종 선택 영역의 포지티브 샘플에 대한 유사도가 이전 프레임들의 상기 포지티브 샘플에 대한 유사도 평균값보다 큰 경우, 영상 처리 장치는 상기 최종 선택 영역이 결정된 프레임을 새롭게 저장할 수 있다. 또한, 영상 처리 장치는 기저장된 프레임들 중 상기 포지티브 샘플에 대해 최대 유사도를 갖는 프레임 내에서 타겟의 기저 영상을 새롭게 저장할 수 있다.Although not shown in FIG. 6, the image processing apparatus can compare the last selected area of the frame with previous frames stored in the memory. More specifically, the image processing apparatus can compare the similarity of the positive sample of the final selection region with the average of the similarity of the positive samples of the previous frames. As a result of comparison, when the similarity of the positive sample of the final selection area is larger than the similarity average value of the positive samples of the previous frames, the image processing apparatus can newly store the frame in which the final selection area is determined. In addition, the image processing apparatus can newly store the base image of the target within the frame having the maximum similarity to the positive sample among the previously stored frames.

도 7a 및 도 7b는 또 다른 일실시예에 따른 영상 처리 장치가 샘플 프레임을 이용하여 포지티브 샘플과 네거티브 샘플을 추출하는 과정을 설명하는 예시도이다. 도 7a를 참조하면, 영상 처리 장치(700)는 샘플 프레임을 입력 받고, 상기 샘플 프레임에 대응하는 포지티브 샘플 및 네거티브 샘플 중 어느 하나를 출력할 수 있다. 영상 처리 장치(700)는 지정된 샘플 프레임 내에서 포지티브 샘플 또는 네거티브 샘플을 추출하도록 미리 학습될 수 있다. 영상 처리 장치(700)는 샘플 프레임을 이용하여 생성된 포지티브 샘플 행렬(721) 및 네거티브 샘플 행렬(722) 각각을 클러스터링 모델로서 메모리(710)내에 저장할 수 있다.FIGS. 7A and 7B are diagrams for explaining a process of extracting a positive sample and a negative sample using a sample frame according to another embodiment of the present invention. Referring to FIG. 7A, the image processing apparatus 700 receives a sample frame and outputs either a positive sample or a negative sample corresponding to the sample frame. The image processing apparatus 700 can be preliminarily learned to extract a positive sample or a negative sample within a specified sample frame. The image processing apparatus 700 can store each of the positive sample matrix 721 and the negative sample matrix 722 generated using the sample frame as a clustering model in the memory 710. [

도 7b를 참조하면, 영상 처리 장치(700)는 입력되는 샘플 프레임 내의 특징 포인트들(731, 732, 733, 734, 735, 736, 737, 738)을 포지티브 샘플로서 추출할 수 있다. 일실시예로서, 영상 처리 장치(700)는 샘플 프레임의 기저 영상에 포함되는 타겟의 얼굴 윤곽 포인트, 타겟의 아이 포인트, 타겟의 마우스 포인트 등과 같은 특징 포인트들을 상기 포지티브 샘플로서 추출할 수 있다. 또한, 영상 처리 장치(700)는 상기 포지티브 샘플로 추출된 특징 포인트를 기준으로하여 소정 거리 d 내에 존재하는 영역(740)에서 복수의 픽셀 포인트들을 샘플링하고, 네거티브 샘플로서 추출할 수 있다. 소정 거리 d는 포지티브 샘플과 네거티브 샘플을 분리할 수 있도록 지정되는 변수를 나타낸다.Referring to FIG. 7B, the image processing apparatus 700 may extract feature points 731, 732, 733, 734, 735, 736, 737, and 738 in the input sample frame as positive samples. In one embodiment, the image processing apparatus 700 may extract, as the positive sample, feature points such as a face contour point of the target included in the base image of the sample frame, an eye point of the target, a mouse point of the target, In addition, the image processing apparatus 700 may sample a plurality of pixel points in a region 740 existing within a predetermined distance d based on feature points extracted from the positive sample, and extract the extracted pixel points as a negative sample. The predetermined distance d represents a variable designated so that the positive sample and the negative sample can be separated.

도 8은 도 7a에서 설명된 영상 처리 장치가 희소 부분공간 클러스터링 모델을 학습하는 과정을 설명하는 흐름도이다. 도 8을 참조하면, 영상 처리 장치(700)는 포지티브 샘플 행렬을 이용하여 포지티브 샘플의 서브 영역을 정의하는 계수 행렬을 계산하는 단계(810) 및 계산된 계수 행렬을 이용하여 스펙트럴 클러스터링을 수행하는 단계(820)를 수행할 수 있다.FIG. 8 is a flowchart illustrating a process of learning a sparse partial space clustering model by the image processing apparatus illustrated in FIG. 7A. Referring to FIG. 8, an image processing apparatus 700 includes a step 810 of calculating a coefficient matrix defining a sub-region of a positive sample using a positive sample matrix, and a spectral clustering using a calculated coefficient matrix Step 820 may be performed.

단계(810)에서 영상 처리 장치(700)는 미리 결정된 포지티브 샘플 행렬을 이용하여 생산 계수 행렬(production coefficient matrix)를 최적화할 수 있다. 포지티브 샘플의 개수가 N 개인 경우, 포지티브 샘플은

Figure pat00016
이고, 포지티브 샘플 행렬 A는
Figure pat00017
로 정의될 수 있다. 또한, 네거티브 샘플의 개수가 M 개인 경우, 네거티브 샘플은
Figure pat00018
로 정의될 수 있다. 영상 처리 장치(700)가 적어도 하나의 샘플 프레임으로부터 포지티브 샘플을 추출하고, 포지티브 샘플 행렬을 생성하는 과정에 대해서는 도 7a 및 도 7b와 함께 기재된 설명이 그대로 적용될 수 있어 중복되는 설명은 생략하기로 한다.In operation 810, the image processing apparatus 700 may optimize a production coefficient matrix using a predetermined positive sample matrix. If the number of positive samples is N,
Figure pat00016
, And the positive sample matrix A is
Figure pat00017
. ≪ / RTI > In addition, when the number of negative samples is M,
Figure pat00018
. ≪ / RTI > 7A and 7B can be directly applied to the process of extracting a positive sample from at least one sample frame and generating a positive sample matrix by the image processing apparatus 700, and a duplicated description will be omitted .

단계(810)에서 영상 처리 장치(700)는 LSR(Least Squares Regression) 모델에 기반하여 생산 계수 행렬을 최적화할 수 있다. 보다 구체적으로, 영상 처리 장치(700)는 아래의 수학식 8과 같은 타겟 함수 f(W)를 최소화 하여, 최적의 생산 계수 행렬 W*을 계산할 수 있다.In operation 810, the image processing apparatus 700 may optimize the production coefficient matrix based on an LSR (Least Squares Regression) model. More specifically, the image processing apparatus 700 can calculate the optimal production coefficient matrix W * by minimizing the target function f (W) as shown in the following equation (8).

Figure pat00019
Figure pat00019

상기 수학식 8에서, W는 생산 계수 행렬을 나타내고, λ는 상수를 나타내고, | |F는 F행렬을 나타낸다. 영상 처리 장치(700)는 상기 수학식 8에 따라 정의되는 f(W)를 최소로 하는 최적의 생산 계수 행렬 W*을 아래의 수학식 9와 같이 계산할 수 있다.In Equation (8), W denotes a production coefficient matrix,? Denotes a constant, and | | F represents an F matrix. The image processing apparatus 700 can calculate an optimal production coefficient matrix W * that minimizes f (W) defined according to Equation (8) as shown in Equation (9) below.

Figure pat00020
Figure pat00020

상기 수학식 9에서, AT는 포지티브 샘플 행렬의 전치행렬(transposed matrix)를 나타내고,

Figure pat00021
Figure pat00022
의 역행렬을 나타낸다. 영상 처리 장치(700)는 계산된 최적의 생산 계수 행렬 W*을 아래의 수학식 10에 적용하여, 혼합계수행렬 B를 계산할 수 있다.In Equation (9), A T denotes a transposed matrix of the positive sample matrix,
Figure pat00021
The
Figure pat00022
≪ / RTI > The image processing apparatus 700 can calculate the mixing coefficient matrix B by applying the calculated optimal production coefficient matrix W * to the following equation (10).

Figure pat00023
Figure pat00023

단계(820)에서 영상 처리 장치(700)는 계산된 계수 행렬을 이용하여 스펙트럴 클러스터링을 수행할 수 있다. 영상 처리 장치(700)는 생성된 혼합계수행렬 B에 대하여 스펙트럴 클러스터링을 수행하고, 복수의 포지티브 샘플 그룹을 획득할 수 있다.In operation 820, the image processing apparatus 700 may perform spectral clustering using the calculated coefficient matrix. The image processing apparatus 700 can perform spectral clustering on the generated mixture coefficient matrix B and obtain a plurality of positive sample groups.

다른 일실시예로서, 영상 처리 장치(700)는 기설정된 횟수만큼 반복하여 혼합계수행렬 B에 대한 스펙트럴 클러스터링을 수행하고, 복수의 포지티브 샘플 그룹을 획득할 수 있다. 예시적으로, 그러나 한정되지 않게, 영상 처리 장치(700)는 N 개의 포지티브 샘플이 K 개의 포지티브 샘플 그룹으로 클러스터링 되는 경우까지 스펙트럴 클러스터링을 수행할 수 있다(단, K는 N보다 크지 않은 정수 이다). 스펙트럴 클러스터링 과정은 기술 분야의 전문가에게는 straight forward한 내용이므로 자세한 설명은 생략하기로 한다.As another embodiment, the image processing apparatus 700 can perform spectral clustering on the mixture coefficient matrix B repeatedly a predetermined number of times, and obtain a plurality of positive sample groups. Illustratively, but not exclusively, the image processing apparatus 700 may perform spectral clustering until N positive samples are clustered into K positive sample groups, where K is an integer not greater than N ). The spectral clustering process is straightforward for technical experts and will not be described in detail.

영상 처리 장치(700)는 혼합계수행렬 B에 대하여 스펙트럴 클러스터링이 수행된 횟수를 인덱스로서 카운팅하고, 카운팅된 인덱스에 기초하여 스펙트럴 클러스터링의 반복 여부를 결정할 수 있다. 보다 구체적으로, 영상 처리 장치(700)는 혼합계수행렬 B에 대한 스펙트럴 클러스터링이 미리 지정된 K 번 반복된 경우에, 제K 차수에 생성된 포지티브 샘플 그룹을 희소 부분공간 클러스터링 모델에 저장하고, 스펙트럴 클러스터링의 반복을 종료할 수 있다.The image processing apparatus 700 may count the number of times spectral clustering has been performed for the mixture coefficient matrix B as an index and determine whether to repeat the spectral clustering based on the counted index. More specifically, when the spectral clustering for the mixture coefficient matrix B is repeated K predetermined times, the image processing apparatus 700 stores the positive sample group generated in the K-th order in the sparse partial space clustering model, It is possible to terminate the iterative clustering.

또 다른 일실시예로서, 영상 처리 장치(700)는 포지티브 샘플 그룹과 네거티브 샘플을 이용하여 스펙트럴 클러스터링의 반복 여부를 결정하는 판별성 계수 행렬을 계산할 수 있다. 영상 처리 장치(700)는 임의의 제k 포지티브 샘플 그룹에 대응하는 포지티브 샘플 및 네거티브 샘플을 하나의 샘플 그룹으로서 추출할 수 있다. 영상 처리 장치(700)는 미리 지정된 그래프 임베딩(graph embedding) 모델에 기초하여 상기 샘플 그룹 내의 포지티브 샘플에 대응하는 판별방향 pk를 획득할 수 있다. 이하의 설명에서, 그래프 임베딩 모델은 하나의 그래프를 그와 구분되는 다른 그래프에 매핑하는 방법을 의미한다.As another embodiment, the image processing apparatus 700 may calculate the discriminantity coefficient matrix for determining whether the spectral clustering is repeated using the positive sample group and the negative sample. The image processing apparatus 700 can extract the positive sample and the negative sample corresponding to any kth positive sample group as one sample group. The image processing apparatus 700 can obtain the discriminating direction p k corresponding to the positive sample in the sample group based on a predetermined graph embedding model. In the following description, the graph embedding model means a method of mapping one graph to another graph separated from the graph.

보다 구체적으로, 영상 처리 장치(700)는 샘플 그룹에 포함되는 포지티브 샘플 및 네거티브 샘플의 유클리드 거리에 기초하여 샘플들 사이의 가중치(weighting)를 결정할 수 있다. 예시적으로, 제k 그룹 내에 존재하는 포지티브 샘플

Figure pat00024
및 네거티브 샘플
Figure pat00025
이 존재하는 경우가 있을 수 있다. 이 경우에, 영상 처리 장치(700)는 두 샘플의 유클리드 거리를
Figure pat00026
로 계산하고, 상기 유클리드 거리
Figure pat00027
에 기반하여 가중치
Figure pat00028
를 계산할 수 있다. 일실시예로서 두 개의 샘플 모두가 포지티브 샘플이거나 네거티브 샘플인 경우, 영상 처리 장치(700)는 상기 두 개의 샘플 사이의 가중치를 0으로서 계산할 수 있다. 또한, 영상 처리 장치(700)는 계산된 가중치에 기초하여 그래프 임베딩에 이용되는 라플라시안 행렬을 계산하고, 상기 라플라시안 행렬에 기초하여 판별방향 pk를 획득할 수 있다.More specifically, the image processing apparatus 700 can determine the weighting between the samples based on the Euclidean distance of the positive sample and the negative sample included in the sample group. Illustratively, the positive samples present in the kth group
Figure pat00024
And negative samples
Figure pat00025
There may be cases where the In this case, the image processing apparatus 700 calculates the Euclidean distance of two samples
Figure pat00026
, And the Euclidian distance
Figure pat00027
Based on the weight
Figure pat00028
Can be calculated. In one embodiment, if both samples are positive samples or negative samples, the image processing apparatus 700 may calculate the weight between the two samples as zero. In addition, the video processing device 700 may be based on the calculated weights to calculate the Laplacian matrix used in the graph embedding, and obtains the determined directions p k on the basis of the Laplacian matrix.

영상 처리 장치(700)는 각각의 샘플 그룹의 판별방향 pk에 기초하여 포지티브 샘플과 포지티브 샘플 그룹의 평균값의 유사성을 결정할 수 있다. 보다 구체적으로, 영상 처리 장치(700)는 아래의 수학식 11과 같이 포지티브 샘플

Figure pat00029
과 포지티브 샘플 그룹의 평균값
Figure pat00030
의 유사성
Figure pat00031
을 계산할 수 있다.The image processing apparatus 700 can determine the similarity of the average value of the positive sample group and the positive sample group based on the discrimination direction p k of each sample group. More specifically, the image processing apparatus 700 obtains a positive sample
Figure pat00029
And the average value of positive sample groups
Figure pat00030
Similarity of
Figure pat00031
Can be calculated.

Figure pat00032
Figure pat00032

또한, 영상 처리 장치(700)는 상기 수학식 11과 같이 계산된 유사성

Figure pat00033
에 기초하여 판별성 계수 행렬을 계산할 수 있다. 영상 처리 장치(700)는 포지티브 샘플
Figure pat00034
및 포지티브 샘플
Figure pat00035
사이의 판별성에 기초하여 아래의 수학식 12와 같이 유사도 계수
Figure pat00036
를 계산할 수 있다.In addition, the image processing apparatus 700 calculates the similarity
Figure pat00033
The discriminant coefficient matrix can be calculated. The image processing apparatus 700 includes:
Figure pat00034
And positive samples
Figure pat00035
On the basis of the discrimination between the similarity coefficients
Figure pat00036
Can be calculated.

Figure pat00037
Figure pat00037

상기 수학식 12에서 Ii 1는 포지티브 샘플

Figure pat00038
와 제1 포지티브 샘플 그룹의 평균값
Figure pat00039
의 유사성을 나타내고, Ij 1는 포지티브 샘플
Figure pat00040
와 제1 포지티브 샘플 그룹의 평균값
Figure pat00041
의 유사성을 나타낸다. 또한, 영상 처리 장치(700)는 상기 수학식 12에서 계산된 유사도 계수
Figure pat00042
를 원소로 하여 판별성 계수 행렬
Figure pat00043
를 획득할 수 있다.In Equation (12), I i 1 denotes a positive sample
Figure pat00038
And the average value of the first positive sample group
Figure pat00039
I j 1 represents the similarity of the positive sample
Figure pat00040
And the average value of the first positive sample group
Figure pat00041
Lt; / RTI > Further, the image processing apparatus 700 may calculate the similarity coefficient < RTI ID = 0.0 >
Figure pat00042
The discriminant coefficient matrix
Figure pat00043
Can be obtained.

또한, 영상 처리 장치(700)는 각각의 포지티브 샘플 그룹에 포함되는 포지티브 샘플의 개수를 확인할 수 있다. 확인된 포지티브 샘플의 개수가 소정의 임계치보다 작은 경우에, 영상 처리 장치(700)는 포지티브 샘플에 대응하는 포지티브 샘플 그룹의 베이컨시(vacancy) 상태를 결정할 수 있다.Further, the image processing apparatus 700 can confirm the number of positive samples included in each positive sample group. If the number of identified positive samples is less than the predetermined threshold, the image processing apparatus 700 can determine the vacancy state of the positive sample group corresponding to the positive sample.

또한, 영상 처리 장치(700)는 베어컨시 상태로 존재하는 제1 포지티브 샘플 그룹에 대해 포지티브 샘플을 추가할 수 있다. 보다 구체적으로, 영상 처리 장치(700)는 상기 제1 포지티브 샘플 그룹과 기설정된 임계치 이상의 유사도를 갖는 제2 포지티브 샘플 그룹의 포지티브 샘플을 상기 제1 포지티브 샘플 그룹으로 보충할 수 있다. 영상 처리 장치(700)는 제1 포지티브 샘플 그룹의 포지티브 샘플의 개수가 상기 소정의 임계치 이상이 되도록 포지티브 샘플의 보충을 반복할 수 있다.In addition, the image processing apparatus 700 may add a positive sample to the first positive sample group existing in a bare state. More specifically, the image processing apparatus 700 may supplement the positive sample of the second positive sample group having the degree of similarity equal to or greater than the predetermined threshold value to the first positive sample group with the first positive sample group. The image processing apparatus 700 may repeat the replenishment of the positive sample so that the number of positive samples in the first positive sample group is equal to or greater than the predetermined threshold value.

영상 처리 장치(700)는 최적의 생산 계수 행렬 W*과 판별성 계수 행렬

Figure pat00044
을 이용하여 아래의 수학식 13과 같이 혼합계수행렬 B를 획득할 수 있다.The image processing apparatus 700 includes an optimal production coefficient matrix W * and a discriminant coefficient matrix
Figure pat00044
The mixing coefficient matrix B can be obtained as shown in Equation (13) below.

Figure pat00045
Figure pat00045

상기 수학식 13에서

Figure pat00046
는 상수를 나타낸다. 영상 처리 장치(700)는 혼합계수행렬 B에 대해 스펙트럴 클러스터링을 수행하고, 각각의 반복 차수에 대응하는 포지티브 샘플 그룹을 생성할 수 있다. 영상 처리 장치(700)는 상기 반복 차수가 미리 정의된 임계 차수에 도달할 때까지 상기 혼합계수행렬 B에 대한 스펙트럴 클러스터링을 수행할 수 있다.In Equation (13)
Figure pat00046
Represents a constant. The image processing apparatus 700 can perform spectral clustering on the mixture coefficient matrix B and generate a positive sample group corresponding to each repetition degree. The image processing apparatus 700 may perform spectral clustering on the mixture coefficient matrix B until the iteration order reaches a predefined critical order.

또한, 영상 처리 장치(700)는 생성된 포지티브 샘플 그룹 각각에 대해 주성분 분석(PCA: Principal Component Analysis)을 수행하고, 포지티브 샘플 그룹의 서브 영역을 획득할 수 있다. 포지티브 샘플 그룹의 각각의 서브 영역은 희소 부분공간 클러스터링 모델에 포함될 수 있다. 또한, 각각의 서브 영역은 상기 서브 영역에 포함되는 포지티브 샘플들의 평균값을 포함할 수 있다.Also, the image processing apparatus 700 can perform Principal Component Analysis (PCA) on each of the generated positive sample groups and acquire sub regions of positive sample groups. Each sub-region of the positive sample group may be included in a sparse subspace clustering model. Also, each sub-region may include an average value of positive samples included in the sub-region.

본 실시예에 따른 영상 처리 장치(700)는 타겟에 관한 포지티브 샘플을 이용하여 클러스터링 모델을 생성할 수 있다. 또한, 영상 처리 장치(700)는 포지티브 샘플 내의 서브 영역에 대응하는 희소 부분공간 클러스터링 모델을 생성하고, 상기 희소 부분공간 클러스터링 모델을 통해 영상 노이즈(noise)에 대해 강인성을 가질 수 있고, 이동하는 타겟을 보다 정확하게 추적할 수 있다. 상기 희소 부분공간 클러스터링 모델은 상기 타겟의 특징에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역의 특징에 관한 네거티브 샘플의 유클리드 거리에 기초하여 복수의 샘플 프레임으로부터 학습될 수 있다.The image processing apparatus 700 according to the present embodiment can generate a clustering model using positive samples with respect to the target. In addition, the image processing apparatus 700 may generate a sparse subspace clustering model corresponding to a sub-region in the positive sample, and may have robustness to image noise through the sparse subspace clustering model, Can be more accurately tracked. The sparse subspace clustering model may be learned from a plurality of sample frames based on the Euclidean distance of the positive sample with respect to the characteristic of the target and the negative sample with respect to the characteristic of the neighborhood of the target.

도 8에 도시되지는 않았지만, 영상 처리 장치(700)는 희소 부분공간 클러스터링 모델을 업데이트할 수 있다. 영상 처리 장치(700)는 최종 선택 영역이 결정되어 메모리 내에 저장된 프레임의 개수가 소정의 임계치를 초과하는지 여부를 판단할 수 있다. 상기 판단 결과에 따라 기저장된 프레임의 개수가 상기 임계치를 초과하는 경우, 영상 처리 장치(700)는 입력 영상 내에서 새로운 샘플 프레임을 추출하고, 추출된 샘플 프레임을 이용하여 희소 부분공간 클러스터링 모델을 업데이트할 수 있다. 보다 구체적으로, 영상 처리 장치(700)는 새롭게 추출된 샘플 프레임에 기초하여 포지티브 샘플 그룹의 서브 영역을 추출할 수 있다.Although not shown in FIG. 8, the image processing apparatus 700 can update the sparse partial space clustering model. The image processing apparatus 700 can determine whether the last selection area is determined and the number of frames stored in the memory exceeds a predetermined threshold value. If the number of previously stored frames exceeds the threshold according to the determination result, the image processing apparatus 700 extracts a new sample frame from the input image and updates the sparse subspace clustering model using the extracted sample frame can do. More specifically, the image processing apparatus 700 can extract the sub-region of the positive sample group based on the newly extracted sample frame.

또한, 영상 처리 장치(700)는 새롭게 추출된 샘플 프레임에 기반하여 기저 영상을 업데이트할 수 있다. 영상 처리 장치(700)는 업데이트된 기저 영상 및 희소 부분공간 클러스터링 모델을 이용하여 이후에 입력되는 프레임에 대해 타겟을 추적할 수 있다. 영상 처리 장치(700)가 타겟을 추적하는 과정에 대해서는 도 6에서 설명된 방법이 그대로 적용될 수 있어 중복되는 설명은 생략하기로 한다.Also, the image processing apparatus 700 can update the base image based on the newly extracted sample frame. The image processing apparatus 700 can use the updated base image and the sparse subspace clustering model to track the target for a frame that is subsequently input. The method of FIG. 6 may be applied to the process of the image processing apparatus 700 to track the target, so that redundant description will be omitted.

도 9는 또 다른 일실시예에 따른 영상 처리 장치를 설명하는 블록도이다. 도 9를 참조하면, 영상 처리 장치(900)는 추출부(910), 제1 계산부(920), 제2 계산부(930) 및 결정부(940)를 포함할 수 있다. 추출부(910)는 기저 영상을 이용하여 입력 프레임으로부터 복수의 후보 선택 영역을 추출할 수 있다. 상기 기저 영상은 영상 처리 장치(900) 내에 저장된 프레임 내에서 타겟이 존재하는 영역의 영상을 의미한다. 일실시예로서, 상기 기저 영상은 타겟을 포함하는 입력 영상의 첫 번째 프레임에 포함될 수 있다. 다른 일실시예로서, 상기 기저 영상은 영상 처리 장치(900)에 의해 타겟이 추적된 최종 선택 영역으로서 입력 영상의 임의의 프레임에 포함될 수 있다.9 is a block diagram illustrating an image processing apparatus according to another embodiment. 9, the image processing apparatus 900 may include an extracting unit 910, a first calculating unit 920, a second calculating unit 930, and a determining unit 940. The extracting unit 910 can extract a plurality of candidate selection regions from the input frame using the base image. The base image refers to an image of a region in which a target exists in a frame stored in the image processing apparatus 900. [ In one embodiment, the basis image may be included in a first frame of an input image including a target. In another embodiment, the base image may be included in an arbitrary frame of the input image as a final selection area in which the target is tracked by the image processing apparatus 900.

제1 계산부(920)는 상기 복수의 후보 선택 영역 각각에 존재하는 특징 포인트들로부터 타겟을 추적할 수 있다. 보다 구체적으로, 제1 계산부(920)는 상기 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산할 수 있다. 또한, 제1 계산부(920)는 상기 계산된 복수의 위치 오프셋에 가중치를 적용하여 타겟 위치 오프셋을 계산할 수 있다.The first calculation unit 920 may track the target from feature points existing in each of the plurality of candidate selection regions. More specifically, the first calculation unit 920 may calculate a plurality of position offsets by applying a characteristic regression matrix to each of the plurality of candidate selection regions. Also, the first calculation unit 920 may calculate a target position offset by applying a weight to the calculated plurality of position offsets.

제2 계산부(930)는 타겟의 특징에 관한 포지티브 샘플과 상기 복수의 후보 선택 영역 각각이 갖는 유사도를 계산할 수 있다. 보다 구체적으로, 제2 계산부(930)는 혼합 희소 부분공간 클러스터링(HSSC: Hybrid Sparse Subspace Clustering) 모델에 따라 상기 유사도를 계산할 수 있다. 보다 구체적으로, 혼합 희소 부분공간 클러스터링 모델은 상기 타겟에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역에 관한 네거티브 샘플을 이용하여 학습된다. 제2 계산부(930)는 아래의 수학식 14와 같이, 후보 선택 영역 내에 포함되는 서브 영역이 포지티브 샘플에 대해 갖는 유사도를 계산해낼 수 있다.The second calculation unit 930 can calculate the similarity of each of the plurality of candidate selection regions and the positive samples related to the characteristics of the target. More specifically, the second calculation unit 930 may calculate the similarity according to a Hybrid Sparse Subspace Clustering (HSSC) model. More specifically, a mixed sparse subspace clustering model is learned using a positive sample for the target and a negative sample for the neighboring region of the target. The second calculation unit 930 can calculate the degree of similarity that the sub-region included in the candidate selection region has with respect to the positive sample, as shown in Equation (14) below.

Figure pat00047
Figure pat00047

상기 수학식 14에서, Uk는 혼합 희소 부분공간 클러스터링 모델에 포함되는 제k 부분공간을 나타내고, I는 각각의 부분공간에 포함되는 포지티브 샘플의 특징,

Figure pat00048
는 각각의 부분공간에 포함되는 포지티브 샘플의 특징 평균값을 나타내고, r은 후보 선택 영역 내의 서브 영역의 인덱스를 나타낼 수 있다. 예시적으로, 상기 I는 상기 포지티브 샘플의 휘도값을 나타낼 수 있다.In Equation (14), U k denotes the k-th subspace included in the mixed rare subspace clustering model, I denotes the characteristic of the positive sample included in each subspace,
Figure pat00048
Represents the feature average value of the positive samples included in each subspace, and r can represent the index of the sub region within the candidate selection region. Illustratively, I may represent the luminance value of the positive sample.

또한, 제2 계산부(930)는 혼합 희소 부분공간 클러스터링 모델에 포함되는 부분공간들 중 제r 서브 영역과 최대 유사도를 갖는 부분공간의 유사도를 상기 제r 서브 영역의 유사도로 결정할 수 있다. 보다 구체적으로, 제2 계산부(930)는 아래의 수학식 15와 같이 제r 서브 영역의 유사도를 계산할 수 있다.Also, the second calculation unit 930 may determine the similarity of the subspace having the maximum degree of similarity to the rth subspace among the subspaces included in the mixed sparse subspace clustering model as the similarity of the subspace r. More specifically, the second calculation unit 930 can calculate the similarity of the rth sub-region as shown in the following equation (15).

Figure pat00049
Figure pat00049

또한, 제2 계산부(930)는 제i 후보 선택 영역에 포함되는 모든 서브 영역의 유사도를 합하여, 상기 제i 후보 선택 영역 Xi에 대응하는 유사도를 수학식 16과 같이 계산할 수 있다.Also, the second calculation unit 930 may calculate the similarity corresponding to the i- th candidate selection region X i as shown in Equation (16) by adding the similarities of all the sub-regions included in the i-th candidate selection region.

Figure pat00050
Figure pat00050

결정부(940)는 타겟 위치 오프셋에 제1 가중치를 적용하고, 상기 복수의 후보 선택 영역 각각의 유사도에 제2 가중치를 적용하여, 상기 타겟을 포함하는 최종 선택 영역을 결정할 수 있다. 보다 구체적으로, 결정부(940)는 아래의 수학식 17과 같이 최종 선택 영역에 대응하는 평가 정보를 계산할 수 있다.The decision unit 940 may apply a first weight to the target position offset and apply a second weight to the similarity of each of the plurality of candidate selection regions to determine a final selection region containing the target. More specifically, the determination unit 940 can calculate evaluation information corresponding to the final selection area as shown in Equation (17) below.

Figure pat00051
Figure pat00051

상기 수학식 17에서,

Figure pat00052
는 후보 선택 영역의 최대 유사도이고,
Figure pat00053
은 타겟 위치 오프셋이고,
Figure pat00054
는 0보다 크고 1보다 작은 실수로서 가중 계수를 나타내고,
Figure pat00055
는 타겟을 포함하는 최종 선택 영역의 평가 정보이다.In Equation 17,
Figure pat00052
Is the maximum similarity of the candidate selection region,
Figure pat00053
Is the target position offset,
Figure pat00054
Represents a weighting factor as a real number greater than 0 and less than 1,
Figure pat00055
Is the evaluation information of the final selection area including the target.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute one or more software applications that are executed on an operating system (OS) and an operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (19)

프로세서로 구현되는:
제1 프레임 내의 기저 영상(basis image)의 위치에 기초하여 제2 프레임 내의 복수의 후보 선택 영역 각각에 관한 위치 오프셋을 계산하는 계산부; 및
상기 계산된 위치 오프셋 및 상기 복수의 후보 선택 영역 각각에 할당된 가중치에 따라 상기 제2 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정하는 결정부
를 포함하는 영상 처리 장치.
Implemented by the processor:
A calculation unit for calculating a position offset with respect to each of the plurality of candidate selection areas in the second frame based on the position of the basis image in the first frame; And
Determining a final selection region including a target in the second frame according to the calculated position offset and a weight assigned to each of the plurality of candidate selection regions,
And the image processing apparatus.
제1항에 있어서,
상기 결정부는 상기 복수의 후보 선택 영역 각각의 상기 제2 프레임 내의 위치에 기초하여 상기 가중치를 결정하는 영상 처리 장치.
The method according to claim 1,
Wherein the determination unit determines the weight based on a position in the second frame of each of the plurality of candidate selection areas.
제1항에 있어서,
상기 계산부는 상기 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산하고, 상기 복수의 위치 오프셋 각각에 대해 상기 가중치를 적용하여 상기 타겟을 추적하는 타겟 위치 오프셋을 계산하는 영상 처리 장치.
The method according to claim 1,
Wherein the calculation unit calculates a plurality of position offsets by applying a characteristic regression matrix to each of the plurality of candidate selection regions and calculates a target position offset for calculating the target position offset by applying the weight to each of the plurality of position offsets, Processing device.
제1항에 있어서,
상기 계산부는 미리 학습된 복수의 특징회귀행렬을 이용하여 제1 후보 선택 영역에 관한 복수의 위치 오프셋을 계산하고, 상기 복수의 위치 오프셋의 평균값을 이용하여 상기 제1 후보 선택 영역에 대응하는 제1 위치 오프셋을 계산하는 영상 처리 장치.
The method according to claim 1,
Wherein the calculation unit calculates a plurality of position offsets with respect to the first candidate selection area using a plurality of previously learned feature regression matrices and calculates a plurality of position offsets corresponding to the first candidate selection area using the average value of the plurality of position offsets An image processing apparatus for calculating a position offset.
제4항에 있어서,
상기 복수의 특징회귀행렬은 상기 기저 영상 내의 특징 포인트 및 복수의 샘플 프레임 각각의 특징 포인트들에 따른 위치 오프셋에 기초하여 학습되는 영상 처리 장치.
5. The method of claim 4,
Wherein the plurality of feature regression matrices are learned based on a feature point in the base image and a position offset according to feature points of each of the plurality of sample frames.
제1항에 있어서,
상기 제1 프레임 내의 기저 영상에 기초하여 상기 제2 프레임에서 상기 타겟에 관한 초기 선택 영역을 결정하고, 상기 결정된 초기 선택 영역을 중심으로 상기 복수의 후보 선택 영역을 추출하는 추출부
를 더 포함하는 영상 처리 장치.
The method according to claim 1,
An extraction unit for determining an initial selection area for the target in the second frame based on the base image in the first frame and extracting the plurality of candidate selection areas around the determined initial selection area,
Further comprising:
제6항에 있어서,
상기 추출부는 상기 제1 프레임 및 상기 제2 프레임 사이의 전체 위치 오프셋을 계산하고, 상기 계산된 전체 위치 오프셋과 상기 기저 영상 내에 타겟이 존재하는 위치 정보에 기초하여 초기 선택 영역을 결정하는 영상 처리 장치.
The method according to claim 6,
Wherein the extracting unit calculates an overall position offset between the first frame and the second frame and determines an initial selection area based on the calculated total position offset and position information in which the target exists in the base image, .
제7항에 있어서,
상기 추출부는 상기 기저 영상 내의 특징 포인트에 대응하는 투영 포인트들을 상기 제2 프레임 내에서 추출하고, 상기 결정된 투영 포인트들과 소정 범위 내에 존재하는 포인트들의 텍스처 값을 이용하여 상기 전체 위치 오프셋을 결정하는 영상 처리 장치.
8. The method of claim 7,
Wherein the extraction unit extracts projection points corresponding to the feature points in the base image in the second frame and determines the overall position offset using the texture values of the determined projection points and points within a predetermined range Processing device.
제8항에 있어서,
상기 추출부는 상기 결정된 투영 포인트를 중심으로 소정 범위 내의 포인트들을 추출하고, 추출된 포인트들의 텍스처 값과 상기 특징 포인트의 텍스처 값의 유사도에 따라 상기 특징 포인트에 대응하는 매칭 포인트를 결정하고, 상기 특징 포인트의 위치 및 상기 매칭 포인트의 위치를 비교하여 상기 전체 위치 오프셋을 결정하는 영상 처리 장치.
9. The method of claim 8,
Wherein the extracting unit extracts points within a predetermined range around the determined projection point, determines a matching point corresponding to the feature point according to a similarity between a texture value of the extracted points and a texture value of the feature point, And the position of the matching point are compared with each other to determine the overall position offset.
제1항에 있어서,
상기 최종 선택 영역이 결정된 상기 제2 프레임을 저장하고, 저장된 프레임들의 개수가 임계치 이상이 되는 경우에 상기 프레임들의 타겟 추적 결과값에 따라 상기 기저 영상을 업데이트 하는 저장부
를 더 포함하는 영상 처리 장치.
The method according to claim 1,
A storage unit for storing the second frame in which the last selected area is determined and updating the base image according to a target tracking result value of the frames when the number of stored frames becomes equal to or greater than a threshold value,
Further comprising:
타겟의 특징에 관한 포지티브 샘플(positive sample)과 복수의 후보 선택 영역 각각이 갖는 유사도를 계산하는 단계; 및
상기 계산된 유사도에 따라 프레임 내에서 타겟을 포함하는 최종 선택 영역을 결정하는 단계
를 포함하는 영상 처리 방법.
Calculating a similarity of each of a plurality of candidate selection regions and a positive sample with respect to a characteristic of the target; And
Determining a final selected region containing a target in a frame according to the calculated similarity
And an image processing method.
제11항에 있어서,
상기 유사도를 계산하는 단계는,
희소 부분공간 클러스터링(SSC: Sparse Subspace Clustering) 모델에 포함되는 상기 포지티브 샘플의 특징과 각각의 후보 선택 영역 내의 서브 영역의 특징을 비교하여 상기 유사도를 계산하는 단계
를 포함하는 영상 처리 방법.
12. The method of claim 11,
Wherein the step of calculating the degree of similarity comprises:
Calculating the similarity by comparing features of the positive sample included in a Sparse Subspace Clustering (SSC) model with features of sub regions in each candidate selection region
And an image processing method.
제12항에 있어서,
상기 유사도를 계산하는 단계는,
제1 후보 선택 영역에 포함되는 복수의 서브 영역에 관한 유사도들의 합에 따라 상기 제1 후보 선택 영역의 유사도를 계산하는 단계
를 포함하는 영상 처리 방법.
13. The method of claim 12,
Wherein the step of calculating the degree of similarity comprises:
Calculating a degree of similarity of the first candidate selection region according to a sum of similarities with respect to a plurality of sub regions included in the first candidate selection region
And an image processing method.
제12항에 있어서,
상기 희소 부분공간 클러스터링 모델은 상기 타겟의 특징에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역의 특징에 관한 네거티브 샘플의 유클리드 거리에 기초하여 복수의 샘플 프레임으로부터 학습되는 영상 처리 방법.
13. The method of claim 12,
Wherein the sparse subspace clustering model is learned from a plurality of sample frames based on a Euclidean distance of a positive sample with respect to a characteristic of the target and a negative sample with respect to a characteristic of an adjacent region of the target.
제11항에 있어서,
상기 프레임의 최종 선택 영역과 상기 포지티브 샘플의 유사도와 이전 프레임들과 상기 포지티브 샘플의 유사도 평균값을 비교하는 단계; 및
상기 비교 결과에 따라 상기 프레임을 새롭게 저장하는 단계;
를 더 포함하는 영상 처리 방법.
12. The method of claim 11,
Comparing the similarity of the last selected region of the frame with the positive sample and the similarity average of the positive samples with previous frames; And
Storing the frame in accordance with the comparison result;
Further comprising the steps of:
제15항에 있어서,
저장된 프레임들의 개수와 소정의 임계치를 비교하고, 상기 비교의 결과에 따라 상기 저장된 프레임들을 샘플 프레임으로서 이용하여 희소 부분공간 클러스터링 모델을 업데이트하는 단계
를 더 포함하는 영상 처리 방법.
16. The method of claim 15,
Comparing the number of stored frames to a predetermined threshold, and updating the sparse subspace clustering model using the stored frames as a sample frame according to a result of the comparison
Further comprising the steps of:
컴퓨터 구현되는,
기저 영상을 이용하여 입력 프레임으로부터 복수의 후보 선택 영역을 추출하는 추출부;
상기 복수의 후보 선택 영역 각각에 존재하는 특징 포인트들로부터 타겟을 추적하는 타겟 위치 오프셋을 계산하는 제1 계산부;
타겟의 특징에 관한 포지티브 샘플과 상기 복수의 후보 선택 영역 각각이 갖는 유사도를 계산하는 제2 계산부; 및
상기 타겟 위치 오프셋에 제1 가중치를 적용하고 상기 복수의 후보 선택 영역 각각의 유사도에 제2 가중치를 적용하여, 상기 타겟을 포함하는 최종 선택 영역을 결정하는 결정부
를 포함하는 영상 처리 장치.
Computer-implemented,
An extracting unit for extracting a plurality of candidate selection regions from an input frame using a base image;
A first calculation unit for calculating a target position offset that tracks a target from feature points existing in each of the plurality of candidate selection areas;
A second calculation unit for calculating a similarity between each of the plurality of candidate selection regions and a positive sample related to a characteristic of the target; And
Determining a final selected region including the target by applying a first weight to the target position offset and applying a second weight to the similarity of each of the plurality of candidate selection regions,
And the image processing apparatus.
제17항에 있어서,
상기 제1 계산부는 상기 복수의 후보 선택 영역 각각에 특징회귀행렬을 적용하여 복수의 위치 오프셋을 계산하고, 상기 계산된 복수의 위치 오프셋에 가중치를 적용하여 상기 타겟 위치 오프셋을 계산하는 영상 처리 장치.
18. The method of claim 17,
Wherein the first calculator calculates a plurality of position offsets by applying a characteristic regression matrix to each of the plurality of candidate selection regions and calculates a target position offset by applying a weight to the calculated plurality of position offsets.
제17항에 있어서,
상기 제2 계산부는 상기 타겟에 관한 포지티브 샘플 및 상기 타겟의 이웃한 영역에 관한 네거티브 샘플을 이용하여 학습된 혼합 희소 부분공간 클러스터링(HSSC: Hybrid Sparse Subspace Clustering) 모델에 따라 상기 유사도를 계산하는 영상 처리 장치.
18. The method of claim 17,
The second calculator calculates the degree of similarity according to a Hybrid Sparse Subspace Clustering (HSSC) model learned using a positive sample of the target and a negative sample of a neighboring region of the target. Device.
KR1020170058547A 2016-11-15 2017-05-11 Image processing apparatus and method KR102369413B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/794,677 US10565713B2 (en) 2016-11-15 2017-10-26 Image processing apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611025103.9A CN108073936B (en) 2016-11-15 2016-11-15 Target tracking method, device and equipment
CN201611025103.9 2016-11-15

Publications (2)

Publication Number Publication Date
KR20180054406A true KR20180054406A (en) 2018-05-24
KR102369413B1 KR102369413B1 (en) 2022-03-03

Family

ID=62160658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170058547A KR102369413B1 (en) 2016-11-15 2017-05-11 Image processing apparatus and method

Country Status (2)

Country Link
KR (1) KR102369413B1 (en)
CN (1) CN108073936B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190107984A (en) * 2018-03-13 2019-09-23 재단법인대구경북과학기술원 An image traning apparatus extracting hard negative samples being used to training a neural network based on sampling and a threshold adjusting adaptively and a method performed by the image training apparatus
KR20200080109A (en) * 2018-12-26 2020-07-06 건국대학교 산학협력단 Method of selecting key prame and apparatuses performing the same
KR20220099584A (en) * 2019-12-18 2022-07-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Image processing method, apparatus, electronic device and computer readable storage medium
CN117351240A (en) * 2023-10-12 2024-01-05 北京卓视智通科技有限责任公司 Positive sample sampling method, system, storage medium and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100246997A1 (en) * 2009-03-30 2010-09-30 Porikli Fatih M Object Tracking With Regressing Particles
US20140105304A1 (en) * 2012-10-12 2014-04-17 Arcsoft Hangzhou Co., Ltd. Video processing method and electronic device
KR101414670B1 (en) * 2013-01-02 2014-07-04 계명대학교 산학협력단 Object tracking method in thermal image using online random forest and particle filter
US20160196665A1 (en) * 2013-07-30 2016-07-07 Holition Limited Locating and Augmenting Object Features in Images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111134B1 (en) * 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9076227B2 (en) * 2012-10-01 2015-07-07 Mitsubishi Electric Research Laboratories, Inc. 3D object tracking in multiple 2D sequences
EP3259845B1 (en) * 2015-02-16 2019-09-18 Sound Devices, LLC High dynamic range analog-to-digital conversion with selective regression based data repair
CN105787448A (en) * 2016-02-28 2016-07-20 南京信息工程大学 Facial shape tracking method based on space-time cascade shape regression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100246997A1 (en) * 2009-03-30 2010-09-30 Porikli Fatih M Object Tracking With Regressing Particles
US20140105304A1 (en) * 2012-10-12 2014-04-17 Arcsoft Hangzhou Co., Ltd. Video processing method and electronic device
KR101414670B1 (en) * 2013-01-02 2014-07-04 계명대학교 산학협력단 Object tracking method in thermal image using online random forest and particle filter
US20160196665A1 (en) * 2013-07-30 2016-07-07 Holition Limited Locating and Augmenting Object Features in Images

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190107984A (en) * 2018-03-13 2019-09-23 재단법인대구경북과학기술원 An image traning apparatus extracting hard negative samples being used to training a neural network based on sampling and a threshold adjusting adaptively and a method performed by the image training apparatus
KR20200080109A (en) * 2018-12-26 2020-07-06 건국대학교 산학협력단 Method of selecting key prame and apparatuses performing the same
KR20220099584A (en) * 2019-12-18 2022-07-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Image processing method, apparatus, electronic device and computer readable storage medium
US11651529B2 (en) 2019-12-18 2023-05-16 Beijing Bytedance Network Technology Co., Ltd. Image processing method, apparatus, electronic device and computer readable storage medium
CN117351240A (en) * 2023-10-12 2024-01-05 北京卓视智通科技有限责任公司 Positive sample sampling method, system, storage medium and electronic equipment
CN117351240B (en) * 2023-10-12 2024-04-09 北京卓视智通科技有限责任公司 Positive sample sampling method, system, storage medium and electronic equipment

Also Published As

Publication number Publication date
CN108073936A (en) 2018-05-25
KR102369413B1 (en) 2022-03-03
CN108073936B (en) 2024-04-19

Similar Documents

Publication Publication Date Title
Miao et al. Pose-guided feature alignment for occluded person re-identification
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
Kristan et al. The visual object tracking vot2015 challenge results
Hannuna et al. DS-KCF: a real-time tracker for RGB-D data
CN111340021B (en) Unsupervised domain adaptive target detection method based on center alignment and relation significance
Li et al. Tracking in low frame rate video: A cascade particle filter with discriminative observers of different life spans
CN108038435B (en) Feature extraction and target tracking method based on convolutional neural network
JP5206517B2 (en) Feature point selection system, feature point selection method, and feature point selection program
US20180137630A1 (en) Image processing apparatus and method
KR20180054406A (en) Image processing apparatus and method
JP6597914B2 (en) Image processing apparatus, image processing method, and program
JP6997369B2 (en) Programs, ranging methods, and ranging devices
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
CN114758288A (en) Power distribution network engineering safety control detection method and device
WO2014200454A1 (en) Performing hand gesture recognition using 2d image data
KR102645698B1 (en) Method and apparatus for face recognition robust to alignment shape of the face
WO2018100668A1 (en) Image processing device, image processing method, and image processing program
CN113379789B (en) Moving target tracking method in complex environment
Gündoğdu et al. The visual object tracking VOT2016 challenge results
Xing et al. Robust selection-based sparse shape model for lung cancer image segmentation
Stevšič et al. Spatial attention improves iterative 6D object pose estimation
Zhou et al. Test-time domain generalization for face anti-spoofing
Firouznia et al. Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking
CN114399731B (en) Target positioning method under supervision of single coarse point
Zhou et al. Superpixel-driven level set tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right