KR102318397B1 - Object tracking method and device that is robust against distance and environment change - Google Patents

Object tracking method and device that is robust against distance and environment change Download PDF

Info

Publication number
KR102318397B1
KR102318397B1 KR1020200015202A KR20200015202A KR102318397B1 KR 102318397 B1 KR102318397 B1 KR 102318397B1 KR 1020200015202 A KR1020200015202 A KR 1020200015202A KR 20200015202 A KR20200015202 A KR 20200015202A KR 102318397 B1 KR102318397 B1 KR 102318397B1
Authority
KR
South Korea
Prior art keywords
current
patches
correlation coefficient
image
obtaining
Prior art date
Application number
KR1020200015202A
Other languages
Korean (ko)
Other versions
KR20210101057A (en
Inventor
선선구
이의혁
이종민
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020200015202A priority Critical patent/KR102318397B1/en
Publication of KR20210101057A publication Critical patent/KR20210101057A/en
Application granted granted Critical
Publication of KR102318397B1 publication Critical patent/KR102318397B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras

Abstract

거리측정기로부터 획득한 대상체까지의 거리를 이용하여 대상체를 추적하기 위한 이미지 패치의 사이즈를 변경하고, 서로 다른 특징들에 기초하여 이미지 패치로부터 추출된 특징 패치들을 이용하여 예비 추적점들을 획득하고, 예비 추적점들을 융합함으로써, 대상체를 추적하기 위한 추적점을 결정한다.The size of an image patch for tracking an object is changed using the distance from the distance meter to the object obtained, and preliminary tracking points are obtained using feature patches extracted from the image patch based on different features, and preliminary tracking points are obtained. By fusing the tracking points, a tracking point for tracking the object is determined.

Description

거리 및 환경변화에 강인한 대상체 추적 방법 및 장치{Object tracking method and device that is robust against distance and environment change}Object tracking method and device that is robust against distance and environment change

장치와의 거리가 변하는 대상체를 추적하기 위한 방법 및 장치에 관한다.A method and apparatus for tracking an object whose distance from the device changes.

대상체를 추적하는 방법에는 커널상관필터(Kernelized Correlation Filter)를 이용하는 추적 방법이 있다. 이 방법은 첫 번째 이미지 프레임에서 지정된 이미지 패치의 사이즈를 이용하여 대상체를 추적한다. 따라서 이 방법에는 추적장치 또는 대상체가 이동하여 추적장치와 대상체 사이의 거리가 변함으로 인해, 이미지 프레임에서 대상체의 크기 변화가 발생하는 경우, 추적 오차가 증가하는 단점이 있다.As a method of tracking an object, there is a tracking method using a Kernelized Correlation Filter. In this method, the object is tracked using the size of the image patch specified in the first image frame. Accordingly, this method has a disadvantage in that a tracking error increases when the size of the object in the image frame is changed due to the distance between the tracking device and the object being changed due to the movement of the tracking device or the object.

또한, 단일 이미지 센서만을 이용하여 대상체를 추적하는 방법이 무기, 군용 장비, 무인기 등과 같이 변화하는 환경에서 운용되는 장치에 적용될 경우 추적 오차가 발생할 수 있다.Also, when a method of tracking an object using only a single image sensor is applied to a device operating in a changing environment, such as a weapon, military equipment, or unmanned aerial vehicle, a tracking error may occur.

[1] J. F. Henriques et. al., “High-Speed Tracking with Kernelized Correlation Filters”, in IEEE Trans. on PAMI, 2015.[1] J. F. Henriques et. al., “High-Speed Tracking with Kernelized Correlation Filters”, in IEEE Trans. on PAMI, 2015. [2] D. S. Bolme et. al., “Visual Object Tracking Using Adaptive Correlation Filters” in CVPR, 2010, pp. 2544-2550.[2] D. S. Bolme et. al., “Visual Object Tracking Using Adaptive Correlation Filters” in CVPR, 2010, pp. 2544-2550.

대상체와의 거리 변화 및 주위 환경 변화에 강인하게 대상체를 추적하는 장치 및 방법을 제안하고자 한다.An apparatus and method for robustly tracking an object in response to a change in a distance from the object and a change in a surrounding environment are proposed.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 기술적 과제를 해결하기 위한 수단으로서, 일 실시예에 따른 대상체를 추적하기 위한 방법은, 이미지 센서로부터 현재 이미지 프레임을 획득하는 단계; 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계; 상기 현재 거리에 기초하여, 상기 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정하는 단계; 상기 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성하는 단계; 상기 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계; 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계; 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계; 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함한다.As a means for solving the above technical problem, a method for tracking an object according to an embodiment includes: acquiring a current image frame from an image sensor; obtaining a current distance by measuring a distance to an object using a range finder; determining, based on the current distance, a current image patch that is a subset of the current image frame; generating a plurality of current feature patches by extracting different features from the current image patch; generating a plurality of current frequency patches by transforming the plurality of current feature patches into a frequency domain; generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches; obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches; selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and determining a current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient.

다른 실시예에 따른 대상체를 추적하기 위한 방법은, 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하는 단계; 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계; 상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하는 단계; 상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계; 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계; 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계; 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함한다.According to another embodiment, a method for tracking an object includes: acquiring a plurality of current image frames by acquiring a current image frame from each of a plurality of image sensors; obtaining a current distance by measuring a distance to an object using a range finder; obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance; generating a plurality of current frequency patches by converting features extracted for each of the plurality of current image patches into a frequency domain; generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches; obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches; selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and determining a current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient.

또 다른 실시예에 따른 대상체를 추적하기 위한 장치는, 이미지 센서; 거리측정기; 및 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 센서로부터 현재 이미지 프레임을 획득하고, 상기 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고, 상기 현재 거리에 기초하여, 상기 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정하고, 상기 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성하고, 상기 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고, 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고, 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고, 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고, 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고, 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고, 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정한다.According to another embodiment, an apparatus for tracking an object includes: an image sensor; rangefinder; and a processor, wherein the processor obtains a current image frame from the image sensor, obtains a current distance by measuring a distance to an object using the distance finder, and based on the current distance, By determining a current image patch that is a subset of an image frame, and extracting different features from the current image patch, to generate a plurality of current feature patches, and transforming the plurality of current feature patches into a frequency domain, a plurality of current frequencies generating a plurality of correlation coefficient patches by generating patches, and obtaining, for each of the plurality of current frequency patches, correlation coefficients with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance, a plurality of correlation coefficient patches; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the correlation coefficient patches of , obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; , obtains a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, and based on the plurality of PSRs, the maximum correlation of at least one of the plurality of maximum correlation coefficients By selecting a coefficient, selecting at least one preliminary tracking point from among the plurality of preliminary tracking points, and calculating a weighted average for the selected at least one preliminary tracking point by using the selected at least one maximum correlation coefficient, Determine the current tracking point.

또 다른 실시예에 따른 대상체를 추적하기 위한 장치는, 복수의 이미지 센서들; 거리측정기; 및 프로세서를 포함하고, 상기 프로세서는, 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하고, 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고, 상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하고, 상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고, 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고, 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고, 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고, 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고, 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고, 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정한다.According to another embodiment, an apparatus for tracking an object includes: a plurality of image sensors; rangefinder; and a processor, wherein the processor obtains a plurality of current image frames by obtaining a current image frame from each of a plurality of image sensors, and obtains a current distance by measuring a distance to an object using a range finder. and, based on the current distance, determining a subset current image patch for each of the plurality of current image frames, thereby obtaining a plurality of current image patches, and a feature extracted for each of the plurality of current image patches by transforming into the frequency domain to generate a plurality of current frequency patches, and for each of the plurality of current frequency patches, by obtaining correlation coefficients with a corresponding model frequency patch among a plurality of pre-generated model frequency patches, By generating a plurality of correlation coefficient patches and determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches, a plurality of maximum correlation coefficients is obtained, and pixels corresponding to the plurality of maximum correlation coefficients are obtained. Obtaining a plurality of preliminary tracking points from locations, calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, to obtain a plurality of PSRs, and based on the plurality of PSRs, the plurality of selecting at least one maximum correlation coefficient among the maximum correlation coefficients of By calculating a weighted average of the preliminary tracking points, the current tracking point is determined.

소형 무인기가 장치를 향하여 접근하거나 퇴각하는 경우, 이미지에 캡쳐된 대상체의 크기 변화가 심할 수 있다. 거리측정기로부터 측정된 거리를 이용하여 크기 변화가 반영된 대상체를 추적할 수 있으므로, 추적오차를 줄일 수 있다.When the small UAV approaches or retreats toward the device, the size of the object captured in the image may change significantly. Since the object to which the size change is reflected can be tracked using the distance measured from the range finder, tracking error can be reduced.

군용 감시정찰 무기에 장착된 거리측정기를 사용하여 대상체까지의 거리를 획득 가능하다.It is possible to obtain the distance to the target by using the rangefinder mounted on the military surveillance and reconnaissance weapon.

복수의 이미지 센서들을 통해 획득한 복수의 이미지 프레임들로부터 복수의 예비 추적점들을 획득하고, 복수의 예비 추적점들을 융합하여 추적점을 결정함으로써, 주위 환경 변화에 강인하게 대상체를 추적할 수 있다. 또한, 하나의 이미지 프레임으로부터 서로 다른 특징들에 기초하여 복수의 예비 추적점들을 획득하고, 복수의 예비 추적점들을 융합하여 추적점을 결정함으로써, 주위 환경 변화에 강인하게 대상체를 추적할 수 있다.By acquiring a plurality of preliminary tracking points from a plurality of image frames acquired through a plurality of image sensors and fusing the plurality of preliminary tracking points to determine the tracking point, the object may be robustly tracked against changes in the surrounding environment. In addition, by acquiring a plurality of preliminary tracking points based on different features from one image frame and fusion of the plurality of preliminary tracking points to determine the tracking point, the object may be robustly tracked against changes in the surrounding environment.

본 실시예에 따른 추적 방법은 상관필터에 기반한 추적기에 적용이 가능하며, 이미지 센서의 종류, 또는 특징의 종류에 제한을 받지 않는다.The tracking method according to the present embodiment can be applied to a tracker based on a correlation filter, and is not limited by the type of image sensor or the type of feature.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 대상체를 추적하는 장치의 일 예를 나타낸다.
도 2는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.
도 3은 현재 이미지 패치를 결정하는 방법의 일 예를 설명하기 위한 도면이다.
도 4는 최대 상관 계수, 예비 추적점, 및 PSR을 획득하는 방법의 일 예를 설명하기 위한 도면이다.
도 5는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.
도 6은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.
도 7은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.
도 8은 대상체의 추적오차를 나타내는 그래프이다.
1 illustrates an example of a device for tracking an object.
2 is a diagram for explaining an example of a method for tracking an object.
3 is a diagram for explaining an example of a method of determining a current image patch.
4 is a diagram for explaining an example of a method of obtaining a maximum correlation coefficient, a preliminary tracking point, and a PSR.
5 is a diagram for explaining an example of a method for tracking an object.
6 is a flowchart illustrating an example of a method for tracking an object.
7 is a flowchart illustrating an example of a method for tracking an object.
8 is a graph illustrating a tracking error of an object.

이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다. 하기 설명은 실시예들을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 당해 기술분야의 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. It goes without saying that the following description is only for specifying the embodiments and does not limit or limit the scope of the invention. What can be easily inferred by an expert in the art from the detailed description and examples is construed as belonging to the scope of the right.

본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used herein, terms such as 'consisting' or 'comprising' should not be construed as necessarily including all of the various components or various steps described in the specification, and some components or some steps thereof. It should be construed that they may not be included, or may further include additional components or steps.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

도 1은 대상체를 추적하는 장치의 일 예를 나타낸다.1 illustrates an example of a device for tracking an object.

장치(100)는 대상체를 추적하는 기능을 수행할 수 있다. 선택적으로 장치(100)는 군용 장비와 같이 야외에서 운용되는 장비에 탑재될 수 있다. 장치(100)는 무인기, 미사일, 차량 등과 같이 이동하는 대상체를 추적하기 위해 사용될 수 있다. The device 100 may perform a function of tracking an object. Optionally, the device 100 may be mounted on equipment operated outdoors, such as military equipment. The device 100 may be used to track a moving object, such as an unmanned aerial vehicle, missile, vehicle, or the like.

장치(100)는 적어도 하나의 이미지 센서(110), 거리측정기(120), 및 프로세서(130)를 포함할 수 있다. 다만, 도 1에 도시된 장치(100)에는 본 실시예들와 관련된 구성요소들만이 도시되어 있다. 따라서, 장치(100)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당업자에게 자명하다. 예를 들어, 장치(100)는 메모리, 전원(내부 전원 또는 외부 전원과의 연결 수단), 통신 수단, 입력 수단, 출력 수단, 및 외부 장치와의 전기적 또는 물리적 연결 수단 등을 더 포함할 수 있다.The device 100 may include at least one image sensor 110 , a range finder 120 , and a processor 130 . However, only the components related to the present embodiments are illustrated in the apparatus 100 illustrated in FIG. 1 . Accordingly, it is apparent to those skilled in the art that the device 100 may further include other general-purpose components in addition to the components illustrated in FIG. 1 . For example, the device 100 may further include a memory, a power source (connecting means with an internal power source or an external power source), a communication means, an input means, an output means, and an electrical or physical connection means with an external device. .

장치(100)는 적어도 하나의 이미지 센서(110)를 이용하여 대상체를 촬영할 수 있다. 적어도 하나의 이미지 센서(110)는 광전변환소자를 포함할 수 있다. 예를 들어, 적어도 하나의 이미지 센서(110)는 Charge Coupled Device(CCD) 이미지 센서, Complementary Metal-Oxide Semiconductor(CMOS) 이미지 센서, 그레이 이미지를 생성하는 그레이 이미지 센서, 및 적외선 이미지 센서 중 적어도 어느 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다. 적외선 이미지 센서는 중적외선에 대한 Medium Wave Infrared(MWIR) 이미지 센서, 근적외선에 대한 Short Wave Infrared(SWIR) 이미지 센서 등일 수 있으나, 이에 제한되는 것은 아니다.The apparatus 100 may photograph an object using at least one image sensor 110 . At least one image sensor 110 may include a photoelectric conversion element. For example, the at least one image sensor 110 may include at least one of a Charge Coupled Device (CCD) image sensor, a Complementary Metal-Oxide Semiconductor (CMOS) image sensor, a gray image sensor generating a gray image, and an infrared image sensor. may include, but is not limited thereto. The infrared image sensor may be a Medium Wave Infrared (MWIR) image sensor for mid-infrared rays, a Short Wave Infrared (SWIR) image sensor for near-infrared rays, and the like, but is not limited thereto.

장치(100)가 복수의 이미지 센서들(110)을 포함하는 경우, 복수의 이미지 센서들(110)은 종류가 같거나 서로 다를 수 있다. 예를 들어, 장치(100)는 CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서를 포함할 수 있다. 장치(100)는 서로 다른 종류의 이미지 센서들을 포함함으로써, 주위 환경 변화, 노이즈, 센서의 고장에 강인하게 대상체의 이미지를 획득할 수 있다.When the apparatus 100 includes a plurality of image sensors 110 , the plurality of image sensors 110 may be of the same type or different from each other. For example, apparatus 100 may include a CCD image sensor, a gray scale image sensor, a MWIR image sensor, and a SWIR image sensor. Since the apparatus 100 includes different types of image sensors, it is possible to acquire an image of an object robustly against changes in the surrounding environment, noise, and sensor failure.

다른 실시예에서, 장치(100)는 적어도 하나의 이미지 센서를 포함하지 않을 수 있다. 다른 실시예에서, 장치(100)는 적어도 하나의 이미지 센서가 탑재된 장비에 탑재될 수 있으며, 장치(100)는 장비의 적어도 하나의 이미지 센서로부터 이미지 프레임을 획득할 수 있다.In other embodiments, the device 100 may not include at least one image sensor. In another embodiment, the device 100 may be mounted on a device equipped with at least one image sensor, and the device 100 may acquire an image frame from at least one image sensor of the device.

장치(100)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정할 수 있다. 거리측정기(120)는 장치(100)에서 대상체까지의 거리를 측정할 수 있다. 거리측정기(120)는 레이저 거리 측정기(Laser Range Finder), 광파 거리 측정기(Light Wave Range Finder), 또는 전자파 거리 측정기(Radio Range Finder) 등일 수 있으나, 이에 제한되는 것은 아니다.The device 100 may measure a distance to the object by using the range finder 120 . The distance measurer 120 may measure a distance from the device 100 to the object. The range finder 120 may be a laser range finder, a light wave range finder, or an electromagnetic wave range finder (Radio Range Finder), but is not limited thereto.

다른 실시예에서, 장치(100)는 거리측정기를 포함하지 않을 수 있다. 다른 실시예에서, 장치(100)는 거리측정기가 탑재된 장비에 탑재될 수 있으며, 장치(100)는 장비의 거리측정기로부터 대상체까지의 거리를 획득할 수 있다.In other embodiments, device 100 may not include a range finder. In another embodiment, the device 100 may be mounted on a device equipped with a range finder, and the device 100 may obtain a distance from the range finder of the device to the object.

프로세서(130)는 장치(100)를 제어하기 위한 전반적인 기능을 수행하는 역할을 한다. 프로세서(130)는 다수의 논리 게이트들의 어레이로 구현될 수 있고, 범용적인 마이크로 프로세서와 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다.The processor 130 serves to perform overall functions for controlling the device 100 . The processor 130 may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general-purpose microprocessor and a memory in which a program executable in the microprocessor is stored.

프로세서(130)는 적어도 하나의 이미지 센서(110)로부터 이미지 프레임을 획득하고, 거리측정기(120)로부터 대상체까지의 거리를 획득할 수 있다. 프로세서(130)는 적어도 하나의 이미지 센서(110)로부터 획득한 이미지 프레임 및 거리측정기(120)로부터 획득한 거리에 기초하여, 대상체를 추적할 수 있다.The processor 130 may obtain an image frame from the at least one image sensor 110 , and obtain a distance from the distance measurer 120 to the object. The processor 130 may track the object based on the image frame obtained from the at least one image sensor 110 and the distance obtained from the distance measurer 120 .

도 2는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.2 is a diagram for explaining an example of a method for tracking an object.

도 2에는 대상체를 추적하기 위하여 프로세서(130)가 수행하는 프로세스들이 블록으로 표현되어 있다. 도 2를 참조한 실시예에서는 프로세서(130)가 하나의 이미지 센서로부터 이미지 프레임을 획득하나, 다른 실시예에서는 프로세서(130)가 복수의 이미지 센서들로부터 복수의 이미지 프레임들을 획득할 수 있다.In FIG. 2 , processes performed by the processor 130 to track an object are represented by blocks. In the embodiment with reference to FIG. 2 , the processor 130 acquires an image frame from one image sensor, but in another embodiment, the processor 130 may acquire a plurality of image frames from a plurality of image sensors.

프로세서(130)는 이미지 센서(110)로부터 현재 이미지 프레임(IF_crt)을 획득할 수 있다. 이때, 현재 이미지 프레임(IF_crt)은 이미지 센서(110)로부터 획득된 임의의 n번째 이미지 프레임일 수 있다.The processor 130 may obtain the current image frame IF_crt from the image sensor 110 . In this case, the current image frame IF_crt may be an arbitrary nth image frame obtained from the image sensor 110 .

프로세서(130)는 거리측정기(120)로부터 대상체까지의 거리인 현재 거리(d_crt)를 획득할 수 있다. 이때, 현재 거리(d_crt)는 현재 이미지 프레임(IF_crt)에 대응하는 거리로서, 현재 이미지 프레임(IF_crt)이 획득된 시점과 동일/유사한 시점에 획득된 거리일 수 있다. 즉, 현재 거리(d_crt)는 현재 이미지 프레임(IF_crt)에 캡쳐된 대상체까지의 거리일 수 있다.The processor 130 may obtain a current distance d_crt that is a distance from the distance measurer 120 to the object. In this case, the current distance d_crt is a distance corresponding to the current image frame IF_crt, and may be a distance obtained at the same/similar time as when the current image frame IF_crt is obtained. That is, the current distance d_crt may be a distance to the object captured in the current image frame IF_crt.

프로세서(130)는 현재 거리(d_crt)에 기초하여, 장치(100)와 대상체 사이의 거리 변화를 나타내는 거리 변화 요소(d_fct)를 획득할 수 있다. The processor 130 may obtain a distance change factor d_fct indicating a change in the distance between the device 100 and the object based on the current distance d_crt.

프로세서(130)는 현재 거리(d_crt)와 기준 거리(d_ref)로부터 거리 변화 요소(d_fct)를 획득할 수 있다. 프로세서(130)는 수학식 1로부터 거리 변화 요소(d_fct)를 획득할 수 있다.The processor 130 may obtain the distance change factor d_fct from the current distance d_crt and the reference distance d_ref. The processor 130 may obtain the distance change factor d_fct from Equation (1).

Figure 112020013323581-pat00001
Figure 112020013323581-pat00001

기준 거리(d_ref)는 미리 결정된 기준 이미지 프레임(IF_ref)에 대응하는 거리로서, 기준 이미지 프레임(IF_ref)이 획득된 시점과 동일한 시점에 획득된 거리일 수 있다. 즉, 기준 거리(d_ref)는 기준 이미지 프레임(IF_ref)에 캡쳐된 대상체까지의 거리일 수 있다. 기준 이미지 프레임(IF_ref)은 현재 이미지 프레임(IF_crt)과 다른 시점에 획득된 이미지 프레임일 수 있다. 예를 들어, 기준 이미지 프레임(IF_ref)은 첫 번째 이미지 프레임일 수 있다. 다른 예를 들어, 기준 이미지 프레임(IF_ref)은 이전 이미지 프레임(예, n-1번째 이미지 프레임)일 수 있다.The reference distance d_ref is a distance corresponding to the predetermined reference image frame IF_ref, and may be a distance obtained at the same time point at which the reference image frame IF_ref is obtained. That is, the reference distance d_ref may be a distance to the object captured in the reference image frame IF_ref. The reference image frame IF_ref may be an image frame acquired at a time different from the current image frame IF_crt. For example, the reference image frame IF_ref may be the first image frame. As another example, the reference image frame IF_ref may be a previous image frame (eg, an n−1 th image frame).

프로세서(130)는 거리 변화 요소(d_fct)에 기초하여, 현재 이미지 프레임(IF_crt)의 서브셋인 현재 이미지 패치(IP_crt)를 결정할 수 있다.The processor 130 may determine the current image patch IP_crt, which is a subset of the current image frame IF_crt, based on the distance change factor d_fct.

도 3은 현재 이미지 패치를 결정하는 방법의 일 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of a method of determining a current image patch.

프로세서(130)는 이전 이미지 프레임(IF_prev)에 대하여 이전 추적점(P_prev)을 결정할 수 있다. 이전 이미지 프레임(IF_prev)은 n-1번째 이미지 프레임일 수 있다. 이때, 추적점은 하나의 픽셀이다.The processor 130 may determine a previous tracking point P_prev with respect to the previous image frame IF_prev. The previous image frame IF_prev may be an n-1 th image frame. In this case, the tracking point is one pixel.

프로세서(130)는 현재 이미지 프레임(IF_crt)에서 이전 추적점(P_prev)을 현재 이미지 패치(IP_crt)의 중심점으로 설정할 수 있다. 예를 들어, 이전 추적점(P_prev)이 하나의 픽셀인 경우, 이전 추적점(P_prev)을 현재 이미지 패치(IP_crt)의 중심점으로 설정할 수 있다. The processor 130 may set the previous tracking point P_prev in the current image frame IF_crt as the center point of the current image patch IP_crt. For example, when the previous tracking point P_prev is one pixel, the previous tracking point P_prev may be set as the center point of the current image patch IP_crt.

프로세서(130)는 기준 이미지 프레임(IF_ref)의 기준 이미지 패치(IP_ref)의 사이즈(lx_ref, ly_ref)에 거리 변화 요소(d_fct)를 곱함으로써, 현재 이미지 패치(IP_crt)의 사이즈(lx_crt, ly_crt)를 결정할 수 있다. 예를 들어, lx_ref=120, ly_ref=100, d_fct=0.8인 경우, lx_crt=96, ly_crt=80일 수 있다. 이때, 사이즈의 단위는 픽셀의 개수일 수 있다.The processor 130 multiplies the size (lx_ref, ly_ref) of the reference image patch (IP_ref) of the reference image frame (IF_ref) by the distance change factor (d_fct) to determine the size (lx_crt, ly_crt) of the current image patch (IP_crt) can decide For example, when lx_ref=120, ly_ref=100, and d_fct=0.8, it may be lx_crt=96, ly_crt=80. In this case, the unit of size may be the number of pixels.

즉, 프로세서(130)는 이전 추적점(P_prev)으로부터 현재 이미지 패치(IP_crt)의 중심점을 설정하고, 기준 이미지 패치(IP_ref)의 사이즈(lx_ref, ly_ref) 및 거리 변화 요소(d_fct)로부터 현재 이미지 패치(IP_crt)의 사이즈(lx_crt, ly_crt)를 결정함으로써, 현재 이미지 프레임(IF_crt)에서 현재 이미지 패치(IP_crt)를 결정할 수 있다.That is, the processor 130 sets the center point of the current image patch IP_crt from the previous tracking point P_prev, and the size (lx_ref, ly_ref) of the reference image patch IP_ref and the current image patch from the distance change factor d_fct. By determining the sizes (lx_crt, ly_crt) of (IP_crt), the current image patch IP_crt may be determined from the current image frame IF_crt.

거리 변화 요소를 이용함으로써 현재 이미지 프레임에 캡쳐된 대상체의 사이즈에 맞게 현재 이미지 패치를 결정할 수 있으므로, 장치(100)와 대상체 사이의 거리 변화 또는 이미지 프레임에서 대상체의 사이즈 변화에 강인하게 대상체를 추적할 수 있다.Since the current image patch can be determined according to the size of the object captured in the current image frame by using the distance change factor, the object can be robustly tracked against a change in the distance between the device 100 and the object or a change in the size of the object in the image frame. can

다시 도 2를 참조하면, 프로세서(130)는 현재 이미지 패치(IP_crt)로부터 서로 다른 특징들에 기초하여 복수의 현재 특징 패치들(FtP_crt)을 추출할 수 있다.Referring back to FIG. 2 , the processor 130 may extract a plurality of current feature patches FtP_crt based on different features from the current image patch IP_crt.

특징은 이미지의 엣지(edge), 색상(color), 그레이 레벨, 조도(luminous intensity), 채도(chroma), 색조(hue), RGB 등일 수 있으며, 이에 제한되지 않는다. 예를 들어, 현재 이미지 프레임(IF_crt)은 그레이 이미지 센서로부터 획득된 그레이 이미지 프레임일 수 있고, 특징들은 그레이 레벨, 그레이 횡방향 엣지, 및 그레이 종방향 엣지일 수 있고, 복수의 현재 특징 패치들은 그레이 레벨 이미지, 그레이 횡방향 엣지 이미지, 그레이 종방향 엣지 이미지일 수 있다. 다른 예를 들어, 현재 이미지 프레임(IF_crt)은 CCD 이미지 센서로부터 획득된 컬러 이미지 프레임일 수 있고, 특징들은 R(red), G(green), B(blue)일 수 있고, 복수의 현재 특징 패치들은 R채널 이미지, G채널 이미지, B채널 이미지일 수 있다. 현재 특징 패치(FtP_crt)의 사이즈는 현재 이미지 패치(IP_crt)의 사이즈와 동일 할 수 있다.The feature may be an edge of an image, color, gray level, luminous intensity, chroma, hue, RGB, etc., but is not limited thereto. For example, the current image frame IF_crt may be a gray image frame obtained from a gray image sensor, the features may be a gray level, a gray lateral edge, and a gray longitudinal edge, and the plurality of current feature patches may be gray It may be a level image, a gray lateral edge image, and a gray longitudinal edge image. For another example, the current image frame IF_crt may be a color image frame obtained from a CCD image sensor, and the features may be R (red), G (green), B (blue), and a plurality of current feature patches. These may be an R-channel image, a G-channel image, or a B-channel image. The size of the current feature patch FtP_crt may be the same as the size of the current image patch IP_crt.

프로세서(130)는 복수의 현재 특징 패치들(FtP_crt)을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다. 예를 들어, 프로세서(130)는 퓨리에 변환, 이산 퓨리에 변환, 또는 고속 퓨리에 변환에 기초하여 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다. 현재 주파수 패치(FP_crt)의 사이즈는 현재 이미지 패치(IP_crt)의 사이즈와 동일 할 수 있다.The processor 130 may generate a plurality of current frequency patches FP_crt by converting the plurality of current feature patches FtP_crt into a frequency domain. For example, the processor 130 may generate a plurality of current frequency patches FP_crt based on a Fourier transform, a discrete Fourier transform, or a fast Fourier transform. The size of the current frequency patch FP_crt may be the same as the size of the current image patch IP_crt.

예를 들어, 프로세서(130)는 제1 현재 특징 패치(FtP_crt_1)를 주파수 영역으로 변환함으로써 제1 현재 주파수 패치(FP_crt_1)를 생성하고, 제2 현재 특징 패치(FtP_crt_2)를 주파수 영역으로 변환함으로써 제2 현재 주파수 패치(FP_crt_2)를 생성하고, 제m 현재 특징 패치(FtP_crt_m)를 주파수 영역으로 변환함으로써 제m 현재 주파수 패치(FP_crt_m)를 생성할 수 있다.For example, the processor 130 generates the first current frequency patch FP_crt_1 by transforming the first current feature patch FtP_crt_1 into the frequency domain, and converts the second current feature patch FtP_crt_2 into the frequency domain to generate the second current feature patch FtP_crt_2 The mth current frequency patch FP_crt_m may be generated by generating the 2nd current frequency patch FP_crt_2 and converting the mth current feature patch FtP_crt_m into the frequency domain.

프로세서(130)는 복수의 현재 주파수 패치들(FP_crt)과 복수의 모델 주파수 패치들(FP_mdl)의 상관계수들을 계산함으로써, 복수의 상관계수 패치들(CP)을 생성할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt) 각각에 대해, 대응하는 모델 주파수 패치(FP_mdl)와의 원소들 간의 곱(element-wise product)을 계산하고 퓨리에 역변환(Inverse Fourier Transform)을 수행하여, 복수의 상관계수 패치들(CP)을 생성할 수 있다. The processor 130 may generate a plurality of correlation coefficient patches CP by calculating correlation coefficients of the plurality of current frequency patches FP_crt and the plurality of model frequency patches FP_mdl. The processor 130 calculates an element-wise product between elements with a corresponding model frequency patch FP_mdl for each of the plurality of current frequency patches FP_crt, and performs Inverse Fourier Transform to , a plurality of correlation coefficient patches CP may be generated.

프로세서(130)는 원소들 간의 곱을 연산하기 이전에, 복수의 모델 주파수 패치들(FP_mdl)의 사이즈를 현재 주파수 패치(FP_crt)의 사이즈와 동일하도록 변경함으로써, 원소들 간의 곱을 정상적으로 연산할 수 있다. 상관계수 패치(CP)의 사이즈는 현재 주파수 패치(FP_crt)의 사이즈와 동일 할 수 있다.Before calculating the product between the elements, the processor 130 may normally calculate the product between the elements by changing the size of the plurality of model frequency patches FP_mdl to be the same as the size of the current frequency patch FP_crt. The size of the correlation coefficient patch CP may be the same as the size of the current frequency patch FP_crt.

예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제1 상관계수 패치(CP_1)가 생성될 수 있고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제2 상관계수 패치(CP_2)가 생성될 수 있고, 제m 모델 주파수 패치(FP_mld_m) 및 제m 현재 주파수 패치(FP_crt_m)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제m 상관계수 패치(CP_m)가 생성될 수 있다.For example, the product of the elements of the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 is transformed into a spatial domain, whereby the first correlation coefficient patch CP_1 may be generated, and the second model frequency By transforming the product between the elements of the patch FP_mld_2 and the second current frequency patch FP_crt_2 into the spatial domain, the second correlation coefficient patch CP_2 may be generated, and the mth model frequency patch FP_mld_m and the mth current frequency patch FP_mld_m A product of elements of the frequency patch FP_crt_m is transformed into a spatial domain, so that an m-th correlation coefficient patch CP_m may be generated.

모델 주파수 패치(FP_mdl)는 추적하고자 하는 대상체의 정보를 포함하는 주파수 성분들을 포함할 수 있다. 모델 주파수 패치(FP_mdl)는 이미지 센서(110)에 캡쳐된 대상체의 변화가 반영되도록 이미지 프레임 마다 업데이트될 수 있다.The model frequency patch FP_mdl may include frequency components including information on an object to be tracked. The model frequency patch FP_mdl may be updated for each image frame to reflect a change in the object captured by the image sensor 110 .

복수의 모델 주파수 패치들(FP_mld)은 각각 대응되는 현재 주파수 패치(FP_crt)와 동일한 특징에 기초할 수 있다. 예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)는 그레이 레벨 이미지에 기초하고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)는 그레이 횡방향 엣지 이미지에 기초하고, 제m 모델 주파수 패치(FP_mld_3) 및 제m 현재 주파수 패치(FP_crt_m)는 그레이 종방향 엣지 이미지에 기초할 수 있다.Each of the plurality of model frequency patches FP_mld may be based on the same characteristic as the corresponding current frequency patch FP_crt. For example, the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 are based on a gray level image, and the second model frequency patch FP_mld_2 and the second current frequency patch FP_crt_2 have a gray transverse direction. Based on the edge image, the mth model frequency patch FP_mld_3 and the mth current frequency patch FP_crt_m may be based on the gray longitudinal edge image.

프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관 계수들(Cmax)을 획득할 수 있다.The processor 130 may obtain a plurality of maximum correlation coefficients Cmax by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches CP.

프로세서(130)는 복수의 최대 상관 계수들(Cmax) 각각에 대응하는 픽셀들의 위치로부터 복수의 예비 추적점들(P_tmp)을 획득할 수 있다.The processor 130 may obtain a plurality of preliminary tracking points P_tmp from positions of pixels corresponding to each of the plurality of maximum correlation coefficients Cmax.

프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.The processor 130 may obtain a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches CP.

도 4는 최대 상관 계수, 예비 추적점, 및 PSR을 획득하는 방법의 일 예를 설명하기 위한 도면이다.4 is a diagram for explaining an example of a method of obtaining a maximum correlation coefficient, a preliminary tracking point, and a PSR.

도 4에는 상관계수 패치(CP)의 일부분이 도시되어 있다.4 shows a part of the correlation coefficient patch CP.

프로세서(130)는 상관계수 패치(CP) 중 최대값을 갖는 상관계수를 최대 상관계수(Cmax)로 결정할 수 있다. 예를 들어, 상관계수 패치(CP)의 픽셀들이 각각 0~1의 범위 내의 값을 갖는 경우, 최대값인 1이 최대 상관계수(Cmax)로 결정될 수 있다.The processor 130 may determine the correlation coefficient having the maximum value among the correlation coefficient patches CP as the maximum correlation coefficient Cmax. For example, when pixels of the correlation coefficient patch CP each have a value within a range of 0 to 1, a maximum value of 1 may be determined as the maximum correlation coefficient Cmax.

프로세서(130)는 상관계수 패치(CP)에서 최대 상관계수(Cmax)를 갖는 픽셀을 예비 추적점(P_tmp)으로 결정할 수 있다.The processor 130 may determine the pixel having the maximum correlation coefficient Cmax in the correlation coefficient patch CP as the preliminary tracking point P_tmp.

프로세서(130)는 예비 추적점(P_tmp)을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점(P_tmp)을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역(빗금 친 영역)에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차(σ) 및 평균(μ)으로부터 PSR을 획득할 수 있다. 예를 들어, k는 5로 설정될 수 있다.The processor 130 determines the values of pixels included in the area (hatched area) except for the kxk size area centered on the preliminary tracking point P_tmp among the qxq size area centered on the preliminary tracking point P_tmp ( That is, the PSR can be obtained from the standard deviation (σ) and the mean (μ) of the correlation coefficients). For example, k may be set to 5.

구체적으로, 프로세서(130)는 수학식 2에 기초하여 PSR을 획득할 수 있다.Specifically, the processor 130 may obtain a PSR based on Equation (2).

Figure 112020013323581-pat00002
Figure 112020013323581-pat00002

다시 도 2를 참조하면, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들(Cmax) 중 적어도 하나의 최대 상관계수(Cmax_i)를 선택하고 복수의 예비 추적점들(P_tmp) 중 적어도 하나의 예비 추적점(P_tmp_i)을 선택할 수 있다.Referring back to FIG. 2 , the processor 130 selects at least one maximum correlation coefficient (Cmax_i) from among the plurality of maximum correlation coefficients (Cmax) based on the plurality of PSRs and selects at least one of the plurality of preliminary tracking points (P_tmp). At least one preliminary tracking point P_tmp_i may be selected.

프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다. 기준값(α)은 미리 설정된 값이다. 예를 들어, 기준값(α)은 0.8일 수 있다.If there is a PSR having a value greater than the reference value α among the plurality of PSRs, the processor 130 may select a maximum correlation coefficient and a preliminary tracking point corresponding to the PSR. The reference value α is a preset value. For example, the reference value α may be 0.8.

예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.8인 경우, 프로세서(130)는 제1 최대 상관계수(Cmax_1), 제1 예비 추적점(P_tmp_1), 제m 최대 상관계수(Cmax_m), 및 제m 예비 추적점(P_tmp_m)을 선택할 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.8, the processor 130 performs the first maximum correlation coefficient Cmax_1 ), the first preliminary tracking point (P_tmp_1), the mth maximum correlation coefficient (Cmax_m), and the mth preliminary tracking point (P_tmp_m) may be selected.

다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.9인 경우, 프로세서(130)는 제1 최대 상관계수(Cmax_1) 및 제1 예비 추적점(P_tmp_1)을 선택할 수 있다.For another example, when the first PSR (PSR_1) = 0.9, the second PSR (PSR_2) = 0.5, the m th PSR (PSR_m) = 0.85, and α = 0.9, the processor 130 is the first maximum correlation coefficient ( Cmax_1) and the first preliminary tracking point P_tmp_1 may be selected.

프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하지 않으면, 가장 큰 값을 갖는 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택하거나, 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.If there is no PSR having a value greater than the reference value α among the plurality of PSRs, the processor 130 selects a maximum correlation coefficient and a preliminary tracking point corresponding to the PSR having the largest value, or selects a plurality of maximum correlation coefficients. Both (Cmax) and the plurality of preliminary tracking points (P_tmp) may be selected.

예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 가장 큰 값을 갖는 제1 PSR(PSR_1)에 대응하는 제1 최대 상관계수(Cmax_1) 및 제1 예비 추적점(P_tmp_1)을 선택할 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the processor 130 determines the first value having the largest value. The first maximum correlation coefficient Cmax_1 and the first preliminary tracking point P_tmp_1 corresponding to the PSR (PSR_1) may be selected.

다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 가장 큰 2개의 PSR인 제1 PSR(PSR_1) 및 제m PSR(PSR_m)에 대응하는 제1 최대 상관계수(Cmax_1), 제1 예비 추적점(P_tmp_1), 제m 최대 상관계수(Cmax_m), 및 제m 예비 추적점(P_tmp_m)을 선택할 수 있다.As another example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the processor 130 determines the two largest PSRs. The first maximum correlation coefficient (Cmax_1) corresponding to the first PSR (PSR_1) and the mth PSR (PSR_m), the first preliminary tracking point (P_tmp_1), the mth maximum correlation coefficient (Cmax_m), and the mth preliminary tracking point ( P_tmp_m) can be selected.

또 다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.As another example, when the first PSR (PSR_1) = 0.9, the second PSR (PSR_2) = 0.5, the m th PSR (PSR_m) = 0.85, and α = 0.95, the processor 130 may include a plurality of maximum correlation coefficients. All of Cmax and the plurality of preliminary tracking points P_tmp may be selected.

또 다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 최저값을 갖는 제2 PSR(PSR_2)을 제외한 나머지 PSR에 대응되는 복수의 최대 상관계수들 및 복수의 예비 추적점들을 선택할 수 있다.As another example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the processor 130 determines the second value having the lowest value. A plurality of maximum correlation coefficients and a plurality of preliminary tracking points corresponding to the remaining PSRs except for the PSR (PSR_2) may be selected.

PSR이 작은 것은 대상체가 가려졌거나 주변 클러스터들과 대상체의 구분이 어렵거나 등의 이유로 획득된 예비 추적점의 신뢰도가 낮은 것을 의미한다. 프로세서(130)는 상대적으로 큰 PSR에 대응되는 최대 상관계수 및 예비 추적점으로부터 현재 추적점(P_crt)을 결정함으로써, 주위 환경 변화 및 노이즈에 강인하게 대상체를 추적할 수 있다.A small PSR means that the reliability of the obtained preliminary tracking point is low, for example, because the object is obscured or it is difficult to distinguish the object from neighboring clusters. The processor 130 determines the current tracking point P_crt from the maximum correlation coefficient corresponding to the relatively large PSR and the preliminary tracking point, thereby robustly tracking the object against changes in the surrounding environment and noise.

프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점을 융합함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점(P_tmp_i=(x_tmp_i, y_tmp_i))에 대한 가중 평균을 계산함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 구체적으로, 프로세서(130)는 수학식 3에 기초하여 현재 추적점(P_crt)을 결정할 수 있다.The processor 130 may determine the current tracking point P_crt by fusing the selected at least one preliminary tracking point using the at least one selected maximum correlation coefficient. The processor 130 may determine the current tracking point P_crt by calculating a weighted average for the selected at least one preliminary tracking point (P_tmp_i=(x_tmp_i, y_tmp_i)) using the selected at least one maximum correlation coefficient. . Specifically, the processor 130 may determine the current tracking point P_crt based on Equation (3).

Figure 112020013323581-pat00003
Figure 112020013323581-pat00003

현재 추적점(P_crt)을 단일 픽셀로 구성하고자 할 경우, 선택된 적어도 하나의 예비 추적점을 융합함으로써 획득된 추적점(x_crt, y_crt)을 현재 추적점(P_crt)으로 결정할 수 있다. When the current tracking point P_crt is configured as a single pixel, the tracking points x_crt and y_crt obtained by fusing at least one selected preliminary tracking point may be determined as the current tracking point P_crt.

프로세서(130)는 다음 이미지 프레임에 대하여 다음 추적점을 결정하기 위하여, 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt), 현재 추적점(P_crt) 등에 기초하여 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다.The processor 130 may update the plurality of model frequency patches FP_mdl to determine the next tracking point for the next image frame. The processor 130 may update the plurality of model frequency patches FP_mdl based on the plurality of current frequency patches FP_crt, the current tracking point P_crt, and the like.

프로세서는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR에 대응되는 모델 주파수 패치를 업데이트하고, 나머지 PSR에 대응되는 모델 주파수 패치를 업데이트하지 않을 수 있다.The processor may update the model frequency patch corresponding to the PSR having a value greater than the reference value α among the plurality of PSRs, and may not update the model frequency patch corresponding to the remaining PSRs.

예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.8인 경우, 프로세서(130)는 제1 모델 주파수 패치(FP_mdl_1) 및 제m 모델 주파수 패치(FP_mdl_m)는 업데이트하고, 제2 모델 주파수 패치(FP_mdl_2)는 업데이트하지 않을 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.8, the processor 130 generates the first model frequency patch FP_mdl_1 ) and the mth model frequency patch FP_mdl_m may be updated, but the second model frequency patch FP_mdl_2 may not be updated.

도 5는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.5 is a diagram for explaining an example of a method for tracking an object.

도 5에는 대상체를 추적하기 위하여 프로세서(130)가 수행하는 프로세스들이 블록으로 표현되어 있다. 도 5를 참조한 실시예에서는 프로세서(130)가 복수의 이미지 센서들로부터 복수의 이미지 프레임들을 획득한다. 도 2를 참조한 실시예와 동일한 구성은 설명을 생략한다.In FIG. 5 , processes performed by the processor 130 to track an object are represented by blocks. In the embodiment with reference to FIG. 5 , the processor 130 acquires a plurality of image frames from a plurality of image sensors. The same configuration as in the embodiment with reference to FIG. 2 will be omitted.

프로세서(130)는 복수의 이미지 센서들(110)로부터 복수의 현재 이미지 프레임들(IF_crt)을 획득할 수 있다. 프로세서(130)는 복수의 이미지 센서들(110)로부터 각각 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들(IF_crt)을 획득할 수 있다.The processor 130 may obtain a plurality of current image frames IF_crt from the plurality of image sensors 110 . The processor 130 may obtain a plurality of current image frames IF_crt by obtaining each current image frame from the plurality of image sensors 110 .

프로세서(130)는 거리 변화 요소(d_fct)에 기초하여, 복수의 현재 이미지 프레임들(IF_crt)의 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들(IP_crt)을 획득할 수 있다.The processor 130 may obtain a plurality of current image patches IP_crt by determining a current image patch that is a subset of the plurality of current image frames IF_crt based on the distance change factor d_fct.

거리 변화 요소를 이용함으로써 현재 이미지 프레임에 캡쳐된 대상체의 사이즈에 맞게 현재 이미지 패치를 결정할 수 있으므로, 장치(100)와 대상체 사이의 거리 변화 또는 이미지 프레임에서 대상체의 사이즈 변화에 강인하게 대상체를 추적할 수 있다.Since the current image patch can be determined according to the size of the object captured in the current image frame by using the distance change factor, the object can be robustly tracked against a change in the distance between the device 100 and the object or a change in the size of the object in the image frame. can

복수의 이미지 센서들(110)의 시야(field of view, FOV)는 동일할 수 있으며, 복수의 현재 이미지 패치들(IP_crt)은 위치 및 사이즈가 동일할 수 있다. 예를 들어, 제1 현재 이미지 프레임(IF_crt_1)에서 제1 현재 이미지 패치(IP_crt_1)의 위치와 제2 현재 이미지 프레임(IF_crt_2)에서 제2 현재 이미지 패치(IP_crt_2)의 위치와 제m 현재 이미지 프레임(IF_crt_m)에서 제m 현재 이미지 패치(IP_crt_m)의 위치는 동일할 수 있다.The field of view (FOV) of the plurality of image sensors 110 may be the same, and the plurality of current image patches IP_crt may have the same location and size. For example, the position of the first current image patch (IP_crt_1) in the first current image frame (IF_crt_1) and the position of the second current image patch (IP_crt_2) in the second current image frame (IF_crt_2) and the mth current image frame ( In IF_crt_m), the position of the mth current image patch IP_crt_m may be the same.

프로세서(130)는 복수의 현재 이미지 패치들(IP_crt)로부터 적어도 하나의 특징에 기초하여 복수의 현재 특징 패치들(FtP_crt)을 추출할 수 있다. 예를 들어, 제1 현재 이미지 프레임(IF_crt_1)은 그레이 이미지 센서로부터 획득된 그레이 이미지 프레임이고, 제2 현재 이미지 프레임(IF_crt_2)는 CCD 이미지 센서로부터 획득된 컬러 이미지 프레임이고, 제m 현재 이미지 프레임(IF_crt_m)는 근적외선 이미지 센서로부터 획득된 근적외선 이미지 프레임일 수 있다. 예를 들어, 제1 현재 특징 패치(FtP_crt_1)는 그레이 횡방향 엣지 이미지이고, 제2 현재 특징 패치(FtP_crt_2)는 R채널 이미지이고, 제m 현재 특징 패치(FtP_crt_m)는 근적외선 레벨 이미지일 수 있다.The processor 130 may extract a plurality of current feature patches FtP_crt based on at least one feature from the plurality of current image patches IP_crt. For example, the first current image frame (IF_crt_1) is a gray image frame obtained from a gray image sensor, the second current image frame (IF_crt_2) is a color image frame obtained from a CCD image sensor, and an mth current image frame ( IF_crt_m) may be a near-infrared image frame obtained from a near-infrared image sensor. For example, the first current feature patch FtP_crt_1 may be a gray lateral edge image, the second current feature patch FtP_crt_2 may be an R channel image, and the mth current feature patch FtP_crt_m may be a near-infrared level image.

프로세서(130)는 복수의 현재 특징 패치들(FtP_crt)을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다.The processor 130 may generate a plurality of current frequency patches FP_crt by converting the plurality of current feature patches FtP_crt into a frequency domain.

프로세서(130)는 복수의 현재 주파수 패치들(FP_crt)과 복수의 모델 주파수 패치들(FP_mdl)의 상관계수들을 계산함으로써, 복수의 상관계수 패치들(CP)을 생성할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt) 각각에 대해, 대응하는 모델 주파수 패치(FP_mdl)와의 원소들 간의 곱(element-wise product)을 계산하고 퓨리에 역변환을 수행하여, 복수의 상관계수 패치들(CP)를 생성할 수 있다. 이때, 프로세서(130)는 원소들 간의 곱을 연산하기 이전에, 복수의 모델 주파수 패치들(FP_mdl)의 사이즈를 복수의 현재 주파수 패치(FP_crt)의 사이즈와 동일하도록 변경함으로써, 원소들 간의 곱을 정상적으로 연산할 수 있다.The processor 130 may generate a plurality of correlation coefficient patches CP by calculating correlation coefficients of the plurality of current frequency patches FP_crt and the plurality of model frequency patches FP_mdl. The processor 130 calculates, for each of the plurality of current frequency patches FP_crt, a product (element-wise product) between elements with a corresponding model frequency patch FP_mdl, and performs an inverse Fourier transform to perform a plurality of correlation coefficients Patches CP may be generated. In this case, before calculating the product between the elements, the processor 130 normally calculates the product between the elements by changing the size of the plurality of model frequency patches FP_mdl to be the same as the size of the plurality of current frequency patches FP_crt. can do.

복수의 모델 주파수 패치들(FP_mld)은 각각 대응되는 현재 주파수 패치(FP_crt)와 동일한 특징에 기초할 수 있다. 예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)는 그레이 횡방향 엣지 이미지에 기초하고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)는 R채널 이미지에 기초하고, 제m 모델 주파수 패치(FP_mld_3) 및 제m 현재 주파수 패치(FP_crt_m)는 근적외선 레벨 이미지에 기초할 수 있다.Each of the plurality of model frequency patches FP_mld may be based on the same characteristic as the corresponding current frequency patch FP_crt. For example, the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 are based on the gray lateral edge image, and the second model frequency patch FP_mld_2 and the second current frequency patch FP_crt_2 are R Based on the channel image, the mth model frequency patch FP_mld_3 and the mth current frequency patch FP_crt_m may be based on a near-infrared level image.

프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관 계수들(Cmax)을 획득할 수 있다.The processor 130 may obtain a plurality of maximum correlation coefficients Cmax by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches CP.

프로세서(130)는 복수의 최대 상관 계수들(Cmax) 각각에 대응하는 픽셀들의 위치로부터 복수의 예비 추적점들(P_tmp)을 획득할 수 있다.The processor 130 may obtain a plurality of preliminary tracking points P_tmp from positions of pixels corresponding to each of the plurality of maximum correlation coefficients Cmax.

프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.The processor 130 may obtain a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches CP.

프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들(Cmax) 중 적어도 하나의 최대 상관계수(Cmax_i)를 선택하고 복수의 예비 추적점들(P_tmp) 중 적어도 하나의 예비 추적점(P_tmp_i)를 선택할 수 있다.The processor 130 selects at least one maximum correlation coefficient Cmax_i from among the plurality of maximum correlation coefficients Cmax based on the plurality of PSRs, and selects at least one preliminary tracking point from among the plurality of preliminary tracking points P_tmp. (P_tmp_i) can be selected.

프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다. If there is a PSR having a value greater than the reference value α among the plurality of PSRs, the processor 130 may select a maximum correlation coefficient and a preliminary tracking point corresponding to the PSR.

프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하지 않으면, 가장 큰 값을 갖는 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택하거나, 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.If there is no PSR having a value greater than the reference value α among the plurality of PSRs, the processor 130 selects a maximum correlation coefficient and a preliminary tracking point corresponding to the PSR having the largest value, or selects a plurality of maximum correlation coefficients. Both (Cmax) and the plurality of preliminary tracking points (P_tmp) may be selected.

PSR이 작은 것은 대상체가 가려졌거나 주변 클러스터들과 대상체의 구분이 어렵거나 등의 이유로 획득된 예비 추적점의 신뢰도가 낮은 것을 의미한다. 프로세서(130)는 상대적으로 큰 PSR에 대응되는 최대 상관계수 및 예비 추적점으로부터 현재 추적점(P_crt)을 결정함으로써, 주위 환경 변화 및 노이즈에 강인하게 대상체를 추적할 수 있다.A small PSR means that the reliability of the obtained preliminary tracking point is low, for example, because the object is obscured or it is difficult to distinguish the object from neighboring clusters. The processor 130 determines the current tracking point P_crt from the maximum correlation coefficient corresponding to the relatively large PSR and the preliminary tracking point, thereby robustly tracking the object against changes in the surrounding environment and noise.

프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점을 융합함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 구체적으로, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점(P_crt)을 결정할 수 있다.The processor 130 may determine the current tracking point P_crt by fusing the selected at least one preliminary tracking point using the at least one selected maximum correlation coefficient. Specifically, the processor 130 may determine the current tracking point P_crt by calculating a weighted average of the selected at least one preliminary tracking point using the at least one selected maximum correlation coefficient.

프로세서(130)는 다음 이미지 프레임에 대하여 다음 추적점을 결정하기 위하여, 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt), 현재 추적점(P_crt) 등에 기초하여 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다.The processor 130 may update the plurality of model frequency patches FP_mdl to determine the next tracking point for the next image frame. The processor 130 may update the plurality of model frequency patches FP_mdl based on the plurality of current frequency patches FP_crt, the current tracking point P_crt, and the like.

프로세서는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR에 대응되는 모델 주파수 패치를 업데이트하고, 나머지 PSR에 대응되는 모델 주파수 패치를 업데이트하지 않을 수 있다.The processor may update the model frequency patch corresponding to the PSR having a value greater than the reference value α among the plurality of PSRs, but may not update the model frequency patch corresponding to the remaining PSRs.

도 6은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.6 is a flowchart illustrating an example of a method for tracking an object.

601단계에서, 프로세서(130)는 이미지 센서(110)로부터 현재 이미지 프레임을 획득할 수 있다.In operation 601 , the processor 130 may obtain a current image frame from the image sensor 110 .

602단계에서, 프로세서(130)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득할 수 있다.In step 602 , the processor 130 may obtain the current distance by measuring the distance to the object using the range finder 120 .

603단계에서, 프로세서(130)는 현재 거리에 기초하여, 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정할 수 있다.In operation 603 , the processor 130 may determine a current image patch that is a subset of the current image frame based on the current distance.

예를 들어, 현재 이미지 프레임이 1번째 이미지 프레임인 경우, 사용자의 설정 또는 프로세서(130)가 이미지에서 대상체를 식별하는 방법 등에 의해 현재 이미지 패치가 결정될 수 있다.For example, when the current image frame is the first image frame, the current image patch may be determined by a user's setting or a method in which the processor 130 identifies an object in the image.

다른 예를 들어, 현재 이미지 프레임이 n번째 이미지 프레임인 경우, 이전 이미지 프레임(n-1번째 이미지 프레임)에서 결정된 이전 추적점에 기초하여 현재 이미지 패치가 결정될 수 있다.As another example, when the current image frame is the nth image frame, the current image patch may be determined based on a previous tracking point determined in the previous image frame (n−1th image frame).

현재 이미지 패치의 사이즈는 현재 거리에 기초하여 결정될 수 있으며, 이전 이미지 패치의 사이즈와 동일하게 결정되거나 다르게 변경될 수 있다.The size of the current image patch may be determined based on the current distance, and may be determined to be the same as the size of the previous image patch or may be changed differently.

604단계에서, 프로세서(130)는 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성할 수 있다.In operation 604 , the processor 130 may generate a plurality of current feature patches by extracting different features from the current image patch.

예를 들어, 특징들은 그레이 레벨, 그레이 횡방향 엣지, 및 그레이 종방향 엣지일 수 있고, 복수의 현재 특징 패치들은 그레이 레벨 이미지, 그레이 횡방향 엣지 이미지, 그레이 종방향 엣지 이미지일 수 있다.For example, the features may be a gray level, a gray lateral edge, and a gray longitudinal edge, and the plurality of current feature patches may be a gray level image, a gray lateral edge image, and a gray longitudinal edge image.

605단계에서, 프로세서(130)는 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In operation 605 , the processor 130 may generate a plurality of current frequency patches by transforming the plurality of current feature patches into a frequency domain.

606단계에서, 프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성할 수 있다.In step 606, for each of the plurality of current frequency patches, the processor 130 may generate a plurality of correlation coefficient patches by obtaining correlation coefficients with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance. can

프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 복수의 상관계수 패치들을 생성할 수 있다.For each of the plurality of current frequency patches, the processor 130 may generate a plurality of correlation coefficient patches by transforming an element-wise product between elements with a corresponding model frequency patch into a spatial domain.

607단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득할 수 있다.In operation 607, the processor 130 may obtain a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches.

608단계에서, 프로세서(130)는 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득할 수 있다.In operation 608 , the processor 130 may obtain a plurality of preliminary tracking points from positions of pixels corresponding to a plurality of maximum correlation coefficients.

609단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.In step 609 , the processor 130 may obtain a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches.

프로세서(130)는 예비 추적점을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차 및 평균으로부터 PSR을 획득할 수 있다.The processor 130 calculates the standard deviation and average of values (ie, correlation coefficients) of pixels included in an area excluding the kxk size area centered on the preliminary tracking point among the qxq size area centered on the preliminary tracking point. You can get PSR from

610단계에서, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택할 수 있다.In operation 610, the processor 130 may select at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients based on the plurality of PSRs and may select at least one preliminary tracking point from among the plurality of preliminary tracking points.

프로세서(130)는 복수의 PSR 중 기준값보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다.If there is a PSR having a value greater than the reference value among the plurality of PSRs, the processor 130 may select a maximum correlation coefficient and a preliminary tracking point corresponding to the corresponding PSR.

611단계에서, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정할 수 있다.In step 611 , the processor 130 may determine the current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the at least one selected maximum correlation coefficient.

도 7은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.7 is a flowchart illustrating an example of a method for tracking an object.

701단계에서, 프로세서(130)는 복수의 이미지 센서들(110) 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득할 수 있다.In operation 701 , the processor 130 may acquire a plurality of current image frames by acquiring a current image frame from each of the plurality of image sensors 110 .

702단계에서, 프로세서(130)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득할 수 있다.In operation 702 , the processor 130 may obtain the current distance by measuring the distance to the object using the range finder 120 .

703단계에서, 프로세서(130)는 현재 거리에 기초하여, 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득할 수 있다.In operation 703 , the processor 130 may obtain a plurality of current image patches by determining a current image patch that is a subset for each of the plurality of current image frames based on the current distance.

704단계에서, 프로세서(130)는 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In operation 704 , the processor 130 may generate a plurality of current frequency patches by transforming the extracted features for each of the plurality of current image patches into a frequency domain.

예를 들어, 복수의 현재 이미지 패치들은 그레이 이미지 패치, 컬러 이미지 패치, 근적외선 이미지 패치일 수 있고, 특징들은 종방향 엣지, R(Red), 및 근적외선 레벨일수 있고, 복수의 현재 특징 패치들은 그레이 종방향 엣지 이미지, R채널 이미지, 근적외선 레벨 이미지일 수 있다.For example, the plurality of current image patches may be a gray image patch, a color image patch, a near-infrared image patch, the features may be a longitudinal edge, R(Red), and a near-infrared level, and the plurality of current feature patches may be a gray species. It may be a directional edge image, an R-channel image, or a near-infrared level image.

705단계에서, 프로세서(130)는 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In operation 705 , the processor 130 may generate a plurality of current frequency patches by transforming the plurality of current feature patches into a frequency domain.

706단계에서, 프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성할 수 있다.In step 706, the processor 130 generates a plurality of correlation coefficient patches by obtaining correlation coefficients with a corresponding model frequency patch among a plurality of model frequency patches generated in advance for each of the plurality of current frequency patches. can

프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 복수의 상관계수 패치들을 생성할 수 있다.For each of the plurality of current frequency patches, the processor 130 may generate a plurality of correlation coefficient patches by transforming an element-wise product between elements with a corresponding model frequency patch into a spatial domain.

707단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득할 수 있다.In operation 707 , the processor 130 may obtain a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches.

708단계에서, 프로세서(130)는 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득할 수 있다.In operation 708 , the processor 130 may obtain a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients.

709단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.In operation 709 , the processor 130 may obtain a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches.

프로세서(130)는 예비 추적점을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차 및 평균으로부터 PSR을 획득할 수 있다.The processor 130 calculates the standard deviation and average of values (ie, correlation coefficients) of pixels included in an area excluding the kxk size area centered on the preliminary tracking point among the qxq size area centered on the preliminary tracking point. You can get PSR from

710단계에서, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택할 수 있다.In operation 710 , the processor 130 may select at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients based on the plurality of PSRs and select at least one preliminary tracking point from among the plurality of preliminary tracking points.

프로세서(130)는 복수의 PSR 중 기준값보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다.If there is a PSR having a value greater than the reference value among the plurality of PSRs, the processor 130 may select a maximum correlation coefficient and a preliminary tracking point corresponding to the corresponding PSR.

711단계에서, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정할 수 있다.In operation 711 , the processor 130 may determine the current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the at least one selected maximum correlation coefficient.

도 8은 대상체의 추적오차를 나타내는 그래프이다.8 is a graph illustrating a tracking error of an object.

도 8은 본 실시예에 따른 방법을 이용하여 대상체를 추적한 추적오차(SKCF)와 종래의 방법을 이용하여 대상체를 추적한 추적오차(KCF)를 비교하기 위한 그래프이다. 추적오차는 대상체(예, 대상체의 중심)와 현재 추적점(예, 현재 추적점의 중심) 간의 RMS(Root Mean Square) 오차이다.8 is a graph for comparing a tracking error (SKCF) of tracking an object using the method according to the present embodiment with a tracking error (KCF) of tracking an object using the conventional method. The tracking error is a root mean square (RMS) error between the object (eg, the center of the object) and the current tracking point (eg, the center of the current tracking point).

도 8의 그래프로부터, 종래의 방법의 추적오차(KCF)보다 본 실시예에 따른 방법의 추적오차(SKCF)가 낮은 것을 확인할 수 있으며, 이로부터 본 실시예에 따른 방법을 사용하여 대상체의 추적 성능을 향상시킬 수 있음을 확인할 수 있다.From the graph of FIG. 8 , it can be seen that the tracking error (SKCF) of the method according to the present embodiment is lower than the tracking error (KCF) of the conventional method, and from this, tracking performance of an object using the method according to the present embodiment can be seen to be improved.

표 1은 본 실시예에 따른 방법을 이용하여 대상체를 추적한 추적오차와 종래의 방법을 이용하여 대상체를 추적한 추적오차를 비교하기 위한 표이다.Table 1 is a table for comparing the tracking error of tracking the object using the method according to the present embodiment with the tracking error of tracking the object using the conventional method.

제1 방법(KCF)Method 1 (KCF) 제2 방법(SKCF1)Method 2 (SKCF1) 제3 방법(SKCF2)3rd method (SKCF2) RMS 오차RMS error 13.729 [Pixels]13.729 [Pixels] 12.2841 [Pixels]12.2841 [Pixels] 10.9909 [Pixels]10.9909 [Pixels]

실험에서는 그레이 이미지 센서로부터 획득된 이미지 프레임이 사용되었다. 제1 방법에서는 종래의 방법을 이용하여 대상체가 추적되었다. 즉 제1 방법에서는 이미지 패치 또는 주파수 패치의 사이즈가 변경되지 않았고, 서로 다른 특징들에 기초한 예비 추적점들의 융합이 수행되지 않았다. 제2 방법에서는 본 실시예에 따라 이미지 패치 또는 주파수 패치의 사이즈는 변경되었으나, 그레이 레벨에만 기초하여 추적점이 결정되었으며, 서로 다른 특징들에 기초한 예비 추적점들의 융합이 수행되지 않았다. 제3 방법에서는 본 실시예에 따른 방법에 따라 이미지 패치 또는 주파수 패치의 사이즈가 변경되었고, 그레이 레벨 이미지, 그레이 종방향 엣지 이미지, 및 그레이 횡방향 엣지 이미지에 기초한 예비 추적점들의 융합이 수행되었다.표 1로부터, 제1 방법 대비 제2 방법의 RMS 오차가 낮은 것을 확인할 수 있다. 이는, 본 실시예에 따라 거리 변환 요소에 기초하여 이미지 패치 또는 주파수 패치의 사이즈를 변경함으로써, 장치(100)와 대상체 사이에 거리 변화를 반영하여 대상체를 추적할 수 있음을 의미한다.In the experiment, an image frame obtained from a gray image sensor was used. In the first method, the subject was tracked using a conventional method. That is, in the first method, the size of the image patch or the frequency patch is not changed, and the fusion of preliminary tracking points based on different characteristics is not performed. In the second method, the size of the image patch or frequency patch is changed according to the present embodiment, but the tracking point is determined based on only the gray level, and fusion of preliminary tracking points based on different characteristics is not performed. In the third method, the size of the image patch or frequency patch was changed according to the method according to the present embodiment, and fusion of preliminary tracking points based on the gray level image, the gray longitudinal edge image, and the gray lateral edge image was performed. From Table 1, it can be seen that the RMS error of the second method is lower than that of the first method. This means that according to the present embodiment, by changing the size of the image patch or the frequency patch based on the distance conversion factor, the object can be tracked by reflecting the change in the distance between the apparatus 100 and the object.

또한, 표 1로부터, 제1-2 방법 대비 제3 방법의 RMS 오차가 낮은 것을 확인할 수 있다. 이는, 본 실시예에 따라 거리 변환 요소에 기초하여 이미지 패치 또는 주파수 패치의 사이즈를 변경하고, 서로 다른 특징들에 기초하여 예비 추적점들을 융합함으로써, 장치(100)와 대상체 사이에 거리 변화 및 주위 환경 변화를 반영하여 대상체를 추적할 수 있음을 의미한다.In addition, from Table 1, it can be seen that the RMS error of the third method is lower than that of the first method-2 method. This is achieved by changing the size of an image patch or a frequency patch based on a distance conversion factor according to the present embodiment, and fusing preliminary tracking points based on different characteristics, thereby changing the distance between the device 100 and the object and the surroundings. This means that the object can be tracked by reflecting changes in the environment.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to

100: 장치
110: 이미지 센서
120: 거리측정기
130: 프로세서
100: device
110: image sensor
120: range finder
130: processor

Claims (12)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 대상체를 추적하기 위한 방법에 있어서,
서로 다른 종류의 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하는 단계;
거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계;
상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하는 단계;
상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계;
상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계;
상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계;
상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계;
상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계;
상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및
상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함하고,
상기 복수의 현재 이미지 프레임들을 획득하는 단계는,
CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서 중 2개 이상을 포함하는 상기 서로 다른 종류의 복수의 이미지 센서들로부터 상기 복수의 현재 이미지 프레임들을 획득하는 단계를 포함하고,
상기 복수의 예비 추적점들 중 상기 적어도 하나의 예비 추적점을 선택하는 단계는,
상기 복수의 PSR 중 어느 하나의 PSR이 미리 결정된 기준값보다 작으면, 상기 복수의 최대 상관계수들 중 상기 어느 하나의 PSR에 대응하는 최대 상관계수를 제외하고 상기 적어도 하나의 최대 상관계수를 선택하고, 상기 복수의 예비 추적점들 중 상기 어느 하나의 PSR에 대응하는 예비 추적점을 제외하고 상기 적어도 하나의 예비 추적점을 선택하는 단계를 포함하는, 방법.
A method for tracking an object, comprising:
obtaining a plurality of current image frames by obtaining a current image frame from each of a plurality of image sensors of different types;
obtaining a current distance by measuring a distance to an object using a range finder;
obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance;
generating a plurality of current frequency patches by converting features extracted for each of the plurality of current image patches into a frequency domain;
generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of previously generated model frequency patches;
obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches;
obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients;
obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches;
selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and
determining a current tracking point by calculating a weighted average for the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient;
Obtaining the plurality of current image frames comprises:
obtaining the plurality of current image frames from the plurality of different types of image sensors comprising at least two of a CCD image sensor, a gray scale image sensor, a MWIR image sensor, and a SWIR image sensor;
The step of selecting the at least one preliminary tracking point from among the plurality of preliminary tracking points includes:
If any one of the plurality of PSRs is smaller than a predetermined reference value, the at least one maximum correlation coefficient is selected, excluding the maximum correlation coefficient corresponding to the one of the plurality of maximum correlation coefficients, and selecting the at least one preliminary tracking point excluding the preliminary tracking point corresponding to the one PSR from among the plurality of preliminary tracking points.
제6항에 있어서,
상기 복수의 현재 이미지 패치들을 결정하는 단계는,
미리 결정된 기준 이미지 프레임에 대응하여 상기 대상체까지의 거리를 측정함으로써 획득된 기준 거리에 대한 상기 현재 거리의 비율을 계산함으로써, 거리 변화 요소를 획득하는 단계; 및
상기 기준 이미지 프레임의 서브셋인 기준 이미지 패치의 사이즈인 기준 사이즈와 상기 거리 변화 요소를 곱함으로써, 상기 복수의 현재 이미지 패치들의 사이즈인 현재 사이즈를 결정하는 단계를 포함하는, 방법.
7. The method of claim 6,
Determining the plurality of current image patches comprises:
obtaining a distance change factor by calculating a ratio of the current distance to a reference distance obtained by measuring a distance to the object corresponding to a predetermined reference image frame; and
determining a current size, which is the size of the plurality of current image patches, by multiplying the distance varying factor by a reference size that is a size of a reference image patch that is a subset of the reference image frame.
제6항에 있어서,
상기 복수의 상관계수 패치들을 획득하는 단계는,
상기 복수의 현재 주파수 패치들의 사이즈와 동일하도록 상기 복수의 모델 주파수 패치들의 사이즈를 변경하는 단계를 포함하는, 방법.
7. The method of claim 6,
The step of obtaining the plurality of correlation coefficient patches,
changing the size of the plurality of model frequency patches to be the same as the size of the plurality of current frequency patches.
제6항에 있어서,
상기 복수의 상관계수 패치들을 획득하는 단계는,
상기 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 상기 복수의 상관계수 패치들을 획득하는 단계를 포함하는, 방법.
7. The method of claim 6,
The step of obtaining the plurality of correlation coefficient patches,
obtaining, for each of the plurality of current frequency patches, the plurality of correlation coefficient patches by transforming an element-wise product between elements with a corresponding model frequency patch into a spatial domain; .
제6항에 있어서,
상기 적어도 하나의 예비 추적점을 선택하는 단계는,
상기 복수의 PSR 중 기준값을 초과하는 PSR에 대응하는 최대 상관계수 및 예비 추적점을 선택하는 단계를 포함하는, 방법.
7. The method of claim 6,
The step of selecting the at least one preliminary tracking point comprises:
and selecting a maximum correlation coefficient and a preliminary tracking point corresponding to a PSR exceeding a reference value among the plurality of PSRs.
삭제delete 대상체를 추적하기 위한 장치에 있어서,
서로 다른 종류의 복수의 이미지 센서들;
거리측정기; 및
프로세서를 포함하고,
상기 프로세서는,
상기 서로 다른 종류의 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하고,
거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고,
상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하고,
상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고,
상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고,
상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고,
상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고,
상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고,
상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고,
상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하도록 구성되고,
상기 서로 다른 종류의 복수의 이미지 센서들은 CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서 중 2개 이상을 포함하고,
상기 프로세서는,
상기 복수의 PSR 중 어느 하나의 PSR이 미리 결정된 기준값보다 작으면, 상기 복수의 최대 상관계수들 중 상기 어느 하나의 PSR에 대응하는 최대 상관계수를 제외하고 상기 적어도 하나의 최대 상관계수를 선택하고, 상기 복수의 예비 추적점들 중 상기 어느 하나의 PSR에 대응하는 예비 추적점을 제외하고 상기 적어도 하나의 예비 추적점을 선택하도록 구성된, 장치.
A device for tracking an object, comprising:
a plurality of different types of image sensors;
rangefinder; and
including a processor;
The processor is
obtaining a plurality of current image frames by obtaining a current image frame from each of the plurality of image sensors of different types;
Obtain the current distance by measuring the distance to the object using a range finder,
obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance;
generating a plurality of current frequency patches by transforming the extracted features for each of the plurality of current image patches into a frequency domain;
For each of the plurality of current frequency patches, by obtaining correlation coefficients with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance, a plurality of correlation coefficient patches are generated,
By determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches, a plurality of maximum correlation coefficients is obtained,
obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients;
By calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, a plurality of PSRs is obtained,
selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs;
determine a current tracking point by calculating a weighted average for the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient;
The different types of the plurality of image sensors include at least two of a CCD image sensor, a gray scale image sensor, a MWIR image sensor, and a SWIR image sensor,
The processor is
If any one of the plurality of PSRs is smaller than a predetermined reference value, the at least one maximum correlation coefficient is selected, excluding the maximum correlation coefficient corresponding to the one of the plurality of maximum correlation coefficients, and select the at least one preliminary tracking point except for the preliminary tracking point corresponding to the one of the plurality of preliminary tracking points.
KR1020200015202A 2020-02-07 2020-02-07 Object tracking method and device that is robust against distance and environment change KR102318397B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200015202A KR102318397B1 (en) 2020-02-07 2020-02-07 Object tracking method and device that is robust against distance and environment change

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200015202A KR102318397B1 (en) 2020-02-07 2020-02-07 Object tracking method and device that is robust against distance and environment change

Publications (2)

Publication Number Publication Date
KR20210101057A KR20210101057A (en) 2021-08-18
KR102318397B1 true KR102318397B1 (en) 2021-10-27

Family

ID=77464550

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200015202A KR102318397B1 (en) 2020-02-07 2020-02-07 Object tracking method and device that is robust against distance and environment change

Country Status (1)

Country Link
KR (1) KR102318397B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160239982A1 (en) 2014-08-22 2016-08-18 Zhejiang Shenghui Lighting Co., Ltd High-speed automatic multi-object tracking method and system with kernelized correlation filters
KR101980653B1 (en) * 2018-07-19 2019-05-21 한화시스템 주식회사 Target detecting and tracking method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101901487B1 (en) * 2015-12-28 2018-09-28 전자부품연구원 Real-Time Object Tracking System and Method for in Lower Performance Video Devices
KR102275452B1 (en) * 2017-03-16 2021-07-12 한국전자통신연구원 Method for tracking image in real time considering both color and shape at the same time and apparatus therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160239982A1 (en) 2014-08-22 2016-08-18 Zhejiang Shenghui Lighting Co., Ltd High-speed automatic multi-object tracking method and system with kernelized correlation filters
KR101980653B1 (en) * 2018-07-19 2019-05-21 한화시스템 주식회사 Target detecting and tracking method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Massimo Camplani 등, Real-time RGB-D Tracking with Depth Scaling Kernelised Correlation Filters and Occlusion Handling, BMVC2015.(2015.09.07.)*

Also Published As

Publication number Publication date
KR20210101057A (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US8569684B2 (en) Infrared sensor control architecture
US8855412B2 (en) Systems, methods, and apparatus for image processing, for color classification, and for skin color detection
Lin et al. Radiometric calibration from a single image
Lin et al. Determining the radiometric response function from a single grayscale image
US11010878B2 (en) Dynamic range compression for thermal video
US8111302B2 (en) White balance control apparatus and method
US8629919B2 (en) Image capture with identification of illuminant
WO2016088293A1 (en) Imaging device, apparatus, and imaging method
CN111837155A (en) Image processing method and apparatus
EP2795904B1 (en) Method and system for color adjustment
CA3044988A1 (en) Systems, methods and computer programs for colorimetric mapping
TW201830337A (en) Method and device for performing automatic white balance on an image
US11323618B2 (en) Method for displaying a model of a surrounding area, control unit and vehicle
CN110999283B (en) Image forming apparatus, image forming method, and storage medium
US20210281735A1 (en) Systems and methods for exposure control
KR102318397B1 (en) Object tracking method and device that is robust against distance and environment change
US20230342977A1 (en) Method for Determining Chromaticity Information and Related Electronic Device
Heim et al. Low-light-level EMCCD color camera
Olumodeji et al. Estimating illuminant chromaticity with a low-power color pixel
Tektonidis et al. Evaluation of a HDR image sensor with logarithmic response for mobile video-based applications
Kang et al. Illumination-invariant target color detection for EMCCD camera
CN116724564A (en) Image sensor, image data acquisition method, and imaging apparatus
Torres Arjona Correction of the colour variations under uncontrolled lighting conditions
Scene Typical Imaging Pipeline (1)
Abdellatif Color Constancy Using a Global Nose Camera Attachment.

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant