KR102318397B1 - Object tracking method and device that is robust against distance and environment change - Google Patents
Object tracking method and device that is robust against distance and environment change Download PDFInfo
- Publication number
- KR102318397B1 KR102318397B1 KR1020200015202A KR20200015202A KR102318397B1 KR 102318397 B1 KR102318397 B1 KR 102318397B1 KR 1020200015202 A KR1020200015202 A KR 1020200015202A KR 20200015202 A KR20200015202 A KR 20200015202A KR 102318397 B1 KR102318397 B1 KR 102318397B1
- Authority
- KR
- South Korea
- Prior art keywords
- current
- patches
- correlation coefficient
- image
- obtaining
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
Abstract
거리측정기로부터 획득한 대상체까지의 거리를 이용하여 대상체를 추적하기 위한 이미지 패치의 사이즈를 변경하고, 서로 다른 특징들에 기초하여 이미지 패치로부터 추출된 특징 패치들을 이용하여 예비 추적점들을 획득하고, 예비 추적점들을 융합함으로써, 대상체를 추적하기 위한 추적점을 결정한다.The size of an image patch for tracking an object is changed using the distance from the distance meter to the object obtained, and preliminary tracking points are obtained using feature patches extracted from the image patch based on different features, and preliminary tracking points are obtained. By fusing the tracking points, a tracking point for tracking the object is determined.
Description
장치와의 거리가 변하는 대상체를 추적하기 위한 방법 및 장치에 관한다.A method and apparatus for tracking an object whose distance from the device changes.
대상체를 추적하는 방법에는 커널상관필터(Kernelized Correlation Filter)를 이용하는 추적 방법이 있다. 이 방법은 첫 번째 이미지 프레임에서 지정된 이미지 패치의 사이즈를 이용하여 대상체를 추적한다. 따라서 이 방법에는 추적장치 또는 대상체가 이동하여 추적장치와 대상체 사이의 거리가 변함으로 인해, 이미지 프레임에서 대상체의 크기 변화가 발생하는 경우, 추적 오차가 증가하는 단점이 있다.As a method of tracking an object, there is a tracking method using a Kernelized Correlation Filter. In this method, the object is tracked using the size of the image patch specified in the first image frame. Accordingly, this method has a disadvantage in that a tracking error increases when the size of the object in the image frame is changed due to the distance between the tracking device and the object being changed due to the movement of the tracking device or the object.
또한, 단일 이미지 센서만을 이용하여 대상체를 추적하는 방법이 무기, 군용 장비, 무인기 등과 같이 변화하는 환경에서 운용되는 장치에 적용될 경우 추적 오차가 발생할 수 있다.Also, when a method of tracking an object using only a single image sensor is applied to a device operating in a changing environment, such as a weapon, military equipment, or unmanned aerial vehicle, a tracking error may occur.
대상체와의 거리 변화 및 주위 환경 변화에 강인하게 대상체를 추적하는 장치 및 방법을 제안하고자 한다.An apparatus and method for robustly tracking an object in response to a change in a distance from the object and a change in a surrounding environment are proposed.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 기술적 과제를 해결하기 위한 수단으로서, 일 실시예에 따른 대상체를 추적하기 위한 방법은, 이미지 센서로부터 현재 이미지 프레임을 획득하는 단계; 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계; 상기 현재 거리에 기초하여, 상기 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정하는 단계; 상기 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성하는 단계; 상기 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계; 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계; 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계; 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함한다.As a means for solving the above technical problem, a method for tracking an object according to an embodiment includes: acquiring a current image frame from an image sensor; obtaining a current distance by measuring a distance to an object using a range finder; determining, based on the current distance, a current image patch that is a subset of the current image frame; generating a plurality of current feature patches by extracting different features from the current image patch; generating a plurality of current frequency patches by transforming the plurality of current feature patches into a frequency domain; generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches; obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches; selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and determining a current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient.
다른 실시예에 따른 대상체를 추적하기 위한 방법은, 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하는 단계; 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계; 상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하는 단계; 상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계; 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계; 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계; 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계; 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함한다.According to another embodiment, a method for tracking an object includes: acquiring a plurality of current image frames by acquiring a current image frame from each of a plurality of image sensors; obtaining a current distance by measuring a distance to an object using a range finder; obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance; generating a plurality of current frequency patches by converting features extracted for each of the plurality of current image patches into a frequency domain; generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches; obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches; selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and determining a current tracking point by calculating a weighted average of the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient.
또 다른 실시예에 따른 대상체를 추적하기 위한 장치는, 이미지 센서; 거리측정기; 및 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 센서로부터 현재 이미지 프레임을 획득하고, 상기 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고, 상기 현재 거리에 기초하여, 상기 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정하고, 상기 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성하고, 상기 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고, 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고, 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고, 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고, 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고, 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고, 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정한다.According to another embodiment, an apparatus for tracking an object includes: an image sensor; rangefinder; and a processor, wherein the processor obtains a current image frame from the image sensor, obtains a current distance by measuring a distance to an object using the distance finder, and based on the current distance, By determining a current image patch that is a subset of an image frame, and extracting different features from the current image patch, to generate a plurality of current feature patches, and transforming the plurality of current feature patches into a frequency domain, a plurality of current frequencies generating a plurality of correlation coefficient patches by generating patches, and obtaining, for each of the plurality of current frequency patches, correlation coefficients with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance, a plurality of correlation coefficient patches; obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the correlation coefficient patches of , obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients; , obtains a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, and based on the plurality of PSRs, the maximum correlation of at least one of the plurality of maximum correlation coefficients By selecting a coefficient, selecting at least one preliminary tracking point from among the plurality of preliminary tracking points, and calculating a weighted average for the selected at least one preliminary tracking point by using the selected at least one maximum correlation coefficient, Determine the current tracking point.
또 다른 실시예에 따른 대상체를 추적하기 위한 장치는, 복수의 이미지 센서들; 거리측정기; 및 프로세서를 포함하고, 상기 프로세서는, 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하고, 거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고, 상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하고, 상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고, 상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고, 상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고, 상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고, 상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고, 상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고, 상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정한다.According to another embodiment, an apparatus for tracking an object includes: a plurality of image sensors; rangefinder; and a processor, wherein the processor obtains a plurality of current image frames by obtaining a current image frame from each of a plurality of image sensors, and obtains a current distance by measuring a distance to an object using a range finder. and, based on the current distance, determining a subset current image patch for each of the plurality of current image frames, thereby obtaining a plurality of current image patches, and a feature extracted for each of the plurality of current image patches by transforming into the frequency domain to generate a plurality of current frequency patches, and for each of the plurality of current frequency patches, by obtaining correlation coefficients with a corresponding model frequency patch among a plurality of pre-generated model frequency patches, By generating a plurality of correlation coefficient patches and determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches, a plurality of maximum correlation coefficients is obtained, and pixels corresponding to the plurality of maximum correlation coefficients are obtained. Obtaining a plurality of preliminary tracking points from locations, calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, to obtain a plurality of PSRs, and based on the plurality of PSRs, the plurality of selecting at least one maximum correlation coefficient among the maximum correlation coefficients of By calculating a weighted average of the preliminary tracking points, the current tracking point is determined.
소형 무인기가 장치를 향하여 접근하거나 퇴각하는 경우, 이미지에 캡쳐된 대상체의 크기 변화가 심할 수 있다. 거리측정기로부터 측정된 거리를 이용하여 크기 변화가 반영된 대상체를 추적할 수 있으므로, 추적오차를 줄일 수 있다.When the small UAV approaches or retreats toward the device, the size of the object captured in the image may change significantly. Since the object to which the size change is reflected can be tracked using the distance measured from the range finder, tracking error can be reduced.
군용 감시정찰 무기에 장착된 거리측정기를 사용하여 대상체까지의 거리를 획득 가능하다.It is possible to obtain the distance to the target by using the rangefinder mounted on the military surveillance and reconnaissance weapon.
복수의 이미지 센서들을 통해 획득한 복수의 이미지 프레임들로부터 복수의 예비 추적점들을 획득하고, 복수의 예비 추적점들을 융합하여 추적점을 결정함으로써, 주위 환경 변화에 강인하게 대상체를 추적할 수 있다. 또한, 하나의 이미지 프레임으로부터 서로 다른 특징들에 기초하여 복수의 예비 추적점들을 획득하고, 복수의 예비 추적점들을 융합하여 추적점을 결정함으로써, 주위 환경 변화에 강인하게 대상체를 추적할 수 있다.By acquiring a plurality of preliminary tracking points from a plurality of image frames acquired through a plurality of image sensors and fusing the plurality of preliminary tracking points to determine the tracking point, the object may be robustly tracked against changes in the surrounding environment. In addition, by acquiring a plurality of preliminary tracking points based on different features from one image frame and fusion of the plurality of preliminary tracking points to determine the tracking point, the object may be robustly tracked against changes in the surrounding environment.
본 실시예에 따른 추적 방법은 상관필터에 기반한 추적기에 적용이 가능하며, 이미지 센서의 종류, 또는 특징의 종류에 제한을 받지 않는다.The tracking method according to the present embodiment can be applied to a tracker based on a correlation filter, and is not limited by the type of image sensor or the type of feature.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 대상체를 추적하는 장치의 일 예를 나타낸다.
도 2는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.
도 3은 현재 이미지 패치를 결정하는 방법의 일 예를 설명하기 위한 도면이다.
도 4는 최대 상관 계수, 예비 추적점, 및 PSR을 획득하는 방법의 일 예를 설명하기 위한 도면이다.
도 5는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.
도 6은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.
도 7은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.
도 8은 대상체의 추적오차를 나타내는 그래프이다.1 illustrates an example of a device for tracking an object.
2 is a diagram for explaining an example of a method for tracking an object.
3 is a diagram for explaining an example of a method of determining a current image patch.
4 is a diagram for explaining an example of a method of obtaining a maximum correlation coefficient, a preliminary tracking point, and a PSR.
5 is a diagram for explaining an example of a method for tracking an object.
6 is a flowchart illustrating an example of a method for tracking an object.
7 is a flowchart illustrating an example of a method for tracking an object.
8 is a graph illustrating a tracking error of an object.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다. 하기 설명은 실시예들을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 당해 기술분야의 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. It goes without saying that the following description is only for specifying the embodiments and does not limit or limit the scope of the invention. What can be easily inferred by an expert in the art from the detailed description and examples is construed as belonging to the scope of the right.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used herein, terms such as 'consisting' or 'comprising' should not be construed as necessarily including all of the various components or various steps described in the specification, and some components or some steps thereof. It should be construed that they may not be included, or may further include additional components or steps.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
도 1은 대상체를 추적하는 장치의 일 예를 나타낸다.1 illustrates an example of a device for tracking an object.
장치(100)는 대상체를 추적하는 기능을 수행할 수 있다. 선택적으로 장치(100)는 군용 장비와 같이 야외에서 운용되는 장비에 탑재될 수 있다. 장치(100)는 무인기, 미사일, 차량 등과 같이 이동하는 대상체를 추적하기 위해 사용될 수 있다. The
장치(100)는 적어도 하나의 이미지 센서(110), 거리측정기(120), 및 프로세서(130)를 포함할 수 있다. 다만, 도 1에 도시된 장치(100)에는 본 실시예들와 관련된 구성요소들만이 도시되어 있다. 따라서, 장치(100)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당업자에게 자명하다. 예를 들어, 장치(100)는 메모리, 전원(내부 전원 또는 외부 전원과의 연결 수단), 통신 수단, 입력 수단, 출력 수단, 및 외부 장치와의 전기적 또는 물리적 연결 수단 등을 더 포함할 수 있다.The
장치(100)는 적어도 하나의 이미지 센서(110)를 이용하여 대상체를 촬영할 수 있다. 적어도 하나의 이미지 센서(110)는 광전변환소자를 포함할 수 있다. 예를 들어, 적어도 하나의 이미지 센서(110)는 Charge Coupled Device(CCD) 이미지 센서, Complementary Metal-Oxide Semiconductor(CMOS) 이미지 센서, 그레이 이미지를 생성하는 그레이 이미지 센서, 및 적외선 이미지 센서 중 적어도 어느 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다. 적외선 이미지 센서는 중적외선에 대한 Medium Wave Infrared(MWIR) 이미지 센서, 근적외선에 대한 Short Wave Infrared(SWIR) 이미지 센서 등일 수 있으나, 이에 제한되는 것은 아니다.The
장치(100)가 복수의 이미지 센서들(110)을 포함하는 경우, 복수의 이미지 센서들(110)은 종류가 같거나 서로 다를 수 있다. 예를 들어, 장치(100)는 CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서를 포함할 수 있다. 장치(100)는 서로 다른 종류의 이미지 센서들을 포함함으로써, 주위 환경 변화, 노이즈, 센서의 고장에 강인하게 대상체의 이미지를 획득할 수 있다.When the
다른 실시예에서, 장치(100)는 적어도 하나의 이미지 센서를 포함하지 않을 수 있다. 다른 실시예에서, 장치(100)는 적어도 하나의 이미지 센서가 탑재된 장비에 탑재될 수 있으며, 장치(100)는 장비의 적어도 하나의 이미지 센서로부터 이미지 프레임을 획득할 수 있다.In other embodiments, the
장치(100)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정할 수 있다. 거리측정기(120)는 장치(100)에서 대상체까지의 거리를 측정할 수 있다. 거리측정기(120)는 레이저 거리 측정기(Laser Range Finder), 광파 거리 측정기(Light Wave Range Finder), 또는 전자파 거리 측정기(Radio Range Finder) 등일 수 있으나, 이에 제한되는 것은 아니다.The
다른 실시예에서, 장치(100)는 거리측정기를 포함하지 않을 수 있다. 다른 실시예에서, 장치(100)는 거리측정기가 탑재된 장비에 탑재될 수 있으며, 장치(100)는 장비의 거리측정기로부터 대상체까지의 거리를 획득할 수 있다.In other embodiments,
프로세서(130)는 장치(100)를 제어하기 위한 전반적인 기능을 수행하는 역할을 한다. 프로세서(130)는 다수의 논리 게이트들의 어레이로 구현될 수 있고, 범용적인 마이크로 프로세서와 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다.The
프로세서(130)는 적어도 하나의 이미지 센서(110)로부터 이미지 프레임을 획득하고, 거리측정기(120)로부터 대상체까지의 거리를 획득할 수 있다. 프로세서(130)는 적어도 하나의 이미지 센서(110)로부터 획득한 이미지 프레임 및 거리측정기(120)로부터 획득한 거리에 기초하여, 대상체를 추적할 수 있다.The
도 2는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.2 is a diagram for explaining an example of a method for tracking an object.
도 2에는 대상체를 추적하기 위하여 프로세서(130)가 수행하는 프로세스들이 블록으로 표현되어 있다. 도 2를 참조한 실시예에서는 프로세서(130)가 하나의 이미지 센서로부터 이미지 프레임을 획득하나, 다른 실시예에서는 프로세서(130)가 복수의 이미지 센서들로부터 복수의 이미지 프레임들을 획득할 수 있다.In FIG. 2 , processes performed by the
프로세서(130)는 이미지 센서(110)로부터 현재 이미지 프레임(IF_crt)을 획득할 수 있다. 이때, 현재 이미지 프레임(IF_crt)은 이미지 센서(110)로부터 획득된 임의의 n번째 이미지 프레임일 수 있다.The
프로세서(130)는 거리측정기(120)로부터 대상체까지의 거리인 현재 거리(d_crt)를 획득할 수 있다. 이때, 현재 거리(d_crt)는 현재 이미지 프레임(IF_crt)에 대응하는 거리로서, 현재 이미지 프레임(IF_crt)이 획득된 시점과 동일/유사한 시점에 획득된 거리일 수 있다. 즉, 현재 거리(d_crt)는 현재 이미지 프레임(IF_crt)에 캡쳐된 대상체까지의 거리일 수 있다.The
프로세서(130)는 현재 거리(d_crt)에 기초하여, 장치(100)와 대상체 사이의 거리 변화를 나타내는 거리 변화 요소(d_fct)를 획득할 수 있다. The
프로세서(130)는 현재 거리(d_crt)와 기준 거리(d_ref)로부터 거리 변화 요소(d_fct)를 획득할 수 있다. 프로세서(130)는 수학식 1로부터 거리 변화 요소(d_fct)를 획득할 수 있다.The
기준 거리(d_ref)는 미리 결정된 기준 이미지 프레임(IF_ref)에 대응하는 거리로서, 기준 이미지 프레임(IF_ref)이 획득된 시점과 동일한 시점에 획득된 거리일 수 있다. 즉, 기준 거리(d_ref)는 기준 이미지 프레임(IF_ref)에 캡쳐된 대상체까지의 거리일 수 있다. 기준 이미지 프레임(IF_ref)은 현재 이미지 프레임(IF_crt)과 다른 시점에 획득된 이미지 프레임일 수 있다. 예를 들어, 기준 이미지 프레임(IF_ref)은 첫 번째 이미지 프레임일 수 있다. 다른 예를 들어, 기준 이미지 프레임(IF_ref)은 이전 이미지 프레임(예, n-1번째 이미지 프레임)일 수 있다.The reference distance d_ref is a distance corresponding to the predetermined reference image frame IF_ref, and may be a distance obtained at the same time point at which the reference image frame IF_ref is obtained. That is, the reference distance d_ref may be a distance to the object captured in the reference image frame IF_ref. The reference image frame IF_ref may be an image frame acquired at a time different from the current image frame IF_crt. For example, the reference image frame IF_ref may be the first image frame. As another example, the reference image frame IF_ref may be a previous image frame (eg, an n−1 th image frame).
프로세서(130)는 거리 변화 요소(d_fct)에 기초하여, 현재 이미지 프레임(IF_crt)의 서브셋인 현재 이미지 패치(IP_crt)를 결정할 수 있다.The
도 3은 현재 이미지 패치를 결정하는 방법의 일 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of a method of determining a current image patch.
프로세서(130)는 이전 이미지 프레임(IF_prev)에 대하여 이전 추적점(P_prev)을 결정할 수 있다. 이전 이미지 프레임(IF_prev)은 n-1번째 이미지 프레임일 수 있다. 이때, 추적점은 하나의 픽셀이다.The
프로세서(130)는 현재 이미지 프레임(IF_crt)에서 이전 추적점(P_prev)을 현재 이미지 패치(IP_crt)의 중심점으로 설정할 수 있다. 예를 들어, 이전 추적점(P_prev)이 하나의 픽셀인 경우, 이전 추적점(P_prev)을 현재 이미지 패치(IP_crt)의 중심점으로 설정할 수 있다. The
프로세서(130)는 기준 이미지 프레임(IF_ref)의 기준 이미지 패치(IP_ref)의 사이즈(lx_ref, ly_ref)에 거리 변화 요소(d_fct)를 곱함으로써, 현재 이미지 패치(IP_crt)의 사이즈(lx_crt, ly_crt)를 결정할 수 있다. 예를 들어, lx_ref=120, ly_ref=100, d_fct=0.8인 경우, lx_crt=96, ly_crt=80일 수 있다. 이때, 사이즈의 단위는 픽셀의 개수일 수 있다.The
즉, 프로세서(130)는 이전 추적점(P_prev)으로부터 현재 이미지 패치(IP_crt)의 중심점을 설정하고, 기준 이미지 패치(IP_ref)의 사이즈(lx_ref, ly_ref) 및 거리 변화 요소(d_fct)로부터 현재 이미지 패치(IP_crt)의 사이즈(lx_crt, ly_crt)를 결정함으로써, 현재 이미지 프레임(IF_crt)에서 현재 이미지 패치(IP_crt)를 결정할 수 있다.That is, the
거리 변화 요소를 이용함으로써 현재 이미지 프레임에 캡쳐된 대상체의 사이즈에 맞게 현재 이미지 패치를 결정할 수 있으므로, 장치(100)와 대상체 사이의 거리 변화 또는 이미지 프레임에서 대상체의 사이즈 변화에 강인하게 대상체를 추적할 수 있다.Since the current image patch can be determined according to the size of the object captured in the current image frame by using the distance change factor, the object can be robustly tracked against a change in the distance between the
다시 도 2를 참조하면, 프로세서(130)는 현재 이미지 패치(IP_crt)로부터 서로 다른 특징들에 기초하여 복수의 현재 특징 패치들(FtP_crt)을 추출할 수 있다.Referring back to FIG. 2 , the
특징은 이미지의 엣지(edge), 색상(color), 그레이 레벨, 조도(luminous intensity), 채도(chroma), 색조(hue), RGB 등일 수 있으며, 이에 제한되지 않는다. 예를 들어, 현재 이미지 프레임(IF_crt)은 그레이 이미지 센서로부터 획득된 그레이 이미지 프레임일 수 있고, 특징들은 그레이 레벨, 그레이 횡방향 엣지, 및 그레이 종방향 엣지일 수 있고, 복수의 현재 특징 패치들은 그레이 레벨 이미지, 그레이 횡방향 엣지 이미지, 그레이 종방향 엣지 이미지일 수 있다. 다른 예를 들어, 현재 이미지 프레임(IF_crt)은 CCD 이미지 센서로부터 획득된 컬러 이미지 프레임일 수 있고, 특징들은 R(red), G(green), B(blue)일 수 있고, 복수의 현재 특징 패치들은 R채널 이미지, G채널 이미지, B채널 이미지일 수 있다. 현재 특징 패치(FtP_crt)의 사이즈는 현재 이미지 패치(IP_crt)의 사이즈와 동일 할 수 있다.The feature may be an edge of an image, color, gray level, luminous intensity, chroma, hue, RGB, etc., but is not limited thereto. For example, the current image frame IF_crt may be a gray image frame obtained from a gray image sensor, the features may be a gray level, a gray lateral edge, and a gray longitudinal edge, and the plurality of current feature patches may be gray It may be a level image, a gray lateral edge image, and a gray longitudinal edge image. For another example, the current image frame IF_crt may be a color image frame obtained from a CCD image sensor, and the features may be R (red), G (green), B (blue), and a plurality of current feature patches. These may be an R-channel image, a G-channel image, or a B-channel image. The size of the current feature patch FtP_crt may be the same as the size of the current image patch IP_crt.
프로세서(130)는 복수의 현재 특징 패치들(FtP_crt)을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다. 예를 들어, 프로세서(130)는 퓨리에 변환, 이산 퓨리에 변환, 또는 고속 퓨리에 변환에 기초하여 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다. 현재 주파수 패치(FP_crt)의 사이즈는 현재 이미지 패치(IP_crt)의 사이즈와 동일 할 수 있다.The
예를 들어, 프로세서(130)는 제1 현재 특징 패치(FtP_crt_1)를 주파수 영역으로 변환함으로써 제1 현재 주파수 패치(FP_crt_1)를 생성하고, 제2 현재 특징 패치(FtP_crt_2)를 주파수 영역으로 변환함으로써 제2 현재 주파수 패치(FP_crt_2)를 생성하고, 제m 현재 특징 패치(FtP_crt_m)를 주파수 영역으로 변환함으로써 제m 현재 주파수 패치(FP_crt_m)를 생성할 수 있다.For example, the
프로세서(130)는 복수의 현재 주파수 패치들(FP_crt)과 복수의 모델 주파수 패치들(FP_mdl)의 상관계수들을 계산함으로써, 복수의 상관계수 패치들(CP)을 생성할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt) 각각에 대해, 대응하는 모델 주파수 패치(FP_mdl)와의 원소들 간의 곱(element-wise product)을 계산하고 퓨리에 역변환(Inverse Fourier Transform)을 수행하여, 복수의 상관계수 패치들(CP)을 생성할 수 있다. The
프로세서(130)는 원소들 간의 곱을 연산하기 이전에, 복수의 모델 주파수 패치들(FP_mdl)의 사이즈를 현재 주파수 패치(FP_crt)의 사이즈와 동일하도록 변경함으로써, 원소들 간의 곱을 정상적으로 연산할 수 있다. 상관계수 패치(CP)의 사이즈는 현재 주파수 패치(FP_crt)의 사이즈와 동일 할 수 있다.Before calculating the product between the elements, the
예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제1 상관계수 패치(CP_1)가 생성될 수 있고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제2 상관계수 패치(CP_2)가 생성될 수 있고, 제m 모델 주파수 패치(FP_mld_m) 및 제m 현재 주파수 패치(FP_crt_m)의 원소들 간의 곱이 공간 영역으로 변환됨으로써, 제m 상관계수 패치(CP_m)가 생성될 수 있다.For example, the product of the elements of the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 is transformed into a spatial domain, whereby the first correlation coefficient patch CP_1 may be generated, and the second model frequency By transforming the product between the elements of the patch FP_mld_2 and the second current frequency patch FP_crt_2 into the spatial domain, the second correlation coefficient patch CP_2 may be generated, and the mth model frequency patch FP_mld_m and the mth current frequency patch FP_mld_m A product of elements of the frequency patch FP_crt_m is transformed into a spatial domain, so that an m-th correlation coefficient patch CP_m may be generated.
모델 주파수 패치(FP_mdl)는 추적하고자 하는 대상체의 정보를 포함하는 주파수 성분들을 포함할 수 있다. 모델 주파수 패치(FP_mdl)는 이미지 센서(110)에 캡쳐된 대상체의 변화가 반영되도록 이미지 프레임 마다 업데이트될 수 있다.The model frequency patch FP_mdl may include frequency components including information on an object to be tracked. The model frequency patch FP_mdl may be updated for each image frame to reflect a change in the object captured by the
복수의 모델 주파수 패치들(FP_mld)은 각각 대응되는 현재 주파수 패치(FP_crt)와 동일한 특징에 기초할 수 있다. 예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)는 그레이 레벨 이미지에 기초하고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)는 그레이 횡방향 엣지 이미지에 기초하고, 제m 모델 주파수 패치(FP_mld_3) 및 제m 현재 주파수 패치(FP_crt_m)는 그레이 종방향 엣지 이미지에 기초할 수 있다.Each of the plurality of model frequency patches FP_mld may be based on the same characteristic as the corresponding current frequency patch FP_crt. For example, the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 are based on a gray level image, and the second model frequency patch FP_mld_2 and the second current frequency patch FP_crt_2 have a gray transverse direction. Based on the edge image, the mth model frequency patch FP_mld_3 and the mth current frequency patch FP_crt_m may be based on the gray longitudinal edge image.
프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관 계수들(Cmax)을 획득할 수 있다.The
프로세서(130)는 복수의 최대 상관 계수들(Cmax) 각각에 대응하는 픽셀들의 위치로부터 복수의 예비 추적점들(P_tmp)을 획득할 수 있다.The
프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.The
도 4는 최대 상관 계수, 예비 추적점, 및 PSR을 획득하는 방법의 일 예를 설명하기 위한 도면이다.4 is a diagram for explaining an example of a method of obtaining a maximum correlation coefficient, a preliminary tracking point, and a PSR.
도 4에는 상관계수 패치(CP)의 일부분이 도시되어 있다.4 shows a part of the correlation coefficient patch CP.
프로세서(130)는 상관계수 패치(CP) 중 최대값을 갖는 상관계수를 최대 상관계수(Cmax)로 결정할 수 있다. 예를 들어, 상관계수 패치(CP)의 픽셀들이 각각 0~1의 범위 내의 값을 갖는 경우, 최대값인 1이 최대 상관계수(Cmax)로 결정될 수 있다.The
프로세서(130)는 상관계수 패치(CP)에서 최대 상관계수(Cmax)를 갖는 픽셀을 예비 추적점(P_tmp)으로 결정할 수 있다.The
프로세서(130)는 예비 추적점(P_tmp)을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점(P_tmp)을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역(빗금 친 영역)에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차(σ) 및 평균(μ)으로부터 PSR을 획득할 수 있다. 예를 들어, k는 5로 설정될 수 있다.The
구체적으로, 프로세서(130)는 수학식 2에 기초하여 PSR을 획득할 수 있다.Specifically, the
다시 도 2를 참조하면, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들(Cmax) 중 적어도 하나의 최대 상관계수(Cmax_i)를 선택하고 복수의 예비 추적점들(P_tmp) 중 적어도 하나의 예비 추적점(P_tmp_i)을 선택할 수 있다.Referring back to FIG. 2 , the
프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다. 기준값(α)은 미리 설정된 값이다. 예를 들어, 기준값(α)은 0.8일 수 있다.If there is a PSR having a value greater than the reference value α among the plurality of PSRs, the
예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.8인 경우, 프로세서(130)는 제1 최대 상관계수(Cmax_1), 제1 예비 추적점(P_tmp_1), 제m 최대 상관계수(Cmax_m), 및 제m 예비 추적점(P_tmp_m)을 선택할 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.8, the
다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.9인 경우, 프로세서(130)는 제1 최대 상관계수(Cmax_1) 및 제1 예비 추적점(P_tmp_1)을 선택할 수 있다.For another example, when the first PSR (PSR_1) = 0.9, the second PSR (PSR_2) = 0.5, the m th PSR (PSR_m) = 0.85, and α = 0.9, the
프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하지 않으면, 가장 큰 값을 갖는 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택하거나, 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.If there is no PSR having a value greater than the reference value α among the plurality of PSRs, the
예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 가장 큰 값을 갖는 제1 PSR(PSR_1)에 대응하는 제1 최대 상관계수(Cmax_1) 및 제1 예비 추적점(P_tmp_1)을 선택할 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the
다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 가장 큰 2개의 PSR인 제1 PSR(PSR_1) 및 제m PSR(PSR_m)에 대응하는 제1 최대 상관계수(Cmax_1), 제1 예비 추적점(P_tmp_1), 제m 최대 상관계수(Cmax_m), 및 제m 예비 추적점(P_tmp_m)을 선택할 수 있다.As another example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the
또 다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.As another example, when the first PSR (PSR_1) = 0.9, the second PSR (PSR_2) = 0.5, the m th PSR (PSR_m) = 0.85, and α = 0.95, the
또 다른 예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.95인 경우, 프로세서(130)는 최저값을 갖는 제2 PSR(PSR_2)을 제외한 나머지 PSR에 대응되는 복수의 최대 상관계수들 및 복수의 예비 추적점들을 선택할 수 있다.As another example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.95, the
PSR이 작은 것은 대상체가 가려졌거나 주변 클러스터들과 대상체의 구분이 어렵거나 등의 이유로 획득된 예비 추적점의 신뢰도가 낮은 것을 의미한다. 프로세서(130)는 상대적으로 큰 PSR에 대응되는 최대 상관계수 및 예비 추적점으로부터 현재 추적점(P_crt)을 결정함으로써, 주위 환경 변화 및 노이즈에 강인하게 대상체를 추적할 수 있다.A small PSR means that the reliability of the obtained preliminary tracking point is low, for example, because the object is obscured or it is difficult to distinguish the object from neighboring clusters. The
프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점을 융합함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점(P_tmp_i=(x_tmp_i, y_tmp_i))에 대한 가중 평균을 계산함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 구체적으로, 프로세서(130)는 수학식 3에 기초하여 현재 추적점(P_crt)을 결정할 수 있다.The
현재 추적점(P_crt)을 단일 픽셀로 구성하고자 할 경우, 선택된 적어도 하나의 예비 추적점을 융합함으로써 획득된 추적점(x_crt, y_crt)을 현재 추적점(P_crt)으로 결정할 수 있다. When the current tracking point P_crt is configured as a single pixel, the tracking points x_crt and y_crt obtained by fusing at least one selected preliminary tracking point may be determined as the current tracking point P_crt.
프로세서(130)는 다음 이미지 프레임에 대하여 다음 추적점을 결정하기 위하여, 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt), 현재 추적점(P_crt) 등에 기초하여 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다.The
프로세서는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR에 대응되는 모델 주파수 패치를 업데이트하고, 나머지 PSR에 대응되는 모델 주파수 패치를 업데이트하지 않을 수 있다.The processor may update the model frequency patch corresponding to the PSR having a value greater than the reference value α among the plurality of PSRs, and may not update the model frequency patch corresponding to the remaining PSRs.
예를 들어, 제1 PSR(PSR_1)=0.9, 제2 PSR(PSR_2)=0.5, 제m PSR(PSR_m)=0.85이고, α=0.8인 경우, 프로세서(130)는 제1 모델 주파수 패치(FP_mdl_1) 및 제m 모델 주파수 패치(FP_mdl_m)는 업데이트하고, 제2 모델 주파수 패치(FP_mdl_2)는 업데이트하지 않을 수 있다.For example, when the first PSR(PSR_1)=0.9, the second PSR(PSR_2)=0.5, the mth PSR(PSR_m)=0.85, and α=0.8, the
도 5는 대상체를 추적하는 방법의 일 예를 설명하기 위한 도면이다.5 is a diagram for explaining an example of a method for tracking an object.
도 5에는 대상체를 추적하기 위하여 프로세서(130)가 수행하는 프로세스들이 블록으로 표현되어 있다. 도 5를 참조한 실시예에서는 프로세서(130)가 복수의 이미지 센서들로부터 복수의 이미지 프레임들을 획득한다. 도 2를 참조한 실시예와 동일한 구성은 설명을 생략한다.In FIG. 5 , processes performed by the
프로세서(130)는 복수의 이미지 센서들(110)로부터 복수의 현재 이미지 프레임들(IF_crt)을 획득할 수 있다. 프로세서(130)는 복수의 이미지 센서들(110)로부터 각각 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들(IF_crt)을 획득할 수 있다.The
프로세서(130)는 거리 변화 요소(d_fct)에 기초하여, 복수의 현재 이미지 프레임들(IF_crt)의 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들(IP_crt)을 획득할 수 있다.The
거리 변화 요소를 이용함으로써 현재 이미지 프레임에 캡쳐된 대상체의 사이즈에 맞게 현재 이미지 패치를 결정할 수 있으므로, 장치(100)와 대상체 사이의 거리 변화 또는 이미지 프레임에서 대상체의 사이즈 변화에 강인하게 대상체를 추적할 수 있다.Since the current image patch can be determined according to the size of the object captured in the current image frame by using the distance change factor, the object can be robustly tracked against a change in the distance between the
복수의 이미지 센서들(110)의 시야(field of view, FOV)는 동일할 수 있으며, 복수의 현재 이미지 패치들(IP_crt)은 위치 및 사이즈가 동일할 수 있다. 예를 들어, 제1 현재 이미지 프레임(IF_crt_1)에서 제1 현재 이미지 패치(IP_crt_1)의 위치와 제2 현재 이미지 프레임(IF_crt_2)에서 제2 현재 이미지 패치(IP_crt_2)의 위치와 제m 현재 이미지 프레임(IF_crt_m)에서 제m 현재 이미지 패치(IP_crt_m)의 위치는 동일할 수 있다.The field of view (FOV) of the plurality of
프로세서(130)는 복수의 현재 이미지 패치들(IP_crt)로부터 적어도 하나의 특징에 기초하여 복수의 현재 특징 패치들(FtP_crt)을 추출할 수 있다. 예를 들어, 제1 현재 이미지 프레임(IF_crt_1)은 그레이 이미지 센서로부터 획득된 그레이 이미지 프레임이고, 제2 현재 이미지 프레임(IF_crt_2)는 CCD 이미지 센서로부터 획득된 컬러 이미지 프레임이고, 제m 현재 이미지 프레임(IF_crt_m)는 근적외선 이미지 센서로부터 획득된 근적외선 이미지 프레임일 수 있다. 예를 들어, 제1 현재 특징 패치(FtP_crt_1)는 그레이 횡방향 엣지 이미지이고, 제2 현재 특징 패치(FtP_crt_2)는 R채널 이미지이고, 제m 현재 특징 패치(FtP_crt_m)는 근적외선 레벨 이미지일 수 있다.The
프로세서(130)는 복수의 현재 특징 패치들(FtP_crt)을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들(FP_crt)을 생성할 수 있다.The
프로세서(130)는 복수의 현재 주파수 패치들(FP_crt)과 복수의 모델 주파수 패치들(FP_mdl)의 상관계수들을 계산함으로써, 복수의 상관계수 패치들(CP)을 생성할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt) 각각에 대해, 대응하는 모델 주파수 패치(FP_mdl)와의 원소들 간의 곱(element-wise product)을 계산하고 퓨리에 역변환을 수행하여, 복수의 상관계수 패치들(CP)를 생성할 수 있다. 이때, 프로세서(130)는 원소들 간의 곱을 연산하기 이전에, 복수의 모델 주파수 패치들(FP_mdl)의 사이즈를 복수의 현재 주파수 패치(FP_crt)의 사이즈와 동일하도록 변경함으로써, 원소들 간의 곱을 정상적으로 연산할 수 있다.The
복수의 모델 주파수 패치들(FP_mld)은 각각 대응되는 현재 주파수 패치(FP_crt)와 동일한 특징에 기초할 수 있다. 예를 들어, 제1 모델 주파수 패치(FP_mld_1) 및 제1 현재 주파수 패치(FP_crt_1)는 그레이 횡방향 엣지 이미지에 기초하고, 제2 모델 주파수 패치(FP_mld_2) 및 제2 현재 주파수 패치(FP_crt_2)는 R채널 이미지에 기초하고, 제m 모델 주파수 패치(FP_mld_3) 및 제m 현재 주파수 패치(FP_crt_m)는 근적외선 레벨 이미지에 기초할 수 있다.Each of the plurality of model frequency patches FP_mld may be based on the same characteristic as the corresponding current frequency patch FP_crt. For example, the first model frequency patch FP_mld_1 and the first current frequency patch FP_crt_1 are based on the gray lateral edge image, and the second model frequency patch FP_mld_2 and the second current frequency patch FP_crt_2 are R Based on the channel image, the mth model frequency patch FP_mld_3 and the mth current frequency patch FP_crt_m may be based on a near-infrared level image.
프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관 계수들(Cmax)을 획득할 수 있다.The
프로세서(130)는 복수의 최대 상관 계수들(Cmax) 각각에 대응하는 픽셀들의 위치로부터 복수의 예비 추적점들(P_tmp)을 획득할 수 있다.The
프로세서(130)는 복수의 상관계수 패치들(CP) 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.The
프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들(Cmax) 중 적어도 하나의 최대 상관계수(Cmax_i)를 선택하고 복수의 예비 추적점들(P_tmp) 중 적어도 하나의 예비 추적점(P_tmp_i)를 선택할 수 있다.The
프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다. If there is a PSR having a value greater than the reference value α among the plurality of PSRs, the
프로세서(130)는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR이 존재하지 않으면, 가장 큰 값을 갖는 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택하거나, 복수의 최대 상관계수들(Cmax) 및 복수의 예비 추적점들(P_tmp)을 모두 선택할 수 있다.If there is no PSR having a value greater than the reference value α among the plurality of PSRs, the
PSR이 작은 것은 대상체가 가려졌거나 주변 클러스터들과 대상체의 구분이 어렵거나 등의 이유로 획득된 예비 추적점의 신뢰도가 낮은 것을 의미한다. 프로세서(130)는 상대적으로 큰 PSR에 대응되는 최대 상관계수 및 예비 추적점으로부터 현재 추적점(P_crt)을 결정함으로써, 주위 환경 변화 및 노이즈에 강인하게 대상체를 추적할 수 있다.A small PSR means that the reliability of the obtained preliminary tracking point is low, for example, because the object is obscured or it is difficult to distinguish the object from neighboring clusters. The
프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점을 융합함으로써, 현재 추적점(P_crt)을 결정할 수 있다. 구체적으로, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점(P_crt)을 결정할 수 있다.The
프로세서(130)는 다음 이미지 프레임에 대하여 다음 추적점을 결정하기 위하여, 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다. 프로세서(130)는 복수의 현재 주파수 패치들(FP_crt), 현재 추적점(P_crt) 등에 기초하여 복수의 모델 주파수 패치들(FP_mdl)을 업데이트할 수 있다.The
프로세서는 복수의 PSR 중 기준값(α)보다 큰 값을 갖는 PSR에 대응되는 모델 주파수 패치를 업데이트하고, 나머지 PSR에 대응되는 모델 주파수 패치를 업데이트하지 않을 수 있다.The processor may update the model frequency patch corresponding to the PSR having a value greater than the reference value α among the plurality of PSRs, but may not update the model frequency patch corresponding to the remaining PSRs.
도 6은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.6 is a flowchart illustrating an example of a method for tracking an object.
601단계에서, 프로세서(130)는 이미지 센서(110)로부터 현재 이미지 프레임을 획득할 수 있다.In
602단계에서, 프로세서(130)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득할 수 있다.In
603단계에서, 프로세서(130)는 현재 거리에 기초하여, 현재 이미지 프레임의 서브셋인 현재 이미지 패치를 결정할 수 있다.In
예를 들어, 현재 이미지 프레임이 1번째 이미지 프레임인 경우, 사용자의 설정 또는 프로세서(130)가 이미지에서 대상체를 식별하는 방법 등에 의해 현재 이미지 패치가 결정될 수 있다.For example, when the current image frame is the first image frame, the current image patch may be determined by a user's setting or a method in which the
다른 예를 들어, 현재 이미지 프레임이 n번째 이미지 프레임인 경우, 이전 이미지 프레임(n-1번째 이미지 프레임)에서 결정된 이전 추적점에 기초하여 현재 이미지 패치가 결정될 수 있다.As another example, when the current image frame is the nth image frame, the current image patch may be determined based on a previous tracking point determined in the previous image frame (n−1th image frame).
현재 이미지 패치의 사이즈는 현재 거리에 기초하여 결정될 수 있으며, 이전 이미지 패치의 사이즈와 동일하게 결정되거나 다르게 변경될 수 있다.The size of the current image patch may be determined based on the current distance, and may be determined to be the same as the size of the previous image patch or may be changed differently.
604단계에서, 프로세서(130)는 현재 이미지 패치로부터 서로 다른 특징들을 추출함으로써, 복수의 현재 특징 패치들을 생성할 수 있다.In
예를 들어, 특징들은 그레이 레벨, 그레이 횡방향 엣지, 및 그레이 종방향 엣지일 수 있고, 복수의 현재 특징 패치들은 그레이 레벨 이미지, 그레이 횡방향 엣지 이미지, 그레이 종방향 엣지 이미지일 수 있다.For example, the features may be a gray level, a gray lateral edge, and a gray longitudinal edge, and the plurality of current feature patches may be a gray level image, a gray lateral edge image, and a gray longitudinal edge image.
605단계에서, 프로세서(130)는 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In
606단계에서, 프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성할 수 있다.In
프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 복수의 상관계수 패치들을 생성할 수 있다.For each of the plurality of current frequency patches, the
607단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득할 수 있다.In
608단계에서, 프로세서(130)는 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득할 수 있다.In
609단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.In
프로세서(130)는 예비 추적점을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차 및 평균으로부터 PSR을 획득할 수 있다.The
610단계에서, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택할 수 있다.In
프로세서(130)는 복수의 PSR 중 기준값보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다.If there is a PSR having a value greater than the reference value among the plurality of PSRs, the
611단계에서, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정할 수 있다.In
도 7은 대상체를 추적하는 방법의 일 예를 나타내는 순서도이다.7 is a flowchart illustrating an example of a method for tracking an object.
701단계에서, 프로세서(130)는 복수의 이미지 센서들(110) 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득할 수 있다.In
702단계에서, 프로세서(130)는 거리측정기(120)를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득할 수 있다.In
703단계에서, 프로세서(130)는 현재 거리에 기초하여, 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득할 수 있다.In
704단계에서, 프로세서(130)는 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In
예를 들어, 복수의 현재 이미지 패치들은 그레이 이미지 패치, 컬러 이미지 패치, 근적외선 이미지 패치일 수 있고, 특징들은 종방향 엣지, R(Red), 및 근적외선 레벨일수 있고, 복수의 현재 특징 패치들은 그레이 종방향 엣지 이미지, R채널 이미지, 근적외선 레벨 이미지일 수 있다.For example, the plurality of current image patches may be a gray image patch, a color image patch, a near-infrared image patch, the features may be a longitudinal edge, R(Red), and a near-infrared level, and the plurality of current feature patches may be a gray species. It may be a directional edge image, an R-channel image, or a near-infrared level image.
705단계에서, 프로세서(130)는 복수의 현재 특징 패치들을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성할 수 있다.In
706단계에서, 프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성할 수 있다.In
프로세서(130)는 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 복수의 상관계수 패치들을 생성할 수 있다.For each of the plurality of current frequency patches, the
707단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득할 수 있다.In
708단계에서, 프로세서(130)는 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득할 수 있다.In
709단계에서, 프로세서(130)는 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득할 수 있다.In
프로세서(130)는 예비 추적점을 중심으로 하는 qxq 사이즈의 영역 중, 예비 추적점을 중심으로 하는 kxk 사이즈의 영역을 제외한 영역에 포함된 픽셀들의 값들(즉, 상관계수들)의 표준편차 및 평균으로부터 PSR을 획득할 수 있다.The
710단계에서, 프로세서(130)는 복수의 PSR에 기초하여, 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택할 수 있다.In
프로세서(130)는 복수의 PSR 중 기준값보다 큰 값을 갖는 PSR이 존재하면, 해당 PSR에 대응되는 최대 상관계수 및 예비 추적점을 선택할 수 있다.If there is a PSR having a value greater than the reference value among the plurality of PSRs, the
711단계에서, 프로세서(130)는 선택된 적어도 하나의 최대 상관계수를 이용하여, 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정할 수 있다.In
도 8은 대상체의 추적오차를 나타내는 그래프이다.8 is a graph illustrating a tracking error of an object.
도 8은 본 실시예에 따른 방법을 이용하여 대상체를 추적한 추적오차(SKCF)와 종래의 방법을 이용하여 대상체를 추적한 추적오차(KCF)를 비교하기 위한 그래프이다. 추적오차는 대상체(예, 대상체의 중심)와 현재 추적점(예, 현재 추적점의 중심) 간의 RMS(Root Mean Square) 오차이다.8 is a graph for comparing a tracking error (SKCF) of tracking an object using the method according to the present embodiment with a tracking error (KCF) of tracking an object using the conventional method. The tracking error is a root mean square (RMS) error between the object (eg, the center of the object) and the current tracking point (eg, the center of the current tracking point).
도 8의 그래프로부터, 종래의 방법의 추적오차(KCF)보다 본 실시예에 따른 방법의 추적오차(SKCF)가 낮은 것을 확인할 수 있으며, 이로부터 본 실시예에 따른 방법을 사용하여 대상체의 추적 성능을 향상시킬 수 있음을 확인할 수 있다.From the graph of FIG. 8 , it can be seen that the tracking error (SKCF) of the method according to the present embodiment is lower than the tracking error (KCF) of the conventional method, and from this, tracking performance of an object using the method according to the present embodiment can be seen to be improved.
표 1은 본 실시예에 따른 방법을 이용하여 대상체를 추적한 추적오차와 종래의 방법을 이용하여 대상체를 추적한 추적오차를 비교하기 위한 표이다.Table 1 is a table for comparing the tracking error of tracking the object using the method according to the present embodiment with the tracking error of tracking the object using the conventional method.
실험에서는 그레이 이미지 센서로부터 획득된 이미지 프레임이 사용되었다. 제1 방법에서는 종래의 방법을 이용하여 대상체가 추적되었다. 즉 제1 방법에서는 이미지 패치 또는 주파수 패치의 사이즈가 변경되지 않았고, 서로 다른 특징들에 기초한 예비 추적점들의 융합이 수행되지 않았다. 제2 방법에서는 본 실시예에 따라 이미지 패치 또는 주파수 패치의 사이즈는 변경되었으나, 그레이 레벨에만 기초하여 추적점이 결정되었으며, 서로 다른 특징들에 기초한 예비 추적점들의 융합이 수행되지 않았다. 제3 방법에서는 본 실시예에 따른 방법에 따라 이미지 패치 또는 주파수 패치의 사이즈가 변경되었고, 그레이 레벨 이미지, 그레이 종방향 엣지 이미지, 및 그레이 횡방향 엣지 이미지에 기초한 예비 추적점들의 융합이 수행되었다.표 1로부터, 제1 방법 대비 제2 방법의 RMS 오차가 낮은 것을 확인할 수 있다. 이는, 본 실시예에 따라 거리 변환 요소에 기초하여 이미지 패치 또는 주파수 패치의 사이즈를 변경함으로써, 장치(100)와 대상체 사이에 거리 변화를 반영하여 대상체를 추적할 수 있음을 의미한다.In the experiment, an image frame obtained from a gray image sensor was used. In the first method, the subject was tracked using a conventional method. That is, in the first method, the size of the image patch or the frequency patch is not changed, and the fusion of preliminary tracking points based on different characteristics is not performed. In the second method, the size of the image patch or frequency patch is changed according to the present embodiment, but the tracking point is determined based on only the gray level, and fusion of preliminary tracking points based on different characteristics is not performed. In the third method, the size of the image patch or frequency patch was changed according to the method according to the present embodiment, and fusion of preliminary tracking points based on the gray level image, the gray longitudinal edge image, and the gray lateral edge image was performed. From Table 1, it can be seen that the RMS error of the second method is lower than that of the first method. This means that according to the present embodiment, by changing the size of the image patch or the frequency patch based on the distance conversion factor, the object can be tracked by reflecting the change in the distance between the
또한, 표 1로부터, 제1-2 방법 대비 제3 방법의 RMS 오차가 낮은 것을 확인할 수 있다. 이는, 본 실시예에 따라 거리 변환 요소에 기초하여 이미지 패치 또는 주파수 패치의 사이즈를 변경하고, 서로 다른 특징들에 기초하여 예비 추적점들을 융합함으로써, 장치(100)와 대상체 사이에 거리 변화 및 주위 환경 변화를 반영하여 대상체를 추적할 수 있음을 의미한다.In addition, from Table 1, it can be seen that the RMS error of the third method is lower than that of the first method-2 method. This is achieved by changing the size of an image patch or a frequency patch based on a distance conversion factor according to the present embodiment, and fusing preliminary tracking points based on different characteristics, thereby changing the distance between the
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to
100: 장치
110: 이미지 센서
120: 거리측정기
130: 프로세서100: device
110: image sensor
120: range finder
130: processor
Claims (12)
서로 다른 종류의 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하는 단계;
거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하는 단계;
상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하는 단계;
상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하는 단계;
상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하는 단계;
상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하는 단계;
상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하는 단계;
상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하는 단계;
상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하는 단계; 및
상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하는 단계를 포함하고,
상기 복수의 현재 이미지 프레임들을 획득하는 단계는,
CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서 중 2개 이상을 포함하는 상기 서로 다른 종류의 복수의 이미지 센서들로부터 상기 복수의 현재 이미지 프레임들을 획득하는 단계를 포함하고,
상기 복수의 예비 추적점들 중 상기 적어도 하나의 예비 추적점을 선택하는 단계는,
상기 복수의 PSR 중 어느 하나의 PSR이 미리 결정된 기준값보다 작으면, 상기 복수의 최대 상관계수들 중 상기 어느 하나의 PSR에 대응하는 최대 상관계수를 제외하고 상기 적어도 하나의 최대 상관계수를 선택하고, 상기 복수의 예비 추적점들 중 상기 어느 하나의 PSR에 대응하는 예비 추적점을 제외하고 상기 적어도 하나의 예비 추적점을 선택하는 단계를 포함하는, 방법.A method for tracking an object, comprising:
obtaining a plurality of current image frames by obtaining a current image frame from each of a plurality of image sensors of different types;
obtaining a current distance by measuring a distance to an object using a range finder;
obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance;
generating a plurality of current frequency patches by converting features extracted for each of the plurality of current image patches into a frequency domain;
generating a plurality of correlation coefficient patches by obtaining correlation coefficients for each of the plurality of current frequency patches with a corresponding model frequency patch from among a plurality of previously generated model frequency patches;
obtaining a plurality of maximum correlation coefficients by determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches;
obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients;
obtaining a plurality of PSRs by calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches;
selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs; and
determining a current tracking point by calculating a weighted average for the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient;
Obtaining the plurality of current image frames comprises:
obtaining the plurality of current image frames from the plurality of different types of image sensors comprising at least two of a CCD image sensor, a gray scale image sensor, a MWIR image sensor, and a SWIR image sensor;
The step of selecting the at least one preliminary tracking point from among the plurality of preliminary tracking points includes:
If any one of the plurality of PSRs is smaller than a predetermined reference value, the at least one maximum correlation coefficient is selected, excluding the maximum correlation coefficient corresponding to the one of the plurality of maximum correlation coefficients, and selecting the at least one preliminary tracking point excluding the preliminary tracking point corresponding to the one PSR from among the plurality of preliminary tracking points.
상기 복수의 현재 이미지 패치들을 결정하는 단계는,
미리 결정된 기준 이미지 프레임에 대응하여 상기 대상체까지의 거리를 측정함으로써 획득된 기준 거리에 대한 상기 현재 거리의 비율을 계산함으로써, 거리 변화 요소를 획득하는 단계; 및
상기 기준 이미지 프레임의 서브셋인 기준 이미지 패치의 사이즈인 기준 사이즈와 상기 거리 변화 요소를 곱함으로써, 상기 복수의 현재 이미지 패치들의 사이즈인 현재 사이즈를 결정하는 단계를 포함하는, 방법.7. The method of claim 6,
Determining the plurality of current image patches comprises:
obtaining a distance change factor by calculating a ratio of the current distance to a reference distance obtained by measuring a distance to the object corresponding to a predetermined reference image frame; and
determining a current size, which is the size of the plurality of current image patches, by multiplying the distance varying factor by a reference size that is a size of a reference image patch that is a subset of the reference image frame.
상기 복수의 상관계수 패치들을 획득하는 단계는,
상기 복수의 현재 주파수 패치들의 사이즈와 동일하도록 상기 복수의 모델 주파수 패치들의 사이즈를 변경하는 단계를 포함하는, 방법.7. The method of claim 6,
The step of obtaining the plurality of correlation coefficient patches,
changing the size of the plurality of model frequency patches to be the same as the size of the plurality of current frequency patches.
상기 복수의 상관계수 패치들을 획득하는 단계는,
상기 복수의 현재 주파수 패치들 각각에 대해, 대응하는 모델 주파수 패치와의 원소들 간의 곱(element-wise product)을 공간 영역으로 변환함으로써, 상기 복수의 상관계수 패치들을 획득하는 단계를 포함하는, 방법.7. The method of claim 6,
The step of obtaining the plurality of correlation coefficient patches,
obtaining, for each of the plurality of current frequency patches, the plurality of correlation coefficient patches by transforming an element-wise product between elements with a corresponding model frequency patch into a spatial domain; .
상기 적어도 하나의 예비 추적점을 선택하는 단계는,
상기 복수의 PSR 중 기준값을 초과하는 PSR에 대응하는 최대 상관계수 및 예비 추적점을 선택하는 단계를 포함하는, 방법.7. The method of claim 6,
The step of selecting the at least one preliminary tracking point comprises:
and selecting a maximum correlation coefficient and a preliminary tracking point corresponding to a PSR exceeding a reference value among the plurality of PSRs.
서로 다른 종류의 복수의 이미지 센서들;
거리측정기; 및
프로세서를 포함하고,
상기 프로세서는,
상기 서로 다른 종류의 복수의 이미지 센서들 각각으로부터 현재 이미지 프레임을 획득함으로써, 복수의 현재 이미지 프레임들을 획득하고,
거리측정기를 이용하여 대상체까지의 거리를 측정함으로써, 현재 거리를 획득하고,
상기 현재 거리에 기초하여, 상기 복수의 현재 이미지 프레임들 각각에 대해 서브셋인 현재 이미지 패치를 결정함으로써, 복수의 현재 이미지 패치들을 획득하고,
상기 복수의 현재 이미지 패치들 각각에 대해 추출된 특징을 주파수 영역으로 변환함으로써, 복수의 현재 주파수 패치들을 생성하고,
상기 복수의 현재 주파수 패치들 각각에 대해, 미리 생성된 복수의 모델 주파수 패치들 중 대응하는 모델 주파수 패치와의 상관계수들을 획득함으로써, 복수의 상관계수 패치들을 생성하고,
상기 복수의 상관계수 패치들 각각에 대해 최대값을 갖는 상관계수를 결정함으로써, 복수의 최대 상관계수들을 획득하고,
상기 복수의 최대 상관계수들에 대응하는 픽셀들의 위치들로부터 복수의 예비 추적점들을 획득하고,
상기 복수의 상관계수 패치들 각각에 대해 PSR(peak to sidelobe ratio)을 계산함으로써, 복수의 PSR을 획득하고,
상기 복수의 PSR에 기초하여, 상기 복수의 최대 상관계수들 중 적어도 하나의 최대 상관계수를 선택하고 상기 복수의 예비 추적점들 중 적어도 하나의 예비 추적점을 선택하고,
상기 선택된 적어도 하나의 최대 상관계수를 이용하여, 상기 선택된 적어도 하나의 예비 추적점에 대한 가중 평균을 계산함으로써, 현재 추적점을 결정하도록 구성되고,
상기 서로 다른 종류의 복수의 이미지 센서들은 CCD 이미지 센서, 그레이 스케일 이미지 센서, MWIR 이미지 센서, 및 SWIR 이미지 센서 중 2개 이상을 포함하고,
상기 프로세서는,
상기 복수의 PSR 중 어느 하나의 PSR이 미리 결정된 기준값보다 작으면, 상기 복수의 최대 상관계수들 중 상기 어느 하나의 PSR에 대응하는 최대 상관계수를 제외하고 상기 적어도 하나의 최대 상관계수를 선택하고, 상기 복수의 예비 추적점들 중 상기 어느 하나의 PSR에 대응하는 예비 추적점을 제외하고 상기 적어도 하나의 예비 추적점을 선택하도록 구성된, 장치.A device for tracking an object, comprising:
a plurality of different types of image sensors;
rangefinder; and
including a processor;
The processor is
obtaining a plurality of current image frames by obtaining a current image frame from each of the plurality of image sensors of different types;
Obtain the current distance by measuring the distance to the object using a range finder,
obtaining a plurality of current image patches by determining a subset current image patch for each of the plurality of current image frames based on the current distance;
generating a plurality of current frequency patches by transforming the extracted features for each of the plurality of current image patches into a frequency domain;
For each of the plurality of current frequency patches, by obtaining correlation coefficients with a corresponding model frequency patch from among a plurality of model frequency patches generated in advance, a plurality of correlation coefficient patches are generated,
By determining a correlation coefficient having a maximum value for each of the plurality of correlation coefficient patches, a plurality of maximum correlation coefficients is obtained,
obtaining a plurality of preliminary tracking points from positions of pixels corresponding to the plurality of maximum correlation coefficients;
By calculating a peak to sidelobe ratio (PSR) for each of the plurality of correlation coefficient patches, a plurality of PSRs is obtained,
selecting at least one maximum correlation coefficient from among the plurality of maximum correlation coefficients and selecting at least one preliminary tracking point from among the plurality of preliminary tracking points based on the plurality of PSRs;
determine a current tracking point by calculating a weighted average for the selected at least one preliminary tracking point using the selected at least one maximum correlation coefficient;
The different types of the plurality of image sensors include at least two of a CCD image sensor, a gray scale image sensor, a MWIR image sensor, and a SWIR image sensor,
The processor is
If any one of the plurality of PSRs is smaller than a predetermined reference value, the at least one maximum correlation coefficient is selected, excluding the maximum correlation coefficient corresponding to the one of the plurality of maximum correlation coefficients, and select the at least one preliminary tracking point except for the preliminary tracking point corresponding to the one of the plurality of preliminary tracking points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200015202A KR102318397B1 (en) | 2020-02-07 | 2020-02-07 | Object tracking method and device that is robust against distance and environment change |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200015202A KR102318397B1 (en) | 2020-02-07 | 2020-02-07 | Object tracking method and device that is robust against distance and environment change |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210101057A KR20210101057A (en) | 2021-08-18 |
KR102318397B1 true KR102318397B1 (en) | 2021-10-27 |
Family
ID=77464550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200015202A KR102318397B1 (en) | 2020-02-07 | 2020-02-07 | Object tracking method and device that is robust against distance and environment change |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102318397B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160239982A1 (en) | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
KR101980653B1 (en) * | 2018-07-19 | 2019-05-21 | 한화시스템 주식회사 | Target detecting and tracking method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101901487B1 (en) * | 2015-12-28 | 2018-09-28 | 전자부품연구원 | Real-Time Object Tracking System and Method for in Lower Performance Video Devices |
KR102275452B1 (en) * | 2017-03-16 | 2021-07-12 | 한국전자통신연구원 | Method for tracking image in real time considering both color and shape at the same time and apparatus therefor |
-
2020
- 2020-02-07 KR KR1020200015202A patent/KR102318397B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160239982A1 (en) | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
KR101980653B1 (en) * | 2018-07-19 | 2019-05-21 | 한화시스템 주식회사 | Target detecting and tracking method |
Non-Patent Citations (1)
Title |
---|
Massimo Camplani 등, Real-time RGB-D Tracking with Depth Scaling Kernelised Correlation Filters and Occlusion Handling, BMVC2015.(2015.09.07.)* |
Also Published As
Publication number | Publication date |
---|---|
KR20210101057A (en) | 2021-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8569684B2 (en) | Infrared sensor control architecture | |
US8855412B2 (en) | Systems, methods, and apparatus for image processing, for color classification, and for skin color detection | |
Lin et al. | Radiometric calibration from a single image | |
Lin et al. | Determining the radiometric response function from a single grayscale image | |
US11010878B2 (en) | Dynamic range compression for thermal video | |
US8111302B2 (en) | White balance control apparatus and method | |
US8629919B2 (en) | Image capture with identification of illuminant | |
WO2016088293A1 (en) | Imaging device, apparatus, and imaging method | |
CN111837155A (en) | Image processing method and apparatus | |
EP2795904B1 (en) | Method and system for color adjustment | |
CA3044988A1 (en) | Systems, methods and computer programs for colorimetric mapping | |
TW201830337A (en) | Method and device for performing automatic white balance on an image | |
US11323618B2 (en) | Method for displaying a model of a surrounding area, control unit and vehicle | |
CN110999283B (en) | Image forming apparatus, image forming method, and storage medium | |
US20210281735A1 (en) | Systems and methods for exposure control | |
KR102318397B1 (en) | Object tracking method and device that is robust against distance and environment change | |
US20230342977A1 (en) | Method for Determining Chromaticity Information and Related Electronic Device | |
Heim et al. | Low-light-level EMCCD color camera | |
Olumodeji et al. | Estimating illuminant chromaticity with a low-power color pixel | |
Tektonidis et al. | Evaluation of a HDR image sensor with logarithmic response for mobile video-based applications | |
Kang et al. | Illumination-invariant target color detection for EMCCD camera | |
CN116724564A (en) | Image sensor, image data acquisition method, and imaging apparatus | |
Torres Arjona | Correction of the colour variations under uncontrolled lighting conditions | |
Scene | Typical Imaging Pipeline (1) | |
Abdellatif | Color Constancy Using a Global Nose Camera Attachment. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |