KR20140103023A - Method and electronic device for processing object - Google Patents
Method and electronic device for processing object Download PDFInfo
- Publication number
- KR20140103023A KR20140103023A KR1020130145715A KR20130145715A KR20140103023A KR 20140103023 A KR20140103023 A KR 20140103023A KR 1020130145715 A KR1020130145715 A KR 1020130145715A KR 20130145715 A KR20130145715 A KR 20130145715A KR 20140103023 A KR20140103023 A KR 20140103023A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- objects
- image information
- movement
- value
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
Abstract
Description
본 개시는 전자 장치에서 이미지 상의 객체를 처리하는 것에 관한 것이다.This disclosure relates to processing objects on an image in an electronic device.
최근 들어, 단말기는 하드웨어 기술의 발달을 기반으로 다양한 사용자 기능을 운용할 수 있도록 지원하고 있다. 예컨대 이미지 수집 기능은 단말기의 중요한 기능 중 하나로 자리 잡고 있다. 이에 따라 이미지 수집 기능과 관련하여 보다 다양한 사용자 기능의 활용성 및 확장성에 대한 연구가 활발히 진행되고 있다.In recent years, handsets have been supporting various user functions based on the development of hardware technology. For example, the image gathering function is one of the important functions of the terminal. As a result, studies on the usability and scalability of a variety of user functions related to the image collecting function have been actively conducted.
본 개시의 다수의 실시 예에 따르면, 본 개시는 개선된 객체 처리 기능을 제공할 수 있다.According to many embodiments of the present disclosure, this disclosure may provide improved object processing functionality.
본 개시의 실시 예에 따르면, 수집된 이미지 정보에서 객체들의 이동 통일성을 검출하는 검출 과정, 상기 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 처리 과정을 포함하는 것을 특징으로 하는 객체 처리 방법의 구성을 개시한다.According to an embodiment of the present disclosure, there is provided an image processing method comprising the steps of: detecting movement uniformity of objects in collected image information; and processing the movement application of the objects differently according to the size of the mobile unity. Method of the present invention.
본 개시는 또한, 수집된 이미지 정보 수신을 지원하는 입력 제어 모듈, 상기 입력 제어 모듈이 제공한 이미지 정보를 인식하는 인식 모듈, 인식된 이미지 정보에서 객체를 추출하는 객체화 모듈, 상기 객체화 모듈이 제공하는 객체들의 이동을 추적하는 객체 추적 모듈을 포함하고, 상기 객체 추적 모듈은 수집된 이미지 정보에서 객체들의 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 것을 특징으로 하는 객체 처리 장치의 구성을 개시한다.The present disclosure also relates to a method and system for providing an object control module, including an input control module for supporting the reception of collected image information, a recognition module for recognizing image information provided by the input control module, an objectification module for extracting objects from the recognized image information, And an object tracking module for tracking movement of the objects, wherein the object tracking module processes the application of the objects differently according to the magnitude of the movement uniformity of the objects in the collected image information. .
본 개시는 또한, 수집된 이미지 정보에서 객체들의 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 객체 처리 장치가 장착된 메인 유닛, 상기 메인 유닛에 입력 정보를 제공하는 입력부, 상기 메인 유닛의 데이터 처리를 위한 메모리, 씨피유, 지피유 중 적어도 하나, 상기 이미지 정보 출력을 지원하는 비디오 출력부를 포함하는 것을 특징으로 하는 전자 장치의 구성을 개시한다.The present disclosure also relates to an image processing apparatus including a main unit equipped with an object processing apparatus for processing the application of moving objects differently according to the magnitude of the mobility of objects in the collected image information, an input unit providing input information to the main unit, And a video output unit for outputting the image information, wherein the video output unit includes at least one of a memory, a CPU, and a digital watermark for data processing of the image data.
본 개시는 또한, 이전 이미지 정보 및 현재 이미지 정보 간의 위상 상관 연산 수행 결과의 평가 결과를 기반으로 객체들의 이동 통일성을 결정하고, 상기 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 전자 장치, 상기 객체들의 이동 처리된 위치에 출력할 컨텐츠를 저장하는 원격 컨텐츠 데이터베이스를 포함하는 서버 장치를 포함하는 것을 특징으로 하는 객체 처리 시스템의 구성을 개시한다.The present disclosure also relates to an electronic device for determining the mobility uniformity of objects based on an evaluation result of phase correlation results between previous image information and current image information and for differently applying the mobility application of the objects according to the magnitude of the mobility uniformity And a remote content database for storing contents to be output at the moved positions of the objects.
이상에서 살펴본 바와 같이 본 개시에 따르면, 본 개시는 개선된 객체 처리 기능을 지원할 수 있다.As discussed above, according to the present disclosure, this disclosure can support improved object processing functionality.
도 1은 본 개시의 실시 예에 따른 객체 추적 기능을 지원하는 객체 처리 장치의 구성을 개략적으로 나타낸 도면.
도 2는 도 1의 구성 중 트래킹 모듈의 구성을 보다 상세히 나타낸 도면.
도 3은 본 개시의 실시 예에 따른 객체 추적 방법을 설명하기 위한 도면.
도 4는 도 3의 제1 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 5는 도 3의 제2 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 6은 도 3의 제3 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 7은 본 개시의 실시 예에 따른 객체 추적 기능 수행 중 적용되는 근사화 기능을 설명하기 위한 도면.
도 8은 본 개시의 객체 추적 기능을 지원하는 시스템 구성을 개략적으로 나타낸 도면.
도 9는 도 8의 구성들의 블록 다이어그램.
도 10은 본 개시의 객체 처리 장치가 적용될 수 있는 전자 장치 구성의 일예를 개략적으로 나타낸 도면.
도 11은 본 개시의 객체 처리 장치가 적용될 수 있는 플랫폼의 구성을 예시적으로 나타낸 도면.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 schematically illustrates a configuration of an object processing apparatus supporting an object tracking function according to an embodiment of the present disclosure; FIG.
FIG. 2 is a detailed view of the configuration of the tracking module of FIG. 1; FIG.
3 is a diagram for explaining an object tracking method according to an embodiment of the present disclosure;
FIG. 4 is a view for explaining an object tracking situation according to the first embodiment of FIG. 3; FIG.
FIG. 5 is a view for explaining an object tracking situation according to the second embodiment of FIG. 3; FIG.
FIG. 6 is a view for explaining an object tracking situation according to the third embodiment of FIG. 3; FIG.
FIG. 7 is a diagram for explaining an approximation function applied during an object tracking function according to an embodiment of the present disclosure; FIG.
8 is a diagram schematically illustrating a system configuration supporting the object tracking function of the present disclosure;
Figure 9 is a block diagram of the arrangements of Figure 8;
10 schematically shows an example of an electronic device configuration to which an object processing apparatus of the present disclosure can be applied;
11 is a diagram exemplarily showing a configuration of a platform to which an object processing apparatus of the present disclosure can be applied;
이하, 본 개시의 실시 예를 첨부된 도면에 의거하여 상세히 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
실시 예를 설명함에 있어서 본 개시가 속하는 기술분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명을 생략하도록 한다.In describing the embodiments, descriptions of techniques which are well known in the art to which this disclosure belongs and which are not directly related to the present disclosure are omitted. In addition, detailed description of components having substantially the same configuration and function will be omitted.
마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 개시는 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.For the same reason, some of the elements in the accompanying drawings are exaggerated, omitted, or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present disclosure is not limited by the relative size or spacing depicted in the accompanying drawings.
도 1은 본 개시의 실시 예에 따른 객체 추적 기능을 지원하는 객체 처리 장치의 구성을 나타낸 도면이다. 이하에서 설명하는 본 개시의 객체 처리 장치는 획득된 이미지에 포함된 요소들 중 특정 객체를 인식할 수 있다. 그리고 본 개시의 객체 처리 장치는 인식된 객체를 보다 원활하게 추적할 수 있도록 지원한다. 이러한 객체 처리 장치는 다양한 이미지 처리 기술에 적용될 수 있다. 이하 설명에서는 객체 처리 장치가 AR 기능을 지원하는 과정을 기준으로 설명하기로 한다. 이에 따라, 객체 처리 장치는 AR 처리 장치(Augmented Reality Processing Device)의 적어도 일부가 될 수 있다.1 is a block diagram illustrating an object processing apparatus supporting an object tracking function according to an embodiment of the present disclosure. The object processing apparatus of the present disclosure described below can recognize a specific one of the elements included in the acquired image. The object processing apparatus of the present disclosure supports the tracking of recognized objects more smoothly. Such an object processing apparatus can be applied to various image processing techniques. The following description will be made based on a process in which the object processing apparatus supports the AR function. Accordingly, the object processing apparatus can be at least a part of an Augmented Reality Processing Device.
도 1을 참조하면, 본 개시의 객체 처리 장치(100)는 입력 제어 모듈(110)(Control Module), 인식 모듈(120)(recognition Module), 객체화 모듈(130)(Localization Module), 객체 추적 모듈(140)(Tracking Module)을 포함할 수 있다.1, the
상술한 객체 처리 장치(100)는 획득된 입력 정보 중 이미지 정보에 대한 이미지 처리를 수행할 수 있다. 이 과정에서 객체 처리 장치(100)는 이미지에 포함된 객체의 추적 기능을 지원할 수 있다. 특히 객체 처리 장치(100)는 객체 추적 기능 지원 시 지능적 이동 적용을 지원할 수 있다. 지능적 이동 적용은 이미지에 포함된 객체들의 이동 통일성(reliability) 결과에 따라 추가적인 객체 이동 연산 수행 여부를 결정하는 절차를 포함할 수 있다. 이를 기반으로 객체 처리 장치(100)는 이미지에 포함된 객체들의 실질적인 이동성을 보다 정확히 판단할 수 있다. 그리고 객체 처리 장치(100)는 실제 객체들의 이동에 따라 증강 현실 컨텐츠 적용을 수행할 수 있다.The
입력 제어 모듈(110)은 객체 처리 장치(100)에 제공되는 입력 정보를 분류할 수 있다. 그리고 입력 제어 모듈(110)은 현재 객체 처리 장치(100)의 기능 수행 상태에 따라 입력 정보의 전달루트를 결정할 수 있다. 예컨대 입력 제어 모듈(110)은 초기 이미지 정보가 획득되면 해당 이미지 정보를 인식 모듈(120)에 제공할 수 있다. 이미지 정보는 객체 처리 장치(100)와 연결된 이미지 센서 또는 객체 처리 장치(100)를 포함한 단말기에 배치된 이미지 센서로부터 획득될 수 있다.The
입력 제어 모듈(110)은 인식 모듈(120)에 의한 이미지 인식 과정 및 객체화 모듈(130)에 의하여 객체 구분 과정이 완료되면 이미지 정보를 직접 객체 추적 모듈(140)에 전달할 수 있다. 또는 입력 제어 모듈(110)은 이미지 정보를 인식 모듈(120) 및 객체 추적 모듈(140)에 동시에 전달할 수 있다. 이에 따라 이미지 정보에 대한 인식 처리 및 객체 추적 처리는 병렬적으로 수행될 수도 있다.The
입력 제어 모듈(110)은 객체 추적 기능 수행 중인 경우 이미지 정보를 인식 모듈(120)에 제공하지 않도록 제어할 수도 있다. 그리고 입력 제어 모듈(110)은 객체 추적에 실패한 경우 이미지 정보를 인식 모듈(120)에 다시 제공하도록 지원할 수 있다. 또한 입력 제어 모듈(110)은 AR 컨텐츠가 추적 중인 객체들에 적용되는 경우 다른 입력 정보들 예컨대 오디오 정보나 센서 정보 등을 객체 추적 모듈(140)에 제공할 수 있다. The
인식 모듈(120)은 입력 제어 모듈(110)로부터 이미지 정보를 수신하면 이에 대한 인식 과정을 수행할 수 있다. 즉 인식 모듈(120)은 수신된 이미지 정보에서 특징 검출(Feature Detection), 디스크립터 계산(Descriptors calculation), 이미지 쿼리(image query) 과정을 수행할 수 있다. When the
특징 검출은 필터링 과정을 거친 이미지 정보에서 추출되는 특징점들의 수집과정이 될 수 있다. 이때 특징 검출은 객체 처리 장치(100)에 적용할 다양한 필터링 정보들에 의하여 다양한 양상으로 수행될 수 있다. 예컨대 특징 검출 과정에서 인식 모듈(120)은 이미지 정보에 대한 이산화 과정을 수행할 수 있다. 그리고 인식 모듈(120)은 이산화된 정보들에 대하여 사전 정의된 특정 알고리즘을 적용하여 일정 특징들이 남도록 처리할 수 있다.Feature detection can be a collection process of feature points extracted from image information that has undergone a filtering process. At this time, the feature detection can be performed in various aspects according to various filtering information to be applied to the
디스크립터는 검출된 특징점들을 기반으로 산출된 해당 이미지 정보의 고유 특성을 정의한 정보가 될 수 있다. 이러한 디스크립터는 이미지 정보에서 일정 부분별로 특징점들의 위치나 특징점들 간의 배치 형태, 특징점들의 고유 특성 중 적어도 하나에 의하여 정의될 수 있다. 즉 디스크립터는 이미지 정보의 일정 지점의 고유 특성을 간략화한 값이 될 수 있다. 따라서 디스크립터는 하나의 이미지 정보에서 적어도 하나가 추출될 수 있다. The descriptor may be information that defines the characteristic of the corresponding image information calculated based on the detected feature points. Such a descriptor can be defined by at least one of the location of the feature points, the arrangement form between the feature points, and the intrinsic characteristics of the feature points in a predetermined part of the image information. That is, the descriptor may be a value obtained by simplifying the characteristic of a certain point of the image information. Therefore, at least one of the descriptors can be extracted from one piece of image information.
디스크립터 계산이 완료되면 인식 모듈(120)은 이미지 쿼리 과정을 통하여 참조 데이터와의 비교를 수행할 수 있다. 즉 인식 모듈(120)은 계산된 디스크립터들과 동일한 디스크립터 또는 일정 오차 범위 이내에 있는 디스크립터들을 가지는 참조 데이터가 있는지 확인할 수 있다. 참조 데이터는 객체 처리 장치(100) 운용을 위해 마련된 내부 저장 장치로부터 제공될 수 있다. 또는 참조 데이터는 객체 처리 장치(100) 운용을 위해 외부 저장 장치 예컨대 별도 서버 장치 등으로부터 제공될 수도 있다. 참조 데이터는 특정 이미지에 대하여 사전에 저장된 또는 현재 처리 중인 이미지 정보 획득 직전에 저장된 이미지 정보가 될 수 있다. 예컨대, 얼굴 인식은 인증된 얼굴들의 인식을 위해 외부 참조 얼굴 데이터베이스 요구하고 서로 다른 얼굴 차이를 확인할 수 있다. 한편 QR 코드는 일반적인 경우 극적인 정보 갱신이 수행되지 않는다. 따라서 데이터베이스의 QR 코드 인식을 위한 특정 규칙만이 요구되고 이에 따라 QR 코드는 내부 참조 데이터를 이용할 수 있다. 인식 모듈(120)은 참조 데이터의 활용을 통하여 이미지 인식 과정에 대한 연산을 간소화할 수 있다. 그리고 인식 모듈(120)은 참조 데이터를 활용하여 타겟 객체 식별을 수행할 수 있다.When the descriptor calculation is completed, the
객체화 모듈(130)은 이미지 정보를 구성하는 다양한 객체들을 구분할 수 있다. 이러한 객체화 모듈(130)은 특징 매칭(Feature Matching) 및 초기 각도 평가(Initial Pose Estimation) 단계(Operation)를 포함할 수 있다. 즉 객체화 모듈(130)은 이미지 정보에서 구분된 객체들의 특징점들을 추출할 수 있다. 그리고 객체화 모듈(130)은 특정 객체들의 특징점들을 참조 데이터의 일정 객체와 매칭할 수 있다. 이때 객체화 모듈(130)은 특징점들의 매칭 정보가 없는 경우 매칭 정보를 새로 갱신할 수 있다. 객체에 대한 특징 매칭이 완료되면 객체화 모듈(130)은 이미지 정보에 포함된 적어도 하나의 객체들의 초기 각도 평가를 수행할 수 있다. 객체화 모듈(130)은 객체 처리 장치(100)가 객체 추적 기능을 활성화하는 경우 매칭 정보 및 초기 각도 정보 중 적어도 하나를 포함하는 객체 관련 정보를 객체 추적 모듈(140)에 제공할 수 있다.The
객체 추적 모듈(140)은 인식된 타겟 객체들의 초기 각도 평가를 객체화 모듈(130)로부터 전달받는다. 그리고 객체 추적 모듈(140)은 연속적으로 타겟 객체의 각도 연산을 통해 트래킹을 유지할 수 있다. 객체 추적 모듈(140)은 객체 각도에 포함되는 인식 정보 및 객체 구분 정보의 기본 출력(basic Output)을 가질 수 있다. 특히 본 개시의 객체 추적 모듈(140)은 이미지 정보에서 객체들의 이동 통일성을 기반으로 적응적 객체 이동 연산을 적용할 수 있다. 이를 위하여 객체 추적 모듈(140)은 도 2에 도시된 바와 같은 구성을 포함할 수 있다.The
이하에서 설명하는 객체 추적 모듈(140)은 복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하는 동작을 수행하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함할 수 있다. 이 경우 객체 추적 모듈(140)은 상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하는 동작, 상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하는 동작 및 상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하는 동작을 수행할 수 있다. 그리고 객체 추적 모듈(140)의 추적하는 동작은 상기 분산 값의 적어도 일부를 이용하여, 상기 적어도 하나의 객체를 추적하는 동작을 다르게 수행하는 동작을 포함할 수 있다.The
객체 추적 모듈(140)은 상기 분산 값이 선택된 값 미만 또는 이하인 경우, 제 1 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작을 수행하고, 상기 분산 값이 선택된 값 초과 또는 이상인 경우, 제 2 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작을 수행할 수 있다.The
상기 제 1 프로세스는 제 1 이미지상의 제 1 위치에 있는 적어도 하나의 객체가 제 2 이미지 상의 제 2 위치로 이동하였는지를 결정하는 동작을 수행하며, 상기 제 2 위치는 상기 피크값의 위치를 이용하여 결정될 수 있다.Wherein the first process performs an operation of determining whether at least one object at a first location on a first image has moved to a second location on a second image and wherein the second location is determined using the location of the peak value .
상기 제 1 프로세스는 상기 제 1 이미지 상의 제 1 위치의 영역과 상기 제 2 이미지 상의 제 2 위치의 영역 간의 픽셀 상관관계 (pixel correlation)를 결정하는 동작을 포함할 수 있다. 여기서 상기 제 1 프로세스는 상기 픽셀 상관관계가 선택된 값 이상 또는 초과인 경우, 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동한 것으로 결정할 수 있다. 그리고 제1 프로세스는 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동하지 않은 것으로 결정된 경우, 상기 피크 값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행할 수 있다.The first process may include determining a pixel correlation between a region of a first location on the first image and a region of a second location on the second image. Wherein the first process may determine that the at least one object has moved from the first position to the second position if the pixel correlation is greater than or equal to a selected value. And the first process may perform tracking of the at least one object separately from the position of the peak value if it is determined that the at least one object has not moved from the first position to the second position.
상기 피크 값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작은 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 동작이 될 수 있다. Performing tracking of the at least one object separately from the position of the peak value may be an operation of performing a phase correlation operation on each of the at least one object with respect to the first image and the second image.
한편, 상기 제 2 프로세스는 상기 피크 값의 위치와 별도로 상기 적어도 하나의 객체의 추적을 수행하는 동작을 하는데 이때 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행할 수 있다. 위에서 설명한 적어도 하나의 객체 각각에 대한 위상 상관 연산을 수행하는 동작은 상기 적어도 하나의 객체를 선택된 형태로 근사화될 수 있다.Wherein the second process is to perform tracking of the at least one object separately from the position of the peak value, wherein a phase correlation operation for each of the at least one object is performed on the first image and the second image Can be performed. Performing a phase correlation operation on each of the at least one object described above may be approximated to a selected form of the at least one object.
이상에서 설명한 객체 추적 모듈(140)의 각 프로세스에 대하여 이하에서는 예시적으로 일정 구성에 대응하는 명칭을 부여하고 각 구성들의 동작 수행에 대하여 설명하기로 한다.Hereinafter, each process of the
도 2는 도 1에서의 구성 중 객체 추적 모듈(140)의 구성을 보다 상세히 나타낸 도면이다.FIG. 2 is a diagram illustrating the structure of the
도 2를 참조하면, 객체 추적 모듈(140)은 객체 각도 예측부(141)(Object Pose Prediction unit), 특징 검출부(142)(Feature detection unit), 디스크립터 연산부(143)(Descriptors calculation unit), 특징 매칭부(144)(Feature matching unit) 및 각도 평가부(145)(Pose estimation unit)를 포함할 수 있다.2, the
객체 각도 예측부(141)는 이미지 정보에 포함된 적어도 하나의 객체의 각도(Pose)를 예측(Prediction)할 수 있다. 객체 각도 예측부(141)는 객체화 모듈(130)로부터 이미지 정보에 포함된 적어도 하나의 객체들에 대한 초기 각도 평가 값을 전달받을 수 있다. 이에 따라 객체 각도 예측부(141)는 객체들의 초기 각도 평가 값을 기반으로 이미지 정보에 포함된 객체들의 이동에 따른 객체 각도를 예측할 수 있다. 즉 객체 각도 예측부(141)는 초기 각도 평가 값을 기반으로 이미지 정보에 포함된 적어도 하나의 객체들이 어느 위치 및/또는 어떠한 방향이나 각도로 이동 했는지를 예측할 수 있다. The object
이를 보다 상세히 설명하면, 객체 각도 예측부(141)는 이전 획득된 이미지 정보와 현재 획득된 이미지 정보를 비교하여 전체적인 이미지 정보의 이동 정도 즉 이동 거리와 이동 방향, 이동 각도 중 적어도 하나를 산출할 수 있다. 그리고 객체 각도 예측부(141)는 산출된 이동 정도를 기반으로 이미지 정보에 포함된 적어도 하나의 객체 이동을 예측할 수 있다. 예컨대 객체 각도 예측부(141)는 이전 프레임과 현재 프레임 간의 위상 상관 연산(Phase correlation)을 수행할 수 있다. 이때 객체 각도 예측부(141)는 FFT(Fast Fourier transform) 알고리즘을 적용하여 위상 상관 연산을 수행할 수 있다. 객체 각도 예측은 실시간으로 수행될 수 있다. More specifically, the object
한편 본 개시의 객체 각도 예측부(141)는 이전 프레임과 현재 프레임들에 포함된 각 객체들의 이동 통일성(reliability) 검사를 수행할 수 있다. 객체 각도 예측부(141)는 이동 통일성 판단을 위해 프레임들의 위상 상관 연산의 분산 값을 산출할 수 있다. 위상 상관 연산의 분산 값이 사전 정의된 일정 값 이내이며 각 객체들의 이동 방향성이 유효한 경우 객체 각도 예측부(141)는 이미지 정보에 포함된 객체들이 예측된 위치로 이동한 것으로 예측할 수 있다. 이에 따라 객체 각도 예측부(141)는 위상 상관 연산을 통한 이동 거리, 방향, 각도 예측을 적용하도록 제어할 수 있다. 여기서 객체들의 이동 예측과 실제 이동이 일치되는 경우 객체 각도 예측부(141)는 객체 이동이 유효한 것으로 판단할 수 있다. 객체들의 이동 방향에 대한 유효성은 각도 평가부(145)로부터 제공받을 수 있다. Meanwhile, the object
객체 각도 예측부(141)는 위상 상관 연산의 분산 값이 사전 정의된 일정 값 범위 이내이지만 각 객체들의 이동 방향성이 유효하지 않은 경우 객체들의 실제 이동 방향을 검출하도록 제어할 수 있다. 이때 객체 각도 예측부(141)는 이동 방향성이 유효하지 않은 객체들만을 지정하여 위상 상관 연산을 수행하거나 또는 전체 객체들의 위상 상관 연산을 수행하도록 제어할 수 있다.The object
한편 객체 각도 예측부(141)는 위상 상관 연산의 분산 값이 사전 정의된 일정 값을 벗어난 경우 객체들의 이동 방향이 일치되지 않는 것으로 예측할 수 있다. 이 경우 객체 각도 예측부(141)는 이미지 정보에 포함된 각 객체들에 대한 위상 상관 연산을 수행할 수 있다. 그리고 객체 각도 예측부(141)는 위상 상관 연산 결과를 기반으로 이동 거리와 방향을 예측할 수 있다.On the other hand, the object
객체 각도 예측부(141)에 의한 객체 이동 예측이 완료되면 특징 검출부(142)는 현재 획득된 이미지 정보의 특징을 검출할 수 있다. 특징 검출부(142)가 수행하는 이미지 정보의 특징 검출은 인식 모듈(120)에서 수행되는 특징 검출과 동일한 과정이 적용될 수 있다. 또는 특징 검출부(142)가 수행하는 특징 검출 과정은 인식 모듈(120)에 비하여 보다 간소화된 특징 검출이 될 수 있다. 즉 특징 검출부(142)는 객체의 이동 추적을 지원하기 위하여 인식 모듈(120)에서 수행된 특징 검출에 비하여 상대적으로 보다 적은 특징점 개수 추출 또는 보다 적은 영역의 특징점 추출을 수행할 수 있다.When the object
디스크립터 연산부(143)는 특징 검출 결과를 토대로 디스크립터를 연산할 수 있다. 디스크립터 연산부(143)는 객체 추적 모듈(140)의 특징 검출부(142)에서 검출한 특징점들을 기반으로 디스크립터를 연산할 수 있다. 여기서 디스크립터는 이미지 정보 상에 배치된 일정 영역 또는 일정 개수의 특징점들에 의해 정의될 수 있다. 디스크립터 연산부(143)는 디스크립터 연산이 완료되면 해당 결과를 특징 매칭부(144)에 제공할 수 있다.The descriptor
특징 매칭부(144)는 디스크립터 연산부(143)에 의해 계산된 디스크립터를 기반으로 특징 매칭을 수행할 수 있다. 즉 특징 매칭부(144)는 이전 프레임의 일정 위치의 특징점들로 구성된 디스크립터와 현재 프레임의 일정 위치의 특징점들로 구성된 디스크립터 간의 매칭을 수행할 수 있다. The
각도 평가부(145)는 이전 프레임 및 현재 프레임 간의 디스크립터 매칭을 통하여 이미지 정보의 이동이 얼마의 각도로 어느 정도의 위치까지 발생하였는지에 대한 평가를 수행할 수 있다. 이를 기반으로 각도 평가부(145)는 특징 매칭부(144)의 디스크립터 비교를 통하여 이미지 정보에 포함된 객체들의 이동이 일치되는지를 확인할 수 있다. 이때 각도 평가부(145)는 이미지 정보에 포함된 객체들의 이동에 대한 방향이 예측된 정보와 일치되는지 검사할 수 있다.The
그리고 각도 평가부(145)는 객체들의 이동 방향이 일치되는 경우 객체들의 이동 유효 상태를 판단할 수 있다. 그리고 각도 평가부(145)는 객체 이동이 유효한 경우 위상 상관 연산 결과를 이미지 정보의 추적 처리에 적용할 수 있다. 한편 각도 평가부(145)는 객체들의 이동 방향이 일치되지 않는 경우 이미지 정보 보정을 수행할 수 있다. 각도 평가부(145)는 이동 방향이 다른 객체들만을 지정하여 해당 객체들의 방향 및 거리 보정을 수행할 수 있다. 또는 각도 평가부(145)는 현재 이미지 정보에 포함된 객체들 전체에 대하여 방향 및 거리 보정을 수행할 수 있다. The
상술한 이동 통일성 및 객체들의 이동 방향의 유효성 여부를 기반으로 한 객체 추적 기능에 대하여 도 3 내지 도 6을 참조하여 보다 상세히 설명하기로 할 수 있다.The object tracking function based on the above-described uniformity of movement and the validity of the direction of movement of objects can be described in more detail with reference to FIG. 3 to FIG.
도 3은 본 개시의 실시 예에 따른 객체 추적 방법을 설명하기 위한 도면이다. 도 4는 도 3의 제1 실시 예(“A")에 따른 객체 추적 상황, 도 5는 도 3의 제2 실시 예(“B")에 따른 객체 추적 상황 및 도 6은 도 3의 제3 실시 예(“C")에 따른 객체 추적 상황을 설명하기 위한 도면이다. 3 is a diagram for explaining an object tracking method according to an embodiment of the present disclosure. FIG. 4 shows an object tracking situation according to the first embodiment ("A") of FIG. 3, FIG. 5 shows an object tracking situation according to the second embodiment ("B" FIG. 8 is a diagram for explaining an object tracking situation according to the embodiment (" C ").
본 개시의 제1 실시 예(“A") 설명을 위해 도 3 및 도 4를 참조하면, 본 개시의 객체 추적 방법은 객체 추적 모듈(140)이 301 단계(Operation)에서 획득된 이미지 정보를 확인하여 움직임 검출이 있는지 여부를 확인할 수 있다. 이를 위하여 본 개시의 객체 추적 모듈(140)은 현재 획득된 이미지 정보와 이전 획득된 이미지 정보 간의 위상 상관 연산을 수행할 수 있다. 특히 객체 추적 모듈(140)은 현재 이미지 정보에서 사전 검출된 적어도 하나의 객체들 움직임을 검출할 수 있다. 그리고 객체 추적 모듈(140)은 객체들의 움직임이 검출되면 객체들의 이동에 따른 이미지 정보 비교를 수행할 수 있다. 3 and 4 for the purpose of describing the first embodiment ("A") of the present disclosure, the object tracking method of the present disclosure is characterized in that the
객체 추적 모듈(140)은 305 단계(Operation)에서 객체들의 이동에 따른 이미지 정보 비교 결과로서 산출된 이동 통일성이 기준 값 이상인지 확인할 수 있다. The
여기서 이동 통일성은 해당 이미지 정보에 포함된 전체 객체들의 이동 방향이 동일 또는 유사하게 이동되었는지를 확인하는 단계(Operation)가 될 수 있다. 이를 위하여 현재 이미지 정보와 이전 이미지 정보 간의 위상 상관 연산의 분산 값을 확인할 수 있다. 전체 이미지 정보에 대한 위상 상관 연산에 따른 2차원 평가 영역에서의 결과 값이 일정 지점의 피크 값으로 나타나는 경우는 상대적으로 분산 값이 낮은 경우에 해당할 수 있다. 분산 값이 낮은 경우 이동 통일성이 높은 것으로 간주될 수 있다. 그리고 전체 이미지 정보에 대한 위상 상관 연산 결과 값이 2차원 평가 영역에서 집중되지 않고 흩어져 나타나는 경우는 분산 값이 상대적으로 높은 경우에 해당할 수 있다. 분산 값이 높은 경우 이동 통일성이 낮은 것으로 간주될 수 있다. 상술한 분산 값은 일정 연산에 따라 수치로 도출될 수 있으며, 결과적으로 이동 통일성은 일정 수치에 대응하도록 간주될 수 있다. In this case, the unity of movement may be an operation for confirming whether the moving directions of all the objects included in the image information are moved in the same or similar manner. For this purpose, the variance of the phase correlation between the current image information and the previous image information can be confirmed. When the resultant value in the two-dimensional evaluation region according to the phase correlation calculation for the entire image information appears as a peak value at a certain point, it may correspond to a case where the variance value is relatively low. If the variance value is low, the uniformity of movement can be regarded as high. If the phase correlation results of the entire image information are scattered rather than concentrated in the two-dimensional evaluation region, it may correspond to a case where the variance value is relatively high. If the variance value is high, it can be regarded as low coherence. The above-described variance value can be derived as a numerical value according to a certain calculation, and as a result, the mobile coherence can be regarded as corresponding to a certain value.
한편 이동 통일성에 대한 분석을 위하여 위상 상관 연산을 사용하는 방식을 예로 하여 설명하였으나 본 개시가 이에 한정되는 것은 아니다. 즉 상술한 이동 통일성은 이미지 정보에서 추적 중인 객체들의 이동 방향이 동일 또는 유사한지에 대한 정도를 나타내는 값이다. 따라서 이미지 정보에서의 객체들의 이동 방향을 산출할 수 있는 방식이라면 본 개시의 이동 통일성을 분석하는데 이용될 수 있다. 예컨대 이미지 정보에 포함된 복수의 객체들 중 랜덤하게 선택된 또는 일정 기준으로 선택된 복수의 객체들의 이동 방향 동일성 여부에 따라 이동 통일성을 결정할 수도 있다.On the other hand, for the analysis of the uniformity of movement, a method of using phase correlation is described as an example, but the present disclosure is not limited thereto. That is, the above-mentioned mobility uniformity is a value indicating the extent to which the moving directions of the objects being tracked in the image information are the same or similar. Thus, a method capable of calculating the direction of movement of objects in image information can be used to analyze the mobile uniformity of the present disclosure. For example, the movement uniformity may be determined according to whether the plurality of objects randomly selected from the plurality of objects included in the image information or selected on a constant basis are moved in the same direction.
305 단계(Operation)에서 이동 통일성이 기준 값 이상인 경우 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들의 이동이 유효한지 여부를 확인할 수 있다. 305 단계(Operation)에서 이동 통일성이 기준 값 이상인 상태는 이미지 정보의 객체들의 이동 방향이 대체적으로 동일한 상태임을 의미할 수 있다. 한편 307 단계(Operation)의 객체들의 이동 유효성 확인 과정은 객체들의 이동 예측 정보가 유효한지를 확인하는 과정이 될 수 있다. 즉 객체 추적 모듈(140)은 앞서 설명한 바와 같이 이미지 정보에서 객체들의 이동을 예측하고, 예측 결과를 검증하는 과정을 수행할 수 있다. 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들에 대하여 예측한 이동 지점에 실제로 해당 객체가 있는지 여부를 확인하는 과정을 수행할 수 있다. 이 과정에서 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 객체들에 대하여 선별적인 객체 이동 유효성 확인을 수행할 수 있다.If the mobility uniformity is equal to or greater than the reference value in
이를 보다 상세히 설명하면, 객체 추적 모듈(140)은 이미지 정보에서 추적 중인 복수개의 객체들 중 하나 또는 그 이상의 객체들을 추적할 수 있다. 이때 객체 추적 모듈(140)은 하나 또는 그 이상의 객체들 중 주도적인 객체(Main Object)에 대한 추적을 수행할 수 있다. 주도적인 객체는 객체 추적 모듈(140)의 연산 능력에 따라 달라질 수 있다. 예컨대 주도적인 객체는 이미지 정보에서 구분되는 다수개의 객체들 중 일정 크기 이상으로 식별되는 적어도 하나의 객체가 될 수 있다. In more detail, the
객체의 구분은 이미지 정보에서 다양한 정보에 의하여 수행될 수 있다. 예컨대 이미지 정보에 하나 또는 그 이상의 경계 영역들이 포함되고, 하나 또는 그 이상의 경계 영역들에 의하여 적어도 하나의 폐곡면이 형성되는 경우 객체 추적 모듈(140)은 폐곡면을 하나의 객체로 구분할 수 있다. 또한 객체 추적 모듈(140)은 폐곡면이 아니더라도 주변 영역과 구분되는 일정 영역을 객체로 구분할 수도 있다. 또한 객체 추적 모듈(140)은 이미지 정보 분석 과정에서 그림자 영역을 가지는 일정 부분을 객체로 구분할 수 있다. 또한 객체 추적 모듈(140)은 앞서 설명한 디스크립터가 일정 개수 이상 포함된 영역 또는 디스크립터에 의하여 분석되는 영역이 일정 크기 이상이 되는 영역 등을 객체로 구분할 수 있다. Classification of objects can be performed by various information in image information. For example, if one or more boundary regions are included in the image information and at least one closed curved surface is formed by one or more boundary regions, the
본 개시에서 개시하는 객체 추적 방법은 이미지 정보 인식 및 객체화 과정을 수행하여 이미지 정보에서 객체가 구분된 상황을 가정할 수 있다. 그리고 본 개시의 객체 추적 방법은 상술한 가정 상황에서 객체들의 추적 과정을 보다 효율적으로 수행할 수 있도록 지원하는 기술을 제공할 수 있다. 따라서 본 개시의 객체 추적 방법은 앞서 언급한 객체 인식과 객체화 과정에 한정되는 것은 아니다. 즉 본 개시의 객체 추적 방법은 보다 다양한 객체 인식 및 객체화 방법 적용에 따라 객체가 구분된 상황에서 적용될 수 있을 것이다.The object tracking method disclosed in this disclosure can assume a situation in which objects are separated in image information by performing an image information recognition and objectification process. The object tracking method of the present disclosure can provide a technique for supporting the tracking process of objects more efficiently in the above-described assumption situation. Therefore, the object tracking method of the present disclosure is not limited to the above-described object recognition and objectification processes. That is, the object tracking method of the present disclosure can be applied in a situation where objects are classified according to application of various object recognition and objecting methods.
한편, 이동 통일성이 기준 값 이상이 되는 경우는 전체 객체들이 대체적으로 유사한 이동 경로를 가지는 경우에 해당할 수 있다. 특히 이미지 정보에 포함된 전체 객체들 중 상대적으로 큰 영역을 차지하는 객체들이 이동 통일성에 기여하는 가중치가 다른 객체들에 비하여 상대적으로 크게 기여하게 될 것이다. 따라서 이동 통일성이 기준 값 이상이면서 객체들의 이동이 유효하지 않은 경우는 이미지 정보에 포함된 전체 객체들 중 상대적으로 작은 영역을 가지는 객체들의 이동 방향이 다를 확률이 높다. 따라서 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들의 이동 유효성 판단을 수행할 때, 이미지 정보에 포함된 객체들 중 상대적으로 작은 영역을 가지는 객체들에 이동 유효성 판단을 수행하는 것이 바람직할 수 있다. 이를 위해 객체 추적 모듈(140)은 307 단계(Operation)에서 상대적으로 작은 영역을 가지는 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 여기서 사전 정의된 영역의 크기는 설계자의 의도에 따라 또는 실험적 결과에 따라 결정되거나 변경될 수 있다.On the other hand, when the mobility uniformity is equal to or greater than the reference value, it may correspond to a case where all the objects have substantially similar movement paths. In particular, the objects that occupy a relatively large area among the entire objects included in the image information will contribute relatively to the weight of the objects contributing to the unity of movement, as compared with other objects. Therefore, when the movement uniformity is equal to or greater than the reference value and the movement of the objects is not valid, there is a high probability that the moving directions of the objects having a relatively small area among all the objects included in the image information are different. Accordingly, when the
이미지 정보에서 주도적 객체가 없는 경우 객체 추적 모듈(140)은 각각의 추적 중인 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 주도적 객체가 없는 경우는 이미지 정보에 유사 크기의 객체들이 다수개가 배치된 상태가 될 수 있다. 유사 크기의 다수 객체들이 배치된 경우에는 어떠한 객체가 전체 이동 방향과 다른 방향으로 이동하였는지 정확히 판별할 가능성이 낮을 수 있다. 이에 따라 객체 추적 모듈(140)은 주도적 객체가 없는 경우 또는 유사한 크기들의 객체들이 배치된 경우 이동 유효성 판단을 위해 별도 객체 지정을 수행하지 않고 각각의 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 이때 객체 추적 모듈(140)은 전체 객체들에 대하여 샘플링을 수행하고, 샘플링된 객체들의 이동 유효성 판단을 기준으로 전체 객체들에 대한 이동 유효성 판단을 결정할 수도 있다.If there is no dominant object in the image information, the
307 단계(Operation)에서 예측한 지점에 이동된 객체들이 존재하면 객체 추적 모듈(140)은 객체 이동 유효성이 있는 것으로 간주하고 309 단계(Operation)에서 객체들의 이동 적용을 수행할 수 있다. 즉 객체 추적 모듈(140)은 예측된 결과가 올바른 것으로 판단하고 그에 따른 객체 추적을 적용할 수 있다. 또한 객체 추적 모듈(140)은 예측된 지점에 특정 컨텐츠 적용을 수행할 수 있다. 예컨대 객체 추적 모듈(140)은 예측된 지점에 증강 현실 적용을 위해 마련한 컨텐츠 출력을 지원할 수 있다. 상술한 305 단계(Operation) 내지 309 단계(Operation)는 도 4에 나타낸 바와 같이 이미지 정보에서 객체들의 이동이 동일한 상태에 해당할 수 있다.If there are objects moved to the predicted point in
도 4에서는 이미지 정보(40) 영역에 3개의 객체들(41, 42, 43)이 배치된 것을 예시한 것이다. 즉, 도 4에서 객체 추적 모듈(140)은 이미지 정보(40)에서 복수개의 객체들(41, 42, 43) 예컨대 배경 객체(background)(43), 제1 객체(Obj1)(41) 및 제2 객체(Obj2)(42)에 대한 추적을 수행할 수 있다. 배경 객체(43), 제1 객체(41) 및 제2 객체(42)는 이미지 정보(40)에 대한 인식 및 객체화 과정에서 선정된 것일 수 있다. 객체 추적 모듈(140)은 객체화 모듈(130)로부터 상술한 객체들(41, 42, 43)에 대한 정보를 수신할 수 있다. In FIG. 4, three
객체 추적 모듈(140)은 도 4에서와 같이 복수개의 객체들(41, 42, 43)에 대하여 추적하는 경우 복수개의 객체들(41, 42, 43)에 대한 현재 이미지 정보와 이전 이미지 정보 간의 위상 상관 연산의 분산 값 산출을 수행할 수 있다. 이동 방향이 동일 또는 유사한 객체들의 위상 상관 연산의 분산 값은 2차원 상에서 일정 지점에 집중된 값 또는 일정 지점의 피크 값으로 산출될 수 있다. 그리고 이동 방향이 다른 경우 위상 상관 연산의 분산 값은 일정 지점에 집중되지 않고 2차원 상에서 흩어진 값으로 나타날 수 있다. 이러한 특성은 앞서 설명한 바와 같이 객체들의 이동 방향에 대한 이동 통일성으로 정의될 수 있다. 따라서 도 4의 도면에서 객체들(41, 42, 43)의 이동 방향이 일치되는 것으로 가정하였기 때문에 위상 상관 연산의 분산 값 산출 시 상대적으로 높은 이동 통일성 값이 검출될 수 있다. 4, the
도 4에서 나타낸 바와 같이 배경 객체(43)와 제1 객체(41) 및 제2 객체(42)가 동일한 방향으로 이동되는 경우 객체 추적 모듈(140)은 객체들에 대한 이동 예측 결과에 따른 에러가 거의 발생하지 않는 상태에서 이동 추적을 수행할 수 있다. 또한 객체 이동 통일성이 높은 경우 예측 위치에 대한 실제 객체의 이동 매핑의 에러가 작기 때문에 연산 과정에서 그에 따른 연산량을 줄일 수 있다. 객체 이동 통일성이 높은 경우에 대한 실제 상황의 예로는 이미지 센서의 이동 또는 이미지 센서를 장착한 장치의 이동을 들 수 있다. 즉 피사체에 대응하는 이미지 상의 개별 객체들의 움직임 없이 이미지 센서 자체가 움직일 경우가 객체 이동 통일성이 높은 상황에 해당할 수 있다.4, when the
한편, 본 개시의 제2 실시 예("B") 설명을 위해 도 3 및 도 5를 참조하기로 한다. 도 3의 305 단계(Operation)에서 이동 통일성이 기준 값 이상이며 307 단계(Operation)에서 객체들의 이동 유효성이 없는 경우, 객체 추적 모듈(140)은 311 단계(Operation)로 분기하여 지정 객체들의 위상 상관 연산을 각각 수행할 수 있다. 305 단계(Operation)에서의 이동 통일성이 기준 값 이상인 경우는 앞서 설명한 바와 같이 이미지 정보에 포함된 객체들의 이동이 대체적으로 유사한 경우에 해당할 수 있다. 그리고 307 단계(Operation)에서의 객체 이동 유효성이 없는 경우는 이미지 정보에 포함된 객체들 중 적어도 하나가 전체 객체들의 이동 방향과 상이한 경우에 해당할 수 있다. 또는 객체 이동 유효성이 없는 경우는 객체 추적 과정에서 예측된 위치에 실제 객체가 위치하지 않는 경우에 해당할 수 있다. 3 and 5 for a description of the second embodiment ("B") of the present disclosure. 3, if the mobility uniformity is equal to or greater than the reference value and there is no movement validity of the objects in
객체 추적 모듈(140)은 이미지 정보에서 추적 중인 전체 객체들의 이동을 확인하고 이를 기반으로 각 객체들의 이동을 예측할 수 있다. 그리고 객체 추적 모듈(140)은 예측된 위치에 실제 객체들이 있는지를 확인할 수 있다. 이를 위하여 객체 추적 모듈(140)은 이전 이미지 정보에서 특정 객체의 위치 특징과 현재 이미지 정보의 예측된 위치의 특징을 비교할 수 있다. 그리고 이전 이미지 정보의 특정 객체의 위치 특징이 현재 이미지 정보의 예측된 위치 특징과 상이하면, 객체 추적 모듈(140)은 객체 이동 유효성이 없는 것으로 판단할 수 있다. 이 과정에서 객체 추적 모듈(140)은 앞서 설명한 적어도 하나의 디스크립터 비교를 통하여 예측된 위치에 실제 객체가 위치하는지를 확인할 수 있다. 또는 객체 추적 모듈(140)은 이미지에 대한 NCC(Normalized Cross Correlation) 비교를 수행하여 실제 객체 위치 확인을 수행할 수 있다. The
311 단계(Operation)에서 객체 추적 모듈(140)은 이미지 정보에 포함된 하나 또는 그 이상의 객체들의 위상 상관 연산을 개별적으로 수행할 수 있다. 이 과정에서 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 모든 객체들 각각에 대하여 위상 상관 연산을 수행할 수 있다. 또는 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 전체 객체들 중 일정 객체들을 지정하고, 지정된 객체들의 위상 상관 연산을 수행할 수 있다. 예컨대 객체 추적 모듈(140)은 이동 유효성이 없는 객체들을 지정하고, 지정된 객체들에 대한 위상 상관 연산을 수행할 수 있다. In
한편 객체 추적 모듈(140)은 객체 이동 유효성이 없는 경우로 판단되면, 이미지 정보에 포함된 추적 중인 객체들 중 주도적 객체들을 제외하고 상대적으로 작은 영역을 가지는 객체들만을 대상으로 개별적인 위상 상관 연산을 수행할 수 있다. 또는 객체 추적 모듈(140)은 이미지 정보에서 사전 정의된 일정 크기 이하의 영역을 가지는 객체들만을 대상으로 개별적인 위상 상관 연산을 수행할 수 있다. 이러한 적용 과정은 객체 이동 유효성 판별 기준에 따라 다르게 적용될 수 있다. 즉 추적 중인 객체들 중 선택된 특정 객체의 실제 위치와 예측 위치가 다르게 검출되어 이동 유효성이 없는 경우 객체 추적 모듈(140)은 전체 객체들에 대한 위상 상관 연산을 수행하거나 일부 객체들에 대한 위상 상관 연산을 수행할 수 있다. 이때 객체 추적 모듈(140)은 일부 객체들에 대한 위상 상관 연산을 수행하는 경우 앞서 언급한 주도적 객체를 제외한 객체들에 대한 처리 또는 일정 크기 이하의 영역을 가지는 객체들에 대한 처리를 수행할 수 있을 것이다.On the other hand, if it is determined that there is no object movement validity, the
객체 추적 모듈(140)은 이전 이미지 정보에서 이동 방향이 다른 객체에 포함된 적어도 하나의 디스크립터와 동일한 디스크립터를 현재 이미지 정보에서 검출할 수 있다. 그리고 객체 추적 모듈(140)은 매칭되는 디스크립터의 위치 확인을 통하여 실제 해당 객체의 이동 위치를 추적할 수 있다. 객체 이동 검출을 위한 위상 상관 연산 결과가 도출되면 객체 추적 모듈(140)은 313 단계(Operation)에서 결과 값에 따른 지정 객체들의 이동 보정을 수행할 수 있다. 이동 보정 수행 이후 객체 추적 모듈(140)은 이동 위치와 각도, 방향 중 적어도 하나가 보정된 객체들에 대하여 증강 현실 컨텐츠 적용을 지원할 수 있다.The
한편 객체들의 이동 유효성을 확인하는 307 단계(Operation)에서 객체 추적 모듈(140)은 전체 객체들 각각에 대한 이동 유효성을 판별하지 않고 일정 객체들의 이동 유효성만을 확인할 수 있다. 예컨대 객체 추적 모듈(140)은 307 단계(Operation)에서 일정 크기 이하의 영역을 가지는 객체들에 대해서만 이동 유효성을 확인할 수 있다. In
도 5에서는 이미지 정보(40)가 배경 객체(background)(43)와 제1 객체(Obj1)(41) 및 제2 객체(Obj2)(42)가 포함된 상황을 예시한 것이다. 이 중 제1 객체(41) 및 제2 객체(42)의 이동 방향이 전체 객체들의 이동 방향과 다른 방향이 될 수 있다. 여기서 배경 객체(43)는 이미지 정보(40)의 이동 방향 예측 시 주도적 객체로서 작용할 수 있다. 그리고 상대적으로 배경 객체(43)에 비하여 작은 영역을 가지는 제1 객체(41) 및 제2 객체(42)는 이동 유효성 판단을 위한 객체들이 될 수 있다. 5 illustrates an example in which the
객체 추적 모듈(140)은 도 5에서의 객체들(41, 42, 43)의 이동 통일성이 배경 객체(43)에 의하여 일정 기준 값 이상으로 도출되었다 하더라도, 이동 유효성 확인 과정에서 객체들(41, 42, 43)의 예측 위치에 각 객체들(41, 42, 43)이 위치하지 않는 상황을 확인할 수 있다. 즉 객체 추적 모듈(140)은 배경 객체(43)에 의하여 수평 방향으로 객체 이동인 것으로 확인할 수 있다. 그리고 객체 추적 모듈(140)은 배경 객체(43)의 수평 이동 방향 및 이동 거리를 기준으로 다른 객체들(예컨대, 제1 객체(41), 제2 객체(42))에 대한 예측 위치를 추정할 수 있다. 그리고 객체 추적 모듈(140)은 추정된 위치에 제1 객체(41) 및 제2 객체(42)에 해당하는 특징들이 검출되는지 확인할 수 있다. The
여기서 제1 객체(41) 및 제2 객체(42)는 실질적으로 배경 객체(43)와 다른 방향으로 이동한 것으로 가정하였다. 따라서 객체 추적 모듈(140)은 예측 위치에서 제1 객체(41) 및 제2 객체(42)의 특징을 검출할 수 없다. 이 경우 객체 추적 모듈(140)은 객체의 이동 유효성이 없는 것으로 판단할 수 있다. 그러면 객체 추적 모듈(140)은 이전 이미지 정보 및 현재 이미지 정보를 위상 상관 연산하여 제1 객체(41) 및 제2 객체(42)의 실제 이동 위치를 검출할 수 있다. 여기서 객체 추적 모듈(140)은 배경 객체(43)에 대한 위상 상관 연산을 수행하지 않을 수 있다. 그리고 객체 추적 모듈(140)은 이전 이미지 정보에서 제1 객체(41)의 영역 및 제2 객체(42)의 영역에 대해서만 위상 상관 연산을 수행할 수 있다. Here, it is assumed that the
또 한편, 본 개시의 제3 실시 예("C")의 설명을 위해 도 3 및 도 6을 참조하면, 305 단계(Operation)에서 이동 통일성이 기준 값 이하인 경우 객체 추적 모듈(140)은 315 단계(Operation)로 분기하여 객체들의 위상 상관 연산을 수행할 수 있다. 여기서 이동 통일성이 기준 값 이하인 경우는 이미지 정보에 포함된 객체들의 위상 상관 연산 분산 값이 일정 값 이상인 경우에 해당할 수 있다. 즉 이미지 정보에 포함된 객체들의 이동 통일성이 적거나 없는 경우일 수 있다. 이 경우 객체 추적 모듈(140)은 이미지 정보에 포함된 객체들 각각에 대한 위상 상관 연산을 수행할 수 있다. 각각의 객체들에 대한 위상 상관 연산이 완료되면, 객체 추적 모듈(140)은 연산 결과를 토대로 객체들 각각의 실제 이동 위치를 검출하여 317 단계(Operation)에서 객체들의 이동 적용을 수행할 수 있다. 객체들의 이동 적용 시 객체 추적 모듈(140)은 증강 현실 컨텐츠를 각 객체들에 적용하도록 지원할 수 있다.3 and 6, if the mobility uniformity is equal to or less than the reference value in
도 6은 객체들(41, 42)의 이동 통일성이 기준 값 이하인 제3 실시 예의 환경을 예시한 것이다. 특히 도 6에 도시된 이미지 정보(40)는 배경 객체가 거의 배치되지 않은 상태에서 주요 객체로서 제1 객체(Obj1)(41)와 제2 객체(Obj2)(42)가 배치된 상황이 될 수 있다. 이러한 이미지 정보(40)는 제1 객체(41)와 제2 객체(42)가 도시된 바와 같이 이미지 정보(40) 영역 전체에 걸쳐 배치되기 때문에 제1 객체(41)와 제2 객체(42)가 해당 이미지 정보(40)의 주도적 객체들이 될 수 있다. 따라서 이미지 정보(40)는 도시된 바와 같이 제1 객체(41)와 제2 객체(42)가 서로 다른 방향으로 움직이기 때문에 이동의 통일성이 현저하게 낮게 검출될 수 있다. 그러면 본 개시의 객체 추적 모듈(140)은 주도적 객체들의 이동 통일성이 기준 값 이하인 상황으로 판단할 수 있다. 객체 추적 모듈(140)은 각각의 객체들(41, 42)에 대한 위상 상관 연산을 수행하여 실제 이동된 위치를 검출하도록 지원할 수 있다. 6 illustrates the environment of the third embodiment in which the mobile unity of the
상술한 설명에서는 객체 추적 기능 지원을 위하여 이동 통일성을 기준 값과 비교하고 그 결과에 따라 객체 이동 유효성을 평가한 후 위상 상관 연산을 수행하거나, 객체 이동 유효성 평가 없이 위상 상관 연산을 수행하는 과정을 설명하였다. 여기서 본 개시의 다른 실시 예에서는 이동 통일성에 대한 다수의 기준 값 비교를 지원하도록 설계될 수도 있다. In the above description, a description will be given of a process of performing phase correlation calculation after evaluating object movement effectiveness according to the result of comparing movement uniformity with reference value for supporting object tracking function, or performing phase correlation calculation without evaluation of object movement effectiveness Respectively. Where other embodiments of the present disclosure may be designed to support multiple reference value comparisons for mobile coherence.
이를 보다 상세히 설명하면, 객체 추적 모듈(140)은 이동 통일성이 사전 정의된 제1 기준 값 이상인 경우에는 객체 이동 유효성을 평가하지 않고 객체 이동 적용을 수행할 수 있다. 예컨대 도 4에서와 같이 이미지 정보(40)에 포함된 모든 객체들(예컨대, 배경 객체(43), 제1 객체(41), 제2 객체(42))이 동일한 방향으로 동일한 거리만큼 이동한 경우에는 상대적으로 가장 높은 이동 통일성이 검출될 수 있다. 이 경우 별도의 객체 이동 유효성 평가는 생략될 수 있을 것이다. In more detail, the
그리고 도 5에서와 같이 이미지 정보(40)에 포함된 객체들(예컨대, 배경 객체(43), 제1 객체(41), 제2 객체(42))의 이동 방향이 다른 경우 상대적으로 높은 이동 통일성이 검출되어도 객체 이동 유효성 평가를 수행할 필요가 있다. 따라서 객체 추적 모듈(140)은 이동 통일성 값이 사전 정의된 제1 기준 값 이상인 경우에는 객체 이동 적용 수행 시 객체 이동 유효성 평가를 생략하도록 지원할 수 있다. 5, when the moving directions of the objects included in the image information 40 (e.g., the
또한 객체 추적 모듈(140)은 이동 통일성 값이 제1 기준 값 이하이며 제2 기준 값 이상인 경우에는 객체 이동 적용 시 적어도 하나의 객체에 대하여 객체 이동 유효성 평가를 수행하도록 지원할 수 있다. 또는 객체 추적 모듈(140)은 이동 통일성 값이 제1 기준 값 이하이며 제2 기준 값 이상인 경우 객체들에 대한 이동 유효성 평가를 수행한다. 그리고 객체 추적 모듈(140)은 객체 이동 유효성이 없는 객체들의 위상 상관 연산을 수행하도록 지원할 수 있다. 여기서 객체 추적 모듈(140)은 주도적 객체를 제외한 객체들 또는 일정 크기 이하의 영역을 가지는 객체들에 대해서 위상 상관 연산을 수행하도록 제어할 수 있다. 한편 객체 추적 모듈(140)은 이동 통일성 값이 제2 기준 값 이하인 경우에는 본 개시의 제3 실시 예에 따른 처리를 수행할 수 있다.In addition, the
상기 객체 추적 모듈(140)은 상술한 도 3 내지 도 6에서의 객체들의 이동 검출 과정에서 위상 상관 연산을 수행할 때 도 7에서와 같이 객체 영역 근사화(Object area approximation) 방식을 적용할 수 있다.The
도 7은 본 개시의 객체 추적 기능 수행 중 객체 영역 근사화 기능을 설명하기 위한 도면이다.FIG. 7 is a view for explaining an object region approximation function during the object tracking function of the present disclosure.
도 7을 참조하면, 이미지 정보(40)에서 획득된 실제 객체(50)의 객체 영역(Object area)이 도시된 바와 같이 이미지 정보(40)의 외곽선과 나란한 변을 가지는 모양이 아닌 경우 객체 추적 모듈(140)은 객체 영역 근사화를 통해 가상 객체들(51, 52, 53)의 객체 영역을 구성하고, 실제 객체(50)를 가상 객체들(51, 52, 53) 중 적어도 하나로 매핑할 수 있다. 이때 가상 객체들(51, 52, 53)은 실제 객체(50)가 배치된 지점의 인접된 영역에 배치될 수 있다. 이에 따라 실제 객체(50)에 대응하는 가상 객체들(51, 52, 53) 중 적어도 하나를 기준으로 실제 객체(50)에 대한 추적(위치 검출) 연산을 수행하더라도 적절한 객체 추적 기능을 지원할 수 있다. 7, when the object area of the actual object 50 obtained from the
가상 객체들(51, 52, 53)은 이미지 정보(40)의 외곽선과 나란한 변을 가지는 모양으로서 예컨대 사각형의 형상이 될 수 있다. 객체 추적 모듈(140)이 이미지 정보(40)에 포함된 데이터를 스캔할 때, 가로 방향 또는 세로 방향 라인으로 스캔을 수행할 수 있다. 이미지 정보(40)의 외곽선과 나란하도록 마련된 적어도 하나의 가상 객체들(51, 52, 53)이 실제 객체(50)에 매핑되는 경우 객체 추적 모듈(140)은 실제 객체(50) 위치 검출보다 가상 객체 위치 검출을 보다 빠르게 수행할 수 있으며, 검출 시 연산량을 저감할 수 있다. The
한편 실제 객체(50)는 인식 모듈(120) 및 객체화 모듈(130)을 통하여 이전 이미지 정보에서 이전 위치가 산출될 수 있다. 객체 추적 모듈(140)은 이전 이미지 정보에서의 위치 값을 기준으로 해당 실제 객체(50)에 대한 가상 객체들(51, 52, 53)의 매핑 작업을 수행할 수 있다. 또한 객체 추적 모듈(140)은 실제 객체(50)에 대하여 예측된 이동 위치에 대한 가상 객체들(51, 52, 53)의 매핑 작업을 수행할 수 있다. 즉 객체 추적 모듈(140)은 현재 이미지 정보에서의 실제 객체(50) 위치 검출에 대해서도 상술한 가상 객체들(51, 52, 53)을 적용하여 추적(위치 검출) 연산을 수행할 수 있다.On the other hand, the actual location of the actual object 50 can be calculated from the previous image information through the
한편 도 7에서는 3개의 가상 객체들(51, 52, 53)을 예시한 것이다. 가상 객체들(51, 52, 53)은 각각 실제 객체(50)를 기준으로 일정 크기를 가지는 형태로 구성될 수 있다. 예컨대 제1 가상 객체(51)는 객체 영역 근사화를 통해 실제 객체(50)가 가지는 객체 영역의 내부에 배치될 수 있는 최대 크기의 사각형으로 구성될 수 있으며, 이때 사각형은 이미지 정보(40)의 외곽선과 평행한 조건을 가질 수 있다. 제3 가상 객체(53)는 객체 영역 근사화를 통해 실제 객체(50)가 가지는 객체 영역의 꼭지점을 포함하는 최대 크기의 사각형으로 구성될 수 있다. 제2 가상 객체(52)는 객체 영역 근사화를 통해 제1 가상 객체(51)와 제2 가상 객체(52)의 중간 값을 기준으로 설정된 사각형으로 구성된 것을 나타낸 것이다.In FIG. 7, three
실제 객체(50)의 지점들을 포함하는 제1 가상 객체(51)를 기반으로 디스크립터를 검출하여 실제 객체(50)의 위치 검출을 수행하면 다른 가상 객체들(52, 53)에 비하여 상대적으로 정확도가 가장 높게 나타날 수 있다. 그러나 비교 영역이 상대적으로 작기 때문에 이미지 정보(40)에서 상대적으로 보다 많은 영역들과 비교해야 하기 때문에 연산량이 늘어날 수 있다. 한편 제3 가상 객체(53)를 기반으로 위치 검출을 수행할 경우, 실제 객체(50)와 관련이 없는 디스크립터 까지도 비교 대상이 포함될 수 있으며, 위치 검출에 대한 오차가 상대적으로 크게 발생할 수 있다. 다만 상대적으로 넓은 영역을 비교하기 때문에 현재 수집된 이미지 정보(40)와의 비교 시 보다 신속한 연산이 가능할 것이다. 제2 가상 객체(52)는 제1 가상 객체(51) 및 제3 가상 객체(53)의 중간적인 효과를 제공할 수 있다. 상술한 가상 객체들(51, 52, 53) 중 적어도 하나를 운용하는 방식은 설계자의 선택적 사항에 따라 변경될 수 있다.If the descriptor is detected based on the first
한편 상술한 설명에서는 4개의 변과 4개의 사잇각을 가지는 도형을 기준으로 객체 영역 근사화를 설명하였으나, 본 개시가 이에 한정되는 것은 아니다. 즉 위에서 설명한 도형 보다 많은 변과 사잇각 또는 보다 적은 변과 사잇각을 가진 객체에 대해서도 객체 추적 모듈(140)이 인식하기 쉬운 형태의 도형으로 근사화가 가능할 수 있다. 예컨대 삼각형의 도형 또는 8각형의 도형에 대하여 상술한 가상 객체들(51, 52, 53) 생성 방식에 따라 유사한 사각형의 가상 객체들(51, 52, 53) 생성이 가능할 것이다. In the above description, object region approximation has been described with reference to a graphic object having four sides and four angles, but the present disclosure is not limited thereto. That is, the
도 8은 본 개시의 실시 예에 따른 객체 추적 기능 지원을 위한 서버 장치 기반 시스템의 구성을 개략적으로 나타낸 도면이다.FIG. 8 is a diagram schematically illustrating a configuration of a server device-based system for supporting an object tracking function according to an embodiment of the present disclosure.
도 8을 참조하면, 본 개시의 객체 처리 시스템(10)은 전자 장치 예컨대 사용자 단말기(101), 서버 장치(200) 및 통신망(300)을 포함할 수 있다.8, the
이와 같은 구성을 포함하는 본 개시의 객체 처리 시스템(10)은 앞서 설명한 객체 추적 기능을 지원하는 객체 추적 모듈(140)을 사용자 단말기(101)에 장착하고, 이를 기반으로 객체 추적 기능을 지원할 수 있다. 이때 본 개시의 객체 처리 시스템(10)은 사용자 단말기(101)의 통신 모듈을 이용하여 통신망(300)을 통해 서버 장치(200)와 사용자 단말기(101) 간의 통신 채널을 형성하도록 지원할 수 있다. 이에 따라 객체 추적 기능을 지원하는 과정에서 요구되는 다양한 정보를 서버 장치(200)를 통하여 제공받을 수 있다. 또는 본 개시의 객체 처리 시스템(10)은 사용자 단말기(101)가 서버 장치(200)에 저장된 데이터들을 수신하여 저장하고, 저장된 데이터들을 기반으로 객체 추적 기능을 지원할 수 있다.The
상기 사용자 단말기(101)는 통신망(300)을 통하여 서버 장치(200) 접속을 수행할 수 있다. 그리고 사용자 단말기(101)는 획득된 이미지 정보를 서버 장치(200)에 제공할 수 있다. 특히 사용자 단말기(101)는 획득된 이미지 정보를 실시간으로 서버 장치(200)에 제공할 수 있다. 그러면 서버 장치(200)는 수신된 이미지 정보들을 기반으로 객체 추적을 위한 위상 상관 연산을 수행하고 그 결과 값을 사용자 단말기(101)에 제공할 수 있다. 사용자 단말기(101)는 서버 장치(200)가 제공한 값들을 기반으로 이미지 정보에서의 객체 추적에 대한 연산을 생략하고 보다 용이한 객체 추적을 위한 데이터 처리를 지원할 수 있다. 한편 사용자 단말기(101)는 서버 장치(200)가 제공하는 원격 참조 데이터 및 컨텐츠 데이터를 수신할 수 있다. 그리고 사용자 단말기(101)는 원격 참조 데이터를 이용하여 이미지 정보의 인식 및 객체화를 진행할 수 있다. 또한 사용자 단말기(101)는 컨텐츠 데이터를 증강 현실 서비스에 적용하도록 제어할 수 있다.The
통신망(300)은 사용자 단말기(101)와 서버 장치(200) 사이에 배치될 수 있다. 그리고 통신망(300)은 두 구성들(예컨대, 사용자 단말기(101), 서버 장치(200) 간의 통신 채널을 형성할 수 있다. 통신망(300)은 사용자 단말기(101)가 이동 통신 기능을 지원하는 경우 이동통신 네트워크 장치들로 구성될 수 있다. 또한 통신망(300)은 서버 장치(200)가 인터넷 네트워크를 통하여 통신 장치를 연결하는 경우 해당 인터넷 네트워크를 지원하는 장치들로 구성될 수 있다. 그리고 통신망(300)은 이종망 간의 데이터 전달을 위한 네트워크 장치를 더 포함할 수 있다. 따라서 본 개시의 통신망(300)은 특정 통신 방식이나 통신 모듈 등으로 한정되는 것이 아니라, 사용자 단말기(101)와 서버 장치(200) 간에 데이터 송수신을 수행할 수 있는 다양한 장치 및 방법이 적용된 장치로 이해되어야 할 것이다.The
서버 장치(200)는 사용자 단말기(101)의 접속을 지원할 수 있다. 그리고 서버 장치(200)는 사용자 단말기(101)의 요청에 따라 객체 추적 기능 및 증강 현실 서비스 기능을 지원할 수 있다. 이를 위하여 서버 장치(200)는 객체 추적 기능 지원을 위한 원격 참조 데이터를 저장할 수 있다. 또한 서버 장치(200)는 증강 현실 서비스 기능 지원을 위해 증강 현실에 적용할 컨텐츠 데이터를 저장할 수 있다. 서버 장치(200)는 사용자 단말기(101) 요청에 따라 특정 이미지 정보의 인식 과정, 객체화 과정, 객체 추적 과정 중 적어도 하나의 연산을 수행할 수 있다. 그리고 서버 장치(200)는 각 과정에서의 수행 결과를 사용자 단말기(101) 요청에 따라 제공할 수 있다.The
도 9는 도 8의 구성 중 사용자 단말기(Client)(101) 구성과 서버 장치(Server)(200) 구성의 일예를 보다 상세히 나타낸 블록 다이어그램이다. 블록 다이어그램은 상술한 적어도 하나의 실시 예에 따른 AR(Augmented reality) 서비스를 지원하는 객체 처리 시스템(10)의 구성을 나타낸 도면이다. 객체 처리 시스템(10)은 메인 유닛(160)(예컨대, AR 처리부(AR Processing Unit))를 포함할 수 있다.FIG. 9 is a block diagram illustrating in more detail an exemplary configuration of a user terminal (Client) 101 and a
메인 유닛(160)은 카메라 입력부(Camera input unit)(151), 미디어 입력부(Media input unit)(152), 오디오 입력부(Audio input unit)(153), 다수의 센서 입력부(Sensor input unit)(154)와 같은 다양한 입력 장치들로부터 다양한 입력 데이터들을 수신할 수 있다. 센서 입력부(154)는 가속도 센서, 자이로스코프 센서, 마그네틱 센서, 온도 센서, 중력 센서 등을 포함할 수 있고, 다양한 센서들로부터 다양한 입력들을 감지할 수 있다. 메인 유닛(160)은 입력 데이터 처리를 위하여 메모리(Memory)(181), CPU(Central Processing Unit: 씨피유)(182), GPU(Graphic Processing Unit: 지피유)(183) 등을 사용할 수 있다. 메인 유닛(160)은 타겟들의 확인 및 인식을 위해 서버 장치(200)가 제공하는 원격 참조 데이터베이스(Remote Reference DB(Data Base))(201)를 사용할 수 있다. 메인 유닛(160)의 출력은 식별 정보, 객체 구분 정보(Localization information)를 포함할 수 있다. 객체 구분 정보는 타겟 오브젝트의 2D/3D 각도를 확인하는데 이용될 수 있다. 식별 정보는 타겟이 무엇인지 확인하는데 이용될 수 있다. The
AR 컨텐츠 관리부(AR Content Management unit)(170)는 서버 장치(200)에 마련된 원격 컨텐츠 데이터베이스(Remote contents DB)(202) 또는 지역 컨텐츠 데이터베이스(Local Contents DB)(187)로부터의 컨텐츠들과 메인 유닛(160)의 출력을, 비디오 출력부(Video output unit)(184) 및 오디오 출력부(Audio output unit)(185)을 통해 최종 출력하는 과정에서 그들을 조합하는데 이용될 수 있다.The AR
상술한 사용자 단말기(101) 구성 중 메인 유닛(160)에 앞서 설명한 본 개시의 객체 처리 장치(100)가 탑재될 수 있다. 또한 객체 처리 장치(100)는 메인 유닛(160)과 AR 컨텐츠 관리부(170)의 구성을 포함하는 형태로 사용자 단말기(101)에 탑재될 수도 있다.The
도 10은 본 개시의 객체 추적 기능이 적용되는 전자 장치의 구성을 나타낸 도면이다. 즉 도 10에 제시한 전자 장치(500)는 상술한 객체 추적 모듈(140)이 탑재되는 전자 장치의 일예가 될 수 있다.10 is a diagram showing a configuration of an electronic device to which the object tracking function of the present disclosure is applied. That is, the
도 10을 참조하면, 전자 장치(500)는 어플리케이션 프로세서(Application Processor)(510), 콜 프로세서(Call Processor)(520)를 포함할 수 있다. 콜 프로세서(520)는 RF부(RF(Radio Frequency) unit)(522)와 신호 송수신을 수행하며, 메모리(Memory)(523) 및 SIM 카드(SIM Card)(521)와 신호 송수신을 수행할 수 있다. 그리고 콜 프로세서(520)는 어플리케이션 프로세서(510)와 통신하여 어플리케이션 프로세서(510)에 의하여 처리되는 기능 중 RF부(522), 메모리(523) 및 SIM 카드(521) 접근이 필요한 업무 처리를 지원할 수 있다. 앞서 설명한 객체 처리 장치(100)는 전자 장치(500) 구성 중 어플리케이션 프로세서(510) 및 콜 프로세서(520) 중 어느 하나에 탑재될 수 있다. 또는 객체 처리 장치(100)는 전자 장치(500)의 상술한 구성들 외에 별도의 독립적인 하드웨어 장치로 마련되어 전자 장치(500)의 일정 영역에 배치될 수 있다.Referring to FIG. 10, the
어플리케이션 프로세서(510)는 배터리(Battery)(571)가 연결되는 전원 관리부(Power Management Unit)(570)로부터 전원을 공급받는다. 어플리케이션 프로세서(510)는 RF부(522) 이외의 다양한 통신 모듈 예컨대 와이파이(WiFi) 모듈(581), BT 모듈(582), GPS 모듈(583), NFC 모듈(584) 등과 신호 송수신을 수행하고 각 모듈들(581, 582, 583, 584)에 의해 수행되는 기능을 지원할 수 있다. 어플리케이션 프로세서(510)는 터치(Touch) 입력, 펜(Pen) 입력, 키(Key) 입력 등을 포함하는 사용자 입력부(User Input Unit)(511)와 연결될 수 있다. 어플리케이션 프로세서(510)는 표시부(Display Unit)(512), 카메라부(CAMERA Unit)(513), 모터(MOTOR)(515), 오디오 처리부(Audio codec)(530), 메모리/외부메모리(Memory/External Memory)(516) 등과 연결될 수 있다. 오디오 처리부(530)는 마이크(MIC), 스피커(Speaker), 리시버(Receiver), 이어폰(Earphone) 연결 장치 등을 포함할 수 있다. 어플리케이션 프로세서(510)는 센서 허브(Sensor Hub)(514)와 연결될 수 있다. 센서 허브(514)는 다양한 센서들을 포함하는 센서부(Sensor Unit)(590)와 연결될 수 있다. 센서부(590)는 마그네틱 센서(Magnetic Sensor)(591), 자이로 센서(Gyro Sensor)(592), 가속도 센서(Acceleration Sensor)(593), 바로 미터(Baro Sensor)(594), 그립 센서(Grip Sensor)(595), 온도/습도 센서(Temp./Humid Meter)(596), 근접 센서(Proximity Sensor)(597), 조도 센서(illuminance Sensor)(598), RGB 센서(RGB Sensor)(599), 제스처 센서(Gesture Sensor)(589) 중 적어도 하나를 포함할 수 있다.The
도 11은 본 개시의 객체 추적 기능이 적용되는 플랫폼을 예시적으로 나타낸 도면이다.11 is a diagram illustrating an exemplary platform in which the object tracking function of the present disclosure is applied.
도 11을 참조하면, 본 개시의 객체 추적 기능이 적용되는 플랫폼은 크게 어플리케이션(Application) 계층(610), 어플리케이션 프레임워크(Application Framework) 계층(630), 라이브러리(Libraries) 계층(650) 및 커널(Kernel) 계층(670)을 포함할 수 있다.Referring to FIG. 11, the platform to which the object tracking function of the present disclosure is applied is roughly divided into an
커널 계층(670)은 예로서 리눅스 커널(Linux Kernel)로 구성될 수 있다. 커널 계층(670)은 운영체제의 핵심으로써, 전자 장치의 구동 시 하드웨어 드라이버(hardware driver) 구동, 전자 장치 내의 하드웨어와 프로세서의 보안, 시스템 자원의 효율적 관리, 메모리 관리, 하드웨어 추상화(hardware abstraction)에 의한 하드웨어에 대한 인터페이스 제공, 멀티 프로세스, 그리고 서비스 연결 관리 등 중 적어도 하나를 수행할 수 있다. 커널 계층(670)은 표시 드라이버(Display Driver)(671), 카메라 드라이버(Camera Driver)(672), BT 드라이버(Bluetooth Driver)(673), 공유 메모리 드라이버(Shared Memory Driver)(674), 바인더 드라이버(Binder(IPC) Driver)(675), USB 드라이버(USB Driver)(676), 키패드 드라이버(Keypad Driver)(677), 와이파이 드라이버(WiFi Driver)(678), 오디오 드라이버(Audio Drivers)(679), 파워 관리부(Power Management)(680)가 배치될 수 있다. 커널 계층(670)은 상기한 드라이버, 또는 추가적인 드라이버(예컨대, 다양한 센서 드라이버(sensor driver)) 또는 유틸리티(utility)에 의해, 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. The
라이브러리 계층(650)은 커널 계층(670)과 어플리케이션 계층(610) 사이에 위치할 수 있으며, 다른 하드웨어 또는 소프트웨어 간에 데이터를 주고받을 수 있도록 중간에서 매개 역할을 할 수 있다. 이에 의해, 표준화된 인터페이스 제공이 가능하며, 다양한 환경 지원, 및 체계가 다른 업무와 상호 연동이 가능해질 수 있다. 라이브러리 계층(650)은 서페이스 매니저(Surface Manager)(651), 미디어 프레임워크(Media Framework)(652), SQLite(653), OpenGL/ES(654), FreeType(655), Webkit(656), SGL(657), SSL(658), Libc(659) 등을 포함할 수 있다. 라이브러리 계층(650)은 본 개시에서 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. 예를 들어, 라이브러리 계층(650)은 실행되는 여러 어플리케이션(예컨대, AR 어플리케이션)이 화면에 어떻게 나타나는지를 관리할 수 있고, 획득된 이미지 정보의 2D/3D 그래픽 기반의 표시를 지원할 수 있다.The
라이브러리 계층(650)은 안드로이드 런타임(Android Runtime)(690) 구성을 포함할 수 있다. 안드로이드 런타임(690)은 커널 계층(670) 위에 존재할 수 있고, 효율적인 메모리 사용, 프로세스 간 데이터 공유를 위한 자료구조 등을 지원할 수 있다. 안드로이드 런타임(690)은 컨테이너(Container), 유틸리티(Utility), 입출력(I/O, Input/Output) 등 필수적인 기능을 제공할 수 있다. 안드로이드 런타임(690)은 코어 라이브러리(Core Libraries)(691) 및 Dalvik Virtual Machine(692)을 포함할 수 있다. Dalvik Virtual Machine(692)은 객체 추적 기능이 지원되는 전자 장치의 위젯 기능 또는 실시간 실행이 요구되는 기능, 사전 설정된 스케줄에 따라 주기적으로 실행이 요구되는 기능 등을 지원할 수 있다.
어플리케이션 프레임워크 계층(630)은 운영체제의 API(Application Program Interface)를 나타내며, 어플리케이션 계층(610) 내 어플리케이션들의 기반이 되는 프로그램을 포함할 수 있다. 어플리케이션 프레임워크 계층(630)은 어떠한 어플리케이션과도 호환 가능하며, 컴포넌트(component)의 재사용, 이동 또는 교환이 가능할 수 있다. 어플리케이션 프레임워크 계층(630)은 지원 프로그램, 다른 소프트웨어 구성 요소들을 연결시켜 주는 프로그램 등을 포함할 수 있다. 어플리케이션 프레임워크 계층(630)은 활동 매니저(Activity Manager)(631), 윈도우 매니저(Window Manager)(632), 컨텐츠 프로바이더(Content Providers)(633), 뷰 시스템(View System)(634), 알림 매니저(Notification Manager)(635), 패키지 매니저(Package Manager)(636), 텔레포니 매니저(Telephony Manager)(637), 리소스 매니저(Resource Manager)(638), 로케이션 매니저(Location Manager)(639) 등이 배치될 수 있다. The
어플리케이션 프레임워크 계층(630)은 상기한 매니저(Manager) 또는 추가적인 매니저에 의해, 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. 예를 들어, 활동 매니저(631)를 통해 다른 프로세스에서 실행 중인 어플리케이션들 간의 원활한 이동(navigation)을 지원할 수 있고, 패키지 매니저(636)를 통해 전자 장치 내에 어떤 어플리케이션들이 설치되어 있는지, 또는 각각의 어플리케이션들이 어떤 기능을 수행하는지를 관리할 수 있다. 어플리케이션 프레임워크 계층(630)은 본 개시에서 객체 추적 모듈(140)에 대응하는 하나 또는 그 이상의 매니저들을 추가 포함할 수 있고, 해당 매니저들을 통해 AR 어플리케이션에서 이미지 획득, 획득된 이미지에서 하나 또는 그 이상의 객체들에 대한 움직임 검출, 객체들의 이동에 따른 이동 통일성 판단, 객체들의 이동 유효성 판단, 객체들의 이동 처리 하는 등을 지원하도록 구성될 수 있다. 예를 들어, 어플리케이션 프레임워크 계층(630)은 획득된 이미지로부터 객체들 간의 위상 상관 관계 값들을 결정하고, 위상 상관 관계 값들 중 피크 값의 위치를 결정하고, 피크 값을 이용하여 위상 상관 관계 값들의 분산 값을 산출하는 동작을 지원할 수 있다.The
어플리케이션 계층(610)은 전자 장치 내에서 구동되어 표시 가능한 다양한 프로그램을 포함할 수 있다. 예를 들어, 전자 장치 내의 다양한 메뉴 등에 관한 UI 어플리케이션과, 외부 장치 또는 네트워크를 통해 다운로드 되어 저장되며, 사용자에 의해 설치 또는 삭제가 자유로운 어플리케이션 등을 포함할 수 있다. 이러한 어플리케이션 계층(610)을 통해, 증강 현실 서비스, 네트워크 접속에 의한 인터넷 전화 서비스, 주문형 비디오(VOD) 서비스, 웹 앨범 서비스, SNS, 위치기반 서비스(LBS), 지도 서비스, 웹 검색 서비스, 어플리케이션 검색 서비스, 문자/멀티미디어 메시지 서비스, 메일 서비스, 주소록 서비스, 미디어 재생 서비스 등이 수행될 수 있다. 또한, 게임, 일정관리 등 다양한 기능이 수행될 수 있다. 예를 들어, 어플리케이션 계층(610)은 홈(HOME) 어플리케이션(Application: 이하 앱)(611), 다이얼러(Dialer) 앱(612), SMS/MMS 앱(613), IM 앱(614), 브라우저(Browser) 앱(615), 카메라(Camera) 앱(616), 알람(Alarm) 앱(617), 계산기(Calculator) 앱(618), 컨택트(Contacts) 앱(619), 보이스 다이얼(Voice Dial) 앱(620), 이메일(Email) 앱(621), 카렌더(Calendar) 앱(622), 미디어 플레이어(Media Player) 앱(623), 앨범(Albums) 앱(624), 클락(Clock) 앱(625) 등이 배치될 수 있다.The
이상에서 살펴본 바와 같은 플랫폼은 본 개시에 따른 전자 장치를 비롯하여, 그 외 다양한 디바이스에서 범용으로 사용 가능하다. 그리고 본 개시에 따른 플랫폼은 앞서 살펴본 바와 같은 메모리 및 프로세서 중 적어도 하나 또는 별도의 프로세서에, 저장 또는 탑재(loading)될 수도 있다.The platform as described above can be used universally in various other devices, including electronic devices according to the present disclosure. And the platform according to the present disclosure may be stored or loaded in at least one of the memory and the processor as described above or in a separate processor.
상기 도 10 및 도 11을 참조하여 본 개시에 따른 동작(예컨대, AR 서비스 수행 시 획득된 이미지 내의 객체 추적 및 처리 동작)을 개략 살펴보면 다음과 같다.An overview of an operation according to the present disclosure (e.g., an object tracking and processing operation in an image obtained at the time of performing an AR service) with reference to FIGS. 10 and 11 is as follows.
예를 들어, 본 개시에서는 도 10에서 카메라부(513) 통한 이미지 데이터, 마이크(MIC)를 통한 음성 데이터, 센서 허브(514)를 통하는 센서부(590), 및 GPS(583) 등으로부터 수집된 다양한 데이터들을 입력으로 사용할 수 있다. 입력되는 다양한 데이터들은 어플리케이션 프로세서(510)에서 지정된 연산작용에 의해 처리될 수 있다. 또한 본 개시에서는 연산 작용 중 원거리에 있는 서버 장치(200)나 다른 전자 장치와 데이터를 같이 연동해야 하거나, 또는 기타 외부의 데이터를 같이 연동해야 하는 경우를 위해, 와이파이(WiFi) 모듈(581), BT 모듈(582), NFC 모듈(584) 등의 네트워크 모듈을 이용해 다양한 방식의 통신을 지원할 수 있다. 또한 본 개시에서 연산을 위해 필요한 데이터는 메인 메모리(523)나 외부 메모리(516)를 사용하여 저장할 수 있고, 표시부(512)나 스피커(speaker) 등의 모듈을 활용해 연산을 통해 도출된 결과를 사용자에게 다시 제공할 수 있다. For example, in the present disclosure, the image data collected through the
이러한 동작을 전자 장치의 운영체제(예컨대, 안드로이드)의 소프트웨어 관점에서 살펴보면 도 11에서 최 하단의 커널 계층(670)의 다양한 드라이버(driver)(예컨대, 카메라 드라이버(672), 오디오 드라이버(679)(예컨대, mic), 센서 드라이버 등)에서 다양한 입력 데이터를 받아들이는 작업을 수행할 수 있다. 예를 들어, 전자 장치는 AR 서비스를 지원하기 위해 카메라 드라이버(672)를 통해 카메라부(513)로부터 입력 데이터(예컨대, 이미지)를 받아들이는 작업을 수행할 수 있다. In view of the software of the operating system of the electronic device (e.g., Android), this operation is performed by various drivers (e.g.,
또한 전자 장치는 상기 입력 데이터를 기반으로 지정된 연산을 구동시키기 위해 라이브러리 계층(650)에서 제공하는 다양한 모듈(예컨대, 서페이스 매니저(651), 미디어 프레임워크(652), SQLite(653), OpenGL/ES(654), Webkit(656), Libc(659) 등)을 활용할 수 있다. 예를 들어, 라이브러리 계층(650)에서는 대부분의 연산을 기본적으로 처리하기 위해서 라이브러리(Libc(659))를 사용할 수 있고, 입력된 영상/음성과 같은 미디어 데이터를 다루기 위해 미디어 프레임워크(652)를 활용할 수 있다. 한 실시 예에 따르면, 전자 장치는 AR 서비스 수행 시 획득된 이미지 내의 객체 추적 및 처리와 관련된 연산(예컨대, 객체 영역 근사화 연산 등)을 Libc(659)를 통해 수행할 수 있다. 또한 전자 장치는 미디어 프레임워크(652)가 포함하는 다양한 코덱(CODEC)(예컨대, AVC(H.264), H.263, MP3, MPEG-4 등 다양한 포맷)를 통해 AR 서비스에 따른 미디어(예컨대, 이미지)를 지원할 수 있다.The electronic device may also include various modules (e.g., a
또한 전자 장치는 처리된 연산 결과를 효율적으로 표현하기 위해서 라이브러리 계층(650)에서 제공하는 여러 기능을 활용할 수 있다. 예를 들어, 3차원 그래픽(3D graphic) 효과를 위해 OpenGL/ES(654)와 Surface Manager(651) 등을 활용할 수 있다. 한 실시 예에 따르면, 전자 장치는 OpenGL/ES(654)에 의해 AR 서비스에 따른 3차원 그래픽을 지원할 수 있고, 전자 장치에 따라 하드웨어(H/W) 가속 기능 또한 지원할 수 있다. 이에 의해, 전자 장치는 어플리케이션(예컨대, AR 어플리케이션)에서 3차원 그래픽과 2차원 그래픽을 혼합해서 사용할 수 있다. 전자 장치는 라이브러리 계층(650)에서 처리된 연산 결과를 커널 계층(670)의 표시 드라이버(671)를 통해 표시부(512)에 표시할 수 있다.In addition, the electronic device can utilize various functions provided by the
또한 전자 장치는 데이터 관리를 위해 SQLite(653)와 같은 데이터베이스 매니저(Database manager)를 사용할 수 있다. 또한 전자 장치는 웹(Web)과 연동하기 위해 Webkit(656)을 사용할 수 있으며 상위 레벨의 서비스를 위해 어플리케이션 프레임워크 계층(630)을 통해 다양한 어플리케이션(application)(예컨대, AR 어플리케이션) 또는 다양한 서비스(service)(예컨대, AR 서비스)를 제공할 수 있다. Electronic devices can also use a database manager, such as
상술한 구성들이 본 개시의 특징이나 기술적 범위를 한정하는 것은 아니며, 단지 본 개시의 특징이 적용될 수 있는 구현들을 예시한 것이다. 도 10 및 도 11에서 나타낸 시스템 또는 장치의 적어도 일부의 구성이 본 개시의 기술적 구현을 위하여 적용될 수 있을 것이다. 또한 당업자의 견지에서 상술한 구성들은 본 개시의 실시 예들에서 추가되거나, 생략되거나 또는 수정될 수 있다. 추가로 다른 구성들이 본 개시에서 설명한 실시 예의 필요에 따라 추가될 수 있다. 본 개시에서 설명한 하나의 이상의 방법들, 단계(Operation)들, 알고리즘들은 상술한 구현 예시들에서 설명한 하나 이상의 구성들을 사용하여 실행될 수 있다. 예를 들어, 본 개시에 따른 이미지 상의 객체 추적 및 처리를 지원하기 위한 이미지 기반에 중점을 둔 AR 플랫폼이 전자 장치에 구현될 수도 있다.The above-described arrangements are not intended to limit the features or the technical scope of the present disclosure, but merely illustrate implementations to which the features of the present disclosure may be applied. The configuration of at least some of the systems or devices shown in Figs. 10 and 11 may be applied for the technical implementation of the present disclosure. Also, those skilled in the art will appreciate that the above-described arrangements may be added, omitted, or modified in embodiments of the present disclosure. In addition, other configurations may be added according to the needs of the embodiments described in this disclosure. One or more methods, operations, and algorithms described in this disclosure may be implemented using one or more of the configurations described in the above-described implementation examples. For example, an AR platform focused on an image base to support object tracking and processing on an image according to the present disclosure may be implemented in an electronic device.
한편 상술한 사용자 단말기 및 전자 장치 등은 그 제공 형태에 따라 다양한 추가 모듈을 더 포함할 수 있다. 즉, 상기 사용자 단말기 및 전자 장치 등은 통신 단말기인 경우 근거리 통신을 위한 근거리통신모듈, 상기 단말기 및 전자 장치의 유선통신방식 또는 무선통신방식에 의한 데이터 송수신을 위한 인터페이스, 인터넷 네트워크와 통신하여 인터넷 기능을 수행하는 인터넷통신모듈 및 디지털 방송 수신과 재생 기능을 수행하는 디지털방송모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수도 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 디바이스에 추가로 더 포함되어 구성될 수 있다. 또한 본 개시의 사용자 단말기 및 전자 장치 등은 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.On the other hand, the user terminal and the electronic device described above may further include various additional modules depending on the providing mode. That is, the user terminal, the electronic device, and the like may be a short-range communication module for short-range communication in the case of a communication terminal, an interface for data transmission / reception by the wired communication method or the wireless communication method of the terminal and the electronic device, An Internet communication module for performing digital broadcasting and a digital broadcasting module for performing digital broadcasting reception and reproduction functions, and the like. These components can not be enumerated because of a wide variety of variations depending on the convergence trend of the digital device, but it is also possible that components having the same level as the above-mentioned components are further included in the device have. Also, it goes without saying that the user terminal and the electronic device of the present disclosure may be excluded from the specific configurations in the above configuration or may be replaced with other configurations in accordance with the provision mode thereof. Which will be readily apparent to those skilled in the art.
또한 본 개시의 실시 예에 따른 상기 사용자 단말기 및 전자 장치 등은 예를 들면, 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말기들(mobile communication terminals)을 비롯하여, PMP(Portable Multimedia Player), 디지털방송 플레이어, PDA(Personal Digital Assistant), 음악 재생기(예컨대, MP3 플레이어), 휴대게임단말, 스마트 폰(Smart Phone), 노트북(Notebook), 노트 PC, 슬레이트 PC, 탭북 및 핸드헬드 PC 등 모든 정보통신기기와 멀티미디어 및 그에 대한 응용기기를 포함할 수 있다. The user terminal and the electronic device according to the embodiments of the present disclosure may also include all mobile communication terminals operating based on communication protocols corresponding to various communication systems, A portable game terminal, a smart phone, a notebook PC, a notebook PC, a slate PC (portable music player), a digital music player, a PDA , Tapbooks, and handheld PCs, as well as multimedia and related applications.
한편, 본 명세서와 도면을 통해 본 개시의 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 개시의 기술 내용을 쉽게 설명하고 본 실시 예들의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 개시의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예외에도 본 개시의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, And is not intended to limit the scope of the present disclosure. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present disclosure are possible in the exemplary embodiments disclosed herein.
10 : 객체 처리 시스템 100 : 객체 처리 장치
110 : 입력 제어 모듈 120 : 인식 모듈
130 : 객체화 모듈 140 : 객체 추적 모듈
101 : 사용자 단말기 200 : 서버 장치
300 : 통신망 500 : 전자 장치10: Object processing system 100: Object processing device
110: input control module 120: recognition module
130: objectification module 140: object tracking module
101: user terminal 200: server device
300: network 500: electronic device
Claims (22)
복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하는 동작을 포함하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함하며, 상기 추적하는 동작은,
상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하는 과정;
상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하는 과정; 및
상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하는 과정;
을 포함하는 방법.A method of operating an electronic device,
The method comprising: tracking at least one object contained on a plurality of digital images, the digital images comprising a first image and a second image,
Determining phase correlation values between at least a portion of the first image and at least a portion of the second image;
Determining a position of a peak value among the phase correlation values; And
Determining a variance of the phase correlation values using at least some of the peak values;
≪ / RTI >
상기 분산값이 선택된 값 미만 또는 이하인 경우, 제 1 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작;
상기 분산값이 선택된 값 초과 또는 이상인 경우, 제 2 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작;을 포함하는 방법.3. The method of claim 2, wherein the act of performing the object tracking differently
Tracing the at least one object using a first process when the variance value is less than or equal to a selected value;
And tracking the at least one object using a second process if the variance value is greater than or equal to a selected value.
복수 개의 디지털 이미지들을 저장하도록 구성된 메모리; 및
상기 이미지들을 처리하도록 구성된 프로세서를 포함하며,
상기 프로세서는, 복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하도록 구성하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함하며,
상기 프로세서는,
상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하고;
상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하고;
상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하도록 구성된 장치.In an electronic device,
A memory configured to store a plurality of digital images; And
And a processor configured to process the images,
Wherein the processor is configured to track at least one object contained on a plurality of digital images, the digital images comprising a first image and a second image,
The processor comprising:
Determining phase correlation values between at least a portion of the first image and at least a portion of the second image;
Determining a position of a peak value among the phase correlation values;
And to use at least some of the peak values to determine a variance of the phase correlation values.
분산값이 선택된 값 미만 또는 이하인 경우, 상기 적어도 하나의 객체를 추적하는 제 1 프로세스;
상기 분산값이 선택된 값 초과 또는 이상인 경우, 상기 적어도 하나의 객체를 추적하는 제 2 프로세스;를 포함하는 장치.13. The system of claim 12, wherein the processor
A first process for tracking the at least one object when the variance value is less than or equal to a selected value;
And a second process of tracking the at least one object if the variance value is greater than or equal to a selected value.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14155416.2A EP2767952A3 (en) | 2013-02-15 | 2014-02-17 | Method and electronic device for processing object |
CN201410053682.2A CN103996205B (en) | 2013-02-15 | 2014-02-17 | The method of a kind of electronic equipment and operation electronic equipment |
US14/182,910 US9349191B2 (en) | 2013-02-15 | 2014-02-18 | Method and electronic device for processing object |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361765443P | 2013-02-15 | 2013-02-15 | |
US61/765,443 | 2013-02-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140103023A true KR20140103023A (en) | 2014-08-25 |
Family
ID=51747567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130145715A KR20140103023A (en) | 2013-02-15 | 2013-11-27 | Method and electronic device for processing object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140103023A (en) |
-
2013
- 2013-11-27 KR KR1020130145715A patent/KR20140103023A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9349191B2 (en) | Method and electronic device for processing object | |
US20230281851A1 (en) | Systems and methods for simulatenous localization and mapping | |
US20140233800A1 (en) | Method of tracking object and electronic device supporting the same | |
US8230075B1 (en) | Method and device for identifying devices which can be targeted for the purpose of establishing a communication session | |
CN111262887B (en) | Network risk detection method, device, equipment and medium based on object characteristics | |
CN111476306A (en) | Object detection method, device, equipment and storage medium based on artificial intelligence | |
US9912847B1 (en) | Image capture guidance to reduce specular reflection effects | |
KR20140103046A (en) | Object Tracing Method and Electronic Device supporting the same | |
US9195872B2 (en) | Object tracking method and apparatus | |
WO2020048392A1 (en) | Application virus detection method, apparatus, computer device, and storage medium | |
US20140232748A1 (en) | Device, method and computer readable recording medium for operating the same | |
CN108093362B (en) | Control method and device of positioning module, storage medium and terminal | |
CN110738185B (en) | Form object identification method, form object identification device and storage medium | |
EP2888716B1 (en) | Target object angle determination using multiple cameras | |
CN111338933A (en) | Buried point verification method, device, equipment and storage medium | |
CN112053360B (en) | Image segmentation method, device, computer equipment and storage medium | |
US10091436B2 (en) | Electronic device for processing image and method for controlling the same | |
US20140231523A1 (en) | Electronic device capable of recognizing object | |
KR20210087181A (en) | An electronic device detecting a location and a method thereof | |
CN114187509B (en) | Object positioning method and device, electronic equipment and storage medium | |
CN113642493B (en) | Gesture recognition method, device, equipment and medium | |
KR20140103021A (en) | Object recognition device | |
KR20140103023A (en) | Method and electronic device for processing object | |
CN112087719B (en) | Map area determination method, map area determination device, map area determination equipment and storage medium | |
CN113780291A (en) | Image processing method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |