KR20140103023A - Method and electronic device for processing object - Google Patents

Method and electronic device for processing object Download PDF

Info

Publication number
KR20140103023A
KR20140103023A KR1020130145715A KR20130145715A KR20140103023A KR 20140103023 A KR20140103023 A KR 20140103023A KR 1020130145715 A KR1020130145715 A KR 1020130145715A KR 20130145715 A KR20130145715 A KR 20130145715A KR 20140103023 A KR20140103023 A KR 20140103023A
Authority
KR
South Korea
Prior art keywords
image
objects
image information
movement
value
Prior art date
Application number
KR1020130145715A
Other languages
Korean (ko)
Inventor
조규성
조익환
페럴 이바노비치 주바치
젠나디 야로슬라보비치 키스
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP14155416.2A priority Critical patent/EP2767952A3/en
Priority to CN201410053682.2A priority patent/CN103996205B/en
Priority to US14/182,910 priority patent/US9349191B2/en
Publication of KR20140103023A publication Critical patent/KR20140103023A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods

Abstract

The present invention relates to object processing. Disclosed are an object processing method, an object processing apparatus, and an electronic device supporting and a system supporting the same, wherein the method comprises the steps of: detecting mobile unity of objects in image information collected; and differently processing movement applications of the objects according to the size of the mobile unity.

Description

이미지 상의 객체 처리하는 방법 및 전자 장치 {METHOD AND ELECTRONIC DEVICE FOR PROCESSING OBJECT}[0001] METHOD AND ELECTRONIC DEVICE FOR PROCESSING OBJECT [0002]

본 개시는 전자 장치에서 이미지 상의 객체를 처리하는 것에 관한 것이다.This disclosure relates to processing objects on an image in an electronic device.

최근 들어, 단말기는 하드웨어 기술의 발달을 기반으로 다양한 사용자 기능을 운용할 수 있도록 지원하고 있다. 예컨대 이미지 수집 기능은 단말기의 중요한 기능 중 하나로 자리 잡고 있다. 이에 따라 이미지 수집 기능과 관련하여 보다 다양한 사용자 기능의 활용성 및 확장성에 대한 연구가 활발히 진행되고 있다.In recent years, handsets have been supporting various user functions based on the development of hardware technology. For example, the image gathering function is one of the important functions of the terminal. As a result, studies on the usability and scalability of a variety of user functions related to the image collecting function have been actively conducted.

본 개시의 다수의 실시 예에 따르면, 본 개시는 개선된 객체 처리 기능을 제공할 수 있다.According to many embodiments of the present disclosure, this disclosure may provide improved object processing functionality.

본 개시의 실시 예에 따르면, 수집된 이미지 정보에서 객체들의 이동 통일성을 검출하는 검출 과정, 상기 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 처리 과정을 포함하는 것을 특징으로 하는 객체 처리 방법의 구성을 개시한다.According to an embodiment of the present disclosure, there is provided an image processing method comprising the steps of: detecting movement uniformity of objects in collected image information; and processing the movement application of the objects differently according to the size of the mobile unity. Method of the present invention.

본 개시는 또한, 수집된 이미지 정보 수신을 지원하는 입력 제어 모듈, 상기 입력 제어 모듈이 제공한 이미지 정보를 인식하는 인식 모듈, 인식된 이미지 정보에서 객체를 추출하는 객체화 모듈, 상기 객체화 모듈이 제공하는 객체들의 이동을 추적하는 객체 추적 모듈을 포함하고, 상기 객체 추적 모듈은 수집된 이미지 정보에서 객체들의 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 것을 특징으로 하는 객체 처리 장치의 구성을 개시한다.The present disclosure also relates to a method and system for providing an object control module, including an input control module for supporting the reception of collected image information, a recognition module for recognizing image information provided by the input control module, an objectification module for extracting objects from the recognized image information, And an object tracking module for tracking movement of the objects, wherein the object tracking module processes the application of the objects differently according to the magnitude of the movement uniformity of the objects in the collected image information. .

본 개시는 또한, 수집된 이미지 정보에서 객체들의 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 객체 처리 장치가 장착된 메인 유닛, 상기 메인 유닛에 입력 정보를 제공하는 입력부, 상기 메인 유닛의 데이터 처리를 위한 메모리, 씨피유, 지피유 중 적어도 하나, 상기 이미지 정보 출력을 지원하는 비디오 출력부를 포함하는 것을 특징으로 하는 전자 장치의 구성을 개시한다.The present disclosure also relates to an image processing apparatus including a main unit equipped with an object processing apparatus for processing the application of moving objects differently according to the magnitude of the mobility of objects in the collected image information, an input unit providing input information to the main unit, And a video output unit for outputting the image information, wherein the video output unit includes at least one of a memory, a CPU, and a digital watermark for data processing of the image data.

본 개시는 또한, 이전 이미지 정보 및 현재 이미지 정보 간의 위상 상관 연산 수행 결과의 평가 결과를 기반으로 객체들의 이동 통일성을 결정하고, 상기 이동 통일성의 크기에 따라 상기 객체들의 이동 적용을 다르게 처리하는 전자 장치, 상기 객체들의 이동 처리된 위치에 출력할 컨텐츠를 저장하는 원격 컨텐츠 데이터베이스를 포함하는 서버 장치를 포함하는 것을 특징으로 하는 객체 처리 시스템의 구성을 개시한다.The present disclosure also relates to an electronic device for determining the mobility uniformity of objects based on an evaluation result of phase correlation results between previous image information and current image information and for differently applying the mobility application of the objects according to the magnitude of the mobility uniformity And a remote content database for storing contents to be output at the moved positions of the objects.

이상에서 살펴본 바와 같이 본 개시에 따르면, 본 개시는 개선된 객체 처리 기능을 지원할 수 있다.As discussed above, according to the present disclosure, this disclosure can support improved object processing functionality.

도 1은 본 개시의 실시 예에 따른 객체 추적 기능을 지원하는 객체 처리 장치의 구성을 개략적으로 나타낸 도면.
도 2는 도 1의 구성 중 트래킹 모듈의 구성을 보다 상세히 나타낸 도면.
도 3은 본 개시의 실시 예에 따른 객체 추적 방법을 설명하기 위한 도면.
도 4는 도 3의 제1 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 5는 도 3의 제2 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 6은 도 3의 제3 실시 예에 따른 객체 추적 상황을 설명하기 위한 도면.
도 7은 본 개시의 실시 예에 따른 객체 추적 기능 수행 중 적용되는 근사화 기능을 설명하기 위한 도면.
도 8은 본 개시의 객체 추적 기능을 지원하는 시스템 구성을 개략적으로 나타낸 도면.
도 9는 도 8의 구성들의 블록 다이어그램.
도 10은 본 개시의 객체 처리 장치가 적용될 수 있는 전자 장치 구성의 일예를 개략적으로 나타낸 도면.
도 11은 본 개시의 객체 처리 장치가 적용될 수 있는 플랫폼의 구성을 예시적으로 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 schematically illustrates a configuration of an object processing apparatus supporting an object tracking function according to an embodiment of the present disclosure; FIG.
FIG. 2 is a detailed view of the configuration of the tracking module of FIG. 1; FIG.
3 is a diagram for explaining an object tracking method according to an embodiment of the present disclosure;
FIG. 4 is a view for explaining an object tracking situation according to the first embodiment of FIG. 3; FIG.
FIG. 5 is a view for explaining an object tracking situation according to the second embodiment of FIG. 3; FIG.
FIG. 6 is a view for explaining an object tracking situation according to the third embodiment of FIG. 3; FIG.
FIG. 7 is a diagram for explaining an approximation function applied during an object tracking function according to an embodiment of the present disclosure; FIG.
8 is a diagram schematically illustrating a system configuration supporting the object tracking function of the present disclosure;
Figure 9 is a block diagram of the arrangements of Figure 8;
10 schematically shows an example of an electronic device configuration to which an object processing apparatus of the present disclosure can be applied;
11 is a diagram exemplarily showing a configuration of a platform to which an object processing apparatus of the present disclosure can be applied;

이하, 본 개시의 실시 예를 첨부된 도면에 의거하여 상세히 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

실시 예를 설명함에 있어서 본 개시가 속하는 기술분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명을 생략하도록 한다.In describing the embodiments, descriptions of techniques which are well known in the art to which this disclosure belongs and which are not directly related to the present disclosure are omitted. In addition, detailed description of components having substantially the same configuration and function will be omitted.

마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 개시는 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.For the same reason, some of the elements in the accompanying drawings are exaggerated, omitted, or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present disclosure is not limited by the relative size or spacing depicted in the accompanying drawings.

도 1은 본 개시의 실시 예에 따른 객체 추적 기능을 지원하는 객체 처리 장치의 구성을 나타낸 도면이다. 이하에서 설명하는 본 개시의 객체 처리 장치는 획득된 이미지에 포함된 요소들 중 특정 객체를 인식할 수 있다. 그리고 본 개시의 객체 처리 장치는 인식된 객체를 보다 원활하게 추적할 수 있도록 지원한다. 이러한 객체 처리 장치는 다양한 이미지 처리 기술에 적용될 수 있다. 이하 설명에서는 객체 처리 장치가 AR 기능을 지원하는 과정을 기준으로 설명하기로 한다. 이에 따라, 객체 처리 장치는 AR 처리 장치(Augmented Reality Processing Device)의 적어도 일부가 될 수 있다.1 is a block diagram illustrating an object processing apparatus supporting an object tracking function according to an embodiment of the present disclosure. The object processing apparatus of the present disclosure described below can recognize a specific one of the elements included in the acquired image. The object processing apparatus of the present disclosure supports the tracking of recognized objects more smoothly. Such an object processing apparatus can be applied to various image processing techniques. The following description will be made based on a process in which the object processing apparatus supports the AR function. Accordingly, the object processing apparatus can be at least a part of an Augmented Reality Processing Device.

도 1을 참조하면, 본 개시의 객체 처리 장치(100)는 입력 제어 모듈(110)(Control Module), 인식 모듈(120)(recognition Module), 객체화 모듈(130)(Localization Module), 객체 추적 모듈(140)(Tracking Module)을 포함할 수 있다.1, the object processing apparatus 100 of the present disclosure includes an input control module 110, a recognition module 120, a localization module 130, an object tracking module 130, (Tracking Module) < / RTI >

상술한 객체 처리 장치(100)는 획득된 입력 정보 중 이미지 정보에 대한 이미지 처리를 수행할 수 있다. 이 과정에서 객체 처리 장치(100)는 이미지에 포함된 객체의 추적 기능을 지원할 수 있다. 특히 객체 처리 장치(100)는 객체 추적 기능 지원 시 지능적 이동 적용을 지원할 수 있다. 지능적 이동 적용은 이미지에 포함된 객체들의 이동 통일성(reliability) 결과에 따라 추가적인 객체 이동 연산 수행 여부를 결정하는 절차를 포함할 수 있다. 이를 기반으로 객체 처리 장치(100)는 이미지에 포함된 객체들의 실질적인 이동성을 보다 정확히 판단할 수 있다. 그리고 객체 처리 장치(100)는 실제 객체들의 이동에 따라 증강 현실 컨텐츠 적용을 수행할 수 있다.The object processing apparatus 100 may perform image processing on image information among the acquired input information. In this process, the object processing apparatus 100 can support the tracking function of the object included in the image. In particular, the object processing apparatus 100 can support intelligent movement application when object tracking function is supported. The intelligent movement application may include a procedure for determining whether to perform an additional object movement operation according to a result of the movement reliability of the objects included in the image. Based on this, the object processing apparatus 100 can more accurately determine the actual mobility of the objects included in the image. Then, the object processing apparatus 100 can perform the augmented reality contents application according to the movement of actual objects.

입력 제어 모듈(110)은 객체 처리 장치(100)에 제공되는 입력 정보를 분류할 수 있다. 그리고 입력 제어 모듈(110)은 현재 객체 처리 장치(100)의 기능 수행 상태에 따라 입력 정보의 전달루트를 결정할 수 있다. 예컨대 입력 제어 모듈(110)은 초기 이미지 정보가 획득되면 해당 이미지 정보를 인식 모듈(120)에 제공할 수 있다. 이미지 정보는 객체 처리 장치(100)와 연결된 이미지 센서 또는 객체 처리 장치(100)를 포함한 단말기에 배치된 이미지 센서로부터 획득될 수 있다.The input control module 110 may classify the input information provided to the object processing apparatus 100. [ The input control module 110 can determine the transfer route of the input information according to the function execution state of the object processing apparatus 100 at present. For example, the input control module 110 may provide the image information to the recognition module 120 when the initial image information is acquired. The image information may be obtained from an image sensor disposed in the terminal including the image sensor or object processing apparatus 100 connected to the object processing apparatus 100. [

입력 제어 모듈(110)은 인식 모듈(120)에 의한 이미지 인식 과정 및 객체화 모듈(130)에 의하여 객체 구분 과정이 완료되면 이미지 정보를 직접 객체 추적 모듈(140)에 전달할 수 있다. 또는 입력 제어 모듈(110)은 이미지 정보를 인식 모듈(120) 및 객체 추적 모듈(140)에 동시에 전달할 수 있다. 이에 따라 이미지 정보에 대한 인식 처리 및 객체 추적 처리는 병렬적으로 수행될 수도 있다.The input control module 110 may transmit the image information to the object object tracking module 140 when the image recognition process by the recognition module 120 and the object classification process by the objectification module 130 are completed. Or the input control module 110 may simultaneously pass the image information to the recognition module 120 and the object tracking module 140. Accordingly, recognition processing and object tracking processing on image information may be performed in parallel.

입력 제어 모듈(110)은 객체 추적 기능 수행 중인 경우 이미지 정보를 인식 모듈(120)에 제공하지 않도록 제어할 수도 있다. 그리고 입력 제어 모듈(110)은 객체 추적에 실패한 경우 이미지 정보를 인식 모듈(120)에 다시 제공하도록 지원할 수 있다. 또한 입력 제어 모듈(110)은 AR 컨텐츠가 추적 중인 객체들에 적용되는 경우 다른 입력 정보들 예컨대 오디오 정보나 센서 정보 등을 객체 추적 모듈(140)에 제공할 수 있다. The input control module 110 may control not to provide the image information to the recognition module 120 when the object tracking function is being performed. And the input control module 110 may assist in providing the image information to the recognition module 120 when the object tracking fails. The input control module 110 may also provide other input information, such as audio information or sensor information, to the object tracking module 140 when the AR content is applied to the objects being tracked.

인식 모듈(120)은 입력 제어 모듈(110)로부터 이미지 정보를 수신하면 이에 대한 인식 과정을 수행할 수 있다. 즉 인식 모듈(120)은 수신된 이미지 정보에서 특징 검출(Feature Detection), 디스크립터 계산(Descriptors calculation), 이미지 쿼리(image query) 과정을 수행할 수 있다. When the recognition module 120 receives the image information from the input control module 110, the recognition module 120 can perform the recognition process. That is, the recognition module 120 may perform a feature detection process, a descriptor calculation process, and an image query process on the received image information.

특징 검출은 필터링 과정을 거친 이미지 정보에서 추출되는 특징점들의 수집과정이 될 수 있다. 이때 특징 검출은 객체 처리 장치(100)에 적용할 다양한 필터링 정보들에 의하여 다양한 양상으로 수행될 수 있다. 예컨대 특징 검출 과정에서 인식 모듈(120)은 이미지 정보에 대한 이산화 과정을 수행할 수 있다. 그리고 인식 모듈(120)은 이산화된 정보들에 대하여 사전 정의된 특정 알고리즘을 적용하여 일정 특징들이 남도록 처리할 수 있다.Feature detection can be a collection process of feature points extracted from image information that has undergone a filtering process. At this time, the feature detection can be performed in various aspects according to various filtering information to be applied to the object processing apparatus 100. For example, in the feature detection process, the recognition module 120 may perform a discretization process for image information. The recognition module 120 may then apply certain predefined algorithms to the discretized information to process certain features.

디스크립터는 검출된 특징점들을 기반으로 산출된 해당 이미지 정보의 고유 특성을 정의한 정보가 될 수 있다. 이러한 디스크립터는 이미지 정보에서 일정 부분별로 특징점들의 위치나 특징점들 간의 배치 형태, 특징점들의 고유 특성 중 적어도 하나에 의하여 정의될 수 있다. 즉 디스크립터는 이미지 정보의 일정 지점의 고유 특성을 간략화한 값이 될 수 있다. 따라서 디스크립터는 하나의 이미지 정보에서 적어도 하나가 추출될 수 있다. The descriptor may be information that defines the characteristic of the corresponding image information calculated based on the detected feature points. Such a descriptor can be defined by at least one of the location of the feature points, the arrangement form between the feature points, and the intrinsic characteristics of the feature points in a predetermined part of the image information. That is, the descriptor may be a value obtained by simplifying the characteristic of a certain point of the image information. Therefore, at least one of the descriptors can be extracted from one piece of image information.

디스크립터 계산이 완료되면 인식 모듈(120)은 이미지 쿼리 과정을 통하여 참조 데이터와의 비교를 수행할 수 있다. 즉 인식 모듈(120)은 계산된 디스크립터들과 동일한 디스크립터 또는 일정 오차 범위 이내에 있는 디스크립터들을 가지는 참조 데이터가 있는지 확인할 수 있다. 참조 데이터는 객체 처리 장치(100) 운용을 위해 마련된 내부 저장 장치로부터 제공될 수 있다. 또는 참조 데이터는 객체 처리 장치(100) 운용을 위해 외부 저장 장치 예컨대 별도 서버 장치 등으로부터 제공될 수도 있다. 참조 데이터는 특정 이미지에 대하여 사전에 저장된 또는 현재 처리 중인 이미지 정보 획득 직전에 저장된 이미지 정보가 될 수 있다. 예컨대, 얼굴 인식은 인증된 얼굴들의 인식을 위해 외부 참조 얼굴 데이터베이스 요구하고 서로 다른 얼굴 차이를 확인할 수 있다. 한편 QR 코드는 일반적인 경우 극적인 정보 갱신이 수행되지 않는다. 따라서 데이터베이스의 QR 코드 인식을 위한 특정 규칙만이 요구되고 이에 따라 QR 코드는 내부 참조 데이터를 이용할 수 있다. 인식 모듈(120)은 참조 데이터의 활용을 통하여 이미지 인식 과정에 대한 연산을 간소화할 수 있다. 그리고 인식 모듈(120)은 참조 데이터를 활용하여 타겟 객체 식별을 수행할 수 있다.When the descriptor calculation is completed, the recognition module 120 can perform a comparison with reference data through an image query process. That is, the recognition module 120 can check whether there is reference data having the same descriptor as the calculated descriptors or descriptors within a certain error range. Reference data may be provided from an internal storage device provided for operation of the object processing apparatus 100. [ Or reference data may be provided from an external storage device such as a separate server device for operation of the object processing apparatus 100. [ The reference data may be image information that is stored beforehand for a specific image or immediately before acquiring image information currently being processed. For example, face recognition may require an external reference face database to recognize authenticated faces and identify different face differences. On the other hand, QR codes do not perform dramatic information updates in general. Therefore, only a specific rule for QR code recognition of the database is required, so that QR code can use internal reference data. The recognition module 120 can simplify the operation for the image recognition process by utilizing the reference data. The recognition module 120 may perform target object identification using reference data.

객체화 모듈(130)은 이미지 정보를 구성하는 다양한 객체들을 구분할 수 있다. 이러한 객체화 모듈(130)은 특징 매칭(Feature Matching) 및 초기 각도 평가(Initial Pose Estimation) 단계(Operation)를 포함할 수 있다. 즉 객체화 모듈(130)은 이미지 정보에서 구분된 객체들의 특징점들을 추출할 수 있다. 그리고 객체화 모듈(130)은 특정 객체들의 특징점들을 참조 데이터의 일정 객체와 매칭할 수 있다. 이때 객체화 모듈(130)은 특징점들의 매칭 정보가 없는 경우 매칭 정보를 새로 갱신할 수 있다. 객체에 대한 특징 매칭이 완료되면 객체화 모듈(130)은 이미지 정보에 포함된 적어도 하나의 객체들의 초기 각도 평가를 수행할 수 있다. 객체화 모듈(130)은 객체 처리 장치(100)가 객체 추적 기능을 활성화하는 경우 매칭 정보 및 초기 각도 정보 중 적어도 하나를 포함하는 객체 관련 정보를 객체 추적 모듈(140)에 제공할 수 있다.The objectification module 130 can identify various objects constituting the image information. This objectification module 130 may include Feature Matching and Initial Pose Estimation operations. That is, the objectification module 130 can extract the feature points of the objects classified in the image information. Then, the objectification module 130 may match the minutiae points of the specific objects with the constant objects of the reference data. At this time, the objectification module 130 may update the matching information if there is no matching information of the minutiae points. When the feature matching for the object is completed, the objectification module 130 may perform an initial angle evaluation of at least one object included in the image information. The objectification module 130 may provide the object tracking module 140 with object related information including at least one of matching information and initial angle information when the object processing apparatus 100 activates the object tracking function.

객체 추적 모듈(140)은 인식된 타겟 객체들의 초기 각도 평가를 객체화 모듈(130)로부터 전달받는다. 그리고 객체 추적 모듈(140)은 연속적으로 타겟 객체의 각도 연산을 통해 트래킹을 유지할 수 있다. 객체 추적 모듈(140)은 객체 각도에 포함되는 인식 정보 및 객체 구분 정보의 기본 출력(basic Output)을 가질 수 있다. 특히 본 개시의 객체 추적 모듈(140)은 이미지 정보에서 객체들의 이동 통일성을 기반으로 적응적 객체 이동 연산을 적용할 수 있다. 이를 위하여 객체 추적 모듈(140)은 도 2에 도시된 바와 같은 구성을 포함할 수 있다.The object tracking module 140 receives the initial angular evaluation of the recognized target objects from the objectification module 130. And the object tracking module 140 may continuously maintain tracking through the angle operation of the target object. The object tracking module 140 may have a basic output of recognition information and object classification information included in the object angle. In particular, the object tracking module 140 of the present disclosure may apply an adaptive object movement operation based on the mobility of objects in the image information. For this, the object tracking module 140 may include a configuration as shown in FIG.

이하에서 설명하는 객체 추적 모듈(140)은 복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하는 동작을 수행하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함할 수 있다. 이 경우 객체 추적 모듈(140)은 상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하는 동작, 상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하는 동작 및 상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하는 동작을 수행할 수 있다. 그리고 객체 추적 모듈(140)의 추적하는 동작은 상기 분산 값의 적어도 일부를 이용하여, 상기 적어도 하나의 객체를 추적하는 동작을 다르게 수행하는 동작을 포함할 수 있다.The object tracking module 140, described below, performs an operation of tracking at least one object contained on a plurality of digital images, wherein the digital images include a first image and a second image . In this case, the object tracking module 140 may be configured to determine phase correlation values between at least a portion of the first image and at least a portion of the second image, determining a position of a peak value, and using the peak value at least in part to determine a variance of the phase correlation values. And the tracking operation of the object tracking module 140 may include performing at least a portion of the variance value to perform the operation of tracking the at least one object differently.

객체 추적 모듈(140)은 상기 분산 값이 선택된 값 미만 또는 이하인 경우, 제 1 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작을 수행하고, 상기 분산 값이 선택된 값 초과 또는 이상인 경우, 제 2 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작을 수행할 수 있다.The object tracking module 140 performs an operation of tracking the at least one object using a first process when the variance value is less than or equal to a selected value and if the variance value is greater than or equal to a selected value, The process may be used to perform an operation of tracking the at least one object.

상기 제 1 프로세스는 제 1 이미지상의 제 1 위치에 있는 적어도 하나의 객체가 제 2 이미지 상의 제 2 위치로 이동하였는지를 결정하는 동작을 수행하며, 상기 제 2 위치는 상기 피크값의 위치를 이용하여 결정될 수 있다.Wherein the first process performs an operation of determining whether at least one object at a first location on a first image has moved to a second location on a second image and wherein the second location is determined using the location of the peak value .

상기 제 1 프로세스는 상기 제 1 이미지 상의 제 1 위치의 영역과 상기 제 2 이미지 상의 제 2 위치의 영역 간의 픽셀 상관관계 (pixel correlation)를 결정하는 동작을 포함할 수 있다. 여기서 상기 제 1 프로세스는 상기 픽셀 상관관계가 선택된 값 이상 또는 초과인 경우, 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동한 것으로 결정할 수 있다. 그리고 제1 프로세스는 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동하지 않은 것으로 결정된 경우, 상기 피크 값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행할 수 있다.The first process may include determining a pixel correlation between a region of a first location on the first image and a region of a second location on the second image. Wherein the first process may determine that the at least one object has moved from the first position to the second position if the pixel correlation is greater than or equal to a selected value. And the first process may perform tracking of the at least one object separately from the position of the peak value if it is determined that the at least one object has not moved from the first position to the second position.

상기 피크 값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작은 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 동작이 될 수 있다. Performing tracking of the at least one object separately from the position of the peak value may be an operation of performing a phase correlation operation on each of the at least one object with respect to the first image and the second image.

한편, 상기 제 2 프로세스는 상기 피크 값의 위치와 별도로 상기 적어도 하나의 객체의 추적을 수행하는 동작을 하는데 이때 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행할 수 있다. 위에서 설명한 적어도 하나의 객체 각각에 대한 위상 상관 연산을 수행하는 동작은 상기 적어도 하나의 객체를 선택된 형태로 근사화될 수 있다.Wherein the second process is to perform tracking of the at least one object separately from the position of the peak value, wherein a phase correlation operation for each of the at least one object is performed on the first image and the second image Can be performed. Performing a phase correlation operation on each of the at least one object described above may be approximated to a selected form of the at least one object.

이상에서 설명한 객체 추적 모듈(140)의 각 프로세스에 대하여 이하에서는 예시적으로 일정 구성에 대응하는 명칭을 부여하고 각 구성들의 동작 수행에 대하여 설명하기로 한다.Hereinafter, each process of the object tracking module 140 described above will be described by giving a name corresponding to a certain configuration as an example and performing operations of the respective configurations.

도 2는 도 1에서의 구성 중 객체 추적 모듈(140)의 구성을 보다 상세히 나타낸 도면이다.FIG. 2 is a diagram illustrating the structure of the object tracking module 140 in FIG. 1 in more detail.

도 2를 참조하면, 객체 추적 모듈(140)은 객체 각도 예측부(141)(Object Pose Prediction unit), 특징 검출부(142)(Feature detection unit), 디스크립터 연산부(143)(Descriptors calculation unit), 특징 매칭부(144)(Feature matching unit) 및 각도 평가부(145)(Pose estimation unit)를 포함할 수 있다.2, the object tracking module 140 includes an object angle predicting unit 141, a feature detecting unit 142, a descriptors calculating unit 143, And may include a matching unit 144 and a Pose estimation unit 145.

객체 각도 예측부(141)는 이미지 정보에 포함된 적어도 하나의 객체의 각도(Pose)를 예측(Prediction)할 수 있다. 객체 각도 예측부(141)는 객체화 모듈(130)로부터 이미지 정보에 포함된 적어도 하나의 객체들에 대한 초기 각도 평가 값을 전달받을 수 있다. 이에 따라 객체 각도 예측부(141)는 객체들의 초기 각도 평가 값을 기반으로 이미지 정보에 포함된 객체들의 이동에 따른 객체 각도를 예측할 수 있다. 즉 객체 각도 예측부(141)는 초기 각도 평가 값을 기반으로 이미지 정보에 포함된 적어도 하나의 객체들이 어느 위치 및/또는 어떠한 방향이나 각도로 이동 했는지를 예측할 수 있다. The object angle predicting unit 141 may predict the angle of at least one object included in the image information. The object angle prediction unit 141 may receive an initial angle evaluation value for at least one object included in the image information from the objectification module 130. [ Accordingly, the object angle predicting unit 141 can estimate the object angle according to the movement of the objects included in the image information based on the initial angle evaluation value of the objects. That is, the object angle predicting unit 141 can predict at which position and / or direction or angle at least one object included in the image information is moved based on the initial angle evaluation value.

이를 보다 상세히 설명하면, 객체 각도 예측부(141)는 이전 획득된 이미지 정보와 현재 획득된 이미지 정보를 비교하여 전체적인 이미지 정보의 이동 정도 즉 이동 거리와 이동 방향, 이동 각도 중 적어도 하나를 산출할 수 있다. 그리고 객체 각도 예측부(141)는 산출된 이동 정도를 기반으로 이미지 정보에 포함된 적어도 하나의 객체 이동을 예측할 수 있다. 예컨대 객체 각도 예측부(141)는 이전 프레임과 현재 프레임 간의 위상 상관 연산(Phase correlation)을 수행할 수 있다. 이때 객체 각도 예측부(141)는 FFT(Fast Fourier transform) 알고리즘을 적용하여 위상 상관 연산을 수행할 수 있다. 객체 각도 예측은 실시간으로 수행될 수 있다. More specifically, the object angle predicting unit 141 may calculate at least one of the degree of movement of the entire image information, that is, the moving distance, the moving direction, and the moving angle by comparing the previously obtained image information with the currently obtained image information have. The object angle predicting unit 141 may predict at least one object movement included in the image information based on the calculated movement level. For example, the object angle predicting unit 141 may perform phase correlation between a previous frame and a current frame. At this time, the object angle predicting unit 141 may perform a phase correlation operation by applying an FFT (Fast Fourier Transform) algorithm. Object angle prediction can be performed in real time.

한편 본 개시의 객체 각도 예측부(141)는 이전 프레임과 현재 프레임들에 포함된 각 객체들의 이동 통일성(reliability) 검사를 수행할 수 있다. 객체 각도 예측부(141)는 이동 통일성 판단을 위해 프레임들의 위상 상관 연산의 분산 값을 산출할 수 있다. 위상 상관 연산의 분산 값이 사전 정의된 일정 값 이내이며 각 객체들의 이동 방향성이 유효한 경우 객체 각도 예측부(141)는 이미지 정보에 포함된 객체들이 예측된 위치로 이동한 것으로 예측할 수 있다. 이에 따라 객체 각도 예측부(141)는 위상 상관 연산을 통한 이동 거리, 방향, 각도 예측을 적용하도록 제어할 수 있다. 여기서 객체들의 이동 예측과 실제 이동이 일치되는 경우 객체 각도 예측부(141)는 객체 이동이 유효한 것으로 판단할 수 있다. 객체들의 이동 방향에 대한 유효성은 각도 평가부(145)로부터 제공받을 수 있다. Meanwhile, the object angle prediction unit 141 of the present disclosure can perform a reliability check of each object included in the previous frame and the current frames. The object angle predicting unit 141 may calculate the variance value of the phase correlation of the frames for determining the coherency. When the variance value of the phase correlation is within a predefined constant value and the moving direction of each object is valid, the object angle prediction unit 141 can predict that the objects included in the image information have moved to the predicted position. Accordingly, the object angle predicting unit 141 can control the movement distance, direction, and angle prediction through the phase correlation calculation. Here, when the movement prediction of the objects coincides with the actual movement, the object angle prediction unit 141 may determine that the object movement is effective. The validity of the moving direction of the objects can be provided from the angle evaluation unit 145.

객체 각도 예측부(141)는 위상 상관 연산의 분산 값이 사전 정의된 일정 값 범위 이내이지만 각 객체들의 이동 방향성이 유효하지 않은 경우 객체들의 실제 이동 방향을 검출하도록 제어할 수 있다. 이때 객체 각도 예측부(141)는 이동 방향성이 유효하지 않은 객체들만을 지정하여 위상 상관 연산을 수행하거나 또는 전체 객체들의 위상 상관 연산을 수행하도록 제어할 수 있다.The object angle predicting unit 141 can control to detect the actual moving direction of the objects when the variance value of the phase correlation calculation is within the predefined constant value range but the moving direction of each object is not valid. At this time, the object angle predicting unit 141 may perform phase correlation calculation by designating only objects whose movement direction is invalid, or may control to perform phase correlation of all objects.

한편 객체 각도 예측부(141)는 위상 상관 연산의 분산 값이 사전 정의된 일정 값을 벗어난 경우 객체들의 이동 방향이 일치되지 않는 것으로 예측할 수 있다. 이 경우 객체 각도 예측부(141)는 이미지 정보에 포함된 각 객체들에 대한 위상 상관 연산을 수행할 수 있다. 그리고 객체 각도 예측부(141)는 위상 상관 연산 결과를 기반으로 이동 거리와 방향을 예측할 수 있다.On the other hand, the object angle predicting unit 141 can predict that the moving directions of the objects do not coincide with each other when the variance value of the phase correlation calculation deviates from the predefined constant value. In this case, the object angle predicting unit 141 may perform a phase correlation operation on each of the objects included in the image information. Then, the object angle predicting unit 141 can predict the movement distance and the direction based on the phase correlation calculation result.

객체 각도 예측부(141)에 의한 객체 이동 예측이 완료되면 특징 검출부(142)는 현재 획득된 이미지 정보의 특징을 검출할 수 있다. 특징 검출부(142)가 수행하는 이미지 정보의 특징 검출은 인식 모듈(120)에서 수행되는 특징 검출과 동일한 과정이 적용될 수 있다. 또는 특징 검출부(142)가 수행하는 특징 검출 과정은 인식 모듈(120)에 비하여 보다 간소화된 특징 검출이 될 수 있다. 즉 특징 검출부(142)는 객체의 이동 추적을 지원하기 위하여 인식 모듈(120)에서 수행된 특징 검출에 비하여 상대적으로 보다 적은 특징점 개수 추출 또는 보다 적은 영역의 특징점 추출을 수행할 수 있다.When the object motion prediction unit 141 predicts the movement of the object, the feature detection unit 142 can detect the feature of the currently obtained image information. The feature detection of the image information performed by the feature detection unit 142 may be the same as the feature detection performed by the recognition module 120. [ Or the feature detection process performed by the feature detection unit 142 may be more simplified feature detection than the recognition module 120. [ That is, the feature detector 142 may perform a relatively smaller number of feature points extraction or a smaller number of feature points extraction than the feature detection performed by the recognition module 120 to support the movement tracking of the object.

디스크립터 연산부(143)는 특징 검출 결과를 토대로 디스크립터를 연산할 수 있다. 디스크립터 연산부(143)는 객체 추적 모듈(140)의 특징 검출부(142)에서 검출한 특징점들을 기반으로 디스크립터를 연산할 수 있다. 여기서 디스크립터는 이미지 정보 상에 배치된 일정 영역 또는 일정 개수의 특징점들에 의해 정의될 수 있다. 디스크립터 연산부(143)는 디스크립터 연산이 완료되면 해당 결과를 특징 매칭부(144)에 제공할 수 있다.The descriptor arithmetic section 143 can calculate the descriptor based on the feature detection result. The descriptor operation unit 143 may calculate descriptors based on the feature points detected by the feature detection unit 142 of the object tracking module 140. Here, the descriptor may be defined by a certain region or a predetermined number of feature points disposed on the image information. The descriptor operation unit 143 may provide the result to the feature matching unit 144 when the descriptor operation is completed.

특징 매칭부(144)는 디스크립터 연산부(143)에 의해 계산된 디스크립터를 기반으로 특징 매칭을 수행할 수 있다. 즉 특징 매칭부(144)는 이전 프레임의 일정 위치의 특징점들로 구성된 디스크립터와 현재 프레임의 일정 위치의 특징점들로 구성된 디스크립터 간의 매칭을 수행할 수 있다. The feature matching unit 144 may perform feature matching based on the descriptor calculated by the descriptor operation unit 143. [ That is, the feature matching unit 144 may perform a matching between a descriptor consisting of minutiae of a certain position of a previous frame and a descriptor consisting of minutiae of a certain position of the current frame.

각도 평가부(145)는 이전 프레임 및 현재 프레임 간의 디스크립터 매칭을 통하여 이미지 정보의 이동이 얼마의 각도로 어느 정도의 위치까지 발생하였는지에 대한 평가를 수행할 수 있다. 이를 기반으로 각도 평가부(145)는 특징 매칭부(144)의 디스크립터 비교를 통하여 이미지 정보에 포함된 객체들의 이동이 일치되는지를 확인할 수 있다. 이때 각도 평가부(145)는 이미지 정보에 포함된 객체들의 이동에 대한 방향이 예측된 정보와 일치되는지 검사할 수 있다.The angle evaluating unit 145 may perform an evaluation as to how much the movement of the image information has occurred to some extent through the descriptor matching between the previous frame and the current frame. Based on this, the angle evaluating unit 145 can check whether the movement of the objects included in the image information coincide with each other by comparing the descriptors of the feature matching unit 144. At this time, the angle evaluating unit 145 may check whether the direction of movement of the objects included in the image information coincides with the predicted information.

그리고 각도 평가부(145)는 객체들의 이동 방향이 일치되는 경우 객체들의 이동 유효 상태를 판단할 수 있다. 그리고 각도 평가부(145)는 객체 이동이 유효한 경우 위상 상관 연산 결과를 이미지 정보의 추적 처리에 적용할 수 있다. 한편 각도 평가부(145)는 객체들의 이동 방향이 일치되지 않는 경우 이미지 정보 보정을 수행할 수 있다. 각도 평가부(145)는 이동 방향이 다른 객체들만을 지정하여 해당 객체들의 방향 및 거리 보정을 수행할 수 있다. 또는 각도 평가부(145)는 현재 이미지 정보에 포함된 객체들 전체에 대하여 방향 및 거리 보정을 수행할 수 있다. The angle evaluating unit 145 can determine the movement valid state of the objects when the moving directions of the objects coincide with each other. If the object movement is valid, the angle evaluation unit 145 may apply the phase correlation calculation result to the tracking processing of the image information. Meanwhile, the angle evaluating unit 145 may perform image information correction when the moving directions of the objects do not match. The angle evaluating unit 145 may specify only objects having different moving directions to perform direction and distance correction of the objects. Or the angle evaluating unit 145 may perform direction and distance correction on all the objects included in the current image information.

상술한 이동 통일성 및 객체들의 이동 방향의 유효성 여부를 기반으로 한 객체 추적 기능에 대하여 도 3 내지 도 6을 참조하여 보다 상세히 설명하기로 할 수 있다.The object tracking function based on the above-described uniformity of movement and the validity of the direction of movement of objects can be described in more detail with reference to FIG. 3 to FIG.

도 3은 본 개시의 실시 예에 따른 객체 추적 방법을 설명하기 위한 도면이다. 도 4는 도 3의 제1 실시 예(“A")에 따른 객체 추적 상황, 도 5는 도 3의 제2 실시 예(“B")에 따른 객체 추적 상황 및 도 6은 도 3의 제3 실시 예(“C")에 따른 객체 추적 상황을 설명하기 위한 도면이다. 3 is a diagram for explaining an object tracking method according to an embodiment of the present disclosure. FIG. 4 shows an object tracking situation according to the first embodiment ("A") of FIG. 3, FIG. 5 shows an object tracking situation according to the second embodiment ("B" FIG. 8 is a diagram for explaining an object tracking situation according to the embodiment (" C ").

본 개시의 제1 실시 예(“A") 설명을 위해 도 3 및 도 4를 참조하면, 본 개시의 객체 추적 방법은 객체 추적 모듈(140)이 301 단계(Operation)에서 획득된 이미지 정보를 확인하여 움직임 검출이 있는지 여부를 확인할 수 있다. 이를 위하여 본 개시의 객체 추적 모듈(140)은 현재 획득된 이미지 정보와 이전 획득된 이미지 정보 간의 위상 상관 연산을 수행할 수 있다. 특히 객체 추적 모듈(140)은 현재 이미지 정보에서 사전 검출된 적어도 하나의 객체들 움직임을 검출할 수 있다. 그리고 객체 추적 모듈(140)은 객체들의 움직임이 검출되면 객체들의 이동에 따른 이미지 정보 비교를 수행할 수 있다. 3 and 4 for the purpose of describing the first embodiment ("A") of the present disclosure, the object tracking method of the present disclosure is characterized in that the object tracking module 140 checks the image information obtained in operation 301 The object tracking module 140 of the present disclosure may perform phase correlation between the currently obtained image information and the previously acquired image information. In particular, the object tracking module 140 May detect movement of at least one object detected in advance in the current image information. The object tracking module 140 may perform image information comparison according to movement of the objects when motion of the objects is detected.

객체 추적 모듈(140)은 305 단계(Operation)에서 객체들의 이동에 따른 이미지 정보 비교 결과로서 산출된 이동 통일성이 기준 값 이상인지 확인할 수 있다. The object tracking module 140 can check whether the calculated mobile unity is equal to or greater than a reference value as a result of comparing the image information according to the movement of the objects in operation 305. [

여기서 이동 통일성은 해당 이미지 정보에 포함된 전체 객체들의 이동 방향이 동일 또는 유사하게 이동되었는지를 확인하는 단계(Operation)가 될 수 있다. 이를 위하여 현재 이미지 정보와 이전 이미지 정보 간의 위상 상관 연산의 분산 값을 확인할 수 있다. 전체 이미지 정보에 대한 위상 상관 연산에 따른 2차원 평가 영역에서의 결과 값이 일정 지점의 피크 값으로 나타나는 경우는 상대적으로 분산 값이 낮은 경우에 해당할 수 있다. 분산 값이 낮은 경우 이동 통일성이 높은 것으로 간주될 수 있다. 그리고 전체 이미지 정보에 대한 위상 상관 연산 결과 값이 2차원 평가 영역에서 집중되지 않고 흩어져 나타나는 경우는 분산 값이 상대적으로 높은 경우에 해당할 수 있다. 분산 값이 높은 경우 이동 통일성이 낮은 것으로 간주될 수 있다. 상술한 분산 값은 일정 연산에 따라 수치로 도출될 수 있으며, 결과적으로 이동 통일성은 일정 수치에 대응하도록 간주될 수 있다. In this case, the unity of movement may be an operation for confirming whether the moving directions of all the objects included in the image information are moved in the same or similar manner. For this purpose, the variance of the phase correlation between the current image information and the previous image information can be confirmed. When the resultant value in the two-dimensional evaluation region according to the phase correlation calculation for the entire image information appears as a peak value at a certain point, it may correspond to a case where the variance value is relatively low. If the variance value is low, the uniformity of movement can be regarded as high. If the phase correlation results of the entire image information are scattered rather than concentrated in the two-dimensional evaluation region, it may correspond to a case where the variance value is relatively high. If the variance value is high, it can be regarded as low coherence. The above-described variance value can be derived as a numerical value according to a certain calculation, and as a result, the mobile coherence can be regarded as corresponding to a certain value.

한편 이동 통일성에 대한 분석을 위하여 위상 상관 연산을 사용하는 방식을 예로 하여 설명하였으나 본 개시가 이에 한정되는 것은 아니다. 즉 상술한 이동 통일성은 이미지 정보에서 추적 중인 객체들의 이동 방향이 동일 또는 유사한지에 대한 정도를 나타내는 값이다. 따라서 이미지 정보에서의 객체들의 이동 방향을 산출할 수 있는 방식이라면 본 개시의 이동 통일성을 분석하는데 이용될 수 있다. 예컨대 이미지 정보에 포함된 복수의 객체들 중 랜덤하게 선택된 또는 일정 기준으로 선택된 복수의 객체들의 이동 방향 동일성 여부에 따라 이동 통일성을 결정할 수도 있다.On the other hand, for the analysis of the uniformity of movement, a method of using phase correlation is described as an example, but the present disclosure is not limited thereto. That is, the above-mentioned mobility uniformity is a value indicating the extent to which the moving directions of the objects being tracked in the image information are the same or similar. Thus, a method capable of calculating the direction of movement of objects in image information can be used to analyze the mobile uniformity of the present disclosure. For example, the movement uniformity may be determined according to whether the plurality of objects randomly selected from the plurality of objects included in the image information or selected on a constant basis are moved in the same direction.

305 단계(Operation)에서 이동 통일성이 기준 값 이상인 경우 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들의 이동이 유효한지 여부를 확인할 수 있다. 305 단계(Operation)에서 이동 통일성이 기준 값 이상인 상태는 이미지 정보의 객체들의 이동 방향이 대체적으로 동일한 상태임을 의미할 수 있다. 한편 307 단계(Operation)의 객체들의 이동 유효성 확인 과정은 객체들의 이동 예측 정보가 유효한지를 확인하는 과정이 될 수 있다. 즉 객체 추적 모듈(140)은 앞서 설명한 바와 같이 이미지 정보에서 객체들의 이동을 예측하고, 예측 결과를 검증하는 과정을 수행할 수 있다. 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들에 대하여 예측한 이동 지점에 실제로 해당 객체가 있는지 여부를 확인하는 과정을 수행할 수 있다. 이 과정에서 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 객체들에 대하여 선별적인 객체 이동 유효성 확인을 수행할 수 있다.If the mobility uniformity is equal to or greater than the reference value in operation 305, the object tracking module 140 can check whether the movement of the objects is valid in operation 307. In step 305, a state in which the uniformity of movement is equal to or greater than the reference value may mean that the moving directions of the objects of the image information are substantially the same. The movement validation process of the objects in operation 307 may be a process of confirming whether the movement prediction information of the objects is valid. That is, the object tracking module 140 can predict the movement of objects in the image information and verify the prediction results as described above. The object tracking module 140 may check whether the corresponding object is actually located at the movement point predicted for the objects in operation 307. [ In this process, the object tracking module 140 may perform a selective object movement validity check on the objects being tracked included in the image information.

이를 보다 상세히 설명하면, 객체 추적 모듈(140)은 이미지 정보에서 추적 중인 복수개의 객체들 중 하나 또는 그 이상의 객체들을 추적할 수 있다. 이때 객체 추적 모듈(140)은 하나 또는 그 이상의 객체들 중 주도적인 객체(Main Object)에 대한 추적을 수행할 수 있다. 주도적인 객체는 객체 추적 모듈(140)의 연산 능력에 따라 달라질 수 있다. 예컨대 주도적인 객체는 이미지 정보에서 구분되는 다수개의 객체들 중 일정 크기 이상으로 식별되는 적어도 하나의 객체가 될 수 있다. In more detail, the object tracking module 140 may track one or more objects from a plurality of objects being tracked in the image information. At this time, the object tracking module 140 may perform tracking on a main object of one or more objects. The dominant object may vary depending on the computation capability of the object tracking module 140. For example, a dominant object may be at least one object identified by a certain size or more among a plurality of objects classified in the image information.

객체의 구분은 이미지 정보에서 다양한 정보에 의하여 수행될 수 있다. 예컨대 이미지 정보에 하나 또는 그 이상의 경계 영역들이 포함되고, 하나 또는 그 이상의 경계 영역들에 의하여 적어도 하나의 폐곡면이 형성되는 경우 객체 추적 모듈(140)은 폐곡면을 하나의 객체로 구분할 수 있다. 또한 객체 추적 모듈(140)은 폐곡면이 아니더라도 주변 영역과 구분되는 일정 영역을 객체로 구분할 수도 있다. 또한 객체 추적 모듈(140)은 이미지 정보 분석 과정에서 그림자 영역을 가지는 일정 부분을 객체로 구분할 수 있다. 또한 객체 추적 모듈(140)은 앞서 설명한 디스크립터가 일정 개수 이상 포함된 영역 또는 디스크립터에 의하여 분석되는 영역이 일정 크기 이상이 되는 영역 등을 객체로 구분할 수 있다. Classification of objects can be performed by various information in image information. For example, if one or more boundary regions are included in the image information and at least one closed curved surface is formed by one or more boundary regions, the object tracking module 140 may classify the closed curved surface into one object. In addition, the object tracking module 140 may divide a predetermined region, which is different from the surrounding region, into objects even if the object is not a closed surface. In addition, the object tracking module 140 can divide a certain portion having shadow regions into objects in the process of analyzing image information. In addition, the object tracking module 140 may divide an area including a predetermined number or more of the descriptors described above or an area having a predetermined size or larger area analyzed by the descriptors into objects.

본 개시에서 개시하는 객체 추적 방법은 이미지 정보 인식 및 객체화 과정을 수행하여 이미지 정보에서 객체가 구분된 상황을 가정할 수 있다. 그리고 본 개시의 객체 추적 방법은 상술한 가정 상황에서 객체들의 추적 과정을 보다 효율적으로 수행할 수 있도록 지원하는 기술을 제공할 수 있다. 따라서 본 개시의 객체 추적 방법은 앞서 언급한 객체 인식과 객체화 과정에 한정되는 것은 아니다. 즉 본 개시의 객체 추적 방법은 보다 다양한 객체 인식 및 객체화 방법 적용에 따라 객체가 구분된 상황에서 적용될 수 있을 것이다.The object tracking method disclosed in this disclosure can assume a situation in which objects are separated in image information by performing an image information recognition and objectification process. The object tracking method of the present disclosure can provide a technique for supporting the tracking process of objects more efficiently in the above-described assumption situation. Therefore, the object tracking method of the present disclosure is not limited to the above-described object recognition and objectification processes. That is, the object tracking method of the present disclosure can be applied in a situation where objects are classified according to application of various object recognition and objecting methods.

한편, 이동 통일성이 기준 값 이상이 되는 경우는 전체 객체들이 대체적으로 유사한 이동 경로를 가지는 경우에 해당할 수 있다. 특히 이미지 정보에 포함된 전체 객체들 중 상대적으로 큰 영역을 차지하는 객체들이 이동 통일성에 기여하는 가중치가 다른 객체들에 비하여 상대적으로 크게 기여하게 될 것이다. 따라서 이동 통일성이 기준 값 이상이면서 객체들의 이동이 유효하지 않은 경우는 이미지 정보에 포함된 전체 객체들 중 상대적으로 작은 영역을 가지는 객체들의 이동 방향이 다를 확률이 높다. 따라서 객체 추적 모듈(140)은 307 단계(Operation)에서 객체들의 이동 유효성 판단을 수행할 때, 이미지 정보에 포함된 객체들 중 상대적으로 작은 영역을 가지는 객체들에 이동 유효성 판단을 수행하는 것이 바람직할 수 있다. 이를 위해 객체 추적 모듈(140)은 307 단계(Operation)에서 상대적으로 작은 영역을 가지는 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 여기서 사전 정의된 영역의 크기는 설계자의 의도에 따라 또는 실험적 결과에 따라 결정되거나 변경될 수 있다.On the other hand, when the mobility uniformity is equal to or greater than the reference value, it may correspond to a case where all the objects have substantially similar movement paths. In particular, the objects that occupy a relatively large area among the entire objects included in the image information will contribute relatively to the weight of the objects contributing to the unity of movement, as compared with other objects. Therefore, when the movement uniformity is equal to or greater than the reference value and the movement of the objects is not valid, there is a high probability that the moving directions of the objects having a relatively small area among all the objects included in the image information are different. Accordingly, when the object tracking module 140 determines the movement validity of the objects in operation 307, it is preferable that the object tracking module 140 performs the movement validity determination on the objects having a relatively small area among the objects included in the image information . For this, the object tracking module 140 may perform the movement validity determination by performing phase correlation operation on objects having a relatively small area in operation 307. [ Where the size of the predefined area may be determined or changed according to the intent of the designer or according to the experimental results.

이미지 정보에서 주도적 객체가 없는 경우 객체 추적 모듈(140)은 각각의 추적 중인 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 주도적 객체가 없는 경우는 이미지 정보에 유사 크기의 객체들이 다수개가 배치된 상태가 될 수 있다. 유사 크기의 다수 객체들이 배치된 경우에는 어떠한 객체가 전체 이동 방향과 다른 방향으로 이동하였는지 정확히 판별할 가능성이 낮을 수 있다. 이에 따라 객체 추적 모듈(140)은 주도적 객체가 없는 경우 또는 유사한 크기들의 객체들이 배치된 경우 이동 유효성 판단을 위해 별도 객체 지정을 수행하지 않고 각각의 객체들에 대한 위상 상관 연산을 수행하여 이동 유효성 판단을 수행할 수 있다. 이때 객체 추적 모듈(140)은 전체 객체들에 대하여 샘플링을 수행하고, 샘플링된 객체들의 이동 유효성 판단을 기준으로 전체 객체들에 대한 이동 유효성 판단을 결정할 수도 있다.If there is no dominant object in the image information, the object tracking module 140 may perform phase correlation calculation for each of the objects being tracked to perform movement validity determination. In the absence of the dominant object, a plurality of objects of similar size may be arranged in the image information. If multiple objects of similar size are placed, it is unlikely that an object will be able to distinguish accurately from the entire movement direction. Accordingly, the object tracking module 140 performs a phase correlation operation on each of the objects without performing a separate object designation in order to determine movement validity when there is no dominant object, or when objects of similar sizes are disposed, Can be performed. At this time, the object tracking module 140 may perform sampling on all the objects and determine the movement validity of all the objects based on the determination of the movement validity of the sampled objects.

307 단계(Operation)에서 예측한 지점에 이동된 객체들이 존재하면 객체 추적 모듈(140)은 객체 이동 유효성이 있는 것으로 간주하고 309 단계(Operation)에서 객체들의 이동 적용을 수행할 수 있다. 즉 객체 추적 모듈(140)은 예측된 결과가 올바른 것으로 판단하고 그에 따른 객체 추적을 적용할 수 있다. 또한 객체 추적 모듈(140)은 예측된 지점에 특정 컨텐츠 적용을 수행할 수 있다. 예컨대 객체 추적 모듈(140)은 예측된 지점에 증강 현실 적용을 위해 마련한 컨텐츠 출력을 지원할 수 있다. 상술한 305 단계(Operation) 내지 309 단계(Operation)는 도 4에 나타낸 바와 같이 이미지 정보에서 객체들의 이동이 동일한 상태에 해당할 수 있다.If there are objects moved to the predicted point in operation 307, the object tracking module 140 regards that the object movement is valid and can perform the movement application of the objects in operation 309. [ That is, the object tracking module 140 may determine that the predicted result is correct and apply object tracking accordingly. The object tracking module 140 may also perform specific content application at the predicted point. For example, the object tracking module 140 may support the content output provided for the augmented reality application at the predicted point. In the operation 305 to operation 309, the movement of objects in the image information may correspond to the same state as shown in FIG.

도 4에서는 이미지 정보(40) 영역에 3개의 객체들(41, 42, 43)이 배치된 것을 예시한 것이다. 즉, 도 4에서 객체 추적 모듈(140)은 이미지 정보(40)에서 복수개의 객체들(41, 42, 43) 예컨대 배경 객체(background)(43), 제1 객체(Obj1)(41) 및 제2 객체(Obj2)(42)에 대한 추적을 수행할 수 있다. 배경 객체(43), 제1 객체(41) 및 제2 객체(42)는 이미지 정보(40)에 대한 인식 및 객체화 과정에서 선정된 것일 수 있다. 객체 추적 모듈(140)은 객체화 모듈(130)로부터 상술한 객체들(41, 42, 43)에 대한 정보를 수신할 수 있다. In FIG. 4, three objects 41, 42, and 43 are arranged in the image information area 40. FIG. 4, the object tracking module 140 includes a plurality of objects 41, 42 and 43 such as a background object 43, a first object Obj1, 2 object (Obj2) 42. In this case, The background object 43, the first object 41 and the second object 42 may be selected in the recognition and objectification process for the image information 40. The object tracking module 140 may receive information about the objects 41, 42, and 43 from the objectification module 130.

객체 추적 모듈(140)은 도 4에서와 같이 복수개의 객체들(41, 42, 43)에 대하여 추적하는 경우 복수개의 객체들(41, 42, 43)에 대한 현재 이미지 정보와 이전 이미지 정보 간의 위상 상관 연산의 분산 값 산출을 수행할 수 있다. 이동 방향이 동일 또는 유사한 객체들의 위상 상관 연산의 분산 값은 2차원 상에서 일정 지점에 집중된 값 또는 일정 지점의 피크 값으로 산출될 수 있다. 그리고 이동 방향이 다른 경우 위상 상관 연산의 분산 값은 일정 지점에 집중되지 않고 2차원 상에서 흩어진 값으로 나타날 수 있다. 이러한 특성은 앞서 설명한 바와 같이 객체들의 이동 방향에 대한 이동 통일성으로 정의될 수 있다. 따라서 도 4의 도면에서 객체들(41, 42, 43)의 이동 방향이 일치되는 것으로 가정하였기 때문에 위상 상관 연산의 분산 값 산출 시 상대적으로 높은 이동 통일성 값이 검출될 수 있다. 4, the object tracking module 140 detects the phase difference between the current image information and the previous image information for the plurality of objects 41, 42, and 43 when tracking the plurality of objects 41, 42, The variance value calculation of the correlation calculation can be performed. The variance value of the phase correlation of objects having the same or similar moving directions can be calculated as a value concentrated at a certain point on a two-dimensional plane or a peak value at a certain point. If the direction of movement is different, the variance of the phase correlation may not be concentrated at a certain point but may appear as a scattered value in two dimensions. This property can be defined as the mobility uniformity with respect to the moving direction of the objects as described above. Therefore, since it is assumed that the moving directions of the objects 41, 42, and 43 coincide with each other in FIG. 4, a relatively high mobility uniformity value can be detected in calculating the variance value of the phase correlation.

도 4에서 나타낸 바와 같이 배경 객체(43)와 제1 객체(41) 및 제2 객체(42)가 동일한 방향으로 이동되는 경우 객체 추적 모듈(140)은 객체들에 대한 이동 예측 결과에 따른 에러가 거의 발생하지 않는 상태에서 이동 추적을 수행할 수 있다. 또한 객체 이동 통일성이 높은 경우 예측 위치에 대한 실제 객체의 이동 매핑의 에러가 작기 때문에 연산 과정에서 그에 따른 연산량을 줄일 수 있다. 객체 이동 통일성이 높은 경우에 대한 실제 상황의 예로는 이미지 센서의 이동 또는 이미지 센서를 장착한 장치의 이동을 들 수 있다. 즉 피사체에 대응하는 이미지 상의 개별 객체들의 움직임 없이 이미지 센서 자체가 움직일 경우가 객체 이동 통일성이 높은 상황에 해당할 수 있다.4, when the background object 43, the first object 41, and the second object 42 are moved in the same direction, the object tracking module 140 detects an error according to the movement prediction result on the objects It is possible to perform movement tracking in a state in which it hardly occurs. Also, when the object mobility is high, the error of the mobility mapping of the actual object to the predicted position is small, so the amount of computation according to the mobility can be reduced. An example of a real situation when the object movement uniformity is high is movement of the image sensor or movement of the device equipped with the image sensor. That is, when the image sensor itself moves without moving the individual objects on the image corresponding to the subject, it may correspond to a situation where the object movement uniformity is high.

한편, 본 개시의 제2 실시 예("B") 설명을 위해 도 3 및 도 5를 참조하기로 한다. 도 3의 305 단계(Operation)에서 이동 통일성이 기준 값 이상이며 307 단계(Operation)에서 객체들의 이동 유효성이 없는 경우, 객체 추적 모듈(140)은 311 단계(Operation)로 분기하여 지정 객체들의 위상 상관 연산을 각각 수행할 수 있다. 305 단계(Operation)에서의 이동 통일성이 기준 값 이상인 경우는 앞서 설명한 바와 같이 이미지 정보에 포함된 객체들의 이동이 대체적으로 유사한 경우에 해당할 수 있다. 그리고 307 단계(Operation)에서의 객체 이동 유효성이 없는 경우는 이미지 정보에 포함된 객체들 중 적어도 하나가 전체 객체들의 이동 방향과 상이한 경우에 해당할 수 있다. 또는 객체 이동 유효성이 없는 경우는 객체 추적 과정에서 예측된 위치에 실제 객체가 위치하지 않는 경우에 해당할 수 있다. 3 and 5 for a description of the second embodiment ("B") of the present disclosure. 3, if the mobility uniformity is equal to or greater than the reference value and there is no movement validity of the objects in operation 307, the object tracking module 140 branches to Operation 311, Respectively. If the mobility uniformity in operation 305 is equal to or greater than the reference value, the movement of the objects included in the image information may be substantially similar as described above. If there is no object movement validity in operation 307, it may correspond to a case where at least one of the objects included in the image information is different from the moving direction of all objects. Or if the object movement is not valid, it may correspond to the case where the actual object is not located at the predicted position in the object tracking process.

객체 추적 모듈(140)은 이미지 정보에서 추적 중인 전체 객체들의 이동을 확인하고 이를 기반으로 각 객체들의 이동을 예측할 수 있다. 그리고 객체 추적 모듈(140)은 예측된 위치에 실제 객체들이 있는지를 확인할 수 있다. 이를 위하여 객체 추적 모듈(140)은 이전 이미지 정보에서 특정 객체의 위치 특징과 현재 이미지 정보의 예측된 위치의 특징을 비교할 수 있다. 그리고 이전 이미지 정보의 특정 객체의 위치 특징이 현재 이미지 정보의 예측된 위치 특징과 상이하면, 객체 추적 모듈(140)은 객체 이동 유효성이 없는 것으로 판단할 수 있다. 이 과정에서 객체 추적 모듈(140)은 앞서 설명한 적어도 하나의 디스크립터 비교를 통하여 예측된 위치에 실제 객체가 위치하는지를 확인할 수 있다. 또는 객체 추적 모듈(140)은 이미지에 대한 NCC(Normalized Cross Correlation) 비교를 수행하여 실제 객체 위치 확인을 수행할 수 있다. The object tracking module 140 can confirm the movement of all the objects being tracked in the image information and predict the movement of each object based on the movement. Then, the object tracking module 140 can check whether there are actual objects at the predicted positions. To this end, the object tracking module 140 may compare features of the location of the specific object with the characteristics of the predicted location of the current image information in the previous image information. If the location characteristic of the specific object of the previous image information differs from the predicted location characteristic of the current image information, the object tracking module 140 may determine that the object movement is not valid. In this process, the object tracking module 140 can check whether the actual object is located at the predicted position through the comparison of the at least one descriptor. Or the object tracking module 140 may perform a normalized cross correlation (NCC) comparison on the image to perform an actual object position check.

311 단계(Operation)에서 객체 추적 모듈(140)은 이미지 정보에 포함된 하나 또는 그 이상의 객체들의 위상 상관 연산을 개별적으로 수행할 수 있다. 이 과정에서 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 모든 객체들 각각에 대하여 위상 상관 연산을 수행할 수 있다. 또는 객체 추적 모듈(140)은 이미지 정보에 포함된 추적 중인 전체 객체들 중 일정 객체들을 지정하고, 지정된 객체들의 위상 상관 연산을 수행할 수 있다. 예컨대 객체 추적 모듈(140)은 이동 유효성이 없는 객체들을 지정하고, 지정된 객체들에 대한 위상 상관 연산을 수행할 수 있다. In operation 311, the object tracking module 140 may individually perform phase correlation of one or more objects included in the image information. In this process, the object tracking module 140 may perform a phase correlation operation on each of the objects being tracked included in the image information. Alternatively, the object tracking module 140 may specify certain objects among the entire objects being tracked included in the image information, and perform phase correlation of the specified objects. For example, the object tracking module 140 may specify objects that are not in motion enabled and may perform phase correlation operations on the specified objects.

한편 객체 추적 모듈(140)은 객체 이동 유효성이 없는 경우로 판단되면, 이미지 정보에 포함된 추적 중인 객체들 중 주도적 객체들을 제외하고 상대적으로 작은 영역을 가지는 객체들만을 대상으로 개별적인 위상 상관 연산을 수행할 수 있다. 또는 객체 추적 모듈(140)은 이미지 정보에서 사전 정의된 일정 크기 이하의 영역을 가지는 객체들만을 대상으로 개별적인 위상 상관 연산을 수행할 수 있다. 이러한 적용 과정은 객체 이동 유효성 판별 기준에 따라 다르게 적용될 수 있다. 즉 추적 중인 객체들 중 선택된 특정 객체의 실제 위치와 예측 위치가 다르게 검출되어 이동 유효성이 없는 경우 객체 추적 모듈(140)은 전체 객체들에 대한 위상 상관 연산을 수행하거나 일부 객체들에 대한 위상 상관 연산을 수행할 수 있다. 이때 객체 추적 모듈(140)은 일부 객체들에 대한 위상 상관 연산을 수행하는 경우 앞서 언급한 주도적 객체를 제외한 객체들에 대한 처리 또는 일정 크기 이하의 영역을 가지는 객체들에 대한 처리를 수행할 수 있을 것이다.On the other hand, if it is determined that there is no object movement validity, the object tracking module 140 performs an individual phase correlation operation on only objects having a relatively small area excluding the dominant objects among the objects being tracked included in the image information can do. Or the object tracking module 140 may perform an individual phase correlation operation on only objects having a predetermined size or smaller in the image information. This application process can be applied differently according to the object movement validity criterion. That is, when the actual position and the predicted position of the selected specific object are detected differently and the movement tracking module does not have the movement validity, the object tracking module 140 performs phase correlation operation for all objects, Can be performed. In this case, when the object tracking module 140 performs the phase correlation operation on some objects, the object tracking module 140 can perform processing on the objects other than the dominant object or processes on the objects having a region smaller than a predetermined size will be.

객체 추적 모듈(140)은 이전 이미지 정보에서 이동 방향이 다른 객체에 포함된 적어도 하나의 디스크립터와 동일한 디스크립터를 현재 이미지 정보에서 검출할 수 있다. 그리고 객체 추적 모듈(140)은 매칭되는 디스크립터의 위치 확인을 통하여 실제 해당 객체의 이동 위치를 추적할 수 있다. 객체 이동 검출을 위한 위상 상관 연산 결과가 도출되면 객체 추적 모듈(140)은 313 단계(Operation)에서 결과 값에 따른 지정 객체들의 이동 보정을 수행할 수 있다. 이동 보정 수행 이후 객체 추적 모듈(140)은 이동 위치와 각도, 방향 중 적어도 하나가 보정된 객체들에 대하여 증강 현실 컨텐츠 적용을 지원할 수 있다.The object tracking module 140 may detect, in the current image information, a descriptor identical to at least one descriptor included in an object having a different moving direction from the previous image information. The object tracking module 140 can track the location of the corresponding object through checking the location of the matching descriptor. When the phase correlation calculation result for the object movement detection is derived, the object tracking module 140 can perform the movement correction of the designated objects according to the result value in operation 313 (Operation). After performing the motion compensation, the object tracking module 140 may support application of the augmented reality contents to the objects whose movement position, angle, and direction are corrected.

한편 객체들의 이동 유효성을 확인하는 307 단계(Operation)에서 객체 추적 모듈(140)은 전체 객체들 각각에 대한 이동 유효성을 판별하지 않고 일정 객체들의 이동 유효성만을 확인할 수 있다. 예컨대 객체 추적 모듈(140)은 307 단계(Operation)에서 일정 크기 이하의 영역을 가지는 객체들에 대해서만 이동 유효성을 확인할 수 있다. In operation 307, the object tracking module 140 may check movement effectiveness of certain objects without discriminating movement validity of each object. For example, the object tracking module 140 can check movement validity only for objects having an area smaller than a predetermined size in operation 307. [

도 5에서는 이미지 정보(40)가 배경 객체(background)(43)와 제1 객체(Obj1)(41) 및 제2 객체(Obj2)(42)가 포함된 상황을 예시한 것이다. 이 중 제1 객체(41) 및 제2 객체(42)의 이동 방향이 전체 객체들의 이동 방향과 다른 방향이 될 수 있다. 여기서 배경 객체(43)는 이미지 정보(40)의 이동 방향 예측 시 주도적 객체로서 작용할 수 있다. 그리고 상대적으로 배경 객체(43)에 비하여 작은 영역을 가지는 제1 객체(41) 및 제2 객체(42)는 이동 유효성 판단을 위한 객체들이 될 수 있다. 5 illustrates an example in which the image information 40 includes a background object 43, a first object Obj1 41, and a second object Obj2 42. FIG. The moving direction of the first object 41 and the second object 42 may be different from the moving direction of all the objects. Here, the background object 43 may act as a leading object in predicting the moving direction of the image information 40. In addition, the first object 41 and the second object 42 having a smaller area than the background object 43 may be objects for judging movement validity.

객체 추적 모듈(140)은 도 5에서의 객체들(41, 42, 43)의 이동 통일성이 배경 객체(43)에 의하여 일정 기준 값 이상으로 도출되었다 하더라도, 이동 유효성 확인 과정에서 객체들(41, 42, 43)의 예측 위치에 각 객체들(41, 42, 43)이 위치하지 않는 상황을 확인할 수 있다. 즉 객체 추적 모듈(140)은 배경 객체(43)에 의하여 수평 방향으로 객체 이동인 것으로 확인할 수 있다. 그리고 객체 추적 모듈(140)은 배경 객체(43)의 수평 이동 방향 및 이동 거리를 기준으로 다른 객체들(예컨대, 제1 객체(41), 제2 객체(42))에 대한 예측 위치를 추정할 수 있다. 그리고 객체 추적 모듈(140)은 추정된 위치에 제1 객체(41) 및 제2 객체(42)에 해당하는 특징들이 검출되는지 확인할 수 있다. The object tracking module 140 can determine whether the objects 41, 42 and 43 are moved in the moving validation process even if the moving uniformity of the objects 41, 42 and 43 in FIG. 42, and 43 are not located at the predicted positions of the objects 41, 42, and 43, respectively. That is, the object tracking module 140 can confirm that the object is moved in the horizontal direction by the background object 43. The object tracking module 140 estimates the predicted position for the other objects (e.g., the first object 41 and the second object 42) based on the horizontal movement direction and the movement distance of the background object 43 . Then, the object tracking module 140 can check whether the features corresponding to the first object 41 and the second object 42 are detected at the estimated position.

여기서 제1 객체(41) 및 제2 객체(42)는 실질적으로 배경 객체(43)와 다른 방향으로 이동한 것으로 가정하였다. 따라서 객체 추적 모듈(140)은 예측 위치에서 제1 객체(41) 및 제2 객체(42)의 특징을 검출할 수 없다. 이 경우 객체 추적 모듈(140)은 객체의 이동 유효성이 없는 것으로 판단할 수 있다. 그러면 객체 추적 모듈(140)은 이전 이미지 정보 및 현재 이미지 정보를 위상 상관 연산하여 제1 객체(41) 및 제2 객체(42)의 실제 이동 위치를 검출할 수 있다. 여기서 객체 추적 모듈(140)은 배경 객체(43)에 대한 위상 상관 연산을 수행하지 않을 수 있다. 그리고 객체 추적 모듈(140)은 이전 이미지 정보에서 제1 객체(41)의 영역 및 제2 객체(42)의 영역에 대해서만 위상 상관 연산을 수행할 수 있다. Here, it is assumed that the first object 41 and the second object 42 are substantially moved in a different direction from the background object 43. [ Therefore, the object tracking module 140 can not detect the characteristics of the first object 41 and the second object 42 at the predicted position. In this case, the object tracking module 140 may determine that there is no movement validity of the object. Then, the object tracking module 140 can detect the actual movement position of the first object 41 and the second object 42 by phase-correlating the previous image information and the current image information. Here, the object tracking module 140 may not perform a phase correlation operation on the background object 43. The object tracking module 140 may perform phase correlation only on the area of the first object 41 and the area of the second object 42 in the previous image information.

또 한편, 본 개시의 제3 실시 예("C")의 설명을 위해 도 3 및 도 6을 참조하면, 305 단계(Operation)에서 이동 통일성이 기준 값 이하인 경우 객체 추적 모듈(140)은 315 단계(Operation)로 분기하여 객체들의 위상 상관 연산을 수행할 수 있다. 여기서 이동 통일성이 기준 값 이하인 경우는 이미지 정보에 포함된 객체들의 위상 상관 연산 분산 값이 일정 값 이상인 경우에 해당할 수 있다. 즉 이미지 정보에 포함된 객체들의 이동 통일성이 적거나 없는 경우일 수 있다. 이 경우 객체 추적 모듈(140)은 이미지 정보에 포함된 객체들 각각에 대한 위상 상관 연산을 수행할 수 있다. 각각의 객체들에 대한 위상 상관 연산이 완료되면, 객체 추적 모듈(140)은 연산 결과를 토대로 객체들 각각의 실제 이동 위치를 검출하여 317 단계(Operation)에서 객체들의 이동 적용을 수행할 수 있다. 객체들의 이동 적용 시 객체 추적 모듈(140)은 증강 현실 컨텐츠를 각 객체들에 적용하도록 지원할 수 있다.3 and 6, if the mobility uniformity is equal to or less than the reference value in operation 305, the object tracking module 140 determines whether the mobile coherence is equal to or smaller than the reference value in step 315 (step < RTI ID = 0.0 > (Operation), so that the phase correlation of the objects can be performed. In this case, when the coherence is less than or equal to the reference value, the phase correlation dispersion value of the objects included in the image information may correspond to a predetermined value or more. That is, there may be a case where there is little or no coherence of the objects included in the image information. In this case, the object tracking module 140 may perform a phase correlation operation on each of the objects included in the image information. When the phase correlation operation for each of the objects is completed, the object tracking module 140 detects the actual movement position of each of the objects based on the operation result, and performs the movement application of the objects in operation 317. Upon application of the objects, the object tracking module 140 may support applying the augmented reality contents to each object.

도 6은 객체들(41, 42)의 이동 통일성이 기준 값 이하인 제3 실시 예의 환경을 예시한 것이다. 특히 도 6에 도시된 이미지 정보(40)는 배경 객체가 거의 배치되지 않은 상태에서 주요 객체로서 제1 객체(Obj1)(41)와 제2 객체(Obj2)(42)가 배치된 상황이 될 수 있다. 이러한 이미지 정보(40)는 제1 객체(41)와 제2 객체(42)가 도시된 바와 같이 이미지 정보(40) 영역 전체에 걸쳐 배치되기 때문에 제1 객체(41)와 제2 객체(42)가 해당 이미지 정보(40)의 주도적 객체들이 될 수 있다. 따라서 이미지 정보(40)는 도시된 바와 같이 제1 객체(41)와 제2 객체(42)가 서로 다른 방향으로 움직이기 때문에 이동의 통일성이 현저하게 낮게 검출될 수 있다. 그러면 본 개시의 객체 추적 모듈(140)은 주도적 객체들의 이동 통일성이 기준 값 이하인 상황으로 판단할 수 있다. 객체 추적 모듈(140)은 각각의 객체들(41, 42)에 대한 위상 상관 연산을 수행하여 실제 이동된 위치를 검출하도록 지원할 수 있다. 6 illustrates the environment of the third embodiment in which the mobile unity of the objects 41 and 42 is equal to or less than the reference value. In particular, the image information 40 shown in FIG. 6 may be a situation in which the first object Obj1 41 and the second object Obj2 42 are disposed as a main object in a state in which the background object is hardly disposed have. The image information 40 includes a first object 41 and a second object 42 because the first object 41 and the second object 42 are disposed throughout the image information area 40 as shown. May be the dominant objects of the image information 40. FIG. Therefore, since the first object 41 and the second object 42 move in different directions as shown in the drawing, the image information 40 can be detected to have a significantly lower unity of movement. The object tracking module 140 of the present disclosure can then determine that the mobile coherence of the initiative objects is below the reference value. The object tracking module 140 may perform phase correlation on each of the objects 41 and 42 to assist in detecting the actual moved position.

상술한 설명에서는 객체 추적 기능 지원을 위하여 이동 통일성을 기준 값과 비교하고 그 결과에 따라 객체 이동 유효성을 평가한 후 위상 상관 연산을 수행하거나, 객체 이동 유효성 평가 없이 위상 상관 연산을 수행하는 과정을 설명하였다. 여기서 본 개시의 다른 실시 예에서는 이동 통일성에 대한 다수의 기준 값 비교를 지원하도록 설계될 수도 있다. In the above description, a description will be given of a process of performing phase correlation calculation after evaluating object movement effectiveness according to the result of comparing movement uniformity with reference value for supporting object tracking function, or performing phase correlation calculation without evaluation of object movement effectiveness Respectively. Where other embodiments of the present disclosure may be designed to support multiple reference value comparisons for mobile coherence.

이를 보다 상세히 설명하면, 객체 추적 모듈(140)은 이동 통일성이 사전 정의된 제1 기준 값 이상인 경우에는 객체 이동 유효성을 평가하지 않고 객체 이동 적용을 수행할 수 있다. 예컨대 도 4에서와 같이 이미지 정보(40)에 포함된 모든 객체들(예컨대, 배경 객체(43), 제1 객체(41), 제2 객체(42))이 동일한 방향으로 동일한 거리만큼 이동한 경우에는 상대적으로 가장 높은 이동 통일성이 검출될 수 있다. 이 경우 별도의 객체 이동 유효성 평가는 생략될 수 있을 것이다. In more detail, the object tracking module 140 may perform object movement application without evaluating the object movement validity if the mobile coherence is equal to or greater than a predefined first reference value. For example, when all the objects (for example, the background object 43, the first object 41, and the second object 42) included in the image information 40 are moved by the same distance in the same direction as in FIG. 4 The highest mobility uniformity can be detected. In this case, a separate object movement validity evaluation may be omitted.

그리고 도 5에서와 같이 이미지 정보(40)에 포함된 객체들(예컨대, 배경 객체(43), 제1 객체(41), 제2 객체(42))의 이동 방향이 다른 경우 상대적으로 높은 이동 통일성이 검출되어도 객체 이동 유효성 평가를 수행할 필요가 있다. 따라서 객체 추적 모듈(140)은 이동 통일성 값이 사전 정의된 제1 기준 값 이상인 경우에는 객체 이동 적용 수행 시 객체 이동 유효성 평가를 생략하도록 지원할 수 있다. 5, when the moving directions of the objects included in the image information 40 (e.g., the background object 43, the first object 41, and the second object 42) are different, It is necessary to perform object movement validity evaluation. Accordingly, the object tracking module 140 can support omitting the object movement validity evaluation when the object movement application is performed when the mobility uniformity value is equal to or larger than the predefined first reference value.

또한 객체 추적 모듈(140)은 이동 통일성 값이 제1 기준 값 이하이며 제2 기준 값 이상인 경우에는 객체 이동 적용 시 적어도 하나의 객체에 대하여 객체 이동 유효성 평가를 수행하도록 지원할 수 있다. 또는 객체 추적 모듈(140)은 이동 통일성 값이 제1 기준 값 이하이며 제2 기준 값 이상인 경우 객체들에 대한 이동 유효성 평가를 수행한다. 그리고 객체 추적 모듈(140)은 객체 이동 유효성이 없는 객체들의 위상 상관 연산을 수행하도록 지원할 수 있다. 여기서 객체 추적 모듈(140)은 주도적 객체를 제외한 객체들 또는 일정 크기 이하의 영역을 가지는 객체들에 대해서 위상 상관 연산을 수행하도록 제어할 수 있다. 한편 객체 추적 모듈(140)은 이동 통일성 값이 제2 기준 값 이하인 경우에는 본 개시의 제3 실시 예에 따른 처리를 수행할 수 있다.In addition, the object tracking module 140 can support the object movement validity evaluation for at least one object when the object coherence value is less than or equal to the first reference value and equal to or greater than the second reference value. Or the object tracking module 140 performs the movement effectiveness evaluation on the objects when the mobile coherence value is equal to or less than the first reference value and equal to or greater than the second reference value. And the object tracking module 140 may support performing phase correlation of objects without object movement validity. Here, the object tracking module 140 may control to perform phase correlation operation on objects other than the dominant object or objects having an area smaller than a predetermined size. Meanwhile, the object tracking module 140 may perform the processing according to the third embodiment of the present disclosure when the mobile coherence value is equal to or less than the second reference value.

상기 객체 추적 모듈(140)은 상술한 도 3 내지 도 6에서의 객체들의 이동 검출 과정에서 위상 상관 연산을 수행할 때 도 7에서와 같이 객체 영역 근사화(Object area approximation) 방식을 적용할 수 있다.The object tracking module 140 may apply an object area approximation method as shown in FIG. 7 when performing phase correlation in the movement detection process of the objects in FIGS. 3 to 6 described above.

도 7은 본 개시의 객체 추적 기능 수행 중 객체 영역 근사화 기능을 설명하기 위한 도면이다.FIG. 7 is a view for explaining an object region approximation function during the object tracking function of the present disclosure.

도 7을 참조하면, 이미지 정보(40)에서 획득된 실제 객체(50)의 객체 영역(Object area)이 도시된 바와 같이 이미지 정보(40)의 외곽선과 나란한 변을 가지는 모양이 아닌 경우 객체 추적 모듈(140)은 객체 영역 근사화를 통해 가상 객체들(51, 52, 53)의 객체 영역을 구성하고, 실제 객체(50)를 가상 객체들(51, 52, 53) 중 적어도 하나로 매핑할 수 있다. 이때 가상 객체들(51, 52, 53)은 실제 객체(50)가 배치된 지점의 인접된 영역에 배치될 수 있다. 이에 따라 실제 객체(50)에 대응하는 가상 객체들(51, 52, 53) 중 적어도 하나를 기준으로 실제 객체(50)에 대한 추적(위치 검출) 연산을 수행하더라도 적절한 객체 추적 기능을 지원할 수 있다. 7, when the object area of the actual object 50 obtained from the image information 40 is not in a shape having sides parallel to the outline of the image information 40 as shown in the figure, The controller 140 may construct an object area of the virtual objects 51, 52 and 53 through object area approximation and map the actual object 50 to at least one of the virtual objects 51, 52 and 53. At this time, the virtual objects 51, 52, and 53 may be disposed in adjacent areas of the point where the actual object 50 is disposed. Accordingly, even if the tracking (position detection) operation is performed on the actual object 50 based on at least one of the virtual objects 51, 52, and 53 corresponding to the actual object 50, an appropriate object tracking function can be supported .

가상 객체들(51, 52, 53)은 이미지 정보(40)의 외곽선과 나란한 변을 가지는 모양으로서 예컨대 사각형의 형상이 될 수 있다. 객체 추적 모듈(140)이 이미지 정보(40)에 포함된 데이터를 스캔할 때, 가로 방향 또는 세로 방향 라인으로 스캔을 수행할 수 있다. 이미지 정보(40)의 외곽선과 나란하도록 마련된 적어도 하나의 가상 객체들(51, 52, 53)이 실제 객체(50)에 매핑되는 경우 객체 추적 모듈(140)은 실제 객체(50) 위치 검출보다 가상 객체 위치 검출을 보다 빠르게 수행할 수 있으며, 검출 시 연산량을 저감할 수 있다. The virtual objects 51, 52, and 53 may have a side parallel to the outline of the image information 40 and may have a rectangular shape, for example. When the object tracking module 140 scans the data contained in the image information 40, it can perform a scan in a horizontal direction or a vertical direction. When at least one virtual object 51, 52, 53 arranged to be aligned with the outline of the image information 40 is mapped to the real object 50, the object tracking module 140 determines Object position detection can be performed more quickly, and the amount of computation at the time of detection can be reduced.

한편 실제 객체(50)는 인식 모듈(120) 및 객체화 모듈(130)을 통하여 이전 이미지 정보에서 이전 위치가 산출될 수 있다. 객체 추적 모듈(140)은 이전 이미지 정보에서의 위치 값을 기준으로 해당 실제 객체(50)에 대한 가상 객체들(51, 52, 53)의 매핑 작업을 수행할 수 있다. 또한 객체 추적 모듈(140)은 실제 객체(50)에 대하여 예측된 이동 위치에 대한 가상 객체들(51, 52, 53)의 매핑 작업을 수행할 수 있다. 즉 객체 추적 모듈(140)은 현재 이미지 정보에서의 실제 객체(50) 위치 검출에 대해서도 상술한 가상 객체들(51, 52, 53)을 적용하여 추적(위치 검출) 연산을 수행할 수 있다.On the other hand, the actual location of the actual object 50 can be calculated from the previous image information through the recognition module 120 and the objectification module 130. [ The object tracking module 140 may perform a mapping operation of the virtual objects 51, 52, and 53 with respect to the actual object 50 based on the position value in the previous image information. In addition, the object tracking module 140 may perform a mapping operation of the virtual objects 51, 52, and 53 with respect to the predicted movement position with respect to the actual object 50. [ That is, the object tracking module 140 may perform the tracking (position detection) operation by applying the above-described virtual objects 51, 52, and 53 to the detection of the position of the actual object 50 in the current image information.

한편 도 7에서는 3개의 가상 객체들(51, 52, 53)을 예시한 것이다. 가상 객체들(51, 52, 53)은 각각 실제 객체(50)를 기준으로 일정 크기를 가지는 형태로 구성될 수 있다. 예컨대 제1 가상 객체(51)는 객체 영역 근사화를 통해 실제 객체(50)가 가지는 객체 영역의 내부에 배치될 수 있는 최대 크기의 사각형으로 구성될 수 있으며, 이때 사각형은 이미지 정보(40)의 외곽선과 평행한 조건을 가질 수 있다. 제3 가상 객체(53)는 객체 영역 근사화를 통해 실제 객체(50)가 가지는 객체 영역의 꼭지점을 포함하는 최대 크기의 사각형으로 구성될 수 있다. 제2 가상 객체(52)는 객체 영역 근사화를 통해 제1 가상 객체(51)와 제2 가상 객체(52)의 중간 값을 기준으로 설정된 사각형으로 구성된 것을 나타낸 것이다.In FIG. 7, three virtual objects 51, 52, and 53 are illustrated. Each of the virtual objects 51, 52, and 53 may have a predetermined size based on the actual object 50. For example, the first virtual object 51 may be composed of a maximum size rectangle that can be disposed inside an object area of the real object 50 through object area approximation, And can have a parallel condition. The third virtual object 53 may be composed of a rectangle of the maximum size including the vertices of the object area of the actual object 50 through object area approximation. The second virtual object 52 is composed of rectangles set based on the intermediate values of the first virtual object 51 and the second virtual object 52 through object region approximation.

실제 객체(50)의 지점들을 포함하는 제1 가상 객체(51)를 기반으로 디스크립터를 검출하여 실제 객체(50)의 위치 검출을 수행하면 다른 가상 객체들(52, 53)에 비하여 상대적으로 정확도가 가장 높게 나타날 수 있다. 그러나 비교 영역이 상대적으로 작기 때문에 이미지 정보(40)에서 상대적으로 보다 많은 영역들과 비교해야 하기 때문에 연산량이 늘어날 수 있다. 한편 제3 가상 객체(53)를 기반으로 위치 검출을 수행할 경우, 실제 객체(50)와 관련이 없는 디스크립터 까지도 비교 대상이 포함될 수 있으며, 위치 검출에 대한 오차가 상대적으로 크게 발생할 수 있다. 다만 상대적으로 넓은 영역을 비교하기 때문에 현재 수집된 이미지 정보(40)와의 비교 시 보다 신속한 연산이 가능할 것이다. 제2 가상 객체(52)는 제1 가상 객체(51) 및 제3 가상 객체(53)의 중간적인 효과를 제공할 수 있다. 상술한 가상 객체들(51, 52, 53) 중 적어도 하나를 운용하는 방식은 설계자의 선택적 사항에 따라 변경될 수 있다.If the descriptor is detected based on the first virtual object 51 including the points of the actual object 50 and the position of the actual object 50 is detected, the accuracy is relatively higher than that of the other virtual objects 52 and 53 It can be the highest. However, since the comparison area is relatively small, the amount of computation can be increased because it is required to be compared with more areas in the image information 40 relatively. On the other hand, when the position detection is performed based on the third virtual object 53, even a descriptor which is not related to the actual object 50 may include a comparison object, and an error in position detection may be relatively large. However, since it is compared with a relatively large area, it is possible to perform calculation more quickly in comparison with the currently collected image information 40. The second virtual object 52 may provide an intermediate effect of the first virtual object 51 and the third virtual object 53. [ The manner of operating at least one of the virtual objects 51, 52, and 53 may be changed according to the designer's option.

한편 상술한 설명에서는 4개의 변과 4개의 사잇각을 가지는 도형을 기준으로 객체 영역 근사화를 설명하였으나, 본 개시가 이에 한정되는 것은 아니다. 즉 위에서 설명한 도형 보다 많은 변과 사잇각 또는 보다 적은 변과 사잇각을 가진 객체에 대해서도 객체 추적 모듈(140)이 인식하기 쉬운 형태의 도형으로 근사화가 가능할 수 있다. 예컨대 삼각형의 도형 또는 8각형의 도형에 대하여 상술한 가상 객체들(51, 52, 53) 생성 방식에 따라 유사한 사각형의 가상 객체들(51, 52, 53) 생성이 가능할 것이다. In the above description, object region approximation has been described with reference to a graphic object having four sides and four angles, but the present disclosure is not limited thereto. That is, the object tracking module 140 can approximate an object having a shape that is easier for the object tracking module 140 to recognize, even for an object having more sides, more angles, or less sides and angles than the above-described shapes. For example, it is possible to generate virtual objects 51, 52, 53 of a similar shape according to the generation method of the virtual objects 51, 52, 53 with respect to the triangular figure or the octagonal figure.

도 8은 본 개시의 실시 예에 따른 객체 추적 기능 지원을 위한 서버 장치 기반 시스템의 구성을 개략적으로 나타낸 도면이다.FIG. 8 is a diagram schematically illustrating a configuration of a server device-based system for supporting an object tracking function according to an embodiment of the present disclosure.

도 8을 참조하면, 본 개시의 객체 처리 시스템(10)은 전자 장치 예컨대 사용자 단말기(101), 서버 장치(200) 및 통신망(300)을 포함할 수 있다.8, the object processing system 10 of the present disclosure may include an electronic device such as a user terminal 101, a server device 200 and a communication network 300. [

이와 같은 구성을 포함하는 본 개시의 객체 처리 시스템(10)은 앞서 설명한 객체 추적 기능을 지원하는 객체 추적 모듈(140)을 사용자 단말기(101)에 장착하고, 이를 기반으로 객체 추적 기능을 지원할 수 있다. 이때 본 개시의 객체 처리 시스템(10)은 사용자 단말기(101)의 통신 모듈을 이용하여 통신망(300)을 통해 서버 장치(200)와 사용자 단말기(101) 간의 통신 채널을 형성하도록 지원할 수 있다. 이에 따라 객체 추적 기능을 지원하는 과정에서 요구되는 다양한 정보를 서버 장치(200)를 통하여 제공받을 수 있다. 또는 본 개시의 객체 처리 시스템(10)은 사용자 단말기(101)가 서버 장치(200)에 저장된 데이터들을 수신하여 저장하고, 저장된 데이터들을 기반으로 객체 추적 기능을 지원할 수 있다.The object processing system 10 of the present disclosure including the above configuration can mount the object tracking module 140 supporting the object tracking function described above in the user terminal 101 and support the object tracking function based on the object tracking module 140 . The object processing system 10 of the present disclosure can support forming a communication channel between the server device 200 and the user terminal 101 through the communication network 300 using the communication module of the user terminal 101. [ Accordingly, various information required in supporting the object tracking function can be provided through the server device 200. Alternatively, the object processing system 10 of the present disclosure may receive and store data stored in the server device 200 by the user terminal 101, and may support the object tracking function based on the stored data.

상기 사용자 단말기(101)는 통신망(300)을 통하여 서버 장치(200) 접속을 수행할 수 있다. 그리고 사용자 단말기(101)는 획득된 이미지 정보를 서버 장치(200)에 제공할 수 있다. 특히 사용자 단말기(101)는 획득된 이미지 정보를 실시간으로 서버 장치(200)에 제공할 수 있다. 그러면 서버 장치(200)는 수신된 이미지 정보들을 기반으로 객체 추적을 위한 위상 상관 연산을 수행하고 그 결과 값을 사용자 단말기(101)에 제공할 수 있다. 사용자 단말기(101)는 서버 장치(200)가 제공한 값들을 기반으로 이미지 정보에서의 객체 추적에 대한 연산을 생략하고 보다 용이한 객체 추적을 위한 데이터 처리를 지원할 수 있다. 한편 사용자 단말기(101)는 서버 장치(200)가 제공하는 원격 참조 데이터 및 컨텐츠 데이터를 수신할 수 있다. 그리고 사용자 단말기(101)는 원격 참조 데이터를 이용하여 이미지 정보의 인식 및 객체화를 진행할 수 있다. 또한 사용자 단말기(101)는 컨텐츠 데이터를 증강 현실 서비스에 적용하도록 제어할 수 있다.The user terminal 101 can access the server 200 through the communication network 300. Then, the user terminal 101 may provide the acquired image information to the server apparatus 200. In particular, the user terminal 101 can provide the acquired image information to the server device 200 in real time. Then, the server apparatus 200 may perform a phase correlation operation for object tracking based on the received image information and provide the resultant value to the user terminal 101. The user terminal 101 can omit the operation for object tracking in the image information based on the values provided by the server device 200 and can support data processing for easier object tracking. Meanwhile, the user terminal 101 may receive the remote reference data and the content data provided by the server device 200. Then, the user terminal 101 can recognize and objectify the image information using the remote reference data. Also, the user terminal 101 may control the content data to be applied to the augmented reality service.

통신망(300)은 사용자 단말기(101)와 서버 장치(200) 사이에 배치될 수 있다. 그리고 통신망(300)은 두 구성들(예컨대, 사용자 단말기(101), 서버 장치(200) 간의 통신 채널을 형성할 수 있다. 통신망(300)은 사용자 단말기(101)가 이동 통신 기능을 지원하는 경우 이동통신 네트워크 장치들로 구성될 수 있다. 또한 통신망(300)은 서버 장치(200)가 인터넷 네트워크를 통하여 통신 장치를 연결하는 경우 해당 인터넷 네트워크를 지원하는 장치들로 구성될 수 있다. 그리고 통신망(300)은 이종망 간의 데이터 전달을 위한 네트워크 장치를 더 포함할 수 있다. 따라서 본 개시의 통신망(300)은 특정 통신 방식이나 통신 모듈 등으로 한정되는 것이 아니라, 사용자 단말기(101)와 서버 장치(200) 간에 데이터 송수신을 수행할 수 있는 다양한 장치 및 방법이 적용된 장치로 이해되어야 할 것이다.The communication network 300 may be disposed between the user terminal 101 and the server device 200. The communication network 300 can form a communication channel between the two configurations (e.g., the user terminal 101 and the server 200). The communication network 300 includes a communication network 300, The communication network 300 may be composed of devices supporting the Internet network when the server device 200 connects the communication device through the Internet network, The communication network 300 of the present disclosure is not limited to a specific communication method or a communication module but may be a communication network including a user terminal 101 and a server device 200 of the present invention are applied to various devices and methods capable of performing data transmission /

서버 장치(200)는 사용자 단말기(101)의 접속을 지원할 수 있다. 그리고 서버 장치(200)는 사용자 단말기(101)의 요청에 따라 객체 추적 기능 및 증강 현실 서비스 기능을 지원할 수 있다. 이를 위하여 서버 장치(200)는 객체 추적 기능 지원을 위한 원격 참조 데이터를 저장할 수 있다. 또한 서버 장치(200)는 증강 현실 서비스 기능 지원을 위해 증강 현실에 적용할 컨텐츠 데이터를 저장할 수 있다. 서버 장치(200)는 사용자 단말기(101) 요청에 따라 특정 이미지 정보의 인식 과정, 객체화 과정, 객체 추적 과정 중 적어도 하나의 연산을 수행할 수 있다. 그리고 서버 장치(200)는 각 과정에서의 수행 결과를 사용자 단말기(101) 요청에 따라 제공할 수 있다.The server device 200 can support the connection of the user terminal 101. [ The server device 200 may support the object tracking function and the augmented reality service function at the request of the user terminal 101. [ To this end, the server device 200 may store remote reference data for supporting the object tracking function. Also, the server apparatus 200 may store content data to be applied to the augmented reality to support the augmented reality service function. The server device 200 may perform at least one of a recognition process of an image information, an objectification process, and an object tracking process according to a request of the user terminal 101. The server device 200 may provide a result of the process in response to a request from the user terminal 101.

도 9는 도 8의 구성 중 사용자 단말기(Client)(101) 구성과 서버 장치(Server)(200) 구성의 일예를 보다 상세히 나타낸 블록 다이어그램이다. 블록 다이어그램은 상술한 적어도 하나의 실시 예에 따른 AR(Augmented reality) 서비스를 지원하는 객체 처리 시스템(10)의 구성을 나타낸 도면이다. 객체 처리 시스템(10)은 메인 유닛(160)(예컨대, AR 처리부(AR Processing Unit))를 포함할 수 있다.FIG. 9 is a block diagram illustrating in more detail an exemplary configuration of a user terminal (Client) 101 and a server 200 in the configuration of FIG. The block diagram illustrates a configuration of an object processing system 10 supporting an Augmented Reality (AR) service according to at least one embodiment described above. The object processing system 10 may include a main unit 160 (e.g., an AR processing unit).

메인 유닛(160)은 카메라 입력부(Camera input unit)(151), 미디어 입력부(Media input unit)(152), 오디오 입력부(Audio input unit)(153), 다수의 센서 입력부(Sensor input unit)(154)와 같은 다양한 입력 장치들로부터 다양한 입력 데이터들을 수신할 수 있다. 센서 입력부(154)는 가속도 센서, 자이로스코프 센서, 마그네틱 센서, 온도 센서, 중력 센서 등을 포함할 수 있고, 다양한 센서들로부터 다양한 입력들을 감지할 수 있다. 메인 유닛(160)은 입력 데이터 처리를 위하여 메모리(Memory)(181), CPU(Central Processing Unit: 씨피유)(182), GPU(Graphic Processing Unit: 지피유)(183) 등을 사용할 수 있다. 메인 유닛(160)은 타겟들의 확인 및 인식을 위해 서버 장치(200)가 제공하는 원격 참조 데이터베이스(Remote Reference DB(Data Base))(201)를 사용할 수 있다. 메인 유닛(160)의 출력은 식별 정보, 객체 구분 정보(Localization information)를 포함할 수 있다. 객체 구분 정보는 타겟 오브젝트의 2D/3D 각도를 확인하는데 이용될 수 있다. 식별 정보는 타겟이 무엇인지 확인하는데 이용될 수 있다. The main unit 160 includes a camera input unit 151, a media input unit 152, an audio input unit 153, a plurality of sensor input units 154 ) From a variety of input devices. The sensor input unit 154 may include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a temperature sensor, a gravity sensor, or the like, and may sense various inputs from various sensors. The main unit 160 may use a memory 181, a central processing unit (CPU) 182, a graphic processing unit (GPU) 183, and the like for input data processing. The main unit 160 may use a remote reference DB (Data Base) 201 provided by the server apparatus 200 for identification and recognition of targets. The output of the main unit 160 may include identification information and localization information. The object classification information can be used to confirm the 2D / 3D angle of the target object. The identification information can be used to identify what the target is.

AR 컨텐츠 관리부(AR Content Management unit)(170)는 서버 장치(200)에 마련된 원격 컨텐츠 데이터베이스(Remote contents DB)(202) 또는 지역 컨텐츠 데이터베이스(Local Contents DB)(187)로부터의 컨텐츠들과 메인 유닛(160)의 출력을, 비디오 출력부(Video output unit)(184) 및 오디오 출력부(Audio output unit)(185)을 통해 최종 출력하는 과정에서 그들을 조합하는데 이용될 수 있다.The AR content management unit 170 receives contents from a remote contents DB 202 or a local contents DB 187 provided in the server 200 and contents The video output unit 184 and the audio output unit 185 may be used to combine them in the final output process.

상술한 사용자 단말기(101) 구성 중 메인 유닛(160)에 앞서 설명한 본 개시의 객체 처리 장치(100)가 탑재될 수 있다. 또한 객체 처리 장치(100)는 메인 유닛(160)과 AR 컨텐츠 관리부(170)의 구성을 포함하는 형태로 사용자 단말기(101)에 탑재될 수도 있다.The main processing unit 100 of the present disclosure described above can be mounted on the main unit 160 of the above-described configuration of the user terminal 101. [ The object processing apparatus 100 may also be installed in the user terminal 101 in a form including a configuration of the main unit 160 and the AR content management unit 170.

도 10은 본 개시의 객체 추적 기능이 적용되는 전자 장치의 구성을 나타낸 도면이다. 즉 도 10에 제시한 전자 장치(500)는 상술한 객체 추적 모듈(140)이 탑재되는 전자 장치의 일예가 될 수 있다.10 is a diagram showing a configuration of an electronic device to which the object tracking function of the present disclosure is applied. That is, the electronic device 500 shown in FIG. 10 may be an example of an electronic device on which the object tracking module 140 described above is mounted.

도 10을 참조하면, 전자 장치(500)는 어플리케이션 프로세서(Application Processor)(510), 콜 프로세서(Call Processor)(520)를 포함할 수 있다. 콜 프로세서(520)는 RF부(RF(Radio Frequency) unit)(522)와 신호 송수신을 수행하며, 메모리(Memory)(523) 및 SIM 카드(SIM Card)(521)와 신호 송수신을 수행할 수 있다. 그리고 콜 프로세서(520)는 어플리케이션 프로세서(510)와 통신하여 어플리케이션 프로세서(510)에 의하여 처리되는 기능 중 RF부(522), 메모리(523) 및 SIM 카드(521) 접근이 필요한 업무 처리를 지원할 수 있다. 앞서 설명한 객체 처리 장치(100)는 전자 장치(500) 구성 중 어플리케이션 프로세서(510) 및 콜 프로세서(520) 중 어느 하나에 탑재될 수 있다. 또는 객체 처리 장치(100)는 전자 장치(500)의 상술한 구성들 외에 별도의 독립적인 하드웨어 장치로 마련되어 전자 장치(500)의 일정 영역에 배치될 수 있다.Referring to FIG. 10, the electronic device 500 may include an application processor 510 and a call processor 520. The call processor 520 performs signal transmission / reception with an RF unit (Radio Frequency) unit 522 and is capable of performing signal transmission / reception with a memory 523 and a SIM card (SIM card) have. The call processor 520 may communicate with the application processor 510 to support the processing of the RF unit 522, the memory 523, and the SIM card 521, among the functions processed by the application processor 510 have. The object processing apparatus 100 described above may be installed in any one of the application processor 510 and the call processor 520 in the configuration of the electronic device 500. Or the object processing apparatus 100 may be provided as separate independent hardware devices in addition to the above-described configurations of the electronic device 500 and may be disposed in a certain area of the electronic device 500. [

어플리케이션 프로세서(510)는 배터리(Battery)(571)가 연결되는 전원 관리부(Power Management Unit)(570)로부터 전원을 공급받는다. 어플리케이션 프로세서(510)는 RF부(522) 이외의 다양한 통신 모듈 예컨대 와이파이(WiFi) 모듈(581), BT 모듈(582), GPS 모듈(583), NFC 모듈(584) 등과 신호 송수신을 수행하고 각 모듈들(581, 582, 583, 584)에 의해 수행되는 기능을 지원할 수 있다. 어플리케이션 프로세서(510)는 터치(Touch) 입력, 펜(Pen) 입력, 키(Key) 입력 등을 포함하는 사용자 입력부(User Input Unit)(511)와 연결될 수 있다. 어플리케이션 프로세서(510)는 표시부(Display Unit)(512), 카메라부(CAMERA Unit)(513), 모터(MOTOR)(515), 오디오 처리부(Audio codec)(530), 메모리/외부메모리(Memory/External Memory)(516) 등과 연결될 수 있다. 오디오 처리부(530)는 마이크(MIC), 스피커(Speaker), 리시버(Receiver), 이어폰(Earphone) 연결 장치 등을 포함할 수 있다. 어플리케이션 프로세서(510)는 센서 허브(Sensor Hub)(514)와 연결될 수 있다. 센서 허브(514)는 다양한 센서들을 포함하는 센서부(Sensor Unit)(590)와 연결될 수 있다. 센서부(590)는 마그네틱 센서(Magnetic Sensor)(591), 자이로 센서(Gyro Sensor)(592), 가속도 센서(Acceleration Sensor)(593), 바로 미터(Baro Sensor)(594), 그립 센서(Grip Sensor)(595), 온도/습도 센서(Temp./Humid Meter)(596), 근접 센서(Proximity Sensor)(597), 조도 센서(illuminance Sensor)(598), RGB 센서(RGB Sensor)(599), 제스처 센서(Gesture Sensor)(589) 중 적어도 하나를 포함할 수 있다.The application processor 510 receives power from a power management unit 570 to which a battery 571 is connected. The application processor 510 performs signal transmission and reception with various communication modules other than the RF module 522 such as a WiFi module 581, a BT module 582, a GPS module 583, and an NFC module 584, May support the functions performed by the modules 581, 582, 583, 584. The application processor 510 may be connected to a user input unit 511 including a touch input, a pen input, a key input, and the like. The application processor 510 includes a display unit 512, a camera unit 513, a motor 515, an audio codec 530, a memory / External Memory) 516, and the like. The audio processing unit 530 may include a microphone (MIC), a speaker, a receiver, an earphone connection unit, and the like. The application processor 510 may be coupled to a sensor hub 514. The sensor hub 514 may be connected to a sensor unit 590 including various sensors. The sensor unit 590 includes a magnetic sensor 591, a gyro sensor 592, an acceleration sensor 593, a barometer sensor 594, a grip sensor A humidity sensor 596, a temperature / humidity sensor 596, a proximity sensor 597, an illuminance sensor 598, an RGB sensor 599, , And a gesture sensor (589).

도 11은 본 개시의 객체 추적 기능이 적용되는 플랫폼을 예시적으로 나타낸 도면이다.11 is a diagram illustrating an exemplary platform in which the object tracking function of the present disclosure is applied.

도 11을 참조하면, 본 개시의 객체 추적 기능이 적용되는 플랫폼은 크게 어플리케이션(Application) 계층(610), 어플리케이션 프레임워크(Application Framework) 계층(630), 라이브러리(Libraries) 계층(650) 및 커널(Kernel) 계층(670)을 포함할 수 있다.Referring to FIG. 11, the platform to which the object tracking function of the present disclosure is applied is roughly divided into an application layer 610, an application framework layer 630, a library layer 650, Kernel < / RTI > layer 670.

커널 계층(670)은 예로서 리눅스 커널(Linux Kernel)로 구성될 수 있다. 커널 계층(670)은 운영체제의 핵심으로써, 전자 장치의 구동 시 하드웨어 드라이버(hardware driver) 구동, 전자 장치 내의 하드웨어와 프로세서의 보안, 시스템 자원의 효율적 관리, 메모리 관리, 하드웨어 추상화(hardware abstraction)에 의한 하드웨어에 대한 인터페이스 제공, 멀티 프로세스, 그리고 서비스 연결 관리 등 중 적어도 하나를 수행할 수 있다. 커널 계층(670)은 표시 드라이버(Display Driver)(671), 카메라 드라이버(Camera Driver)(672), BT 드라이버(Bluetooth Driver)(673), 공유 메모리 드라이버(Shared Memory Driver)(674), 바인더 드라이버(Binder(IPC) Driver)(675), USB 드라이버(USB Driver)(676), 키패드 드라이버(Keypad Driver)(677), 와이파이 드라이버(WiFi Driver)(678), 오디오 드라이버(Audio Drivers)(679), 파워 관리부(Power Management)(680)가 배치될 수 있다. 커널 계층(670)은 상기한 드라이버, 또는 추가적인 드라이버(예컨대, 다양한 센서 드라이버(sensor driver)) 또는 유틸리티(utility)에 의해, 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. The kernel layer 670 may comprise, for example, a Linux kernel. The kernel layer 670 is the core of the operating system, and is used by hardware drivers in driving electronic devices, hardware and processor security in electronic devices, efficient management of system resources, memory management, and hardware abstraction Providing an interface to hardware, multi-process, and service connection management. The kernel layer 670 includes a display driver 671, a camera driver 672, a BT driver 673, a shared memory driver 674, (IPC) driver 675, a USB driver 676, a keypad driver 677, a WiFi driver 678, an audio driver 679, , And a power management unit (Power Management) 680 may be disposed. The kernel layer 670 may be implemented in accordance with the present disclosure for tracking and processing one or more objects contained in an image by the driver or an additional driver (e.g., various sensor drivers) Lt; / RTI >

라이브러리 계층(650)은 커널 계층(670)과 어플리케이션 계층(610) 사이에 위치할 수 있으며, 다른 하드웨어 또는 소프트웨어 간에 데이터를 주고받을 수 있도록 중간에서 매개 역할을 할 수 있다. 이에 의해, 표준화된 인터페이스 제공이 가능하며, 다양한 환경 지원, 및 체계가 다른 업무와 상호 연동이 가능해질 수 있다. 라이브러리 계층(650)은 서페이스 매니저(Surface Manager)(651), 미디어 프레임워크(Media Framework)(652), SQLite(653), OpenGL/ES(654), FreeType(655), Webkit(656), SGL(657), SSL(658), Libc(659) 등을 포함할 수 있다. 라이브러리 계층(650)은 본 개시에서 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. 예를 들어, 라이브러리 계층(650)은 실행되는 여러 어플리케이션(예컨대, AR 어플리케이션)이 화면에 어떻게 나타나는지를 관리할 수 있고, 획득된 이미지 정보의 2D/3D 그래픽 기반의 표시를 지원할 수 있다.The library layer 650 may be located between the kernel layer 670 and the application layer 610 and may serve as an intermediary to exchange data between different hardware or software. Thus, a standardized interface can be provided, various environment support, and system can be interworked with other tasks. The library layer 650 includes a surface manager 651, a media framework 652, an SQLite 653, an OpenGL / ES 654, a FreeType 655, a Webkit 656, (657), SSL (658), Libc (659), and the like. Library layer 650 may be configured to support operations according to this disclosure that track and process one or more objects included in an image in the present disclosure. For example, the library layer 650 can manage how various applications (e.g., AR applications) that are executed appear on the screen and support 2D / 3D graphical representation of the acquired image information.

라이브러리 계층(650)은 안드로이드 런타임(Android Runtime)(690) 구성을 포함할 수 있다. 안드로이드 런타임(690)은 커널 계층(670) 위에 존재할 수 있고, 효율적인 메모리 사용, 프로세스 간 데이터 공유를 위한 자료구조 등을 지원할 수 있다. 안드로이드 런타임(690)은 컨테이너(Container), 유틸리티(Utility), 입출력(I/O, Input/Output) 등 필수적인 기능을 제공할 수 있다. 안드로이드 런타임(690)은 코어 라이브러리(Core Libraries)(691) 및 Dalvik Virtual Machine(692)을 포함할 수 있다. Dalvik Virtual Machine(692)은 객체 추적 기능이 지원되는 전자 장치의 위젯 기능 또는 실시간 실행이 요구되는 기능, 사전 설정된 스케줄에 따라 주기적으로 실행이 요구되는 기능 등을 지원할 수 있다.Library layer 650 may include an Android Runtime 690 configuration. The Android runtime 690 may reside on the kernel layer 670 and may support efficient memory usage, data structures for data sharing between processes, and so on. The Android runtime 690 can provide essential functions such as a container, a utility, an input / output (I / O), and the like. The Android runtime 690 may include Core Libraries 691 and Dalvik Virtual Machine 692. The Dalvik Virtual Machine 692 can support a widget function of an electronic device for which an object tracking function is supported, a function requiring real-time execution, and a function requiring periodical execution according to a preset schedule.

어플리케이션 프레임워크 계층(630)은 운영체제의 API(Application Program Interface)를 나타내며, 어플리케이션 계층(610) 내 어플리케이션들의 기반이 되는 프로그램을 포함할 수 있다. 어플리케이션 프레임워크 계층(630)은 어떠한 어플리케이션과도 호환 가능하며, 컴포넌트(component)의 재사용, 이동 또는 교환이 가능할 수 있다. 어플리케이션 프레임워크 계층(630)은 지원 프로그램, 다른 소프트웨어 구성 요소들을 연결시켜 주는 프로그램 등을 포함할 수 있다. 어플리케이션 프레임워크 계층(630)은 활동 매니저(Activity Manager)(631), 윈도우 매니저(Window Manager)(632), 컨텐츠 프로바이더(Content Providers)(633), 뷰 시스템(View System)(634), 알림 매니저(Notification Manager)(635), 패키지 매니저(Package Manager)(636), 텔레포니 매니저(Telephony Manager)(637), 리소스 매니저(Resource Manager)(638), 로케이션 매니저(Location Manager)(639) 등이 배치될 수 있다. The application framework layer 630 represents an application program interface (API) of the operating system, and may include a program serving as a basis for applications in the application layer 610. The application framework layer 630 is compatible with any application and may be capable of reusing, moving, or exchanging components. The application framework layer 630 may include a support program, a program for connecting other software components, and the like. The application framework layer 630 includes an Activity Manager 631, a Window Manager 632, a Content Providers 633, a View System 634, A Notification Manager 635, a Package Manager 636, a Telephony Manager 637, a Resource Manager 638, a Location Manager 639, .

어플리케이션 프레임워크 계층(630)은 상기한 매니저(Manager) 또는 추가적인 매니저에 의해, 이미지에 포함된 하나 또는 그 이상의 객체들을 추적하여 처리하는 본 개시에 따른 동작을 지원하도록 구성될 수 있다. 예를 들어, 활동 매니저(631)를 통해 다른 프로세스에서 실행 중인 어플리케이션들 간의 원활한 이동(navigation)을 지원할 수 있고, 패키지 매니저(636)를 통해 전자 장치 내에 어떤 어플리케이션들이 설치되어 있는지, 또는 각각의 어플리케이션들이 어떤 기능을 수행하는지를 관리할 수 있다. 어플리케이션 프레임워크 계층(630)은 본 개시에서 객체 추적 모듈(140)에 대응하는 하나 또는 그 이상의 매니저들을 추가 포함할 수 있고, 해당 매니저들을 통해 AR 어플리케이션에서 이미지 획득, 획득된 이미지에서 하나 또는 그 이상의 객체들에 대한 움직임 검출, 객체들의 이동에 따른 이동 통일성 판단, 객체들의 이동 유효성 판단, 객체들의 이동 처리 하는 등을 지원하도록 구성될 수 있다. 예를 들어, 어플리케이션 프레임워크 계층(630)은 획득된 이미지로부터 객체들 간의 위상 상관 관계 값들을 결정하고, 위상 상관 관계 값들 중 피크 값의 위치를 결정하고, 피크 값을 이용하여 위상 상관 관계 값들의 분산 값을 산출하는 동작을 지원할 수 있다.The application framework layer 630 may be configured to support operations according to this disclosure for tracking and processing one or more objects contained in an image by the Manager or an additional manager as described above. For example, through the activity manager 631, it is possible to support smooth navigation between applications running in other processes, and through the package manager 636, which applications are installed in the electronic device, To perform a function. The application framework layer 630 may further include one or more managers corresponding to the object tracking module 140 in the present disclosure and may be configured to perform image acquisition in the AR application via the managers, Motion detection for objects, determination of mobility uniformity according to movement of objects, determination of movement validity of objects, processing of moving objects, and the like. For example, the application framework layer 630 may determine phase correlation values between objects from the acquired image, determine the location of the peak value among the phase correlation values, and use the peak values to determine the phase correlation values It is possible to support an operation of calculating a variance value.

어플리케이션 계층(610)은 전자 장치 내에서 구동되어 표시 가능한 다양한 프로그램을 포함할 수 있다. 예를 들어, 전자 장치 내의 다양한 메뉴 등에 관한 UI 어플리케이션과, 외부 장치 또는 네트워크를 통해 다운로드 되어 저장되며, 사용자에 의해 설치 또는 삭제가 자유로운 어플리케이션 등을 포함할 수 있다. 이러한 어플리케이션 계층(610)을 통해, 증강 현실 서비스, 네트워크 접속에 의한 인터넷 전화 서비스, 주문형 비디오(VOD) 서비스, 웹 앨범 서비스, SNS, 위치기반 서비스(LBS), 지도 서비스, 웹 검색 서비스, 어플리케이션 검색 서비스, 문자/멀티미디어 메시지 서비스, 메일 서비스, 주소록 서비스, 미디어 재생 서비스 등이 수행될 수 있다. 또한, 게임, 일정관리 등 다양한 기능이 수행될 수 있다. 예를 들어, 어플리케이션 계층(610)은 홈(HOME) 어플리케이션(Application: 이하 앱)(611), 다이얼러(Dialer) 앱(612), SMS/MMS 앱(613), IM 앱(614), 브라우저(Browser) 앱(615), 카메라(Camera) 앱(616), 알람(Alarm) 앱(617), 계산기(Calculator) 앱(618), 컨택트(Contacts) 앱(619), 보이스 다이얼(Voice Dial) 앱(620), 이메일(Email) 앱(621), 카렌더(Calendar) 앱(622), 미디어 플레이어(Media Player) 앱(623), 앨범(Albums) 앱(624), 클락(Clock) 앱(625) 등이 배치될 수 있다.The application layer 610 may include various programs that are driven and displayed within the electronic device. For example, a UI application related to various menus and the like in the electronic device, an application downloaded and stored through an external device or a network, and an application that can be installed or deleted by a user can be included. Such an application layer 610 may be used for augmented reality services, Internet telephony services by network connection, VOD service, Web album service, SNS, location based service (LBS), map service, Service, a text / multimedia message service, a mail service, an address book service, a media playback service, and the like. In addition, various functions such as game and schedule management can be performed. For example, the application layer 610 may include a home application 611, a dialer application 612, an SMS / MMS application 613, an IM application 614, a browser A browser app 615, a camera app 616, an alarm app 617, a calculator app 618, a contacts app 619, a voice dial app A calendar app 622, a media player app 623, an album app 624, a clock app 625, an email app 621, a calendar app 620, an email app 621, Etc. may be disposed.

이상에서 살펴본 바와 같은 플랫폼은 본 개시에 따른 전자 장치를 비롯하여, 그 외 다양한 디바이스에서 범용으로 사용 가능하다. 그리고 본 개시에 따른 플랫폼은 앞서 살펴본 바와 같은 메모리 및 프로세서 중 적어도 하나 또는 별도의 프로세서에, 저장 또는 탑재(loading)될 수도 있다.The platform as described above can be used universally in various other devices, including electronic devices according to the present disclosure. And the platform according to the present disclosure may be stored or loaded in at least one of the memory and the processor as described above or in a separate processor.

상기 도 10 및 도 11을 참조하여 본 개시에 따른 동작(예컨대, AR 서비스 수행 시 획득된 이미지 내의 객체 추적 및 처리 동작)을 개략 살펴보면 다음과 같다.An overview of an operation according to the present disclosure (e.g., an object tracking and processing operation in an image obtained at the time of performing an AR service) with reference to FIGS. 10 and 11 is as follows.

예를 들어, 본 개시에서는 도 10에서 카메라부(513) 통한 이미지 데이터, 마이크(MIC)를 통한 음성 데이터, 센서 허브(514)를 통하는 센서부(590), 및 GPS(583) 등으로부터 수집된 다양한 데이터들을 입력으로 사용할 수 있다. 입력되는 다양한 데이터들은 어플리케이션 프로세서(510)에서 지정된 연산작용에 의해 처리될 수 있다. 또한 본 개시에서는 연산 작용 중 원거리에 있는 서버 장치(200)나 다른 전자 장치와 데이터를 같이 연동해야 하거나, 또는 기타 외부의 데이터를 같이 연동해야 하는 경우를 위해, 와이파이(WiFi) 모듈(581), BT 모듈(582), NFC 모듈(584) 등의 네트워크 모듈을 이용해 다양한 방식의 통신을 지원할 수 있다. 또한 본 개시에서 연산을 위해 필요한 데이터는 메인 메모리(523)나 외부 메모리(516)를 사용하여 저장할 수 있고, 표시부(512)나 스피커(speaker) 등의 모듈을 활용해 연산을 통해 도출된 결과를 사용자에게 다시 제공할 수 있다. For example, in the present disclosure, the image data collected through the camera section 513, the voice data via the microphone (MIC), the sensor section 590 through the sensor hub 514, and the GPS 583 Various data can be input. The various data to be input may be processed by an operation specified by the application processor 510. Also, in the present disclosure, the WiFi module 581, the WiFi module 581, the WiFi module 582, the WiFi module 583, and the WiFi module 583 are provided for the case where data must be interlocked with the server device 200 or another electronic device, BT module 582, NFC module 584, and the like. The data required for the operation in the present disclosure can be stored using the main memory 523 or the external memory 516 and the result obtained through calculation using the module such as the display unit 512 or the speaker Can be provided to the user again.

이러한 동작을 전자 장치의 운영체제(예컨대, 안드로이드)의 소프트웨어 관점에서 살펴보면 도 11에서 최 하단의 커널 계층(670)의 다양한 드라이버(driver)(예컨대, 카메라 드라이버(672), 오디오 드라이버(679)(예컨대, mic), 센서 드라이버 등)에서 다양한 입력 데이터를 받아들이는 작업을 수행할 수 있다. 예를 들어, 전자 장치는 AR 서비스를 지원하기 위해 카메라 드라이버(672)를 통해 카메라부(513)로부터 입력 데이터(예컨대, 이미지)를 받아들이는 작업을 수행할 수 있다. In view of the software of the operating system of the electronic device (e.g., Android), this operation is performed by various drivers (e.g., camera driver 672, audio driver 679 , mic), sensor driver, etc.) can perform various input data receiving operations. For example, the electronic device may perform an operation of receiving input data (e.g., an image) from the camera section 513 via the camera driver 672 to support the AR service.

또한 전자 장치는 상기 입력 데이터를 기반으로 지정된 연산을 구동시키기 위해 라이브러리 계층(650)에서 제공하는 다양한 모듈(예컨대, 서페이스 매니저(651), 미디어 프레임워크(652), SQLite(653), OpenGL/ES(654), Webkit(656), Libc(659) 등)을 활용할 수 있다. 예를 들어, 라이브러리 계층(650)에서는 대부분의 연산을 기본적으로 처리하기 위해서 라이브러리(Libc(659))를 사용할 수 있고, 입력된 영상/음성과 같은 미디어 데이터를 다루기 위해 미디어 프레임워크(652)를 활용할 수 있다. 한 실시 예에 따르면, 전자 장치는 AR 서비스 수행 시 획득된 이미지 내의 객체 추적 및 처리와 관련된 연산(예컨대, 객체 영역 근사화 연산 등)을 Libc(659)를 통해 수행할 수 있다. 또한 전자 장치는 미디어 프레임워크(652)가 포함하는 다양한 코덱(CODEC)(예컨대, AVC(H.264), H.263, MP3, MPEG-4 등 다양한 포맷)를 통해 AR 서비스에 따른 미디어(예컨대, 이미지)를 지원할 수 있다.The electronic device may also include various modules (e.g., a surface manager 651, a media framework 652, an SQLite 653, an OpenGL / ES 652, and so on) provided by the library layer 650 to drive a specified operation based on the input data. (654), Webkit (656), Libc (659), etc.). For example, in library layer 650, a library (Libc 659) can be used to essentially handle most operations and media framework 652 can be used to manipulate media data such as input video / audio Can be utilized. According to one embodiment, the electronic device may perform operations (e.g., object region approximation operations, and the like) associated with object tracking and processing in the images obtained during AR service execution, via Libc 659. The electronic device may also receive media (e.g., video, audio, and / or video) associated with the AR service via various codecs (e.g., AVC (H.264), H.263, MP3, MPEG- , Images).

또한 전자 장치는 처리된 연산 결과를 효율적으로 표현하기 위해서 라이브러리 계층(650)에서 제공하는 여러 기능을 활용할 수 있다. 예를 들어, 3차원 그래픽(3D graphic) 효과를 위해 OpenGL/ES(654)와 Surface Manager(651) 등을 활용할 수 있다. 한 실시 예에 따르면, 전자 장치는 OpenGL/ES(654)에 의해 AR 서비스에 따른 3차원 그래픽을 지원할 수 있고, 전자 장치에 따라 하드웨어(H/W) 가속 기능 또한 지원할 수 있다. 이에 의해, 전자 장치는 어플리케이션(예컨대, AR 어플리케이션)에서 3차원 그래픽과 2차원 그래픽을 혼합해서 사용할 수 있다. 전자 장치는 라이브러리 계층(650)에서 처리된 연산 결과를 커널 계층(670)의 표시 드라이버(671)를 통해 표시부(512)에 표시할 수 있다.In addition, the electronic device can utilize various functions provided by the library layer 650 to efficiently express the processed operation results. For example, OpenGL / ES 654 and Surface Manager 651 can be utilized for a 3D graphic effect. According to one embodiment, the electronic device may support 3D graphics according to the AR service by the OpenGL / ES 654, and may also support a hardware (H / W) acceleration function according to the electronic device. Thereby, the electronic device can use a mixture of three-dimensional graphics and two-dimensional graphics in an application (for example, an AR application). The electronic device may display the operation result processed in the library layer 650 on the display unit 512 through the display driver 671 of the kernel layer 670. [

또한 전자 장치는 데이터 관리를 위해 SQLite(653)와 같은 데이터베이스 매니저(Database manager)를 사용할 수 있다. 또한 전자 장치는 웹(Web)과 연동하기 위해 Webkit(656)을 사용할 수 있으며 상위 레벨의 서비스를 위해 어플리케이션 프레임워크 계층(630)을 통해 다양한 어플리케이션(application)(예컨대, AR 어플리케이션) 또는 다양한 서비스(service)(예컨대, AR 서비스)를 제공할 수 있다. Electronic devices can also use a database manager, such as SQLite 653, for data management. In addition, the electronic device can use the Webkit 656 to interact with the web, and various applications (e.g., AR applications) or various services (e.g., web applications) can be used through the application framework layer 630 for high- service (e.g., AR service).

상술한 구성들이 본 개시의 특징이나 기술적 범위를 한정하는 것은 아니며, 단지 본 개시의 특징이 적용될 수 있는 구현들을 예시한 것이다. 도 10 및 도 11에서 나타낸 시스템 또는 장치의 적어도 일부의 구성이 본 개시의 기술적 구현을 위하여 적용될 수 있을 것이다. 또한 당업자의 견지에서 상술한 구성들은 본 개시의 실시 예들에서 추가되거나, 생략되거나 또는 수정될 수 있다. 추가로 다른 구성들이 본 개시에서 설명한 실시 예의 필요에 따라 추가될 수 있다. 본 개시에서 설명한 하나의 이상의 방법들, 단계(Operation)들, 알고리즘들은 상술한 구현 예시들에서 설명한 하나 이상의 구성들을 사용하여 실행될 수 있다. 예를 들어, 본 개시에 따른 이미지 상의 객체 추적 및 처리를 지원하기 위한 이미지 기반에 중점을 둔 AR 플랫폼이 전자 장치에 구현될 수도 있다.The above-described arrangements are not intended to limit the features or the technical scope of the present disclosure, but merely illustrate implementations to which the features of the present disclosure may be applied. The configuration of at least some of the systems or devices shown in Figs. 10 and 11 may be applied for the technical implementation of the present disclosure. Also, those skilled in the art will appreciate that the above-described arrangements may be added, omitted, or modified in embodiments of the present disclosure. In addition, other configurations may be added according to the needs of the embodiments described in this disclosure. One or more methods, operations, and algorithms described in this disclosure may be implemented using one or more of the configurations described in the above-described implementation examples. For example, an AR platform focused on an image base to support object tracking and processing on an image according to the present disclosure may be implemented in an electronic device.

한편 상술한 사용자 단말기 및 전자 장치 등은 그 제공 형태에 따라 다양한 추가 모듈을 더 포함할 수 있다. 즉, 상기 사용자 단말기 및 전자 장치 등은 통신 단말기인 경우 근거리 통신을 위한 근거리통신모듈, 상기 단말기 및 전자 장치의 유선통신방식 또는 무선통신방식에 의한 데이터 송수신을 위한 인터페이스, 인터넷 네트워크와 통신하여 인터넷 기능을 수행하는 인터넷통신모듈 및 디지털 방송 수신과 재생 기능을 수행하는 디지털방송모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수도 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 디바이스에 추가로 더 포함되어 구성될 수 있다. 또한 본 개시의 사용자 단말기 및 전자 장치 등은 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.On the other hand, the user terminal and the electronic device described above may further include various additional modules depending on the providing mode. That is, the user terminal, the electronic device, and the like may be a short-range communication module for short-range communication in the case of a communication terminal, an interface for data transmission / reception by the wired communication method or the wireless communication method of the terminal and the electronic device, An Internet communication module for performing digital broadcasting and a digital broadcasting module for performing digital broadcasting reception and reproduction functions, and the like. These components can not be enumerated because of a wide variety of variations depending on the convergence trend of the digital device, but it is also possible that components having the same level as the above-mentioned components are further included in the device have. Also, it goes without saying that the user terminal and the electronic device of the present disclosure may be excluded from the specific configurations in the above configuration or may be replaced with other configurations in accordance with the provision mode thereof. Which will be readily apparent to those skilled in the art.

또한 본 개시의 실시 예에 따른 상기 사용자 단말기 및 전자 장치 등은 예를 들면, 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말기들(mobile communication terminals)을 비롯하여, PMP(Portable Multimedia Player), 디지털방송 플레이어, PDA(Personal Digital Assistant), 음악 재생기(예컨대, MP3 플레이어), 휴대게임단말, 스마트 폰(Smart Phone), 노트북(Notebook), 노트 PC, 슬레이트 PC, 탭북 및 핸드헬드 PC 등 모든 정보통신기기와 멀티미디어 및 그에 대한 응용기기를 포함할 수 있다. The user terminal and the electronic device according to the embodiments of the present disclosure may also include all mobile communication terminals operating based on communication protocols corresponding to various communication systems, A portable game terminal, a smart phone, a notebook PC, a notebook PC, a slate PC (portable music player), a digital music player, a PDA , Tapbooks, and handheld PCs, as well as multimedia and related applications.

한편, 본 명세서와 도면을 통해 본 개시의 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 개시의 기술 내용을 쉽게 설명하고 본 실시 예들의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 개시의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예외에도 본 개시의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, And is not intended to limit the scope of the present disclosure. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present disclosure are possible in the exemplary embodiments disclosed herein.

10 : 객체 처리 시스템 100 : 객체 처리 장치
110 : 입력 제어 모듈 120 : 인식 모듈
130 : 객체화 모듈 140 : 객체 추적 모듈
101 : 사용자 단말기 200 : 서버 장치
300 : 통신망 500 : 전자 장치
10: Object processing system 100: Object processing device
110: input control module 120: recognition module
130: objectification module 140: object tracking module
101: user terminal 200: server device
300: network 500: electronic device

Claims (22)

전자 장치를 동작하는 방법에 있어서,
복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하는 동작을 포함하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함하며, 상기 추적하는 동작은,
상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하는 과정;
상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하는 과정; 및
상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하는 과정;
을 포함하는 방법.
A method of operating an electronic device,
The method comprising: tracking at least one object contained on a plurality of digital images, the digital images comprising a first image and a second image,
Determining phase correlation values between at least a portion of the first image and at least a portion of the second image;
Determining a position of a peak value among the phase correlation values; And
Determining a variance of the phase correlation values using at least some of the peak values;
≪ / RTI >
제 1 항에 있어서, 상기 추적하는 동작이, 상기 분산값을 적어도 일부 이용하여, 상기 적어도 하나의 객체를 추적하는 동작을 다르게 수행하는 방법.2. The method of claim 1, wherein the tracking operation performs at least some of the variance values to track the at least one object. 제 2 항에 있어서, 상기 객체 추적을 다르게 수행하는 동작이
상기 분산값이 선택된 값 미만 또는 이하인 경우, 제 1 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작;
상기 분산값이 선택된 값 초과 또는 이상인 경우, 제 2 프로세스를 이용하여 상기 적어도 하나의 객체를 추적하는 동작;을 포함하는 방법.
3. The method of claim 2, wherein the act of performing the object tracking differently
Tracing the at least one object using a first process when the variance value is less than or equal to a selected value;
And tracking the at least one object using a second process if the variance value is greater than or equal to a selected value.
제 3 항에 있어서, 상기 제 1 프로세스가 제 1 이미지상의 제 1 위치에 있는 적어도 하나의 객체가, 제 2 이미지 상의 제 2 위치로 이동하였는지를 결정하는 동작을 포함하며, 상기 제 2 위치는 상기 피크값의 위치를 이용하여 결정하는 방법.4. The method of claim 3, wherein said first process comprises determining whether at least one object at a first location on a first image has moved to a second location on a second image, A method of determining using a position of a value. 제 4 항에 있어서, 상기 제 1 프로세스가 상기 제 1 이미지 상의 제 1 위치의 영역과 상기 제 2 이미지 상의 제 2 위치의 영역 간의 픽셀 상관관계 (pixel correlation)를 결정하는 동작을 수행하는 방법.5. The method of claim 4, wherein the first process performs an operation of determining a pixel correlation between a region of a first location on the first image and a region of a second location on the second image. 제 5 항에 있어서, 상기 제 1 프로세스가 상기 픽셀 상관관계가 선택된 값 이상 또는 초과인 경우, 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동한 것으로 결정하는 동작을 포함하는 방법.6. The method of claim 5, wherein the first process includes determining that the at least one object has moved from the first position to the second position if the pixel correlation is greater than or equal to a selected value . 제 4 항에 있어서, 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동하지 않은 것으로 결정된 경우, 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작을 포함하는 방법.5. The method of claim 4, further comprising performing tracking of the at least one object separately from the position of the peak value if it is determined that the at least one object has not moved from the first position to the second position How to. 제 7 항에 있어서, 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작이 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 동작을 포함하는 방법.8. The method of claim 7, wherein the step of performing tracking of the at least one object separately from the position of the peak value comprises performing a phase correlation operation on each of the at least one object with respect to the first image and the second image ≪ / RTI > 제 3 항에 있어서, 상기 제 2 프로세스가 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작을 수행하는 방법.4. The method of claim 3, wherein the second process performs tracking of the at least one object separately from the location of the peak value. 제 9 항에 있어서, 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 동작이 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 동작을 포함하는 방법.10. The method of claim 9, wherein the step of performing tracking of the at least one object, apart from the location of the peak value, comprises performing a phase correlation operation on each of the at least one object with respect to the first image and the second image ≪ / RTI > 제 8 항 내지 제 10 항 중 어느 한 항에 있어서, 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 수행하는 동작이 상기 적어도 하나의 객체를 선택된 형태로 근사화하는 동작을 더 포함하는 방법.11. The method according to any one of claims 8 to 10, wherein the act of performing a phase correlation operation on each of the at least one object further comprises approximating the at least one object in a selected form. 전자 장치에 있어서,
복수 개의 디지털 이미지들을 저장하도록 구성된 메모리; 및
상기 이미지들을 처리하도록 구성된 프로세서를 포함하며,
상기 프로세서는, 복수 개의 디지털 이미지들 상에 포함된 적어도 하나의 객체를 추적하는 (tracking)하도록 구성하며, 상기 디지털 이미지들은 제 1 이미지 및 제 2 이미지를 포함하며,
상기 프로세서는,
상기 제 1 이미지의 적어도 일부와, 상기 제 2 이미지의 적어도 일부 간의 위상 상관 관계 (phase correlation) 값들(values)을 결정하고;
상기 위상 상관 관계 값들 중 피크값(peak value)의 위치를 결정하고;
상기 피크값을 적어도 일부 이용하여, 위상 상관관계 값들의 분산값 (variance)을 결정하도록 구성된 장치.
In an electronic device,
A memory configured to store a plurality of digital images; And
And a processor configured to process the images,
Wherein the processor is configured to track at least one object contained on a plurality of digital images, the digital images comprising a first image and a second image,
The processor comprising:
Determining phase correlation values between at least a portion of the first image and at least a portion of the second image;
Determining a position of a peak value among the phase correlation values;
And to use at least some of the peak values to determine a variance of the phase correlation values.
제 12 항에 있어서, 상기 프로세서가 상기 분산값을 적어도 일부 이용하여, 상기 적어도 하나의 객체를 추적하는 동작을 다르게 수행하는 장치.13. The apparatus of claim 12, wherein the processor uses at least some of the variance values to perform the operation of tracking the at least one object differently. 제 12 항에 있어서, 상기 프로세서가
분산값이 선택된 값 미만 또는 이하인 경우, 상기 적어도 하나의 객체를 추적하는 제 1 프로세스;
상기 분산값이 선택된 값 초과 또는 이상인 경우, 상기 적어도 하나의 객체를 추적하는 제 2 프로세스;를 포함하는 장치.
13. The system of claim 12, wherein the processor
A first process for tracking the at least one object when the variance value is less than or equal to a selected value;
And a second process of tracking the at least one object if the variance value is greater than or equal to a selected value.
제 14 항에 있어서, 상기 제 1 프로세스가 제 1 이미지상의 제 1 위치에 있는 적어도 하나의 객체가, 제 2 이미지 상의 제 2 위치로 이동하였는지를 결정하며, 상기 제 2 위치는 상기 피크값의 위치를 이용하여 결정하는 장치.15. The method of claim 14, wherein the first process determines whether at least one object at a first location on a first image has moved to a second location on a second image, . 제 15 항에 있어서, 상기 제 1 프로세스가 상기 제 1 이미지 상의 제 1 위치의 영역과 상기 제 2 이미지 상의 제 2 위치의 영역 간의 픽셀 상관관계 (pixel correlation)를 결정하는 장치.16. The apparatus of claim 15, wherein the first process determines a pixel correlation between a region of a first location on the first image and a region of a second location on the second image. 제 16 항에 있어서, 상기 제 1 프로세스가 상기 픽셀 상관관계가 선택된 값이상 또는 초과인 경우, 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동한 것으로 결정하는 장치.17. The apparatus of claim 16, wherein the first process determines that the at least one object has moved from the first position to the second position if the pixel correlation is greater than or equal to a selected value. 제 15 항에 있어서, 상기 제1 프로세스가 상기 적어도 하나의 객체가 상기 제 1 위치에서 상기 제 2 위치로 이동하지 않은 것으로 결정된 경우, 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 장치.16. The method of claim 15, wherein, if the first process determines that the at least one object has not moved from the first location to the second location, separate from the location of the peak value, A device to perform. 제 18 항에 있어서, 상기 제1 프로세스가 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 장치.19. The apparatus of claim 18, wherein the first process performs phase correlation for each of the at least one object with respect to the first image and the second image. 제 14 항에 있어서, 상기 제 2 프로세스가 상기 피크값의 위치와 별도로, 상기 적어도 하나의 객체의 추적을 수행하는 장치.15. The apparatus of claim 14, wherein the second process performs tracking of the at least one object separately from the position of the peak value. 제 20 항에 있어서, 상기 제2 프로세스가 상기 적어도 하나의 객체 각각에 대한 위상 상관 연산을 상기 제 1 이미지 및 제 2 이미지에 대하여 수행하는 장치.21. The apparatus of claim 20, wherein the second process performs phase correlation for each of the at least one object with respect to the first image and the second image. 제 19 항 내지 제 21 항 중 어느 한 항에 있어서, 상기 제1 프로세스 및 제2프로세스 중 적어도 하나가 상기 적어도 하나의 객체를 선택된 형태로 근사화하는 장치.22. The apparatus according to any one of claims 19 to 21, wherein at least one of the first process and the second process approximates the at least one object in a selected form.
KR1020130145715A 2013-02-15 2013-11-27 Method and electronic device for processing object KR20140103023A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14155416.2A EP2767952A3 (en) 2013-02-15 2014-02-17 Method and electronic device for processing object
CN201410053682.2A CN103996205B (en) 2013-02-15 2014-02-17 The method of a kind of electronic equipment and operation electronic equipment
US14/182,910 US9349191B2 (en) 2013-02-15 2014-02-18 Method and electronic device for processing object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361765443P 2013-02-15 2013-02-15
US61/765,443 2013-02-15

Publications (1)

Publication Number Publication Date
KR20140103023A true KR20140103023A (en) 2014-08-25

Family

ID=51747567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130145715A KR20140103023A (en) 2013-02-15 2013-11-27 Method and electronic device for processing object

Country Status (1)

Country Link
KR (1) KR20140103023A (en)

Similar Documents

Publication Publication Date Title
US9349191B2 (en) Method and electronic device for processing object
US20230281851A1 (en) Systems and methods for simulatenous localization and mapping
US20140233800A1 (en) Method of tracking object and electronic device supporting the same
US8230075B1 (en) Method and device for identifying devices which can be targeted for the purpose of establishing a communication session
CN111262887B (en) Network risk detection method, device, equipment and medium based on object characteristics
CN111476306A (en) Object detection method, device, equipment and storage medium based on artificial intelligence
US9912847B1 (en) Image capture guidance to reduce specular reflection effects
KR20140103046A (en) Object Tracing Method and Electronic Device supporting the same
US9195872B2 (en) Object tracking method and apparatus
WO2020048392A1 (en) Application virus detection method, apparatus, computer device, and storage medium
US20140232748A1 (en) Device, method and computer readable recording medium for operating the same
CN108093362B (en) Control method and device of positioning module, storage medium and terminal
CN110738185B (en) Form object identification method, form object identification device and storage medium
EP2888716B1 (en) Target object angle determination using multiple cameras
CN111338933A (en) Buried point verification method, device, equipment and storage medium
CN112053360B (en) Image segmentation method, device, computer equipment and storage medium
US10091436B2 (en) Electronic device for processing image and method for controlling the same
US20140231523A1 (en) Electronic device capable of recognizing object
KR20210087181A (en) An electronic device detecting a location and a method thereof
CN114187509B (en) Object positioning method and device, electronic equipment and storage medium
CN113642493B (en) Gesture recognition method, device, equipment and medium
KR20140103021A (en) Object recognition device
KR20140103023A (en) Method and electronic device for processing object
CN112087719B (en) Map area determination method, map area determination device, map area determination equipment and storage medium
CN113780291A (en) Image processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application