KR20240045743A - Software-based object tracking method and computing device therefor - Google Patents

Software-based object tracking method and computing device therefor Download PDF

Info

Publication number
KR20240045743A
KR20240045743A KR1020220125422A KR20220125422A KR20240045743A KR 20240045743 A KR20240045743 A KR 20240045743A KR 1020220125422 A KR1020220125422 A KR 1020220125422A KR 20220125422 A KR20220125422 A KR 20220125422A KR 20240045743 A KR20240045743 A KR 20240045743A
Authority
KR
South Korea
Prior art keywords
image
frame image
display
frame images
viewing window
Prior art date
Application number
KR1020220125422A
Other languages
Korean (ko)
Inventor
김켄
정지욱
Original Assignee
주식회사 쓰리아이
Filing date
Publication date
Application filed by 주식회사 쓰리아이 filed Critical 주식회사 쓰리아이
Publication of KR20240045743A publication Critical patent/KR20240045743A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

본 발명의 일 기술적 측면에 따른 영상 합성기능 제공 방법은, 카메라 모듈을 포함하는 컴퓨팅 장치에서 수행되는 객체 트래킹 제공 방법으로서, 상기 카메라 모듈에 의해 제1 해상도로 촬영된 프레임 이미지를 제공받는 단계, 상기 제1 해상도 보다 낮은 해상도를 가지도록 뷰잉 윈도우의 제2 해상도를 설정하는 단계, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계, 식별된 객체를 포함하는 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계 및 사용자 디스플레이 인터페이스를 이용하여, 상기 뷰잉 윈도우를 디스플레이 하는 단계를 포함한다.A method of providing an image synthesis function according to a technical aspect of the present invention is a method of providing object tracking performed in a computing device including a camera module, comprising: receiving a frame image captured by the camera module at a first resolution; setting a second resolution of the viewing window to have a lower resolution than the first resolution, identifying whether an object exists within the frame image, and setting a portion of the frame image containing the identified object as the viewing window. and displaying the viewing window using a user display interface.

Description

영상 합성기능 제공 방법 및 그를 위한 컴퓨팅 장치 { Software-based object tracking method and computing device therefor}Method for providing video synthesis function and computing device therefor {Software-based object tracking method and computing device therefor}

본 발명은 영상 합성기능 제공 방법 및 그를 위한 컴퓨팅 장치에 관한 것이다.The present invention relates to a method for providing an image synthesis function and a computing device therefor.

컴퓨팅 장치의 발전에 따라 컴퓨팅 장치의 소형화 및 휴대성이 증진되고 있으며, 사용자에게 보다 친화적인 컴퓨팅 환경이 개발되고 있다. With the development of computing devices, the miniaturization and portability of computing devices are increasing, and a more user-friendly computing environment is being developed.

이러한 컴퓨팅 환경에서 사용자의 주요 관심으로서, 촬영 중인 영상에서 관심 객체에 대한 트래킹 기능이 있다. In this computing environment, the main interest of users is the tracking function for objects of interest in the image being shot.

종래의 경우, 객체 트래킹을 위해서는, 여러 촬영 장비를 이용하거나, 또는 촬영 장비를 물리적으로 구동시키는 것이 필요하다.In the conventional case, for object tracking, it is necessary to use multiple photographic equipment or physically drive the photographic equipment.

그러나, 이는 소형화 및 휴대화 된 컴퓨팅 장치 환경에서 적용이 어렵고, 별도의 장비가 요구되는 한계가 있다.However, this has the limitation of being difficult to apply in a miniaturized and portable computing device environment and requiring separate equipment.

본 출원의 일 기술적 측면은 상기한 종래 기술의 문제점을 해결하기 위한 것으로, 본 출원에 개시되는 일 실시예에 따르면, 소프트웨어를 기반으로 객체에 대한 트래킹을 효과적으로 제공하는 것을 목적으로 한다.One technical aspect of the present application is to solve the problems of the prior art described above, and according to an embodiment disclosed in the present application, the purpose is to effectively provide tracking of objects based on software.

본 출원의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of this application are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.

본 출원의 일 기술적 측면은 영상 합성기능 제공 방법을 제안한다. 상기 영상 합성기능 제공 방법은, 카메라 모듈을 포함하는 컴퓨팅 장치에서 수행되는 객체 트래킹 제공 방법으로서, 상기 카메라 모듈에 의해 제1 해상도로 촬영된 프레임 이미지를 제공받는 단계, 상기 제1 해상도 보다 낮은 해상도를 가지도록 뷰잉 윈도우의 제2 해상도를 설정하는 단계, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계, 식별된 객체를 포함하는 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계 및 사용자 디스플레이 인터페이스를 이용하여, 상기 뷰잉 윈도우를 디스플레이 하는 단계를 포함한다.One technical aspect of the present application proposes a method for providing an image synthesis function. The method of providing the image synthesis function is a method of providing object tracking performed in a computing device including a camera module, comprising the steps of receiving a frame image captured by the camera module at a first resolution, and providing a frame image with a resolution lower than the first resolution. setting a second resolution of the viewing window to have, identifying whether an object exists within the frame image, setting a portion of the frame image containing the identified object as the viewing window, and using a user display interface. Thus, it includes the step of displaying the viewing window.

본 출원의 다른 일 기술적 측면은 저장 매체를 제안한다. 상기 저장 매체는, 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체이다. 상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 상기 카메라 모듈에 의해 제1 해상도로 촬영된 프레임 이미지를 제공받는 동작, 상기 제1 해상도 보다 낮은 해상도를 가지도록 뷰잉 윈도우의 제2 해상도를 설정하는 동작, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 동작, 식별된 객체를 포함하는 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 동작 및 사용자 디스플레이 인터페이스를 이용하여, 상기 뷰잉 윈도우를 디스플레이 하는 동작을 수행하도록 한다.Another technical aspect of the present application proposes a storage medium. The storage medium is a storage medium that stores computer-readable instructions. The instructions, when executed by a computing device, cause the computing device to: receive a frame image captured by the camera module at a first resolution; and set a second frame image of the viewing window to have a resolution lower than the first resolution. Setting a resolution, identifying whether an object exists in the frame image, setting a portion of the frame image including the identified object as the viewing window, and displaying the viewing window using a user display interface. Make sure to perform the action.

상기한 과제의 해결 수단은, 본 출원의 특징을 모두 열거한 것은 아니다. 본 출원의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.The means for solving the above problems do not enumerate all the features of the present application. Various means for solving the problems of this application can be understood in more detail by referring to specific embodiments in the detailed description below.

본 발명의 일 실시형태에 따르면, 건설 현장에 대응되는 3D 모델을 구성하고 3D 공간의 관리 영역을 커버할 수 있는 복수의 카메라 포지션을 설정함으로써, 건설 현장의 위험 영역을 전체적으로 커버할 수 있는 3차원 가상모델 생성 방법 및 그를 위한 시스템을 제공할 수 있는 효과가 있다.According to one embodiment of the present invention, by constructing a 3D model corresponding to the construction site and setting a plurality of camera positions that can cover the management area of the 3D space, a 3D model that can cover the risk area of the construction site as a whole is provided. It has the effect of providing a method for creating a virtual model and a system for it.

또한, 본 발명의 일 실시형태에 따르면, 복수의 카메라에서 촬영된 복수의 영상에 대하여 영상 인식을 기반으로 객체를 식별하고, 식별된 객체에 대해 시계열적인 추적 데이터 셋을 설정함으로서 이를 기반으로 보다 정확하게 위험 상황을 판단하고 위험 요소를 인덱스화 할 수 있는 3차원 가상모델 생성 방법 및 그를 위한 시스템을 제공할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, objects are identified based on image recognition for a plurality of images captured by a plurality of cameras, and a time-series tracking data set is set for the identified objects to more accurately track the objects based on this. It has the effect of providing a method and system for creating a 3D virtual model that can determine risk situations and index risk factors.

또한, 본 발명의 일 실시형태에 따르면, 판단된 위험 상황에 따라 3D 공간을 위험도에 따라 차등적으로 구분하고, 위험도가 높은 공간에 대하여 카메라 기능 강화를 제공하도록 함으로써, 위험 상황이 유발되는 공간에 대하여 보다 밀접하고 강화된 위험 관리를 제공할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, 3D space is differentiated according to the degree of risk according to the determined risk situation, and camera function enhancement is provided to the high risk space, so that the space where the risk situation occurs is provided. It has the effect of providing closer and strengthened risk management.

도 1은 본 문서에 개시되는 일 실시예에 따른 단말 거치대 및 단말 거치대와 연동하는 휴대 단말을 예시하는 도면이다.
도 2는 본 문서에 개시되는 일 실시예에 따른 단말 거치대를 설명하는 블록 구성도이다.
도 3은 본 문서에 개시되는 일 실시예에 따른 휴대 단말을 설명하는 블록 구성도이다.
도 4는 도 3에 도시된 프로세서의 일 실시예를 설명하는 블록 구성도이다.
도 5는 도 4에 도시된 제어부의 일 실시예를 설명하는 블록 구성도이다.
도 6은 본 문서에 개시되는 일 실시예에 따른 단말 거치대를 이용한 이미지 생성 방법을 설명하는 순서도이다.
도 7 및 도 8은 단말 거치대를 이용한 이미지 생성 방법의 예들을 설명하기 위한 도면들이다.
도 9는 본 문서에 개시되는 일 실시예에 따른 재촬영 프로세스의 일 예를 설명하는 순서도이다.
도 10은 본 문서에 개시되는 일 실시예에 따른 재촬영 프로세스의 다른 일 예를 설명하는 순서도이다.
도 11은 본 문서에 개시되는 일 실시예에 따른 재촬영 프로세스의 또 다른 일 예를 설명하는 순서도이다.
도 12 및 도 13은 재촬영 프로세스에 따른 재촬영된 이미지 및 그를 기반으로 정합된 360도 이미지를 예들을 도시하는 도면이다.
1 is a diagram illustrating a terminal holder and a portable terminal interoperating with the terminal holder according to an embodiment disclosed in this document.
Figure 2 is a block diagram illustrating a terminal holder according to an embodiment disclosed in this document.
Figure 3 is a block diagram illustrating a portable terminal according to an embodiment disclosed in this document.
FIG. 4 is a block diagram illustrating an embodiment of the processor shown in FIG. 3.
FIG. 5 is a block diagram illustrating an embodiment of the control unit shown in FIG. 4.
Figure 6 is a flow chart explaining an image generation method using a terminal holder according to an embodiment disclosed in this document.
Figures 7 and 8 are diagrams to explain examples of an image generation method using a terminal holder.
9 is a flow chart illustrating an example of a rephotographing process according to an embodiment disclosed in this document.
10 is a flowchart illustrating another example of a rephotographing process according to an embodiment disclosed in this document.
11 is a flowchart explaining another example of a rephotographing process according to an embodiment disclosed in this document.
12 and 13 are diagrams showing examples of a rephotographed image according to a rephotograph process and a 360-degree image registered based on the rephotographed image.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the attached drawings.

그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 발명의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. However, the embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. Additionally, the embodiments of the present invention are provided to more completely explain the present invention to those with average knowledge in the relevant technical field.

즉, 전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.That is, the above-described objects, features, and advantages will be described in detail later with reference to the attached drawings, so that those skilled in the art will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. In the drawings, identical reference numerals are used to indicate identical or similar components.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Additionally, as used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In the present application, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps may include It may not be included, or it should be interpreted as including additional components or steps.

또한, 이하에서 본 발명에 따른 시스템을 설명하기 위하여 다양한 구성요소 및 그의 하부 구성요소에 대하여 설명하고 있다. 이러한 구성요소 및 그의 하부 구성요소들은, 하드웨어, 소프트웨어 또는 이들의 조합 등 다양한 형태로서 구현될 수 있다. 예컨대, 각 요소들은 해당 기능을 수행하기 위한 전자적 구성으로 구현되거나, 또는 전자적 시스템에서 구동 가능한 소프트웨어 자체이거나 그러한 소프트웨어의 일 기능적인 요소로 구현될 수 있다. 또는, 전자적 구성과 그에 대응되는 구동 소프트웨어로 구현될 수 있다.In addition, in order to explain the system according to the present invention, various components and their sub-components are described below. These components and their sub-components may be implemented in various forms such as hardware, software, or a combination thereof. For example, each element may be implemented as an electronic configuration to perform the corresponding function, or may be implemented as software itself that can be run in an electronic system, or as a functional element of such software. Alternatively, it may be implemented with an electronic configuration and corresponding driving software.

본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현되거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)", "서버(Server)" 및 "시스템(System)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 또한, 본 발명의 시스템에서 실행되는 각 기능은 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented with hardware or software, or a combination of both as appropriate. As used herein, terms such as “Unit,” “Server,” and “System” likewise refer to a computer-related entity, i.e., hardware, a combination of hardware and software, software or It can be treated as equivalent to software at the time of execution. Additionally, each function executed in the system of the present invention may be configured in module units and may be recorded in one physical memory, or may be distributed and recorded between two or more memories and recording media.

본 출원의 다양한 실시 예들은 기기(machine)-예를 들어, 사용자 단말(100)이나 컴퓨팅 장치(300)-에 의해 읽을 수 있는 저장 매체(storage medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예를 들어, 프로그램)로서 구현될 수 있다. 예를 들면, 프로세서(301)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 장치가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present application are software (e.g., machine) including one or more instructions stored in a storage medium that can be read by a machine (e.g., user terminal 100 or computing device 300). For example, it may be implemented as a program). For example, the processor 301 may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to data being semi-permanently stored in the storage medium. There is no distinction between temporary storage and temporary storage.

본 발명의 실시형태를 설명하기 위하여 다양한 순서도가 개시되고 있으나, 이는 각 단계의 설명의 편의를 위한 것으로, 반드시 순서도의 순서에 따라 각 단계가 수행되는 것은 아니다. 즉, 순서도에서의 각 단계는, 서로 동시에 수행되거나, 순서도에 따른 순서대로 수행되거나, 또는 순서도에서의 순서와 반대의 순서로도 수행될 수 있다. Various flowcharts are disclosed to explain embodiments of the present invention, but these are for convenience of explanation of each step, and each step is not necessarily performed in accordance with the order of the flowchart. That is, each step in the flowchart may be performed simultaneously, in an order according to the flowchart, or in an order opposite to the order in the flowchart.

도 1은 본 문서에 개시되는 일 실시예에 따른 단말 거치대 및 단말 거치대와 연동하는 휴대 단말을 예시하는 도면이다.1 is a diagram illustrating a terminal holder and a portable terminal interoperating with the terminal holder according to an embodiment disclosed in this document.

도 1을 참조하면, 단말 거치대(100) 및 단말 거치대와 연동하는 휴대 단말(200)가 도시된다. Referring to FIG. 1, a terminal holder 100 and a mobile terminal 200 interoperating with the terminal holder are shown.

단말 거치대(100)는 휴대 단말(200)이 거치될 수 있고, 휴대 단말(200)의 제어에 따라 회전 구동하여 휴대 단말(200)의 거치 방향, 즉, 촬영 방향을 회전시킬 수 있다. The terminal holder 100 can hold the mobile terminal 200, and can be rotated under the control of the mobile terminal 200 to rotate the mounting direction, that is, the shooting direction, of the mobile terminal 200.

이하에서는, 단말 거치대(100)가 수평 방향으로 회전하여 휴대 단말(200)의 촬영 방향을 촬영 방향 기준으로 수평 방향(또는 좌우 방향)으로 회전시키는 것을 예를 들어 설명하나, 이는 설명의 편의를 위한 것으로 이에 한정되지 않는다. 예컨대, 단말 거치대(100)는 거치된 휴대 단말(200)을 상하 방향으로 틸팅 하거나, 수평 회전(패닝)과 수직 회전(틸팅)을 함께 할 수도 있다.Hereinafter, it will be described as an example that the terminal holder 100 rotates in the horizontal direction to rotate the shooting direction of the portable terminal 200 in the horizontal direction (or left and right direction) based on the shooting direction. However, this is for convenience of explanation. It is not limited to this. For example, the terminal holder 100 may tilt the mounted mobile terminal 200 in the vertical direction, or may perform both horizontal rotation (panning) and vertical rotation (tilting).

휴대 단말(200)은 촬영 방향에 대하여 촬영을 수행할 수 있다. 휴대 단말(200)은 단말 거치대(100)와 연동하여 360도 이미지를 생성할 수 있다. 예컨대, 휴대 단말(200)은 단말 거치대(100)에 거치될 수 있으며, 단말 거치대(100)에게 구동 명령을 제공하여 촬영 지점에 대한 360도 촬상 이미지를 생성할 수 있다. The mobile terminal 200 can perform photography in a photographing direction. The mobile terminal 200 can generate a 360-degree image in conjunction with the terminal holder 100. For example, the mobile terminal 200 can be mounted on the terminal holder 100 and generate a 360-degree captured image of the shooting point by providing a driving command to the terminal holder 100.

생성된 360도 촬상 이미지는 현실 공간에 대한 360도 이미지이며, 이는 공간에 대응되는 가상 공간을 생성하기 위하여 사용될 수 있다. 예컨대, 360도 촬상 이미지는, 현실 공간의 각 지점에서 360도 이미지를 기반으로 현실 공간에 대응되는 가상의 360도 공간을 제공하는데 사용되거나, 또는 현실 공간의 여러 지점에서 촬영된 360도 이미지-뎁스맵 이미지 포함-를 기초로 현실 공간에 대응되는 3차원 가상 공간을 생성하는데 사용될 수 있다.The generated 360-degree captured image is a 360-degree image of a real space, which can be used to create a virtual space corresponding to the space. For example, 360-degree captured images are used to provide a virtual 360-degree space corresponding to real space based on 360-degree images at each point in real space, or 360-degree images taken at various points in real space - depth It can be used to create a three-dimensional virtual space corresponding to a real space based on a map image.

이러한, 휴대 단말(200)은 사용자가 휴대 가능한 전자 기기이며, 카메라를 포함하는 컴퓨팅 장치이다. 예를 들어, 휴대 단말(200)은 스마트 폰(smart phone), 휴대폰, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포괄한다. The portable terminal 200 is an electronic device that a user can carry and is a computing device that includes a camera. For example, the mobile terminal 200 may be a smart phone, a mobile phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, or a slate PC. PC), tablet PC, ultrabook, wearable devices (e.g. smartwatch, smart glass, HMD (head mounted display)), etc. Comprehensive.

도 2는 본 문서에 개시되는 일 실시예에 따른 휴대 단말기를 설명하는 블록 구성도이다.Figure 2 is a block diagram illustrating a portable terminal according to an embodiment disclosed in this document.

도 2를 참조하면, 휴대 단말기(200)는 통신부(210), 카메라부(220), 출력부(230), 메모리(240), 전원 공급부(250) 및 프로세서(260)를 포함한다. 도 2에 도시된 구성요소들은 휴대 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 휴대 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 2, the portable terminal 200 includes a communication unit 210, a camera unit 220, an output unit 230, a memory 240, a power supply unit 250, and a processor 260. The components shown in FIG. 2 are not essential for implementing a portable terminal, so the portable terminal described in this specification may have more or fewer components than the components listed above.

통신부(210)는, 휴대 단말기(200)와 무선 통신 시스템 사이, 휴대단말기(200)와 다른 휴대 단말기(200) 사이, 또는 휴대 단말기(200)와 단말기 거치대(100) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 이러한통신부(210)는, 이동통신 모듈(211), 무선 인터넷 모듈(212) 및 근거리 통신모듈(213)을 포함할 수 있다. 근거리 통신모듈(213)은 유선 또는 무선으로 단말기 거치대(100)과 통신 연결을 수행할 수 있다. 예컨대, 근거리 통신모듈(213)은 블루투스등의 근거리 무선통신 모듈 또는 RS232와 같은 유선 통신모듈을 포함할 수 있다.The communication unit 210 enables communication between the portable terminal 200 and the wireless communication system, between the portable terminal 200 and another portable terminal 200, or between the portable terminal 200 and the terminal holder 100. It may contain one or more modules. This communication unit 210 may include a mobile communication module 211, a wireless Internet module 212, and a short-range communication module 213. The short-distance communication module 213 can perform a communication connection with the terminal holder 100 by wire or wirelessly. For example, the short-range communication module 213 may include a short-range wireless communication module such as Bluetooth or a wired communication module such as RS232.

카메라부(220)는 적어도 하나의 카메라를 포함할 수 있다. 카메라부(220)는 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera unit 220 may include at least one camera. Camera unit 220 may include one or more lenses, image sensors, image signal processors, or flashes.

카메라부(220)는 제1 카메라(221) 내지 제2 카메라(222)를 포함할수 있다. 제1 카메라(221) 또는 제2 카메라(222)는 휴대 단말기(200)의 전방 영상을 촬영할 수 있다.The camera unit 220 may include a first camera 221 to a second camera 222. The first camera 221 or the second camera 222 may capture a front image of the portable terminal 200.

출력부(230)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(231) 및 음향 출력부(152)를 포함할 수 있다. 디스플레이부(231)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 휴대 단말기(200)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 휴대 단말기(200)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 230 is intended to generate output related to vision, hearing, or tactile senses, and may include a display unit 231 and an audio output unit 152. The display unit 231 can implement a touch screen by forming a mutual layer structure or being integrated with the touch sensor. This touch screen can function as a user input unit that provides an input interface between the portable terminal 200 and the user, and at the same time, can provide an output interface between the portable terminal 200 and the user.

전원공급부(250)는 프로세서(260)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 휴대 단말기(200)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 250 receives external power and internal power under the control of the processor 260 and supplies power to each component included in the portable terminal 200. This power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.

프로세서(260)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 휴대 단말기(200)의 전반적인 동작을 제어한다. 프로세서(260)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(240)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는기능을 제공 또는 처리할 수 있다. 프로세서(260)는 하나의 프로세서 또는 복수의프로세서로 구현 가능하다.In addition to operations related to the application program, the processor 260 typically controls the overall operation of the mobile terminal 200. The processor 260 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 240. The processor 260 can be implemented as one processor or multiple processors.

프로세서(260)는 메모리(240)에 저장된 응용 프로그램, 즉, 어플리 케이션을 구동하기 위하여, 도 3와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(260)는 상기 응용 프로그램의 구동을 위하여, 휴대단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수있다.The processor 260 may control at least some of the components examined with FIG. 3 to run an application program stored in the memory 240, that is, an application. Furthermore, the processor 260 can operate at least two of the components included in the mobile terminal 100 in combination with each other in order to run the application program.

프로세서(260)는 메모리(240)에 저장된 인스트럭션들(instructions)을 실행하여 어플리케이션을 구동할 수 있다. 이하에서는, 프로세서(260)가 어플리케이션을 구동하여 제어, 지시 또는 기능의 주체로서 표현하나, 이는, 프로세서(260)가 메모리(240)에 저장된 인스트럭션 또는 어플리케이션을 구동하여 동작하는것을 의미한다.The processor 260 may run an application by executing instructions stored in the memory 240. Hereinafter, the processor 260 is expressed as the subject of control, instruction, or function by driving an application. However, this means that the processor 260 operates by driving instructions or applications stored in the memory 240.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한실시 예들에 따른 휴대 단말기의 동작, 제어 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 휴대 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 휴대 단말기 상에서 구현 될 수 있다.At least some of the above components may cooperate with each other to implement operation, control, or a control method of a portable terminal according to various embodiments described below. Additionally, the operation, control, or control method of the portable terminal may be implemented on the portable terminal by running at least one application program stored in the memory 170.

프로세서(260)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 휴대 단말(200)의 전반적인 동작을 제어한다. 프로세서(260)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(240)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to operations related to application programs, the processor 260 typically controls the overall operation of the mobile terminal 200. The processor 260 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 240.

프로세서(260)는 메모리(240)에 저장된 응용 프로그램, 즉, 어플리케이션을 구동하기 위하여, 도 3와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(260)는 응용 프로그램의 구동을 위하여, 휴대 단말(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 260 may control at least some of the components examined with FIG. 3 in order to run an application program stored in the memory 240, that is, an application. Furthermore, the processor 260 may operate at least two of the components included in the mobile terminal 100 in combination with each other in order to run an application program.

프로세서(260)는 메모리(240)에 저장된 인스트럭션들(instructions)을 실행하여 어플리케이션을 구동할 수 있다. 이하에서는, 프로세서(260)가 어플리케이션을 구동하여 제어, 지시 또는 기능의 주체로서 표현하나, 이는, 프로세서(260)가 메모리(240)에 저장된 인스트럭션 또는 어플리케이션을 구동하여 동작할 수 있다. 이하에서 설명하는 도 4 또는 도 5의 구성요소들은 메모리(240)에 저장된 인스트럭션에 따라 프로세서(260)에서 구현되는 기능 또는 소프트웨어 모듈일 수 있다.The processor 260 may run an application by executing instructions stored in the memory 240. Hereinafter, the processor 260 is expressed as the subject of control, instruction, or function by driving an application. However, the processor 260 may operate by driving instructions or applications stored in the memory 240. The components of FIG. 4 or FIG. 5 described below may be functions or software modules implemented in the processor 260 according to instructions stored in the memory 240.

한편, 상술한 실시예에 따른 휴대 단말(200)에서 수행되는 제어 방법은 프로그램으로 구현되어 휴대 단말(200)에 제공될 수 있다. 특히, 휴대 단말(200)의 제어 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.Meanwhile, the control method performed in the mobile terminal 200 according to the above-described embodiment may be implemented as a program and provided to the mobile terminal 200. In particular, a program including a control method for the portable terminal 200 may be stored and provided in a non-transitory computer readable medium.

이상에서 전자 장치(100)의 제어 방법, 그리고 전자 장치(100)의 제어 방법을 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록매체에 대해 간략하게 설명하였으나, 이는 중복 설명을 생략하기 위한 것일 뿐이며, 전자장치(100)에 대한 다양한 실시예는 전자 장치(100)의 제어 방법, 그리고 전자 장치(100)의 제어 방법을 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록매체에 대해서도 적용될 수 있음은 물론이다.In the above, the control method of the electronic device 100 and the computer-readable recording medium including the program for executing the control method of the electronic device 100 have been briefly described. However, this is only to omit redundant description, and the electronic device 100 control method has been briefly described. Of course, various embodiments of the device 100 can also be applied to a control method of the electronic device 100 and a computer-readable recording medium including a program that executes the control method of the electronic device 100.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 휴대 단말의 동작, 제어 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 이러한 휴대 단말의 동작, 제어, 또는 제어방법은 메모리(240)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 휴대 단말(200) 상에서 구현 될 수 있다.At least some of the above components may cooperate with each other to implement operation, control, or a control method of a mobile terminal according to various embodiments described below. This operation, control, or control method of the mobile terminal can be implemented on the mobile terminal 200 by running at least one application program stored in the memory 240.

이하 도 4 내지 도 14를 참조하여, 프로세서(260)의 다양한 제어 등에 대하여 설명한다.Hereinafter, various controls of the processor 260 will be described with reference to FIGS. 4 to 14.

카메라 모듈을 포함하는 컴퓨팅 장치에서 수행되는 객체 트래킹 제공 방법으로서, 프로세서(260)는 카메라 모듈에 의해 제1 해상도로 촬영된 프레임 이미지를 제공받는 단계, 상기 제1 해상도 보다 낮은 해상도를 가지도록 뷰잉 윈도우의 제2 해상도를 설정하는 단계, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계, 식별된 객체를 포함하는 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계 및 사용자 디스플레이 인터페이스를 이용하여, 상기 뷰잉 윈도우를 디스플레이 하는 단계를 포함할 수 있다.A method for providing object tracking performed in a computing device including a camera module, the processor 260 comprising: receiving a frame image captured by a camera module at a first resolution; setting a viewing window to have a resolution lower than the first resolution; setting a second resolution of the frame image, identifying whether an object exists within the frame image, setting a portion of the frame image containing the identified object as the viewing window, and using a user display interface to display the viewing window. It may include the step of displaying a window.

일 실시예에서, 상기 카메라 모듈은, 상기 객체의 존재 및 이동 여부에 무관하게 기 설정된 전방 방향으로 고정되어 상기 제1 해상도로 촬영하여 상기 프레임 이미지를 생성할 수 있다.In one embodiment, the camera module may be fixed in a preset forward direction and capture images at the first resolution to generate the frame image, regardless of whether the object exists or moves.

일 실시예에서, 프레임 이미지 내에 객체가 존재하는지 식별하는 단계에서, 프로세서(260)는 프레임 이미지 내에 추적 대상 객체가 존재하는지 식별하는 단계, 식별된 제1 객체에 대해 제1 외형적 특징점을 추출하고, 추출된 제1 외형적 특징점을 기초로 상기 제1 객체에 대한 객체 식별자를 생성하는 단계를 포함할 수 있다.In one embodiment, in the step of identifying whether an object exists in the frame image, the processor 260 includes: identifying whether an object to be tracked exists in the frame image; extracting a first external feature point for the identified first object; , It may include generating an object identifier for the first object based on the extracted first external feature point.

일 실시예에서, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계는, 이전 프레임 이미지 내에서 식별된 제2 객체에 대한 제2 외형적 특징점을 추출하는 단계 및 상기 제1 객체의 제1 외형점 특징점과 상기 제2 객체의 제2 외형적 특징점을 기초로, 제1 객체와 제2 객체가 동일 객체인지 판단하는 단계; 를 포함할 수 있다.In one embodiment, identifying whether an object exists in the frame image includes extracting a second appearance feature point for a second object identified in the previous frame image and a first appearance feature point of the first object. and determining whether the first object and the second object are the same object based on the second external feature point of the second object; may include.

일 실시예에서, 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계는, 식별된 객체의 위치를 확인하는 단계, 식별된 객체의 위치를 기준으로, 제2 해상도를 가지는 상기 프레임 이미지의 일부를 추출하는 단계 및 추출된 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계를 포함할 수 있다.In one embodiment, setting a portion of the frame image as the viewing window includes confirming the location of an identified object, and selecting a portion of the frame image having a second resolution based on the location of the identified object. It may include extracting and setting a part of the extracted frame image as the viewing window.

일 실시예에서, 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계는, 현재 프레임 이미지에 대한 제1 뷰잉 윈도우와, 이전 프레임 이미지에 대한 제2 뷰잉 윈도우 간의 위치적 임계성을 판단하는 단계 및 상기 위치적 임계성을 만족하지 않는 경우, 상기 제2 뷰잉 윈도우를 기초로 상기 제1 뷰잉 윈도우를 재 설정하는 단계를 포함할 수 있다.In one embodiment, setting a portion of the frame image as the viewing window includes determining positional criticality between a first viewing window for a current frame image and a second viewing window for a previous frame image, and If the positional criticality is not satisfied, the method may include resetting the first viewing window based on the second viewing window.

일 실시예에서, 상기 영상 합성기능 제공 방법은, 상기 뷰잉 윈도우를 상기 디스플레이 모듈을 통하여 표시하는 단계를 더 포함할 수 있다.In one embodiment, the method of providing the image synthesis function may further include displaying the viewing window through the display module.

도 14는 본 문서에 개시되는 일 실시예에 따른 단말 거치대를 설명하는 블록 구성도이다. 도 14를 참조하여, 본 발명의 실시예에 따른 단말 거치대(100)의 일 실시예에 대하여 설명한다.Figure 14 is a block diagram illustrating a terminal holder according to an embodiment disclosed in this document. Referring to FIG. 14, an embodiment of a terminal holder 100 according to an embodiment of the present invention will be described.

단말 거치대(100)는 회전부(110) 및 본체부(120)를 포함할 수 있다.The terminal holder 100 may include a rotating part 110 and a main body 120.

회전부(110)에는 휴대 단말(200)가 거치되고, 모터부(121)의 동작에 의하여 회전될 수 있다. 회전부(110)의 회전에 따라 휴대 단말(200)의 촬영 방향이 변경될 수 있다. 또한, 회전부(110)의 회전 방향 및 회전 속도는 모터부(121)의 구동에 따라 변경될 수 있다. The mobile terminal 200 is mounted on the rotating unit 110 and can be rotated by the operation of the motor unit 121. The shooting direction of the portable terminal 200 may change according to the rotation of the rotating unit 110. Additionally, the rotation direction and rotation speed of the rotation unit 110 may change depending on the driving of the motor unit 121.

일 예로, 회전부(110)는 고정대, 조이개 및 회전대를 포함할 수 있다. 고정대 및 조이개는 회전대 상에 배치될 수 있다. 고정대와 조이개는 휴대 단말(200)을 고정할 수 있다. 사용자는 고정대와 조이개 사이에 휴대 단말(200)을 위치시킨 뒤, 조이개를 조이도록 함으로써 휴대 단말(200)가 흔들리지 않도록 고정되도록 할 수 있다. 회전대는 모터부(121)의 동작에 따라 회전할 수 있으며, 이를 위해 회전대는 모터부(121)와 기계적으로 연결될 수 있다. As an example, the rotating unit 110 may include a fixture, a clamp, and a rotating table. The fixture and fastener may be placed on the rotating table. The fixture and clamp can secure the mobile terminal 200. The user can position the mobile terminal 200 between the fixture and the clamp and tighten the clamp to ensure that the mobile terminal 200 is fixed without shaking. The rotary table can rotate according to the operation of the motor unit 121, and for this purpose, the rotary table can be mechanically connected to the motor unit 121.

본체부(120)는 모터부(121), 제어부(122) 및 통신부(123)를 포함할 수 있다. 제어부(122)는 본체부(120)의 구성요소들을 제어하여 단말 거치대(100)의 동작을 제어할 수 있다. The main body 120 may include a motor unit 121, a control unit 122, and a communication unit 123. The control unit 122 can control the operation of the terminal holder 100 by controlling the components of the main body 120.

통신부(123)는 휴대 단말(200)과 통신 연결을 수행하고, 휴대 단말(200)로부터 단말 거치대(100)를 구동시키기 위한 제어 신호를 제공받을 수 있다. 일 예로, 통신부(123)는 근거리 통신 모듈 또는 유선 통신 중 적어도 하나를 이용하여 휴대 단말(200)과 통신 연결을 형성할 수 있다.The communication unit 123 may perform a communication connection with the mobile terminal 200 and receive a control signal for driving the terminal holder 100 from the mobile terminal 200. As an example, the communication unit 123 may establish a communication connection with the mobile terminal 200 using at least one of a short-range communication module or wired communication.

제어부(122)는 통신부(123)를 통하여 수신된 제어 신호에 대응하여, 모터부(121)를 구동하여, 회전부(110)의 구동을 제어할 수 있다. The control unit 122 may control the driving of the rotary unit 110 by driving the motor unit 121 in response to a control signal received through the communication unit 123.

이하에서는, 휴대 단말(200)에서 단말 거치대(100)로 보내는 제어 신호를, 단말 거치대(100)의 구동 -일 예로, 수평 방향의 회전 동작- 에 관한 제어 신호로서 '구동 명령'이라 칭하여 설명하나, 이는 설명의 편의를 위한 것으로서, 이에 한정되는 것은 아니다. 즉, 실시예에 따라, 휴대 단말(200)에서 단말 거치대(100)로 보내는 제어 신호는, 단말 거치대(100)의 회전부(110)의 회전 구동에 대한 제어 외에도, 단말 거치대(100)의 전원 온/오프, 무선 링크 형성 요청, 인증, 배터리 잔량 표시 등에 대한 제어도 가능하다.Hereinafter, the control signal sent from the mobile terminal 200 to the terminal holder 100 will be described as a 'drive command' as a control signal for driving the terminal holder 100 - for example, a horizontal rotation motion. , This is for convenience of explanation and is not limited thereto. That is, depending on the embodiment, the control signal sent from the mobile terminal 200 to the terminal holder 100 not only controls the rotational drive of the rotating part 110 of the terminal holder 100, but also controls the power on of the terminal holder 100. Controls for on/off, wireless link formation request, authentication, and remaining battery level display are also possible.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 발명의 구성은 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.The present invention described above is not limited by the above-described embodiments and the accompanying drawings, but is limited by the scope of the patent claims described later, and the configuration of the present invention can be varied within the scope without departing from the technical spirit of the present invention. Those skilled in the art can easily see that changes and modifications can be made.

Claims (11)

단말기 크래들과 연동하여 동작하는 휴대 단말에서 수행되는 영상 합성을 제공하는 방법으로서,
딥 러닝 모듈을 이용하여, 촬영 영상에 포함되는 연속되는 복수의 프레임 이미지 각각에 존재하는 객체를 식별하는 단계;
상기 복수의 프레임 이미지 중 일부 프레임 이미지를 표시 프레임 이미지로서 선별하는 단계; 및
상기 표시 프레임 이미지 내에서 식별된 객체를 표시 객체로 설정하고, 표시 객체에 대한 이미지를 해당 표시 프레임 이미지의 이전에 연속하는 복수의 프레임 이미지에 추가하여 표시하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
A method of providing image synthesis performed in a portable terminal operating in conjunction with a terminal cradle, comprising:
Identifying an object present in each of a plurality of consecutive frame images included in a captured image using a deep learning module;
selecting some frame images among the plurality of frame images as display frame images; and
setting an object identified in the display frame image as a display object and displaying the display object by adding an image for the display object to a plurality of consecutive frame images preceding the display frame image; Including,
How to provide video synthesis function.
제1항에 있어서 , 상기 복수의 프레임 이미지 중 일부 프레임 이미지를 표시 프레임 이미지로서 선별하는 단계는,
상기 표시 객체 간의 거리가 기 설정된 범위에 해당되도록 상기 일부 프레임 이미지를 선별하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 1, wherein the step of selecting some frame images from among the plurality of frame images as display frame images comprises:
selecting the partial frame images such that the distance between the display objects falls within a preset range; Including,
How to provide video synthesis function.
제1항에 있어서 , 상기 복수의 프레임 이미지 중 일부 프레임 이미지를 표시 프레임 이미지로서 선별하는 단계는,
기 설정된 시간 간격을 기초로 선별된 일부 프레임 이미지를 상기 표시 프레임 이미지로서 결정하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 1, wherein the step of selecting some frame images from among the plurality of frame images as display frame images comprises:
determining some frame images selected based on a preset time interval as the display frame images; Including,
How to provide video synthesis function.
카메라 모듈을 포함하는 컴퓨팅 장치에서 수행되는 객체 트래킹 제공 방법으로서,
상기 카메라 모듈에 의해 제1 해상도로 촬영된 프레임 이미지를 제공받는 단계;
상기 제1 해상도 보다 낮은 해상도를 가지도록 뷰잉 윈도우의 제2 해상도를 설정하는 단계;
상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계;
식별된 객체를 포함하는 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계; 및
사용자 디스플레이 인터페이스를 이용하여, 상기 뷰잉 윈도우를 디스플레이 하는 단계;를 포함하는,
영상 합성기능 제공 방법.
A method for providing object tracking performed on a computing device including a camera module, comprising:
Receiving a frame image captured by the camera module at a first resolution;
setting a second resolution of the viewing window to have a lower resolution than the first resolution;
identifying whether an object exists within the frame image;
setting a portion of the frame image containing an identified object as the viewing window; and
Including, displaying the viewing window using a user display interface.
How to provide video synthesis function.
제1항에 있어서, 상기 카메라 모듈은,
상기 객체의 존재 및 이동 여부에 무관하게 기 설정된 전방 방향으로 고정되어 상기 제1 해상도로 촬영하여 상기 프레임 이미지를 생성하는,
영상 합성기능 제공 방법.
The method of claim 1, wherein the camera module:
Generating the frame image by shooting at the first resolution while being fixed in a preset forward direction regardless of whether the object exists or moves,
How to provide video synthesis function.
제2항에 있어서, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계는,
상기 프레임 이미지 내에 추적 대상 객체가 존재하는지 식별하는 단계;
식별된 제1 객체에 대해 제1 외형적 특징점을 추출하고, 추출된 제1 외형적 특징점을 기초로 상기 제1 객체에 대한 객체 식별자를 생성하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 2, wherein identifying whether an object exists in the frame image comprises:
Identifying whether a tracking target object exists in the frame image;
Extracting a first external feature point for an identified first object and generating an object identifier for the first object based on the extracted first external feature point; Including,
How to provide video synthesis function.
제3항에 있어서, 상기 프레임 이미지 내에 객체가 존재하는지 식별하는 단계는,
이전 프레임 이미지 내에서 식별된 제2 객체에 대한 제2 외형적 특징점을 추출하는 단계; 및
상기 제1 객체의 제1 외형점 특징점과 상기 제2 객체의 제2 외형적 특징점을 기초로, 제1 객체와 제2 객체가 동일 객체인지 판단하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 3, wherein identifying whether an object exists in the frame image comprises:
extracting a second external feature point for a second object identified in the previous frame image; and
determining whether the first object and the second object are the same object based on the first appearance feature point of the first object and the second appearance feature point of the second object; Including,
How to provide video synthesis function.
제2항에 있어서, 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계는,
식별된 객체의 위치를 확인하는 단계;
식별된 객체의 위치를 기준으로, 제2 해상도를 가지는 상기 프레임 이미지의 일부를 추출하는 단계; 및
추출된 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 2, wherein setting a portion of the frame image as the viewing window comprises:
Confirming the location of the identified object;
extracting a portion of the frame image having a second resolution based on the location of the identified object; and
setting a part of the extracted frame image as the viewing window; Including,
How to provide video synthesis function.
제5항에 있어서, 상기 프레임 이미지의 일부를 상기 뷰잉 윈도우로서 설정하는 단계는,
현재 프레임 이미지에 대한 제1 뷰잉 윈도우와, 이전 프레임 이미지에 대한 제2 뷰잉 윈도우 간의 위치적 임계성을 판단하는 단계; 및
상기 위치적 임계성을 만족하지 않는 경우, 상기 제2 뷰잉 윈도우를 기초로 상기 제1 뷰잉 윈도우를 재 설정하는 단계; 를 포함하는,
영상 합성기능 제공 방법.
The method of claim 5, wherein setting a portion of the frame image as the viewing window comprises:
determining positional criticality between a first viewing window for the current frame image and a second viewing window for the previous frame image; and
If the positional criticality is not satisfied, resetting the first viewing window based on the second viewing window; Including,
How to provide video synthesis function.
제2항에 있어서, 상기 영상 합성기능 제공 방법은,
상기 뷰잉 윈도우를 상기 디스플레이 모듈을 통하여 표시하는 단계; 를 더 포함하는,
영상 합성기능 제공 방법.
The method of claim 2, wherein the method of providing the image synthesis function includes:
displaying the viewing window through the display module; Containing more,
How to provide video synthesis function.
컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
딥 러닝 모듈을 이용하여, 촬영 영상에 포함되는 연속되는 복수의 프레임 이미지 각각에 존재하는 객체를 식별하는 동작;
상기 복수의 프레임 이미지 중 일부 프레임 이미지를 표시 프레임 이미지로서 선별하는 동작; 및
상기 표시 프레임 이미지 내에서 식별된 객체를 표시 객체로 설정하고, 표시 객체에 대한 이미지를 해당 표시 프레임 이미지의 이전에 연속하는 복수의 프레임 이미지에 추가하여 표시하는 동작; 을 수행하도록 하는,
저장 매체.
A storage medium storing computer-readable instructions,
The instructions, when executed by a computing device, cause the computing device to:
An operation of identifying an object present in each of a plurality of consecutive frame images included in a captured image using a deep learning module;
An operation of selecting some frame images among the plurality of frame images as display frame images; and
An operation of setting an object identified in the display frame image as a display object and displaying the image by adding an image for the display object to a plurality of frame images consecutive before the display frame image; to perform,
storage media.
KR1020220125422A 2022-09-30 Software-based object tracking method and computing device therefor KR20240045743A (en)

Publications (1)

Publication Number Publication Date
KR20240045743A true KR20240045743A (en) 2024-04-08

Family

ID=

Similar Documents

Publication Publication Date Title
CN108734736B (en) Camera posture tracking method, device, equipment and storage medium
EP3134870B1 (en) Electronic device localization based on imagery
WO2019205842A1 (en) Method and device for repositioning in camera orientation tracking process, and storage medium
KR102497683B1 (en) Method, device, device and storage medium for controlling multiple virtual characters
TWI523517B (en) Image capture device, image alignment method, and the storage medium for executing the method
US11276183B2 (en) Relocalization method and apparatus in camera pose tracking process, device, and storage medium
CN110544272A (en) face tracking method and device, computer equipment and storage medium
KR20140090078A (en) Method for processing an image and an electronic device thereof
CN111897429A (en) Image display method, image display device, computer equipment and storage medium
CN111724412A (en) Method and device for determining motion trail and computer storage medium
JP2017212510A (en) Image management device, program, image management system, and information terminal
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
CN113160031A (en) Image processing method, image processing device, electronic equipment and storage medium
KR20240045743A (en) Software-based object tracking method and computing device therefor
US11770551B2 (en) Object pose estimation and tracking using machine learning
KR20190061165A (en) System and method for generating 360 degree video including advertisement
CN114600162A (en) Scene lock mode for capturing camera images
KR102617213B1 (en) Software-based object tracking method and computing device therefor
US20240005529A1 (en) Software-based object tracking method and computing device therefor
KR102571932B1 (en) Image creation method using terminal holder and portable terminal therefor
CN111886853B (en) Image data processing method and apparatus thereof
CN114422736B (en) Video processing method, electronic equipment and computer storage medium
US20220408026A1 (en) Mobile device and method of controlling mobile device cradle
CN116993906A (en) Method, apparatus, device and computer readable medium for controlling virtual object
CN117640919A (en) Picture display method, device, equipment and medium based on virtual reality space