KR20230114567A - Display apparatus and method for controlling display apparatus - Google Patents

Display apparatus and method for controlling display apparatus Download PDF

Info

Publication number
KR20230114567A
KR20230114567A KR1020220010900A KR20220010900A KR20230114567A KR 20230114567 A KR20230114567 A KR 20230114567A KR 1020220010900 A KR1020220010900 A KR 1020220010900A KR 20220010900 A KR20220010900 A KR 20220010900A KR 20230114567 A KR20230114567 A KR 20230114567A
Authority
KR
South Korea
Prior art keywords
image
object image
location
processor
camera
Prior art date
Application number
KR1020220010900A
Other languages
Korean (ko)
Inventor
나빌 입테하스
무하마드 라키불 이슬람
이크발 호세인
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220010900A priority Critical patent/KR20230114567A/en
Publication of KR20230114567A publication Critical patent/KR20230114567A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

전자 장치 및 전자 장치의 제어 방법을 제공한다. 상기 전자 장치는, 복수의 카메라; 디스플레이; 메모리; 및 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서;를 포함한다. An electronic device and a method for controlling the electronic device are provided. The electronic device may include a plurality of cameras; display; Memory; and identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location, the identified camera while the electronic device is in the first location. Obtaining a first object image by photographing an object, identifying a transformation function corresponding to the second position based on the 3D image of the object and the second position, and identifying the first object image and the second position. and a processor for obtaining a second object image corresponding to the second position based on a conversion function and displaying the first object image and the second object image on the display.

Description

전자 장치 및 전자 장치의 제어 방법{DISPLAY APPARATUS AND METHOD FOR CONTROLLING DISPLAY APPARATUS}Electronic device and control method of electronic device {DISPLAY APPARATUS AND METHOD FOR CONTROLLING DISPLAY APPARATUS}

본 개시는 전자 장치에 관한 것으로, 보다 상세하게는, 카메라를 통해 촬영되는 객체에 관한 이미지를 기반으로, 카메라의 촬영 시점과는 다른 시점에서 획득될 수 있는 객체에 관한 복수의 이미지를 표시하는 전자 장치에 관한 것이다. The present disclosure relates to an electronic device, and more particularly, to an electronic device for displaying a plurality of images of an object that can be obtained at a different point of time from a point of time when the camera captures the object based on an image of the object captured through a camera. It's about the device.

모바일 산업이 발전함에 따라, 모바일 기기에 내장되는 카메라 모듈에 관한 기술도 함께 발전해왔다. 특히 스마트 폰이 본격적으로 보급된 2010년 이후부터 스마트 폰 시장의 성장세가 점점 둔화되고 있음에도 불구하고, 카메라 모듈에 관한 기술은 지속적으로 발전해왔다. 이러한 이유로 스마트 폰을 생산하는 각 기업에서는 스마트 폰의 차별화를 위한 마지막 단계로 스마트 폰에 탑재되는 카메라 모듈의 기술 차별화를 통해 스마트 폰의 차별화에 힘쓰고 있다. 예를 들어, 카메라 모듈에 TOF(Time of Flying) 센서, 라이더(Lidar) 센서 등과 같은 다양한 센서를 포함시켜 사용자가 카메라 모듈을 통해 객체에 대한 다양한 정보를 획득할 수 있도록 하였다. 또한 전면과 후면에 각각 하나의 카메라 모듈 만을 포함했던 종래 스마트 폰에서 벗어나, 화각에 따라 광각 렌즈, 표준 렌즈 및 망원 렌즈 등 다양한 렌즈를 카메라 모듈에 포함시킴으로써, 사용자가 하나의 스마트 폰 만으로 피사체에 대한 다양한 이미지를 획득할 수 있도록 하였다.As the mobile industry develops, technology related to camera modules embedded in mobile devices has also developed. In particular, since 2010, when smart phones were widely distributed, despite the fact that the growth rate of the smart phone market has gradually slowed down, technology related to camera modules has been continuously developed. For this reason, each company that produces smart phones is striving to differentiate their smart phones through technological differentiation of camera modules mounted on smart phones as the final step for differentiating their smart phones. For example, various sensors such as a Time of Flying (TOF) sensor and a Lidar sensor are included in the camera module so that the user can acquire various information about the object through the camera module. In addition, by moving away from the conventional smart phone that included only one camera module on the front and back, various lenses such as wide-angle lens, standard lens, and telephoto lens are included in the camera module according to the angle of view, so that the user can view the subject with only one smartphone. A variety of images were obtained.

그러나 이러한 카메라 모듈의 발전에도 불구하고, 여전히 카메라 모듈을 통한 피사체의 이미지 획득은 스마트 폰의 고정된 위치에서 만이 가능하다. 즉, 피사체에 대한 복수의 시점에서의 이미지를 동시에 획득하는 것은 여전히 불가능하다. 따라서 사용자들은 피사체를 촬영하기 위한 최적의 앵글을 찾기 위하여, 스마트 폰의 위치를 변경하고, 변경된 위치에서 촬영된 피사체의 이미지를 검토하는 과정을 반복해야만 한다. 특히 하나의 씬을 위해 다양한 시점에서의 촬영 영상을 필요로 하는 영화 촬영을 위해서는, 사용자가 매번 복수의 스마트 폰 또는 카메라와 같은 부가 장비를 마련해야만 한다. However, in spite of the development of the camera module, it is still possible to acquire an image of a subject through the camera module only at a fixed location of the smart phone. That is, it is still impossible to simultaneously acquire images of a subject from a plurality of viewpoints. Accordingly, users have to repeat the process of changing the position of the smart phone and reviewing the image of the subject captured at the changed position in order to find the optimal angle for photographing the subject. In particular, in order to shoot a movie that requires shooting images from various viewpoints for one scene, a user must prepare a plurality of smart phones or additional equipment such as a camera each time.

따라서 복수의 장치 없이도 하나의 카메라 모듈만으로 피사체에 대한 복수의 시점에서의 이미지를 제공할 수 있는 장치가 요구되는 실정이다. 만약 사용자가 피사체에 대한 복수의 시점에서의 촬영 이미지를 하나의 스마트 폰 만으로 동시에 제공받을 수 있다면, 상술한 과정을 반복할 필요가 없으며, 별도의 장비를 마련할 필요도 없기 때문이다. Therefore, there is a need for a device capable of providing images of a subject from a plurality of viewpoints using only one camera module without a plurality of devices. This is because if the user can simultaneously receive images captured from multiple viewpoints of the subject using only one smart phone, there is no need to repeat the above-described process or to prepare additional equipment.

본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 복수의 카메라 모듈 없이도, 오브젝트에 관한 복수의 시점에서의 촬영 이미지를 제공하는 전자 장치 및 그 제어 방법을 제공함에 있다.The present disclosure has been made to solve the above-described problems, and an object of the present disclosure is to provide an electronic device and a control method for providing captured images of an object from a plurality of viewpoints without a plurality of camera modules.

상기 목적을 달성하기 위한 본 개시의 일 면에 따른 전자 장치는, 복수의 카메라, 디스플레이, 메모리 및 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서를 포함한다. An electronic device according to an aspect of the present disclosure for achieving the above object is provided based on a plurality of cameras, a display, a memory, and a first location of the electronic device and a second location set based on the first location. One of the cameras is identified, and a first object image is obtained by capturing an object through the identified camera while the electronic device is in the first position, and a 3D image of the object and the second position are obtained. A transformation function corresponding to the second position is identified based on, a second object image corresponding to the second position is obtained based on the first object image and the transformation function, and the first object image and and a processor displaying the second object image on the display.

또한, 상기 프로세서는, 상기 복수의 카메라 각각의 화각을 식별하고, 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별한다. Also, the processor identifies an angle of view of each of the plurality of cameras, and identifies a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera.

또한, 상기 프로세서는, 상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하고, 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득한다. In addition, the processor captures the object from a plurality of viewpoints through the camera, obtains a plurality of object images corresponding to the plurality of viewpoints, and based on an object identified in each of the plurality of object images, Acquire a 3D image of an object.

또한, 상기 프로세서는, 상기 3차원 이미지에 기초하여, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득하고, 상기 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득하고, 상기 제1 객체 이미지에서 식별된 객체의 특징 점 및 상기 획득된 복수의 변환 행렬 중 상기 제1 객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다.In addition, the processor obtains coordinate values corresponding to feature points of objects identified at each of a plurality of viewpoints based on the 3D image, and generates a plurality of transformation matrices for conversion between the obtained plurality of coordinate values. Obtained, and based on a feature point of the object identified in the first object image and a transformation matrix corresponding to the feature point of the object identified in the first object image among the obtained plurality of transformation matrices, at the second position A corresponding second object image is acquired.

또한, 상기 메모리는, 입력된 객체 이미지에 기초하여 객체에 대한 3차원 이미지를 생성하도록 학습된 신경망 모델을 포함하고, 상기 프로세서는, 상기 제1 객체 이미지를 상기 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하고, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다.In addition, the memory includes a neural network model learned to generate a 3D image of an object based on an input object image, and the processor inputs the first object image to the neural network model to generate a 3D image of the object. A 3D image of the object is obtained, and a second object image corresponding to the second location is obtained based on the 3D image obtained through the neural network model.

또한, 상기 프로세서는, 상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득한다. In addition, the processor identifies a reference range for the object, and if the second location is included in the identified reference range, obtains the second object image based on the first object image and a transformation matrix; When the second position is not included in the identified reference range, the second object image is obtained based on the 3D image.

또한, 상기 프로세서는, 상기 식별된 카메라의 화각 정보에 기초하여 상기 기준 범위를 식별한다. Also, the processor identifies the reference range based on the identified information on the view angle of the camera.

또한, 상기 프로세서는, 상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득되면, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하고, 상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트한다. In addition, when a third object image is acquired by photographing the object at a location different from the first location through the camera, the processor may include an object not included in the first object image but included in the second object image. It identifies whether at least a part of is included in the third object image, and at least a part of the object is included in the third object image and at least a part of the object included in the third object image is the second object. If different from the image, the 3D image is updated based on the third object image.

또한, 상기 프로세서는, 상기 업데이트 된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시한다. Also, the processor obtains a second object image corresponding to the second location based on the updated 3D image, and displays the second object image on the display.

상기 목적을 달성하기 위한 본 개시의 다른 면에 따른 복수의 카메라를 포함하는 전자 장치를 제어하는 방법에 있어서, 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하는 단계, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하는 단계, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하는 단계, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계 및 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 디스플레이에 표시하는 단계를 포함한다. In the method for controlling an electronic device including a plurality of cameras according to another aspect of the present disclosure for achieving the above object, based on a first position of the electronic device and a second position set based on the first position Identifying one camera among the plurality of cameras, acquiring a first object image by photographing an object through the identified camera while the electronic device is in the first location, and obtaining a 3D image of the object. and identifying a transform function corresponding to the second position based on the second position, obtaining a second object image corresponding to the second position based on the first object image and the transform function. and displaying the first object image and the second object image on a display.

또한, 상기 하나의 카메라를 식별하는 단계는, 상기 복수의 카메라 각각의 화각을 식별하는 단계 및 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는 단계를 포함한다. The identifying of the one camera may include identifying an angle of view of each of the plurality of cameras and identifying a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera. includes

또한, 상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하는 단계 및 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 포함한다. In addition, the step of acquiring a plurality of object images corresponding to the plurality of viewpoints by photographing the object from a plurality of viewpoints through the camera, and based on the object identified in each of the plurality of object images, information about the object is obtained. Acquiring a 3D image.

또한, 상기 변환 함수를 식별하는 단계는, 상기 3차원 이미지에 기초하여, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득하는 단계, 상기 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득하는 단계를 포함하고, 상기 제2 객체 이미지를 획득하는 단계는, 상기 제1 객체 이미지에서 식별된 객체의 특징 점 및 상기 획득된 복수의 변환 행렬 중 상기 제1 객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계를 포함한다. In addition, the step of identifying the conversion function may include obtaining coordinate values corresponding to feature points of the object identified at each of a plurality of viewpoints based on the 3D image, and converting between the obtained plurality of coordinate values. obtaining a plurality of transformation matrices for the first object image, wherein the obtaining of the second object image includes a feature point of an object identified in the first object image and the first object image of the obtained plurality of transformation matrices. and obtaining a second object image corresponding to the second position based on a transformation matrix corresponding to the feature point of the object identified in .

또한, 상기 제1 객체 이미지를 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 더 포함하고, 상기 제2 객체 이미지를 획득하는 단계는, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다. The method may further include acquiring a 3D image of the object by inputting the first object image to a neural network model, and the acquiring of the second object image may include the step of obtaining a 3D image of the object through the neural network model. A second object image corresponding to the second position is obtained based on the dimensional image.

또한, 상기 제2 객체 이미지를 획득하는 단계는, 상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득한다. The obtaining of the second object image may include identifying a reference range for the object, and if the second location is included in the identified reference range, the second location based on the first object image and a transformation matrix. A 2-object image is acquired, and if the second location is not included in the identified reference range, the second object image is acquired based on the 3-dimensional image.

또한, 상기 기준 범위는 상기 식별된 카메라의 화각 정보에 기초하여 식별된다. Also, the reference range is identified based on the identified information on the angle of view of the camera.

또한, 상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득하는 단계, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하는 단계 및 상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 단계를 포함한다. In addition, acquiring a third object image by photographing the object at a location different from the first location through the camera, at least a part of the object included in the second object image but not included in the first object image identifying whether is included in the third object image, and at least part of the object is included in the third object image and at least part of the object included in the third object image is identical to the second object image. In another case, updating the 3D image based on the third object image.

또한, 상기 제2 객체 이미지를 표시하는 단계는, 상기 업데이트된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시한다. In the displaying of the second object image, a second object image corresponding to the second location is acquired based on the updated 3D image, and the second object image is displayed on the display.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상술한 본 개시에 의하면, 복수의 카메라 또는 카메라를 포함하는 복수의 전자 장치 없이도, 사용자는 실시간으로 카메라를 통해 촬영되는 객체에 대하여, 카메라의 촬영 위치와는 다른 복수의 위치에서의 해당 객체에 관한 이미지를 제공받을 수 있다. According to the present disclosure described above, without a plurality of cameras or a plurality of electronic devices including the cameras, the user can view the object photographed through the camera in real time at a plurality of positions different from the photographing position of the camera. Images can be provided.

이를 통해, 사용자는 해당 객체에 관한 복수의 위치에서의 촬영 이미지를 직관적으로 관찰할 수 있으며, 해당 객체를 촬영하기 위한 최적의 촬영 앵글을 결정할 수도 있다. Through this, the user can intuitively observe captured images in a plurality of positions of the corresponding object, and may determine an optimal capturing angle for capturing the corresponding object.

뿐만 아니라, 기 출력되어 메모리에 저장된 또는 출력 예정인, 복수의 위치에서의 해당 객체에 관한 이미지와 실제 촬영 이미지를 반복하여 비교하고, 실제 촬영 이미지를 통해 복수의 위치에서의 해당 객체에 관한 이미지를 업데이트 함으로써, 사용자는 보다 정확한 해당 객체에 관한 복수의 이미지를 제공받을 수 있다. In addition, iteratively compares an image of the corresponding object at a plurality of locations that has already been output and stored in memory or is scheduled to be output and an actual captured image, and updates the image of the corresponding object at a plurality of locations through the actually captured image. By doing so, the user can be provided with a plurality of more accurate images of the corresponding object.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은, 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 예시도이다.
도 2는, 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 구성도이다.
도 3은, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법의 개략적인 순서도이다.
도 4a는, 본 개시의 일 실시 예에 따른 제1 위치를 기준으로 제2 위치를 상대적으로 식별하는 것을 설명하기 위한 예시도이다.
도 4b는, 본 개시의 다른 실시 예에 따른 제1 위치와 제2 위치를 식별하는 것을 설명하기 위한 예시도이다.
도 5는, 본 개시의 일 실시 예에 따른, 객체에 대한 3차원 이미지에 기초하여, 제2 위치에 대응하는 변환 함수를 식별하는 방법을 개략적으로 나타낸 순서도이다.
도 6은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 관한 좌표 값을 기초로, 변환 행렬을 획득하고, 변환 행렬을 이용하여 제2 객체 이미지를 획득하는 전자 장치의 제어 방법에 관한 개략적인 순서도이다.
도 7은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 대응되는 좌표 값을 이용하여, 변환을 위한 변환 행렬을 획득하는 것을 나타낸 예시도이다.
도 8은, 본 개시의 일 실시 예에 따른 변환 행렬에 기초하여 제2 위치에 대응되는 객체 이미지를 획득하는 것을 나타낸 예시도이다.
도 9는, 본 개시의 일 실시 예에 따른 객체에 대한 3차원 이미지를 이용하여, 제2 객체 이미지를 획득하는 것을 나타낸 예시도이다.
도 10은, 본 개시의 일 실시 예에 따른 카메라에 설정된 화각 정보에 기초하여 기준 범위를 설정하고, 기준 범위에 따라 제2 객체 이미지 생성을 설명하기 위한 도면이다.
도 11은, 본 개시의 일 실시 예에 따른 제1 객체 이미지와 제2 객체 이미지를 디스플레이에 표시하는 예시도이다.
도 12는, 본 개시의 일 실시 예에 따른 제2 위치에서 획득된 객체의 이미지를 기초로, 객체에 대한 3차원 이미지를 업데이트하는 전자 장치의 제어 방법을 개략적으로 나타낸 순서도이다.
도 13a 및 도 13b는 업데이트된 3차원 이미지에 기초하여 제2 객체 이미지(30)를 표시하는 것을 나타낸 예시도이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성도이다.
1 is an exemplary view for explaining an electronic device according to an embodiment of the present disclosure.
2 is a schematic configuration diagram of an electronic device according to an embodiment of the present disclosure.
3 is a schematic flowchart of a method for controlling an electronic device according to an embodiment of the present disclosure.
4A is an exemplary diagram for explaining relatively identifying a second location based on a first location according to an embodiment of the present disclosure.
4B is an exemplary diagram for explaining identification of a first location and a second location according to another embodiment of the present disclosure.
5 is a flowchart schematically illustrating a method of identifying a transform function corresponding to a second position based on a 3D image of an object, according to an embodiment of the present disclosure.
6 is a schematic diagram of a control method of an electronic device for obtaining a transformation matrix based on coordinate values of feature points of an object and acquiring a second object image using the transformation matrix, according to an embodiment of the present disclosure; is a flow chart.
7 is an exemplary view illustrating obtaining a transformation matrix for transformation using coordinate values corresponding to feature points of an object according to an embodiment of the present disclosure.
8 is an exemplary view illustrating obtaining an object image corresponding to a second position based on a transformation matrix according to an embodiment of the present disclosure.
9 is an exemplary view illustrating obtaining a second object image using a 3D image of the object according to an embodiment of the present disclosure.
10 is a diagram for explaining setting a reference range based on view angle information set in a camera and generating a second object image according to the reference range, according to an embodiment of the present disclosure.
11 is an exemplary view of displaying a first object image and a second object image on a display according to an embodiment of the present disclosure.
12 is a flowchart schematically illustrating a control method of an electronic device for updating a 3D image of an object based on an image of the object acquired at a second location according to an embodiment of the present disclosure.
13A and 13B are exemplary diagrams illustrating displaying a second object image 30 based on an updated 3D image.
14 is a detailed configuration diagram of an electronic device according to an embodiment of the present disclosure.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have been selected from general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다. The expression at least one of A and/or B should be understood to denote either "A" or "B" or "A and B".

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module and implemented by at least one processor (not shown), except for "modules" or "units" that need to be implemented with specific hardware. It can be.

도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 예시도이다. 1 is an exemplary diagram for explaining an electronic device according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 전자 장치(100)는 카메라(110)를 통해 촬영되는 객체에 관한 이미지를 디스플레이(120)에 표시한다. 전자 장치(100)는 전자 장치(100)가 위치한 지점에서 카메라(110)를 통해 객체를 바라보았을 때 획득되는 촬영 이미지를 디스플레이(120)에 표시한다. 다만, 본 개시의 일 실시 예에 따르면, 전자 장치(100)는 카메라(110)를 통해 획득되는 객체에 관한 촬영 이미지 이외에도, 전자 장치가 위치한 지점이 아닌 다른 위치에서 객체를 촬영했을 때 획득되는 이미지를 사용자에게 더 제공한다.The electronic device 100 according to an embodiment of the present disclosure displays an image of an object photographed by the camera 110 on the display 120 . The electronic device 100 displays on the display 120 a captured image obtained when the electronic device 100 is positioned looking at an object through the camera 110 . However, according to an embodiment of the present disclosure, the electronic device 100, in addition to the photographed image of the object obtained through the camera 110, the image obtained when the object is photographed at a location other than the location where the electronic device is located. provides more to the user.

구체적으로, 도 1을 참조하면, 현재 전자 장치(100)가 A 위치(11)에서 카메라를(110)를 이용하여 객체(200)를 촬영한다고 가정한다. 이때, 본 개시의 일 실시 예에 따르면, 전자 장치(100)는 A 위치(11) 이외의 B 위치(12) 또는 C 위치(13)에도 가상의 전자 장치(100-1, 100-2)가 존재한다고 가정하고, 가상의 전자 장치(100-1, 100-2)를 통해 객체(200)를 촬영하는 경우에 획득될 수 있는 촬영 이미지를 디스플레이에 표시한다. 즉, B 위치(12)에서 객체(200)를 촬영하는 경우 획득될 수 있는 객체(200)에 관한 측면 이미지와 C 위치(13)에서 객체(200)를 촬영하는 경우 획득될 수 있는 객체(200)에 관한 후면 이미지를, 전자 장치(100)의 카메라(110)를 통해 실시간으로 획득되는 객체(200)에 관한 정면 이미지와 함께 표시한다. 이를 통해, 사용자는 복수의 전자 장치(100) 없이도, 객체(200)에 관한 복수의 시점에서의 촬영 이미지를 동시에 관찰할 수 있을 것이다. Specifically, referring to FIG. 1 , it is assumed that the current electronic device 100 captures an object 200 at location A 11 using the camera 110 . In this case, according to an embodiment of the present disclosure, the electronic device 100 has virtual electronic devices 100-1 and 100-2 at location B 12 or location C 13 other than location A 11. Assuming that it exists, a photographed image that can be obtained when the object 200 is photographed through the virtual electronic devices 100-1 and 100-2 is displayed on the display. That is, the side image of the object 200 that can be obtained when the object 200 is photographed at the B position 12 and the object 200 that can be obtained when the object 200 is photographed at the C position 13 ) is displayed together with the front image of the object 200 acquired in real time through the camera 110 of the electronic device 100. Through this, the user may simultaneously observe captured images of the object 200 from a plurality of viewpoints without using a plurality of electronic devices 100 .

한편, 상술하여 설명한 전자 장치의 위치 이외의 다른 위치(B 위치(12) 및 C 위치(13))에서의 객체(200)에 관한 촬영 이미지는, 해당 객체를 촬영하는 경우 획득될 것으로 추정된 이미지를 의미한다. 이를 위해서 전자 장치(100)는 객체(200)에 관한 3차원 이미지(210)를 생성하고, 3차원 이미지(210)를 기초로 B 위치(12)와 C 위치(13))에서의 전자 장치(100)가 객체(200)를 촬영하는 경우 획득될 수 있는 이미지를 각각 추정한다. 이하 도 2 내지 도 14를 참조하여, 이와 관련된 본 개시의 일 실시 예에 대하여 구체적으로 설명하도록 한다. Meanwhile, the photographed images of the object 200 at positions other than the above-described position of the electronic device (position B 12 and position C 13) are estimated to be obtained when the object is photographed. means To this end, the electronic device 100 generates a 3D image 210 of the object 200, and based on the 3D image 210, the electronic device at position B 12 and position C 13 ( When the object 200 is photographed by 100, images that can be obtained are respectively estimated. Hereinafter, with reference to FIGS. 2 to 14, an embodiment of the present disclosure related thereto will be described in detail.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 구성도이다. 도 3은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법의 개략적인 순서도이다. 도 4a는 본 개시의 일 실시 예에 따른 제1 위치를 기준으로 제2 위치를 상대적으로 식별하는 것을 설명하기 위한 예시도이고, 도 4b는 본 개시의 다른 실시 예에 따른 제1 위치와 제2 위치를 식별하는 것을 설명하기 위한 예시도이다.2 is a schematic configuration diagram of an electronic device according to an embodiment of the present disclosure. 3 is a schematic flowchart of a method for controlling an electronic device according to an embodiment of the present disclosure. FIG. 4A is an exemplary view for explaining relatively identifying a second location based on a first location according to an embodiment of the present disclosure, and FIG. 4B is a view illustrating a first location and a second location according to another embodiment of the present disclosure. It is an exemplary diagram for explaining location identification.

도 2를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 복수의 카메라(110), 디스플레이(120), 메모리(130) 및 프로세서(140)를 포함한다. Referring to FIG. 2 , an electronic device 100 according to an embodiment of the present disclosure includes a plurality of cameras 110, a display 120, a memory 130, and a processor 140.

본 개시의 일 실시 예에 따라, 전자 장치(100)는 복수의 카메라(제1 카메라(111), 제2 카메라(112), 제3 카메라(113))를 구비하되, 카메라(110)를 통해 획득되는 촬영 이미지를 표시할 수 있는 디스플레이(120)를 포함하는 전자 장치를 의미한다. 본 개시의 일 실시 예에 따라, 전자 장치(100)는 스마트 폰, 태블릿 PC, 디지털 카메라, 랩톱 컴퓨터 등으로 구현될 수 있다.According to an embodiment of the present disclosure, the electronic device 100 includes a plurality of cameras (a first camera 111, a second camera 112, and a third camera 113), but through the camera 110. It refers to an electronic device including a display 120 capable of displaying an acquired captured image. According to an embodiment of the present disclosure, the electronic device 100 may be implemented as a smart phone, a tablet PC, a digital camera, a laptop computer, or the like.

한편, 전자 장치(100)는 복수의 카메라((제1 카메라(111), 제2 카메라(112), 제3 카메라(113))를 포함한다. 복수의 카메라(110)는 객체(200)에 관한 촬영 이미지를 획득하기 위한 구성으로, 전자 장치(100)의 전면 또는 후면에 구비될 수 있으며, 복수의 카메라(111, 112, 113) 각각은 이미지 센서 및 렌즈를 포함할 수 있다. Meanwhile, the electronic device 100 includes a plurality of cameras ((the first camera 111, the second camera 112, and the third camera 113). The plurality of cameras 110 are As a configuration for obtaining a photographed image of the electronic device 100, it may be provided on the front or rear of the electronic device 100, and each of the plurality of cameras 111, 112, and 113 may include an image sensor and a lens.

여기에서, 각각의 카메라(111, 112, 113)에 포함된 렌즈들의 화각(Field of View, FOV)은 서로 상이할 수 있다. 예를 들어, 전자 장치(100)는 후면에 배치된 서로 다른 화각을 갖는 망원 렌즈(telephoto lens), 광각 렌즈(wide angle lens) 및 초 광각 렌즈(super wide angle lens)를 각각 포함하는 복수의 카메라(111, 112, 113)를 포함할 수 있다. 한편, 도 2에서는 제1 내지 제3 카메라를 포함하는 것으로 도시 되었으나, 본 개시에 따른 카메라의 개수와 그 유형에 특별한 제한이 있는 것은 아니다. Here, the field of view (FOV) of the lenses included in each of the cameras 111, 112, and 113 may be different from each other. For example, the electronic device 100 includes a plurality of cameras each including a telephoto lens, a wide angle lens, and a super wide angle lens having different angles of view disposed on the rear surface. (111, 112, 113). Meanwhile, in FIG. 2 , it is illustrated as including first to third cameras, but there is no particular limitation on the number and type of cameras according to the present disclosure.

한편, 전자 장치(100)의 제어 어플리케이션(예를 들어, 촬영 어플리케이션 등)이 실행되거나, 실행된 어플리케이션 상에서 촬영과 관련된 제어 입력이 입력되면, 전자 장치(100)에 포함된 카메라(110)가 구동될 수 있다. 예를 들어, 사용자로부터 촬영 명령을 수신하면, 프로세서(140)는 카메라(110)를 제어하여 촬영을 실행하고, 특정 객체에 관한 이미지를 획득할 수 있다. 여기서 촬영 이미지는 동영상과 정지 영상 모두를 포함한다.Meanwhile, when a control application (eg, a photographing application) of the electronic device 100 is executed or a control input related to photographing is input on the executed application, the camera 110 included in the electronic device 100 is driven. It can be. For example, upon receiving a photographing command from a user, the processor 140 may control the camera 110 to execute photographing and obtain an image of a specific object. Here, the captured image includes both moving images and still images.

디스플레이(120)는 다양한 화면을 표시할 수 있다. 예를 들어, 디스플레이(120)는 카메라(110)를 통해 촬영되는 이미지를 표시하거나, 카메라(110)를 통한 촬영 프로세서를 제어하는 UI(User Interface)를 표시할 수 있다. 뿐만 아니라, 디스플레이(120)는 카메라(110)를 통해 실시간으로 획득되는 이미지뿐만 아니라, 이미지에 포함된 객체에 관한 다른 시점에 상응하는 이미지를 표시할 수도 있다. 이에 관해서는 자세히 후술하도록 한다. The display 120 may display various screens. For example, the display 120 may display an image captured through the camera 110 or display a user interface (UI) for controlling a photographing processor through the camera 110 . In addition, the display 120 may display images obtained in real time through the camera 110 as well as images corresponding to other viewpoints of objects included in the images. This will be described later in detail.

디스플레이(120)는 LCD(Liquid Crystal Display) 패널, OLED(Organic Light Emitting Diodes) 패널, PDP(Plasma Display Panel) 패널, 무기 LED 패널, 마이크로 LED 패널 등 다양한 종류의 디스플레이 패널을 포함할 수 있으며, 이에 한정되는 것은 아니다. 한편, 디스플레이(120)는 터치 패널과 함께 터치스크린을 구성할 수도 있다.The display 120 may include various types of display panels such as a liquid crystal display (LCD) panel, an organic light emitting diodes (OLED) panel, a plasma display panel (PDP) panel, an inorganic LED panel, and a micro LED panel. It is not limited. Meanwhile, the display 120 may constitute a touch screen together with a touch panel.

메모리(130)는 전자 장치(100)의 다양한 기능을 지원하는 정보를 저장할 수 있다. 예를 들어, 메모리(130)는 카메라(110)에 포함되는 복수의 렌즈의 화각 정보를 저장할 수 있다. 또한 메모리(130)는 전자 장치(100)의 구동 프로그램 및 다수의 어플리케이션 (application program) 또는 이들에서 사용되는 데이터들, 명령어들을 저장할 수 있다. 어플리케이션 중 적어도 일부는, 무선 통신을 통해 외부 서버(미도시)로부터 다운로드 될 수 있다. 또한 어플리케이션 중 적어도 일부는, 전자 장치(100)의 특성에 따른 기본적인 기능을 위하여 존재할 수 있다. 한편, 어플리케이션은, 메모리(130)에 저장되어 프로세서(140)에 의하여 전자 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다. The memory 130 may store information supporting various functions of the electronic device 100 . For example, the memory 130 may store view angle information of a plurality of lenses included in the camera 110 . Also, the memory 130 may store a driving program of the electronic device 100 and a plurality of applications, or data and commands used in them. At least some of the applications may be downloaded from an external server (not shown) through wireless communication. Also, at least some of the applications may exist for basic functions according to the characteristics of the electronic device 100 . Meanwhile, the application may be stored in the memory 130 and driven by the processor 140 to perform an operation (or function) of the electronic device 100 .

프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(140)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.The processor 140 controls overall operations of the electronic device 100 . To this end, the processor 140 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP). .

도 3을 참조하면, 본 개시의 실시 예에 따라, 프로세서(140)는 전자 장치의 제1 위치 및 제1 위치를 기초로 설정된 제2 위치에 기초하여 복수의 카메라 중 하나의 카메라를 식별한다(S310). Referring to FIG. 3 , according to an embodiment of the present disclosure, the processor 140 identifies one camera among a plurality of cameras based on a first location of the electronic device and a second location set based on the first location ( S310).

여기서 제1 위치는, 프로세서(140)가 실시간으로 복수의 카메라(111, 112, 113) 중 적어도 하나의 카메라를 이용하여 객체를 촬영하는 시점의 위치를 의미한다. 즉 제1 위치는, 전자 장치(100)의 위치에 해당할 수 있다. Here, the first position means a position when the processor 140 captures an object using at least one camera among the plurality of cameras 111 , 112 , and 113 in real time. That is, the first location may correspond to the location of the electronic device 100 .

한편, 제2 위치는, 객체의 이미지를 획득하는 전자 장치(100)의 실시간 위치에 해당하는 제1 위치 이외의 위치로, 가상의 전자 장치의 위치를 의미한다. 구체적으로, 프로세서(140)는 카메라(110)를 이용하여 객체에 대한 촬영 이미지를 획득할 뿐만 아니라, 가상의 카메라를 통해 객체에 대한 다른 시점에서의 이미지를 획득할 수 있는데, 이때, 가상의 카메라의 위치가 제2 위치에 해당할 수 있다. 예를 들어, 도 1을 참조하면 전자 장치(100)가 이외의 가상의 전자 장치(100-1, 100-2)의 위치인, B 위치(12)와 C 위치(13)가, 제2 위치에 해당될 수 있다. Meanwhile, the second position is a position other than the first position corresponding to the real-time position of the electronic device 100 acquiring the image of the object, and means the position of the virtual electronic device. Specifically, the processor 140 may not only obtain a captured image of the object using the camera 110, but also obtain an image of the object from another viewpoint through a virtual camera. In this case, the virtual camera The position of may correspond to the second position. For example, referring to FIG. 1 , positions B 12 and C positions 13, which are positions of virtual electronic devices 100-1 and 100-2 other than the electronic device 100, are the second positions. may apply to

한편, 도 1에서는 본 개시의 이해를 위해 제2 위치가 두 곳으로 설정된 것으로 가정하여 설명하나, 제2 위치는 더 많거나 또는 더 적은 개수로 설정될 수 있음은 통상의 기술자 또한 명확히 이해할 수 있을 것이다.On the other hand, in FIG. 1, it is assumed that the second position is set to two places for understanding of the present disclosure, but the skilled person can clearly understand that the number of second positions can be set to more or less. will be.

본 개시의 실시 예에 따라, 프로세서(140)는 제1 위치를 식별한다. 그리고, 프로세서(140)는 제1 위치를 기초로 설정된 제2 위치를 식별한다. 도 1을 참조하면, 프로세서(140)는 전자 장치(100)의 실시간 위치를 식별하고, 가상의 전자 장치(100-1, 100-2)가 존재하는 것으로 식별되는 제2 위치(12, 13)를 식별할 수 있다. 예를 들어, 프로세서(140)는 전자 장치(100)에 포함된 GPS 센서(미도시)를 기반으로, WGS84 좌표 계 또는 경위도 좌표 계 상에서의 제1 위치에 대응하는 좌표 값을 식별하고, 제1 위치에 대응하는 좌표 값을 기초로, 제1 위치에 대응하여 설정된 제2 위치, 또는 제2 위치에 대응하는 좌표 값을 식별할 수 있다. According to an embodiment of the present disclosure, the processor 140 identifies the first location. Also, the processor 140 identifies a second location set based on the first location. Referring to FIG. 1 , the processor 140 identifies the real-time location of the electronic device 100 and sets second locations 12 and 13 where virtual electronic devices 100-1 and 100-2 are identified as existing. can identify. For example, the processor 140 identifies a coordinate value corresponding to a first position on a WGS84 coordinate system or a longitude and latitude coordinate system based on a GPS sensor (not shown) included in the electronic device 100, and Based on the coordinate value corresponding to the location, a second location set to correspond to the first location or a coordinate value corresponding to the second location may be identified.

보다 구체적으로 프로세서(140)는 제1 위치, 즉 전자 장치(100)의 위치를 기준으로, 제1 위치에 대하여 상대적으로 설정된 제2 위치를 식별할 수 있다. 이를 위해 프로세서(140)는 먼저, 현재 전자 장치(100)의 위치를 식별한다. 그리고 프로세서(140)는 제1 위치를 기준으로 기 설정된 변위 각도와 기 설정된 변위 거리 등을 기초로, 제2 위치를 식별할 수 있을 것이다. 도 4a를 참조하면, 상술한 바와 같이, 제2 위치는 제1 위치를 기준으로 상대적으로 설정될 수 있다. 제1 위치는, 객체를 촬영하는 카메라(110)의 위치, 즉 전자 장치(100)의 위치에 해당한다. 이때, 제2 위치는 제1 위치를 기준으로 기 설정된 각도 및 거리의 위치로 설정될 수 있다. 도 4a를 참조하면, 제2 위치는, 제1 위치로부터 1) xy 평명 상에서 반 시계 방향의 수평 방향으로의 각도(a°) 와 2) z 축의 상측 방향의 수직 방향으로의 각도(b°)에 위치하도록 설정될 수 있다. 이때, 제1 위치, 즉 전자 장치(100)의 위치가 A(16)에서 A'(16-1)로 변경되면, 제2 위치 또한 B(18)에서 B'(18-1)로 변경된다. 따라서, 프로세서(140)는 전자 장치(100)의 위치가 변경됨에 따라 제1 위치의 변경을 감지하면, 제1 위치의 변경된 좌표 값과 제1 위치 변경에 따른 제2 위치의 변경된 좌표 값을 다시 식별해야 한다. More specifically, the processor 140 may identify a second location set relatively to the first location based on the first location, that is, the location of the electronic device 100 . To this end, the processor 140 first identifies the current location of the electronic device 100 . Also, the processor 140 may identify the second position based on a preset displacement angle and a preset displacement distance based on the first position. Referring to FIG. 4A , as described above, the second position may be set relative to the first position. The first position corresponds to the position of the camera 110 capturing an object, that is, the position of the electronic device 100 . In this case, the second position may be set to a position of a preset angle and distance based on the first position. Referring to FIG. 4A, the second position is 1) an angle (a°) in the counterclockwise horizontal direction on the xy plane and 2) an angle (b°) in the vertical direction of the upper direction of the z axis. It can be set to be located at . At this time, when the first position, that is, the position of the electronic device 100 is changed from A(16) to A'(16-1), the second position is also changed from B(18) to B'(18-1). . Accordingly, when the processor 140 detects a change in the first location as the location of the electronic device 100 changes, the processor 140 regenerates the changed coordinate values of the first location and the changed coordinate values of the second location according to the first location change. need to identify

한편, 본 개시의 다른 실시 예에 따라, 도 4b를 참조하면, 프로세서(140)는 제1 위치를 기준으로 기 설정된 각도 및 거리의 위치에 위치한 제2 위치를 식별한 후 제1 위치의 변화와 무관하게 제2 위치를 고정된 위치에서 식별할 수 있다. 도 4b를 참조하면, 제2 위치는, 제1 위치로부터 1) 반 시계 방향의 수평 방향으로의 각도(a°) 와 2) 상위 방향의 수직 방향으로의 각도(b°)에 위치한다. 이때, 제1 위치, 즉 전자 장치(100)의 위치가 A(16)에서 A'(16-1)로 변경되더라도, 프로세서(140)는 제2 위치를 여전히 B(18)로 식별할 수 있다. 이 경우, 프로세서(140)는 제2 위치를 식별한 이후에는, 전자 장치(100)의 위치가 변경되어 제1 위치가 변화하더라도 제2 위치의 좌표 값을 다시 식별하지 않는다. Meanwhile, according to another embodiment of the present disclosure, referring to FIG. 4B , the processor 140 identifies a second location located at a preset angle and distance from the first location, and then changes the first location and Regardless, the second location can be identified at a fixed location. Referring to FIG. 4B , the second position is located at 1) an angle (a°) in a counterclockwise horizontal direction and 2) an angle (b°) in a vertical direction in an upper direction from the first position. At this time, even if the first position, that is, the position of the electronic device 100 is changed from A(16) to A′(16-1), the processor 140 may still identify the second position as B(18). . In this case, after identifying the second location, the processor 140 does not identify the coordinate values of the second location again even if the first location changes due to a change in the location of the electronic device 100 .

한편, 본 개시의 일 실시 예에 따라서, 프로세서(140)는 제1 위치 및 제2 위치를 식별하기 위하여, 카메라(110)를 통해 탐지된 객체(200)를 기준으로 기준 좌표 계를 설정할 수 있다. 보다 구체적으로 전자 장치에 포함된 TOF(Time of Flying) 센서(미도시) 등을 이용하여, 객체까지의 거리 정보(또는 깊이 정보)를 획득하고, 획득한 거리 정보를 기초로 객체의 위치를 기준으로 한 기준 좌표 계를 설정할 수 있다. 이때, 객체의 위치는 기준 좌표계의 원점에 해당할 수 있다. 그리고, 설정된 기준 좌표 계 내에서 프로세서(140)는 제1 위치, 즉 전자 장치(100)의 위치에 대응하는 좌표 값을 식별하고, 산출된 좌표 값에 기초하여 기 설정된 제2 위치에 대응하는 좌표 값을 식별할 수 있을 것이다. 즉, 프로세서(140)는 GPS 모듈(미도시)을 이용하여, WGS84 좌표 계 또는 경위도 좌표 계 상의 전자 장치(100)의 좌표 정보를 제1 위치에 관한 위치 정보로 획득할 수도 있으며, 또는 프로세서(140)는 카메라(110)를 통해 촬영된 객체에 관하여 설정된 기준 좌표 계 상의 전자 장치(100)의 좌표 정보를 제1 위치에 관한 위치 정보도 획득할 수도 있다. 그러나 이에 제한되는 것은 아니다. Meanwhile, according to an embodiment of the present disclosure, the processor 140 may set a reference coordinate system based on the object 200 detected through the camera 110 in order to identify the first location and the second location. . More specifically, distance information (or depth information) to an object is acquired using a TOF (Time of Flying) sensor (not shown) included in the electronic device, and the position of the object is determined based on the obtained distance information. A reference coordinate system can be set as In this case, the position of the object may correspond to the origin of the reference coordinate system. And, within the set reference coordinate system, the processor 140 identifies a coordinate value corresponding to the first position, that is, the position of the electronic device 100, and coordinates corresponding to the second position set based on the calculated coordinate value. value can be identified. That is, the processor 140 may obtain the coordinate information of the electronic device 100 on the WGS84 coordinate system or the longitude and latitude coordinate system as location information about the first location by using a GPS module (not shown), or the processor ( 140 may also obtain location information about the first location of the coordinate information of the electronic device 100 on the reference coordinate system set with respect to the object photographed through the camera 110 . However, it is not limited thereto.

다시 도 3을 참조하면, 본 개시의 일 실시예에 따라, 프로세서(140)는 제1 위치와 제1 위치를 기초로 설정된 제2 위치를 식별한 후, 제2 위치에 기초하여 복수의 카메라 중 하나의 카메라를 식별한다(S320). 즉, 프로세서(140)는 식별된 제2 위치에 기초하여, 복수의 카메라 중 객체를 촬영하기 위하여 이용되는 하나의 카메라를 선택할 수 있다. Referring back to FIG. 3 , according to an embodiment of the present disclosure, the processor 140 identifies a first location and a second location set based on the first location, and then selects among a plurality of cameras based on the second location. One camera is identified (S320). That is, the processor 140 may select one camera used to photograph an object from among a plurality of cameras based on the identified second location.

이를 위해, 본 개시의 일 실시 예에 따라, 프로세서(140)는 복수의 카메라 각각의 화각 정보를 이용할 수 있다. 여기서 화각 정보는, 각각의 카메라에 포함된 각각의 렌즈의 촬영 범위를 의미한다. 프로세서(140)는 복수의 카메라 중 제2 위치를 포함하는 화각에 대응하는 카메라를 하나의 카메라로 식별할 수 있다. 상술한 바와 같이, 전자 장치(100)에 포함된 복수의 카메라의 화각은 서로 다르게 설정될 수 있다. 따라서, 프로세서(140)는 제2 위치를 식별한 후, 객체에 대한 각각의 카메라의 화각 범위를 식별한다. 그리고, 각각의 카메라의 화각 범위에 제2 위치가 포함되었는지 식별한다. 그리고, 프로세서(140)는 제2 위치를 포함하는 화각에 대응하는 카메라를 하나의 카메라로 식별하고, 식별된 하나의 카메라를 이용하여 이후 객체에 대한 이미지를 획득할 수 있을 것이다. To this end, according to an embodiment of the present disclosure, the processor 140 may use view angle information of each of a plurality of cameras. Here, the angle of view information means a photographing range of each lens included in each camera. The processor 140 may identify a camera corresponding to an angle of view including the second position among the plurality of cameras as one camera. As described above, the angles of view of the plurality of cameras included in the electronic device 100 may be set differently. Accordingly, the processor 140 identifies the angle-of-view range of each camera for the object after identifying the second position. Then, it is identified whether the second position is included in the angle-of-view range of each camera. In addition, the processor 140 may identify a camera corresponding to the angle of view including the second position as one camera, and then acquire an image of the object using the identified camera.

한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 객체에 대하여 설정된 기준 좌표 계를 기반으로, 제2 위치를 포함하는 화각에 대응하는 카메라를 식별할 수도 있을 것이다. 구체적으로, 프로세서(140)는 객체에 대하여 설정된 기준 좌표 계 내에서 제2 위치(또는 제2 위치에 대응하는 기준 좌표 계 내에서의 좌표 값)와 객체에 대한 각각의 카메라(110)의 화각 범위를 식별한다. 그리고, 프로세서(140)는 제2 위치를 포함하는 화각 범위를 식별하고, 식별된 화각 범위 또는 화각에 대응하는 카메라를 하나의 카메라로 식별할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the processor 140 may identify a camera corresponding to a view angle including the second position based on a reference coordinate system set for an object. Specifically, the processor 140 determines the second position (or a coordinate value in the reference coordinate system corresponding to the second position) within the reference coordinate system set for the object and the angle-of-view range of each camera 110 for the object. identify In addition, the processor 140 may identify a field of view range including the second position, and identify a camera corresponding to the identified field of view range or field of view as one camera.

다시 도 3을 참조하면, 프로세서(140)는 하나의 카메라를 식별한 후에는, 식별된 하나의 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득한다(S330). 구체적으로, 프로세서(140)는 디스플레이(120) 또는 인터페이스를 통해 카메라(110)를 동작 시키는 사용자 입력이 입력되거나, 또는 제1 객체 이미지 획득에 관하여 기 설정된 조건(예를 들어, 객체에 대하여 기 설정된 초점 거리 및/또는 각도)이 충족된 것으로 식별되면, 전자 장치가 제1 위치에 있는 동안, 객체를 촬영하여 제1 객체 이미지를 획득한다. Referring back to FIG. 3 , after identifying one camera, the processor 140 acquires a first object image by photographing an object through the identified camera (S330). Specifically, the processor 140 receives a user input for operating the camera 110 through the display 120 or the interface, or the processor 140 receives a predetermined condition (eg, a preset condition for the object) for acquiring the first object image. When the focal length and/or angle) is identified as being satisfied, a first object image is acquired by photographing the object while the electronic device is in the first position.

여기서 제1 객체 이미지란, 프로세서(140)가 식별된 하나의 카메라(110)를 이용하여 객체를 촬영한 후 실시간으로 획득하는 이미지를 의미한다. 한편, 제1 객체 이미지(20)는 복수의 이미지를 포함할 수 있다. 예를 들어, 프로세서(140)가 카메라(110)를 이용하여 객체(200)에 관한 동영상 촬영을 하는 경우에는, 제1 객체 이미지(20)는 각각의 프레임에 상응하는 이미지를 복수 개 포함할 수 있다. Here, the first object image refers to an image obtained in real time after the processor 140 captures an object using the identified camera 110 . Meanwhile, the first object image 20 may include a plurality of images. For example, when the processor 140 captures a video of the object 200 using the camera 110, the first object image 20 may include a plurality of images corresponding to each frame. there is.

이때, 프로세서(140)가 획득한 제1 객체 이미지(20)에는 제1 위치에 관한 위치 정보가 포함될 수 있다. 예를 들어, 도 1을 참조하면, A 위치(11)에서 프로세서(140)가 카메라(110)를 이용하여 객체를 촬영하는 경우, 제1 위치는 A 위치(11)에 해당한다. 이때, 프로세서(140)가 카메라(110)를 이용하여 획득한, 제1 객체 이미지(20) 데이터에는 A 위치(11)에 관한 위치 정보가 메타 데이터로 포함될 수 있다. In this case, the first object image 20 acquired by the processor 140 may include location information about the first location. For example, referring to FIG. 1 , when the processor 140 captures an object using the camera 110 at location A 11 , the first location corresponds to location A 11 . In this case, the first object image 20 data obtained by the processor 140 using the camera 110 may include location information about the A location 11 as metadata.

한편, 본 명세서에서 제2 객체 이미지(30)는 제2 위치에서 획득될 수 있는 객체에 대한 이미지를 말한다. 카메라를 통해 획득되는 제1 객체 이미지와는 달리, 제2 객체 이미지(30)는 제2 위치에서의 가상의 전자 장치에 의해 획득 것으로 추정되는 객체에 관한 이미지이다. 제2 객체 이미지(30)는 실시 예에 따라서, 제1 객체 이미지를 이용하여 생성될 수 있다.Meanwhile, in this specification, the second object image 30 refers to an image of an object that can be obtained from a second location. Unlike the first object image obtained through the camera, the second object image 30 is an image of an object estimated to be obtained by a virtual electronic device in a second location. The second object image 30 may be created using the first object image according to an embodiment.

다시 도 3을 참조하면, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제1 객체 이미지를 획득한 후, 객체에 대한 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별한다(S330). 그리고, 제1 객체 이미지와 식별된 변환 함수에 기초하여 제2 위치에 대응되는 제2 객체 이미지를 획득한다(S340).Referring back to FIG. 3 , according to an embodiment of the present disclosure, the processor 140 obtains a first object image, and then, based on the 3D image of the object and the second location, the processor 140 corresponds to the second location. A conversion function is identified (S330). And, based on the first object image and the identified conversion function, a second object image corresponding to the second location is acquired (S340).

먼저, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제2 위치에 대응되는 변환 함수를 식별하기 위하여. 객체에 대한 3차원 이미지를 생성하고, 생성된 3차원 이미지에 기초하여 제2 위치에 대응되는 변환 함수를 식별할 수 있다. 이하, 이와 관련한 본 개시에 대하여 설명하도록 한다. First, according to an embodiment of the present disclosure, the processor 140 to identify a transform function corresponding to the second position. A 3D image of the object may be generated, and a transformation function corresponding to the second position may be identified based on the generated 3D image. Hereinafter, the present disclosure related to this will be described.

도 5는, 본 개시의 일 실시 예에 따른, 객체에 대한 3차원 이미지에 기초하여, 제2 위치에 대응하는 변환 함수를 식별하는 방법을 개략적으로 나타낸 순서도이다. 5 is a flowchart schematically illustrating a method of identifying a transform function corresponding to a second position based on a 3D image of an object, according to an embodiment of the present disclosure.

도 5를 참조하면, 본 개시의 일 실시 예로, 프로세서(140)는 복수의 카메라 중 하나의 카메라를 식별(S311)한 후, 식별된 카메라(110)를 통해 복수의 시점에서 객체(200)를 촬영하여, 복수의 시점에 대응되는 복수의 객체 이미지를 획득할 수 있다(S312). 그리고 프로세서(140)는 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수 있다(S313).Referring to FIG. 5 , according to an embodiment of the present disclosure, the processor 140 identifies one of the plurality of cameras (S311), and then captures the object 200 from a plurality of viewpoints through the identified camera 110. By photographing, a plurality of object images corresponding to a plurality of viewpoints may be acquired (S312). Further, the processor 140 may obtain a 3D image 210 of the object 200 based on the object identified in each of the plurality of object images (S313).

구체적으로, 프로세서(140)는 다양한 위치에서의 객체(200)에 대한 복수의 이미지를 획득한다. 즉, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)를 생성하기 위하여, 객체에 관한 복수의 스캔 데이터로서, 복수의 이미지를 획득할 수 있다. 이때, 프로세서(140)는 객체에 대하여 기 설정된 카메라(110)의 초점 거리 및/또는 카메라(110)에 포함된 렌즈(111) 왜곡과 같은 매개 변수를 입력으로 복수의 시점에서의 객체(200)의 이미지를 획득할 수 있을 것이다. 예를 들어, 프로세서(140)는 객체(200)에 대한 카메라(110)의 동일한 초점 거리 또는 기 설정된 오차 범위 내의 초점 거리 조건이 충족되면, 객체(200)에 대한 촬영 이미지를 획득할 수 있다. Specifically, the processor 140 acquires a plurality of images of the object 200 at various locations. That is, the processor 140 may obtain a plurality of images as a plurality of scan data of the object in order to generate the 3D image 210 of the object 200 . At this time, the processor 140 inputs parameters such as the focal length of the camera 110 preset for the object and/or the distortion of the lens 111 included in the camera 110, and the object 200 from a plurality of viewpoints. You will be able to obtain an image of For example, the processor 140 may acquire a captured image of the object 200 when a condition of the same focal distance of the camera 110 to the object 200 or a focal distance within a preset error range is met.

또한, 본 개시의 일 실시 예에 따라, 프로세서(140)는 사용자에게 객체에 대한 복수의 이미지를 촬영하도록 가이드하는 UI를 디스플레이 상에 표시할 수도 있다. 예를 들어, 프로세서(140)는 식별된 하나의 카메라(110)를 통해 객체가 감지되면, 객체에 대하여 설정된 기준 좌표 계를 설정하고, 설정된 기준 좌표 계 내에서 복수의 위치(예를 들어, 서로 다른 방향)에서 객체를 촬영하도록 가이드하는 UI를 디스플레이(110) 상에 표시할 수 있을 것이다. 그리고, 프로세서(140)는 객체에 대하여 기 설정된 개수(보다 구체적으로, 3차원 이미지 생성을 위해 필요한 이미지 개수)의 이미지가 획득된 것으로 식별되면, 디스플레이(110) 상에 표시된 UI를 종료 시킨다. Also, according to an embodiment of the present disclosure, the processor 140 may display a UI on the display to guide the user to capture a plurality of images of the object. For example, when an object is detected through the identified camera 110, the processor 140 sets a reference coordinate system set for the object, and sets a plurality of positions (eg, each other) within the set reference coordinate system. A UI for guiding photographing of an object in another direction) may be displayed on the display 110 . Further, the processor 140 terminates the UI displayed on the display 110 when it is identified that a predetermined number of images (more specifically, the number of images necessary for generating a 3D image) of the object have been obtained.

한편, 프로세서(140)는 복수의 시점에 대응되는 복수의 객체 이미지를 획득한 후, 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수 있다(S313). 구체적으로, 프로세서(140)는 삼각 측량법(triangulation)에 기초하여 복수의 이미지로부터 객체(200)에 대한 3차원 이미지(210)를 생성할 수 있다. 이때, 프로세서(140)는 객체(200)에 대하여 복수의 시점에 대응하는 복수의 이미지에 대한 켈리브레이션(calibration) 과정을 수행하고, 켈리브레이션 과정의 결과에 기초하여, 객체(200)에 관한 3차원 이미지 정보를 획득할 수 있다. 이를 위해, 메모리(130)에는 복수의 이미지를 이용하여 객체(200)에 관한 3차원 이미지(210)를 생성하기 위하여, MeshLab, netfabb, MeshMixer 등의 프로그램을 저장될 수 있으며. 프로세서(140)는 저장된 3차원 이미지 생성 프로그램을 이용하여 객체(200)에 관한 3차원 이미지(210)를 생성할 수 있다. Meanwhile, the processor 140 obtains a plurality of object images corresponding to a plurality of viewpoints, and then obtains a 3D image 210 of the object 200 based on an object identified in each of the plurality of object images. It can (S313). Specifically, the processor 140 may generate the 3D image 210 of the object 200 from a plurality of images based on triangulation. At this time, the processor 140 performs a calibration process on a plurality of images corresponding to a plurality of viewpoints with respect to the object 200, and based on the result of the calibration process, a 3D image of the object 200 is obtained. information can be obtained. To this end, programs such as MeshLab, netfabb, and MeshMixer may be stored in the memory 130 to generate a 3D image 210 of the object 200 using a plurality of images. The processor 140 may generate a 3D image 210 of the object 200 using a stored 3D image generating program.

한편, 프로세서(140)는 카메라를 통해 객체를 식별하기 위하여 딥 러닝 기반의 객체 탐지 모델(이하, 딥 러닝 기반의 제1 모델)을 이용할 수 있다. 딥 러닝 기반의 객체 탐지 모델은, RCNN 모델, FRCNN모델 또는 YOLO 모델 등을 포함할 수 있다. 예를 들어, 프로세서(140)는 메모리(130)에 저장된 RCNN 모델, FRCNN 모델 또는 YOLO 모델 중 어느 하나에, 복수의 객체 이미지 중 적어도 하나의 객체 이미지를 입력함으로써, 각각의 객체 이미지에 포함된 객체를 탐지할 수 있다. Meanwhile, the processor 140 may use a deep learning-based object detection model (hereinafter, a deep learning-based first model) to identify an object through a camera. The deep learning-based object detection model may include a RCNN model, an FRCNN model, or a YOLO model. For example, the processor 140 inputs at least one object image among a plurality of object images to any one of the RCNN model, the FRCNN model, or the YOLO model stored in the memory 130, thereby generating an object included in each object image. can detect

한편, 도 5에서는, 프로세서(140)가 제1 객체 이미지를 획득하기에 앞서, 객체에 대한 3차원 이미지를 획득하는 것으로 도시 되었다. 다만, 본 개시의 일 실시 예에 따라서는, 프로세서(140)는 제1 객체 이미지를 획득한 후 제1 객체 이미지를 포함하는, 복수의 이미지를 기초로 객체에 대한 3차원 이미지를 획득할 수도 있을 것이다. Meanwhile, in FIG. 5 , it is shown that the processor 140 obtains a 3D image of the object prior to acquiring the first object image. However, according to an embodiment of the present disclosure, the processor 140 may acquire a 3D image of an object based on a plurality of images including the first object image after acquiring the first object image. will be.

또한, 본 개시의 다른 실시 예로, 프로세서(140)는 제1 객체 이미지를 딥 러닝 기반의 3차원 이미지 생성 모델에 입력하여 객체에 대한 3차원 이미지를 획득할 수도 있을 것이다. 이에 관해서는 자세히 후술하도록 한다. Also, as another embodiment of the present disclosure, the processor 140 may obtain a 3D image of the object by inputting the first object image to a 3D image generation model based on deep learning. This will be described later in detail.

프로세서(140)는 제1 객체 이미지(20)를 신경망 모델(이하, 딥 러닝 기반의 제2 모델)에 입력하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수도 있다. 이때, 신경망 모델은, 딥 러닝 기반의 3차원 이미지의 생성 모델을 포함한다. 딥 러닝 기반의 3차원 이미지의 생성 모델은, 특정 객체에 관한 적어도 하나의 2차원 이미지가 입력되면, 입력된 적어도 하나의 2차원 이미지에 기반하여 특정 객체에 대한 하여 3차원 이미지(210)를 추정하여 생성하도록 학습된 신경망 모델을 말한다. 이때, 메모리(130)에는 딥 러닝 기반의 3차원 이미지의 생성 모델이 기 저장될 수 있다. The processor 140 may obtain a 3D image 210 of the object 200 by inputting the first object image 20 to a neural network model (hereinafter, a second model based on deep learning). In this case, the neural network model includes a deep learning-based 3D image generation model. The deep learning-based 3D image generation model, when at least one 2D image of a specific object is input, estimates a 3D image 210 for a specific object based on the input at least one 2D image. It is a neural network model that has been trained to generate At this time, a generation model of a 3D image based on deep learning may be pre-stored in the memory 130 .

3차원 이미지(210) 획득을 위해 이용되는 딥 러닝 기반의 제1 모델은, 각각의 객체의 2차원 이미지가 입력되면 해당 객체의 3차원 이미지(210)가 출력되도록 기 학습될 수 있다. 본 개시의 일 실시 예에 따라, 신경망 모델은 딥 러닝 기반의 GAN(Generative Adversarial Network) 모델일 수 있다. 이때, GAN 모델은 각각의 객체에 관한 2차원 이미지와 3차원 이미지(실제 데이터)를 기반으로 학습된다. 구체적으로, 프로세서(140)가 특정 객체에 관한 2차원 이미지를 입력하면, 생성 모델(Generator)에 의해 2차원 이미지를 기반으로 해당 객체에 관한 3차원 이미지(210)가 생성되고, 판별 모델(Discriminator)이 해당 객체에 관한 실제 데이터에 해당하는, 3차원 이미지(210)와 생성 모델에 의해 생성된 3차원 이미지(210)를 판별한다. 이때, 판별 모델 실제 데이터의 3차원 이미지와 생성 모델에 의해 생성된 3차원 이미지(210)를 구별하면, 생성 모델의 시냅스 가중치를 보정한다. 반면에, 특정 객체에 대해, 판별 모델이 실제 데이터에 해당하는 3차원 이미지와 생성 모델에 의해 생성된 3차원 이미지(210)를 판별하지 못하는 경우에는 해당 객체에 대한 학습을 종료한다. The first model based on deep learning used to acquire the 3D image 210 may be pre-learned so that when the 2D image of each object is input, the 3D image 210 of the object is output. According to an embodiment of the present disclosure, the neural network model may be a deep learning-based generative adversarial network (GAN) model. At this time, the GAN model is learned based on the 2D image and the 3D image (actual data) of each object. Specifically, when the processor 140 inputs a 2D image of a specific object, a 3D image 210 of the corresponding object is generated based on the 2D image by a generator, and a discriminator ) determines the 3D image 210 corresponding to the actual data of the object and the 3D image 210 generated by the generative model. At this time, if the 3D image of the actual data of the discrimination model and the 3D image 210 generated by the generation model are distinguished, the synaptic weight of the generation model is corrected. On the other hand, for a specific object, if the discrimination model fails to discriminate between a 3D image corresponding to actual data and the 3D image 210 generated by the generative model, learning of the object is terminated.

이와 같이, 복수의 객체에 대한, 3차원 이미지(210) 생성의 사전 학습이 완료된 모델에 기초하여 프로세서(140)는 2차원 이미지인 제1 객체 이미지(20)만으로, 제1 객체 이미지(20)에 포함된 객체(200)에 관한 3차원 이미지(210)를 생성할 수 있을 것이다.In this way, based on the model for which the three-dimensional image 210 generation of the plurality of objects has been pre-learned, the processor 140 converts the first object image 20 into only the first object image 20 that is a two-dimensional image. A 3D image 210 of the object 200 included in may be generated.

한편, 본 개시의 일 실시 예에 따라, 복수의 이미지를 획득하기 위하여, 프로세서(140)는 카메라(110)를 통해 객체(200)를 감지하고, 객체(200)에 관한 트래킹(Tracking)을 수행할 수도 있다. 예를 들어, 프로세서(140)는 전자 장치(100)에 포함된 라이더 센서(Lidar Sensor)(미도시)를 이용하여, 카메라를 통해 획득되는 복수의 이미지에 포함된 객체(200)에 관한 클라우드 데이터를 생성한다. 그리고, 프로세서(140)는 클라우드 데이터 내 객체(200)를 포함하는 관심 영역(ROI, Region of Interest)를 설정할 수 있다. 이후, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)와 클라우드 데이터를 정합(Registration)하여, 전자 장치(100) 또는 객체(200)의 위치가 변경되더라도 지속적으로 객체(200)를 트래킹 할 수 있다. Meanwhile, according to an embodiment of the present disclosure, in order to acquire a plurality of images, the processor 140 detects the object 200 through the camera 110 and performs tracking of the object 200. You may. For example, the processor 140 uses a lidar sensor (not shown) included in the electronic device 100 to perform cloud data about the object 200 included in a plurality of images acquired through a camera. generate Also, the processor 140 may set a region of interest (ROI) including the object 200 in the cloud data. Thereafter, the processor 140 registers the 3D image 210 of the object 200 and the cloud data so that the object 200 is continuously displayed even if the location of the electronic device 100 or the object 200 is changed. can track

이하에서는, 도 6 내지 도 8을 참조하여, 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별하는 본 개시의 일 실시 예에 대하고 구체적으로 설명하도록 한다. Hereinafter, with reference to FIGS. 6 to 8 , an embodiment of the present disclosure for identifying a transform function corresponding to a second position based on a 3D image and a second position will be described in detail.

상술한 바와 같이, 본 개시의 일 실시 예에 따라, 프로세서(140)는 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별한다. 여기서, 변환 함수는, 제1 위치에서 획득된 제1 객체 이미지(20)를 제2 개체 이미지로 변환하는 함수를 의미하며, 변환 함수는 변환 행렬을 포함할 수 있다.As described above, according to an embodiment of the present disclosure, the processor 140 identifies a transform function corresponding to the second position based on the 3D image and the second position. Here, the transformation function means a function that transforms the first object image 20 obtained at the first location into a second object image, and the transformation function may include a transformation matrix.

본 개시의 일 실시 예에 따라, 프로세서(140)는 전자 장치의 위치인 제1 위치를 기준으로, 제2 위치의 변위 각도를 산출하고, 산출된 변위 각도에 대응되는 변환 함수를 식별한다. 또는 프로세서(140)는 전자 장치의 위치인 제1 위치를 기준으로, 제2 위치의 변위 거리를 산출하고, 산출된 변위 거리에 대응되는 변환 함수를 식별한다. 예를 들어, 프로세서(140)는 3차원 이미지(210)를 기초로, 제1 위치(예를 들어, 제1 위치의 좌표 값)와 제2 위치(제2 위치의 좌표 값) 간의 상관 관계를 식별하고, 식별된 상관 관계에 기초하여 제1 객체 이미지를 제2 위치에 대응되는 제2 객체 이미지(30)로 변환하기 위한 변환 함수를 식별할 수 있다.According to an embodiment of the present disclosure, the processor 140 calculates a displacement angle of the second position based on the first position, which is the position of the electronic device, and identifies a conversion function corresponding to the calculated displacement angle. Alternatively, the processor 140 calculates a displacement distance of the second position based on the first position, which is the position of the electronic device, and identifies a conversion function corresponding to the calculated displacement distance. For example, the processor 140 determines a correlation between a first location (eg, coordinate values of the first location) and a second location (coordinate values of the second location) based on the 3D image 210. and a conversion function for converting the first object image into the second object image 30 corresponding to the second location based on the identified correlation.

도 6은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 관한 좌표 값을 기초로, 변환 행렬을 획득하고, 변환 행렬을 이용하여 제2 객체 이미지를 획득하는 전자 장치의 제어 방법에 관한 개략적인 순서도이다. 6 is a schematic diagram of a control method of an electronic device for acquiring a transformation matrix based on coordinate values of feature points of an object and obtaining a second object image using the transformation matrix, according to an embodiment of the present disclosure; is a flow chart.

한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 객체에 대한 3차원 이미지에 기초하여 변환 함수를 식별할 수도 있다. 구체적으로, 도 6을 참조하면, 프로세서(140)는, 3차원 이미지(210)에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 제1 위치에서 식별된 특징 점에 대응되는 제1 좌표 값을 획득한다 (S331). 그리고, 프로세서(140)는 3 차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 제2 위치에서 식별된 특징 점에 대응되는 제2 좌표 값을 획득하고(S332), 제1 좌표 값과 제2 좌표 값에 기초하여, 제2 위치에 대응되는 변환 행렬을 식별(S333)할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the processor 140 may identify a transform function based on a 3D image of an object. Specifically, referring to FIG. 6 , the processor 140 identifies feature points of the object identified at the first location based on the 3D image 210, and corresponds to the feature point identified at the first location. A first coordinate value is obtained (S331). Then, the processor 140 identifies a feature point of the object identified at the second location based on the 3D image, and obtains a second coordinate value corresponding to the feature point identified at the second location (S332), Based on the first coordinate value and the second coordinate value, a transformation matrix corresponding to the second position may be identified (S333).

먼저, 프로세서(140)는, 객체에 대한 3차원 이미지(210)를 기초로, 복수의 시점 각각에서 식별되는 객체의 특징 점에 대응되는 좌표 값을 획득한다. 예를 들어, 해리스 코너 검출(Harris Corner Detect) 방법을 통해, 프로세서는 복수의 시점 각각에서 식별되는 객체의 특징 점을 검출한 후 각각의 특징 점에 관한 좌표 값을 획득할 수 있을 것이다. 또는 전자 장치(100)에 포함된 라이더 센서(미도시)를 이용하여 객체(200)의 특징 점을 검출할 수도 있을 것이다. 이때, 좌표 값은 상술하여 설명한 프로세서(140)에 의해 설정된 기준 좌표계 또는 WGS84 좌표계, 경위도 좌표계 상에서 획득될 수 있을 것이다. First, the processor 140 obtains a coordinate value corresponding to a characteristic point of an object identified at each of a plurality of viewpoints based on the 3D image 210 of the object. For example, through the Harris Corner Detect method, the processor may acquire coordinate values for each feature point after detecting feature points of an object identified at each of a plurality of viewpoints. Alternatively, feature points of the object 200 may be detected using a lidar sensor (not shown) included in the electronic device 100 . In this case, the coordinate values may be obtained on a reference coordinate system, a WGS84 coordinate system, or a longitude and latitude coordinate system set by the processor 140 described above.

한편, 객체의 특징 점에 대응되는 좌표 값을 획득하기 위하여, 프로세서(140)는 3차원 이미지(210)를 획득하는데 이용된 복수의 시점에 대응되는 복수의 객체 이미지를 이용할 수 있다. 이때, 복수의 시점은 제1 위치 및/또는 제2 위치를 포함할 수 있다. 즉, 객체에 대한 3차원 이미지(210)를 획득하기 위하여, 프로세서(140)가 카메라(110)를 통해 제1 위치 및/또는 제2 위치를 포함하는 복수의 시점에서 객체(200)를 촬영하는 경우, 복수의 시점에 대응되는 복수의 객체 이미지 내에는 객체(200)의 특징 점에 대한 정보가 포함될 수 있다. 그리고 프로세서(140)는 각각의 객체 이미지 내에서 특징 점에 대응되는 좌표 값을 획득할 수 있다. Meanwhile, in order to obtain coordinate values corresponding to feature points of the object, the processor 140 may use a plurality of object images corresponding to a plurality of viewpoints used to obtain the 3D image 210 . In this case, the plurality of viewpoints may include the first location and/or the second location. That is, in order to obtain a 3D image 210 of the object, the processor 140 photographs the object 200 from a plurality of viewpoints including the first position and/or the second position through the camera 110. In this case, information on feature points of the object 200 may be included in the plurality of object images corresponding to the plurality of viewpoints. Also, the processor 140 may obtain coordinate values corresponding to feature points in each object image.

프로세서(140)는, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득(S351)한 후, 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득한다(S352). 이때, 복수의 변환 행렬은 제2 위치에 대응되어 생성된다. The processor 140 acquires coordinate values corresponding to feature points of the object identified at each of a plurality of viewpoints (S351), and then obtains a plurality of transformation matrices for transformation between the obtained plurality of coordinate values (S352). . At this time, a plurality of transformation matrices are generated corresponding to the second position.

도 7은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 대응되는 좌표 값을 이용하여, 변환을 위한 변환 행렬을 획득하는 것을 나타낸 예시도이다. 7 is an exemplary view illustrating obtaining a transformation matrix for transformation using coordinate values corresponding to feature points of an object according to an embodiment of the present disclosure.

도 7을 참조하면, 프로세서(140)는 제1 위치에서 획득한 이미지에 포함된 객체(200)에 대하여 8개의 특징 점(a1 내지 a8)를 검출하였다. 그리고 프로세서(140)는 제2 위치에서 획득한 이미지에 포함된 객체(200)에 대하여 8개의 특징 점(b1 내지 b8)을 검출하였다. 프로세서(140)는 a1 내지 a8의 특징 점의 좌표 값과 b1 내지 b8의 특징 점의 좌표 값을 이용하여, 제1 위치에서의 이미지를 제2 위치에서의 이미지로 변환하기 위한 변환 행렬(T1)을 획득할 수 있다. 구체적으로, a1 내지 a8의 특징 점의 좌표 값과 a1 내지 a8의 특징 점 각각에 대응되는 b1 내지 b8의 특징 점의 좌표 값을 기초로, 제1 위치에서의 이미지를 제2 위치에서의 이미지로 변화하는 변환 행렬을 산출할 수 있을 것이다. 한편, 도 7에서는 하나의 제2 위치에 대한 변환 행렬을 획득하는 것으로 설명하였으나, 복수의 제2 위치가 설정된 경우에는 각각의 제2 위치에 대응하는 각각의 변환 행렬을 획득할 것이다. Referring to FIG. 7 , the processor 140 detects eight feature points a1 to a8 of the object 200 included in the image acquired at the first location. Also, the processor 140 detects eight feature points b1 to b8 of the object 200 included in the image acquired at the second location. The processor 140 uses the coordinate values of the feature points of a1 to a8 and the coordinate values of the feature points of b1 to b8 to create a transformation matrix T1 for converting the image at the first position to the image at the second position. can be obtained. Specifically, based on the coordinate values of the feature points of a1 to a8 and the coordinate values of the feature points of b1 to b8 corresponding to the feature points of a1 to a8, the image at the first location is converted to the image at the second location. It will be possible to calculate a transform matrix that changes. Meanwhile, in FIG. 7, it has been described that a transformation matrix for one second position is acquired, but when a plurality of second positions are set, each transformation matrix corresponding to each second position will be obtained.

도 8은, 본 개시의 일 실시 예에 따른 변환 행렬에 기초하여 제2 위치에 대응되는 객체 이미지를 획득하는 것을 나타낸 예시도이다. 8 is an exemplary view illustrating obtaining an object image corresponding to a second position based on a transformation matrix according to an embodiment of the present disclosure.

다시 도 3을 참조하면, 본 개시의 일 실시 예에 따라, 프로세서(140)는 식별된 변환 함수에 기초하여 제1 객체 이미지를 제2 객체 이미지로 변환하여, 제2 위치에 대응되는 제2 객체 이미지(30)를 획득한다. 구체적으로, 프로세서(140)는 변환 함수를 기초로, 제1 객체 이미지의 픽셀 값을 변환함으로써 제2 객체 이미지(30)를 생성할 수 있다. 도 8을 참조하면, 프로세서(140)는 객체(200)의 정면, 우측 면 및 상부 면이 관찰되는 제1 객체 이미지(20)에 변환 행렬(T1)을 적용하여, 객체(200)의 우측면이 확장되어 보이는 제2 객체 이미지(30)를 획득할 수 있다.Referring back to FIG. 3 , according to an embodiment of the present disclosure, the processor 140 converts a first object image into a second object image based on the identified conversion function, and the second object corresponding to the second position. An image 30 is obtained. Specifically, the processor 140 may generate the second object image 30 by transforming pixel values of the first object image based on the conversion function. Referring to FIG. 8 , the processor 140 applies a transformation matrix T1 to the first object image 20 in which the front, right side, and top side of the object 200 are observed, so that the right side of the object 200 is An enlarged second object image 30 may be obtained.

다만, 이에 제한되는 것은 아니며, 프로세서(140)는 3차원 이미지(210)로부터 제2 객체 이미지(30)를 생성할 수도 있다. 즉, 제2 위치에서 객체(200)를 촬영하는 경우 획득 가능한 이미지는, 기 생성된 객체(200)의 3차원 이미지(210)로부터 획득될 수 있다. 구체적으로, 프로세서(140)는 객체(200)의 3차원 이미지를 제2 위치에서 캡쳐하여, 제2 위치에 대응되는 제2 객체 이미지를 획득할 수도 있다. 이를 위해, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)를 카메라(110)를 통해 인식되는 제1 객체 이미지(20)내 객체와 정합하는 과정을 수행할 수 있다. 예를 들어, 프로세서(140)는 객체에 대한 기준 좌표 계와 객체의 3차원 이미지에 대한 기준 좌표 계를 동기화할 수 있다. 그리고, 기준 좌표 계 내에서 제2 위치에 해당하는 지점에서, 객체의 3차원 이미지를 캡쳐함으로써, 객체에 대한 제2 위치에 대응되는 제2 객체 이미지를 획득할 수 있다. However, it is not limited thereto, and the processor 140 may generate the second object image 30 from the 3D image 210 . That is, an image obtainable when photographing the object 200 at the second location may be obtained from a pre-created 3D image 210 of the object 200 . Specifically, the processor 140 may acquire a second object image corresponding to the second location by capturing the 3D image of the object 200 at the second location. To this end, the processor 140 may perform a process of matching the 3D image 210 of the object 200 with the object in the first object image 20 recognized through the camera 110 . For example, the processor 140 may synchronize the reference coordinate system for the object and the reference coordinate system for the 3D image of the object. A second object image corresponding to the second position of the object may be obtained by capturing a 3D image of the object at a point corresponding to the second position in the reference coordinate system.

도 9는, 본 개시의 일 실시 예에 따른 객체에 대한 3차원 이미지를 이용하여, 제2 객체 이미지(30)를 획득하는 것을 나타낸 예시도이다. 9 is an exemplary view illustrating obtaining a second object image 30 using a 3D image of an object according to an embodiment of the present disclosure.

도 9를 참조하면, 제1 위치가 A이고 제2 위치가 B라고 가정한다. 이때, 제2 객체 이미지(30)는, 프로세서(140)가 기준 좌표 계 내 객체의 3차원 이미지(210)를 B에서 카메라(110)를 통해 촬영했을 때, 획득될 수 있는 이미지를 의미한다. 즉, 제2 객체 이미지(30)는, 객체(200)의 3차원 이미지(210)를 일 부분을 캡쳐(Capture)한 이미지일 수 있다. Referring to FIG. 9 , it is assumed that the first position is A and the second position is B. At this time, the second object image 30 means an image that can be obtained when the processor 140 captures the 3D image 210 of the object in the reference coordinate system through the camera 110 at B. That is, the second object image 30 may be an image obtained by capturing a portion of the 3D image 210 of the object 200 .

이를 위해, 앞서 설명한 바와 같이, 프로세서(140)는 기준 좌표 계 상에서 객체(200)와 객체에 대한 3차원 이미지(210)를 정합하는 과정을 수행할 수 있다. 그러나 이에 제한되는 것은 아니며, 정합 과정 없이, 프로세서(240)는 객체(200)와 객체에 대한 3차원 이미지(210)에 적용되는 기준 좌표 계를 일치시킴으로써, 객체에 대한 3차원 이미지(210)에 대한 제2 위치에 대응되는 제2 객체 이미지(30)를 획득할 수 있을 것이다. 즉, 프로세서(140)는 변환 함수를 이용하여 제2 객체 이미지(30)를 획득하는 것과는 달리, 3차원 이미지(210)를 이용하여 제2 객체 이미지(30)를 획득하는 경우에는 제1 객체 이미지를 이용하지 않을 수 있다.To this end, as described above, the processor 140 may perform a process of matching the object 200 and the 3D image 210 of the object on the reference coordinate system. However, it is not limited thereto, and without a matching process, the processor 240 matches the reference coordinate system applied to the object 200 and the 3D image 210 of the object, thereby forming the 3D image 210 of the object. A second object image 30 corresponding to the second position of the object may be acquired. That is, unlike acquiring the second object image 30 using a conversion function, the processor 140 acquires the first object image 30 using the 3D image 210 when acquiring the second object image 30 . may not be used.

또한, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제1 객체 이미지에 변환 함수를 적용하여 획득한 제2 객체 이미지(이하, 제2-1 객체 이미지)와 3차원 이미지를 통해 획득한 제2 객체 이미지(이하, 제2-2 객체 이미지)를 합성하여 최종적으로 제2 위치에 대응되는 제2 객체 이미지를 획득할 수도 있다. In addition, according to an embodiment of the present disclosure, the processor 140 obtains a second object image (hereinafter referred to as a 2-1 object image) obtained by applying a transform function to the first object image and a 3D image. The second object image corresponding to the second position may be finally obtained by synthesizing the second object image (hereinafter, 2-2 object image).

한편, 본 개시의 일 실시 예에 따라서 제2 위치는 사용자의 입력에 의하여 변경될 수 있다. 구체적으로, 프로세서(140)는 디스플레이(120) 또는 인터페이스를 통해 사용자가 제2 위치를 변경 시키면, 제2 위치를 식별한 후 변경된 제2 위치에 대응되는 제2 객체 이미지(30)를 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the second location may be changed by a user's input. Specifically, when the user changes the second position through the display 120 or the interface, the processor 140 may identify the second position and then obtain the second object image 30 corresponding to the changed second position. there is.

이를 위해, 본 개시의 일 실시 예에 따라서 프로세서(140)는 제1 위치 및 제1 위치에 대한 제2 위치의 각도 변화 값과 변위 변화 값을 산출하고, 산출된 각도 변화 값과 변위 변화 값에 기초하여 변환 행렬을 업데이트 할 수 있다. 예를 들어, 제1 위치를 기준으로 제2 위치를 식별한 후 제2 위치를 기초로, 3차원 공간 에서의 각도 변화 값을 산출하고, 산출된 각도 변화 값에 기초하여 회전 변환 행렬을 획득할 수 있다. To this end, according to an embodiment of the present disclosure, the processor 140 calculates the first position and the angular change value and the displacement change value of the second position with respect to the first position, and the calculated angle change value and displacement change value Based on this, the transformation matrix can be updated. For example, after identifying the second position based on the first position, based on the second position, an angle change value in a 3D space is calculated, and a rotation transformation matrix is obtained based on the calculated angle change value. can

한편, 프로세서(140)는 변환 행렬을 획득한 이후, 제1 객체 이미지(20)에서 식별된 객체의 특징 점 및 획득된 복수의 변환 행렬 중 제1 객체 이미지(20)에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 제2 위치에 대응되는 제2 객체 이미지를 획득한다(S331_c). 제 1객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬은, 앞서 설명한 제1 위치에 대응되는 이미지를 제2 위치에 대응되는 이미지로 변환하기 위한 행렬을 의미한다. Meanwhile, after acquiring the transformation matrix, the processor 140 acquires the characteristic points of the object identified in the first object image 20 and the characteristic points of the object identified in the first object image 20 among the obtained plurality of transformation matrices. A second object image corresponding to the second position is obtained based on the transformation matrix corresponding to (S331_c). The transformation matrix corresponding to the feature point of the object identified in the first object image means a matrix for transforming the image corresponding to the first position described above into an image corresponding to the second position.

한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제2 위치에 따라서 제2 객체 이미지(30)를 획득하는 방법을 다르게 적용할 수 있다. 구체적으로, 프로세서(140)는 복수의 카메라 중 제2 위치에 기초하여 식별된 하나의 카메라의 화각 정보를 식별한다. 그리고 프로세서(140)는 식별된 화각 정보에 기초하여 객체에 대한 카메라의 기준 범위를 식별한다. 그리고 프로세서(140)는 기준 범위에 기초하여 제2 위치를 식별하고, 제2 위치가 식별된 기준 범위에 포함되면, 제1 객체 이미지와 변환 행렬에 기초하여 제2 객체 이미지(30)를 획득하고, 제2 위치가 식별된 기준 범위에 포함되지 않으면, 복수의 객체 이미지에 기초하여 획득한 객체에 대한 3차원 이미지 또는 신경망 모델(딥 러닝 기반의 3차원 이미지 생성 모델)을 통해 획득된 3차원 이미지(210)에 기초하여 제2 객체 이미지(30)를 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the processor 140 may differently apply a method of obtaining the second object image 30 according to the second location. Specifically, the processor 140 identifies view angle information of one identified camera based on the second position among the plurality of cameras. Further, the processor 140 identifies a reference range of the camera for the object based on the identified view angle information. And the processor 140 identifies the second position based on the reference range, and if the second position is included in the identified reference range, obtains the second object image 30 based on the first object image and the transformation matrix, , If the second position is not included in the identified reference range, a 3D image of the object acquired based on a plurality of object images or a 3D image obtained through a neural network model (deep learning-based 3D image generation model) Based on (210), the second object image 30 may be acquired.

여기서 기준 범위란, 카메라를 통해 획득될 수 있는 객체의 한계 범위를 의미한다. 이때, 기준 범위는 카메라에 포함된 각각의 렌즈의 화각 범위에 대응하여 설정될 수 있다. 예를 들어, 렌즈의 화각이 120°라고 가정할 때, 기준 범위는 객체를 기준으로, 전자 장치에 대하여 120°로 설정될 수 있다. Here, the reference range means a limit range of an object that can be acquired through a camera. In this case, the reference range may be set to correspond to the angle-of-view range of each lens included in the camera. For example, assuming that the angle of view of the lens is 120°, the reference range may be set to 120° for the electronic device based on the object.

도 10은 본 개시의 일 실시 예에 따른 카메라에 설정된 화각 정보에 기초하여 기준 범위를 설정하고, 기준 범위에 따라 제2 객체 이미지 생성을 설명하기 위한 도면이다. 10 is a diagram for explaining setting a reference range based on view angle information set in a camera and generating a second object image according to the reference range, according to an embodiment of the present disclosure.

구체적으로, 도 10을 참조하면, 프로세서(140)가 제2 위치에 기초하여 식별된 하나의 카메라의 화각 정보(예를 들어, 120°)를 식별하고, 식별된 화각 정보에 기초하여 객체에 대한 카메라의 기준 범위를 120°라고 식별하였다고 가정한다. 이때, 프로세서(140)는 B에 위치한 제2 위치(12)는 식별된 기준 범위에 포함하는 것으로 식별한다. 다만, 프로세서(140)는 C에 위치한 제2 위치(13)는 기준 범위에 포함되지 않는 것을 식별한다. 이때, 프로세서(140)는 B에 위치한 제2 위치에 대응하는 제2 객체 이미지(30)의 경우 제1 객체 이미지에 변환 행렬을 적용하여 생성하고, C에 위치한 제2 위치에 대응하는 제2 객체 이미지(30)의 경우 3차원 이미지(210)를 이용하여 생성한다. Specifically, referring to FIG. 10 , the processor 140 identifies view angle information (eg, 120°) of one camera identified based on the second position, and determines a view angle for an object based on the identified view angle information. Assume that the reference range of the camera is identified as 120°. At this time, the processor 140 identifies the second position 12 located at B as being included in the identified reference range. However, the processor 140 identifies that the second position 13 located at C is not included in the reference range. In this case, the processor 140 generates the second object image 30 corresponding to the second position located at B by applying a transformation matrix to the first object image, and generates the second object image corresponding to the second position located at C. In the case of the image 30, it is created using the 3D image 210.

도 11은 본 개시의 일 실시 예에 따른 제1 객체 이미지와 제2 객체 이미지(30)를 디스플레이에 표시하는 예시도이다. 11 is an exemplary view of displaying a first object image and a second object image 30 on a display according to an embodiment of the present disclosure.

다시 도 3을 참조하면, 프로세서(140)는 제2 객체 이미지(30)를 획득한 후, 제1 객체 이미지(20)와 제2 객체 이미지(30)를 디스플레이(120)에 표시한다(S350). Referring back to FIG. 3 , after acquiring the second object image 30, the processor 140 displays the first object image 20 and the second object image 30 on the display 120 (S350). .

도 11을 참조하면, 디스플레이(120)는 실시간으로 카메라(110)를 통해 획득되는 제1 객체 이미지(20)가 표시될 뿐만 아니리, 제2 위치에 대응되는 제2 객체 이미지(30)가 동시에 표시된다. 이를 통해, 사용자는 하나의 카메라(110)를 이용하여, 특정 객체에 대한 복수의 시점에서의 촬영 이미지를 제공받을 수 있으며, 해당 객체를 촬영하기 위한 최적의 촬영 시점, 각도, 위치 등을 신속하게 결정할 수 있다. Referring to FIG. 11 , the display 120 not only displays the first object image 20 acquired through the camera 110 in real time, but also simultaneously displays the second object image 30 corresponding to the second position. do. Through this, the user can be provided with images taken from a plurality of viewpoints of a specific object using one camera 110, and quickly determine the optimal shooting viewpoint, angle, position, etc. for photographing the object. can decide

한편, 제2 객체 이미지(30)는 제1 객체 이미지(20)와 객체에 대한 3차원 이미지(210)를 기반으로 추정된 이미지이므로, 실제 제2 위치에서 객체를 촬영하여 획득한 이미지와는 차이가 있을 수 있다. 이 경우, 사용자에게 제공됐거나, 제공될 예정인 제2 객체 이미지(30)를 교정하는 과정이 필요한데 이하, 이와 관련한 구체적인 본 개시의 실시 예에 대하여 설명한다. Meanwhile, since the second object image 30 is an image estimated based on the first object image 20 and the 3D image 210 of the object, it is different from an image obtained by photographing the object in the actual second position. there may be In this case, a process of correcting the second object image 30 provided or scheduled to be provided to the user is required. Hereinafter, specific embodiments of the present disclosure related to this will be described.

도 12는, 본 개시의 일 실시 예에 따른 제2 위치에서 획득된 객체의 이미지를 기초로, 객체에 대한 3차원 이미지를 업데이트하는 전자 장치의 제어 방법을 개략적으로 나타낸 순서도이다. 도 13a 및 도 13b는 업데이트된 3차원 이미지에 기초하여 제2 객체 이미지(30)를 표시하는 것을 나타낸 예시도이다. 12 is a flowchart schematically illustrating a control method of an electronic device for updating a 3D image of an object based on an image of the object acquired at a second location according to an embodiment of the present disclosure. 13A and 13B are exemplary diagrams illustrating displaying a second object image 30 based on an updated 3D image.

도 12를 참조하면, 프로세서는(140), 카메라(110)를 통해 제1 위치와 다른 위치에서 객체를 촬영하여 제3 객체 이미지를 획득하고(S360), 제1 객체 이미지(20)에 포함되어 있지 않지만 제2 객체 이미지(30)에 포함된 객체의 적어도 일부가 제3 객체 이미지에 포함되어 있는지를 식별하고(S30), 제3 객체 이미지에 객체(200)의 적어도 일부가 포함되어 있고, 제3 객체 이미지에 포함된 객체의 적어도 일부가 제2 객체 이미지(30)와 다른 경우, 제3 객체 이미지에 기초하여 3차원 이미지를 업데이트한다(S380). Referring to FIG. 12 , the processor 140 acquires a third object image by photographing an object at a location different from the first location through the camera 110 (S360), and is included in the first object image 20. It is identified whether at least a part of the object included in the second object image 30 is included in the third object image (S30), and if at least a part of the object 200 is included in the third object image, When at least a part of the object included in the 3-object image is different from the second object image 30, the 3D image is updated based on the third object image (S380).

먼저, 프로세서는(140), 카메라(110)를 통해 제1 위치와 다른 위치에서 객체(200)를 촬영하여 제3 객체 이미지(40)가 획득한다(S360). 이때, 다른 위치는 제2 위치를 포함할 수 있다. 제3 객체 이미지는 제1 객체 이미지와 같이 카메라(110)를 통해 획득되는 것에 공통되나, 각각 획득한 위치의 차이점이 있다. 구체적으로, 제3 객체 이미지는 제1 객체 이미지를 획득한 이후에 프로세서(140)가 카메라(110)를 통해 획득한 이미지이다. First, the processor 140 captures the object 200 at a location different from the first location through the camera 110 to obtain a third object image 40 (S360). At this time, the other location may include the second location. The third object image is common to those acquired through the camera 110 like the first object image, but there is a difference in each acquired position. Specifically, the third object image is an image obtained by the processor 140 through the camera 110 after acquiring the first object image.

프로세서(140)는 제1 객체 이미지(20)에 포함되어 있지 않으나, 제2 객체 이미지(30)에 포함된 객체(200)의 적어도 일부가 제3 객체 이미지(40)에 포함되어 있는지를 식별한다(S370). The processor 140 identifies whether at least a part of the object 200 included in the second object image 30, which is not included in the first object image 20, is included in the third object image 40. (S370).

먼저, 도 13a를 참조하면, 제1 위치는 t1에 x축 상에 위치한 후 t2에는 x 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동하여 위치한 후 다시 t3에는 x축 상에 위치하였다. 이때, 제1 위치를 기준으로 상대적으로 설정된 제2 위치는 t1에 xy 평면 상에서 x축의 반 시계 방향으로 90°에 위치한 y 축 상에 위치하였다. 한편, 제2 위치는 제1 위치를 기준으로 상대적으로 설정되므로, t2에 제1 위치가 이동한 변위 각도만큼 제2 위치 또한 이동한다. 구체적으로, 제1 위치가 x 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동하여 위치 하였으므로, 제2 위치는 y 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동한 지점에 위치한다. 그리고 t3에 제2 위치는 y 축 상에 위치한다. 이하, 도 13a에서의 전자 장치(100)의 위치에 따른 제1 위치의 위치와 제2 위치의 위치에서의 제1 객체 이미지, 제2 객체 이미지 그리고 3차원 이미지에 대하여 도 143를 참조하여 설명하도록 한다. First, referring to FIG. 13A, the first position is located on the x-axis at t1, moves 45° counterclockwise on the xy plane from the x-axis at t2, and then is located on the x-axis at t3. At this time, the second position relatively set with respect to the first position was located on the y-axis at 90° in the counterclockwise direction of the x-axis on the xy plane at t1. Meanwhile, since the second position is set relative to the first position, the second position is also moved by the displacement angle of the first position at t2. Specifically, since the first position is moved 45° counterclockwise on the xy plane from the x axis, the second position is located at a point moved 45° counterclockwise on the xy plane from the y axis. And at t3 the second position is on the y-axis. Hereinafter, a first object image, a second object image, and a 3D image at the first location and the second location according to the location of the electronic device 100 in FIG. 13A will be described with reference to FIG. 143 . do.

도 13b를 참조하면, t2 시점에서 프로세서(140)에 의해 획득된 제3 객체 이미지(40) 내 객체(200)의 우측 면에는 문자가 포함되어 있다. 그러나, t1 시점에는 프로세서(140)에 의해 표시된 제2 객체 이미지(30) 내 객체(200)의 우측 면에는 문자가 포함되어 있지 않다. 앞서 설명한 바와 같이, 프로세서(140)는 객체(200)의 우측 면에 문자를 식별할 수 없는 제1 객체 이미지(20)와 제1 객체 이미지(20)에 기초하여 획득한 3차원 이미지(210)를 기초로 제2 객체 이미지(30)를 획득하였기 때문이다. 따라서, 프로세서(140)는 획득한 제3 객체 이미지(40)를 기반으로, 제1 객체 이미지(20)에 포함되어 있지 않으나, 제2 객체 이미지(30)에 포함된 객체(200)의 적어도 일부, 예를 들어 문자, 모양, 형상 등이 포함되어 있는지를 식별한다. 다시 말해, 제3 객체 이미지(40)를 기초로, 제1 객체 이미지(20)를 통해서는 식별되지 않은 객체(200)의 특징 정보를 식별한다. Referring to FIG. 13B , the right side of the object 200 in the third object image 40 obtained by the processor 140 at time t2 includes a character. However, at the time point t1, the right side of the object 200 in the second object image 30 displayed by the processor 140 does not include a character. As described above, the processor 140 generates a first object image 20 in which a character cannot be identified on the right side of the object 200 and a 3D image 210 obtained based on the first object image 20 This is because the second object image 30 is obtained based on . Therefore, the processor 140 may, based on the acquired third object image 40, at least a part of the object 200 included in the second object image 30, although not included in the first object image 20. , for example, to identify whether it contains characters, shapes, shapes, etc. In other words, based on the third object image 40 , characteristic information of an object 200 that is not identified through the first object image 20 is identified.

그리고 프로세서(140)는 제3 객체 이미지(40)에 객체(200)의 적어도 일부가 포함되어 있고, 제3 객체 이미지(40)에 포함된 객체의 적어도 일부가 제2 객체 이미지(30)와 다른 경우, 제3 객체 이미지(40)에 기초하여 3차원 이미지(210)를 업데이트한다Further, the processor 140 determines that at least a part of the object 200 is included in the third object image 40, and at least a part of the object included in the third object image 40 is different from the second object image 30. In this case, the 3D image 210 is updated based on the third object image 40.

다시 도 13b를 참조하면, t2 시점에서 프로세서(140)가 획득한 제3 객체 이미지(40)를 기초로, 객체(200)의 우측 면에 포함된 문자를 식별하면, 이후 t3 시점에 표시되는 제2 객체 이미지(30)는, 제2 객체 이미지(30) 내 객체(200)의 우측 면에 문자가 포함되도록 업데이트 될 것이다. 도 13b를 참조하면, t1 시점 및 t3 시점에서의 제2 객체 이미지는 동일한 위치에서의 획득될 것으로 추정되어 생성된 이미지이다. 그러나 t3 시점에서의 제2 객체 이미지의 경우, t2 에서 획득한 제3 객체 이미지를 기반으로 업데이트 된 3차원 이미지를 기초로 생성된다. 그렇기 때문에, 동일한 위치에서 획득될 것으로 추정되는 이미지임에도 불구하고, t1 시점에서의 제2 객체 이미지와 t3 시점에서의 제2 객체 이미지가 상이하다. Referring back to FIG. 13B , if a character included in the right side of the object 200 is identified based on the third object image 40 acquired by the processor 140 at time t2, then the first displayed at time t3 The second object image 30 will be updated to include a character on the right side of the object 200 in the second object image 30 . Referring to FIG. 13B , the second object images at time points t1 and t3 are images generated by assuming that they will be acquired at the same location. However, in the case of the second object image at time t3, a 3D image updated based on the third object image acquired at time t2 is generated. Therefore, the second object image at time t1 is different from the second object image at time t3, even though the images are assumed to be acquired at the same location.

한편, 이러한 업데이트 과정은 이후 표시되는 제2 객체 이미지(30)에 대해서 수행되는 것은 아니다. 예를 들어, 프로세서(140)가 디스플레이(120)에 표시되는 제1 객체 이미지(20)와 제2 객체 이미지(30)를 메모리(130)에 저장하는 경우에는, 기 저장된 제2 객체 이미지(30)를 업데이트 된 3차원 이미지(210)를 기반으로 업데이트할 수 있다. 예를 들어, 프로세서(140)가 카메라를 통해 객체(200)에 대한 동영상 촬영 및 녹화를 수행하고, 제3 객체 이미지(40)에 기초하여 3차원 이미지(210)를 업데이트한 경우, t1 시점에 메모리에 저장된 제2 객체 이미지(30) 내 객체(200)의 우측 면에 문자가 포함되도록 제2 객체 이미지(30)를 업데이트할 수 있다. Meanwhile, this updating process is not performed on the second object image 30 to be displayed later. For example, when the processor 140 stores the first object image 20 and the second object image 30 displayed on the display 120 in the memory 130, the previously stored second object image 30 ) may be updated based on the updated 3D image 210. For example, when the processor 140 captures and records a video of the object 200 through a camera and updates the 3D image 210 based on the third object image 40, at time t1 The second object image 30 may be updated to include a character on the right side of the object 200 in the second object image 30 stored in the memory.

한편, 본 개시의 일 실시 예에 따라 프로세서(140)는, 업데이트된 3차원 이미지(210)에 기초하여 제2 위치에 대응되는 제2 객체 이미지(30)를 획득하고, 제2 객체 이미지(30)를 디스플레이(120)에 표시할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the processor 140 acquires the second object image 30 corresponding to the second position based on the updated 3D image 210, and the second object image 30 ) can be displayed on the display 120.

이를 통해, 사용자는 복수의 시점에서 객체에 대한 보다 정확한 이미지를 제공받을 수 있을 것이다. Through this, the user may be provided with more accurate images of the object from a plurality of viewpoints.

도 14는 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성도이다. 14 is a detailed configuration diagram of an electronic device according to an embodiment of the present disclosure.

도 14를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100는 카메라(110), 디스플레이(120), 메모리(130), 통신부(150), 라이다 센서(160), GPS 센서(170), TOF 센서(180) 및 프로세서(140)를 포함한다. 이하 상술한 설명과 중복되는 부분은 생략하거나 축약하여 설명한다.Referring to FIG. 14 , an electronic device 100 according to an embodiment of the present disclosure includes a camera 110, a display 120, a memory 130, a communication unit 150, a lidar sensor 160, and a GPS sensor 170. ), the TOF sensor 180, and the processor 140. Hereinafter, parts overlapping with the above description will be omitted or abbreviated.

프로세서(140)는 통신부(150)를 통해, 전자 장치(100) 및 외부 장치 간의 다양한 정보를 송수신할 수 있다. 예를 들어, 객체(200)에 관한 신경망 모델에 관한 정보를 외부 장치(예를 들어, 전자 장치 제어 프로그램을 제공하는 서버)로부터 수신할 수도 있으며, 그 밖의 딥 러닝 기반의 객체 탐지 모델 등과 같이 전자 장치(100)를 제어하기 위한 다양한 프로그램에 관한 정보를 수신할 수 있다. 프로세서(140)는 통신부(150)를 통해 다양한 형태의 통신망을 이ŸG알 수 있으며, 예를 들어, WLAN(Wireless LAN), 와이파이(Wi-Fi), LTE(Long Term Evolution), 5G 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신 방식이 이용될 수 있다.The processor 140 may transmit and receive various types of information between the electronic device 100 and an external device through the communication unit 150 . For example, information about the neural network model of the object 200 may be received from an external device (eg, a server providing an electronic device control program), and other deep learning-based object detection models, such as electronic Information on various programs for controlling the device 100 may be received. The processor 140 may know various types of communication networks through the communication unit 150, for example, WLAN (Wireless LAN), Wi-Fi (Wi-Fi), LTE (Long Term Evolution), 5G, etc. A wireless communication method or a wired communication method such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), FTTH (Fiber To The Home) may be used.

한편, 프로세서(140)는 라이다 센서(160)를 통해, 객체(200)에 관한 클라우드 데이터를 획득할 수 있다. 프로세서(140)는 라이다 센서(160)를 통해, 객체(200)에 관한 클라우드 데이터를 획득하고, 객체(20))에 대한 3차원 이미지(210)를 생성할 수 있다. Meanwhile, the processor 140 may obtain cloud data about the object 200 through the lidar sensor 160 . The processor 140 may obtain cloud data about the object 200 through the lidar sensor 160 and generate a 3D image 210 of the object 20 .

또한, 프로세서(140)는 GPS 센서(170)를 통해 WGS84 좌표계 또는 경위도 좌표계 상에서의 전자 장치(100)의 제1 위치를 감지할 수 있다. 구체적으로, 프로세서(140)는 전자 장치의 좌표 값을 기반으로 제1 위치를 식별할 수 있을 것이다. Also, the processor 140 may detect the first position of the electronic device 100 on the WGS84 coordinate system or the latitude and longitude coordinate system through the GPS sensor 170 . Specifically, the processor 140 may identify the first location based on the coordinate values of the electronic device.

또한 프로세서(140)는 TOF 센서(180)를 통해 카메라(110)를 이용하여 객체에 관한 제1 객체 이미지(20)를 비롯한 복수의 시점에서의 복수의 이미지를 획득함과 동시에 제1 객체에 관한 깊이(Depth) 정보를 획득할 수도 있다. 이러한 깊이 정보를 기초로, 복수의 이미지를 기반으로 객체(200)에 관한 3차원 이미지(210)를 획득할 수 있다. In addition, the processor 140 obtains a plurality of images from a plurality of viewpoints, including the first object image 20 of the object using the camera 110 through the TOF sensor 180, and simultaneously acquires a plurality of images of the first object. Depth information may also be acquired. Based on such depth information, a 3D image 210 of the object 200 may be obtained based on a plurality of images.

한편, 상술한 설명에서, 단계 S310 내지 S360은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. Meanwhile, in the above description, steps S310 to S360 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed.

한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 기기를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Meanwhile, according to an exemplary embodiment of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage medium (eg, a computer). A device is a device capable of calling a command stored from a storage medium and operating according to the called command, and may include a device according to the disclosed embodiments. When a command is executed by a processor, the processor directly or A function corresponding to a command may be performed using other components under the control of the processor. A command may include code generated or executed by a compiler or an interpreter. A device-readable storage medium is a non-transitory It can be provided in the form of a (non-transitory) storage medium, where 'non-transitory storage medium' only means that it is a tangible device and does not contain a signal (e.g. electromagnetic wave), This term does not distinguish between a case where data is stored semi-permanently and a case where data is temporarily stored in a storage medium, for example, 'non-temporary storage medium' may include a buffer in which data is temporarily stored.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored on a device-readable storage medium such as a memory of a manufacturer's server, an application store server, or a relay server. It can be temporarily stored or created temporarily.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.

100: 전자 장치
110: 카메라
120: 디스플레이
130: 메모리
140: 프로세서
200: 객체
100: electronic device
110: camera
120: display
130: memory
140: processor
200: object

Claims (18)

전자 장치에 있어서,
복수의 카메라;
디스플레이;
메모리; 및
상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서;를 포함하는 전자 장치.
In electronic devices,
multiple cameras;
display;
Memory; and
Identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location, and detecting the identified camera while the electronic device is in the first location. Obtaining a first object image by photographing an object, identifying a transformation function corresponding to the second location based on the 3D image of the object and the second location, and identifying the first object image and the transformation function. An electronic device comprising: a processor that obtains a second object image corresponding to the second position based on a function and displays the first object image and the second object image on the display.
제1항에 있어서,
상기 프로세서는,
상기 복수의 카메라 각각의 화각을 식별하고, 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는, 전자 장치.
According to claim 1,
the processor,
Identifying angles of view of each of the plurality of cameras, and identifying a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera.
제1항에 있어서,
상기 프로세서는,
상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하고, 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 전자 장치.
According to claim 1,
the processor,
A plurality of object images corresponding to the plurality of viewpoints are obtained by photographing the object from a plurality of viewpoints through the camera, and a 3D image of the object is obtained based on an object identified in each of the plurality of object images. An electronic device for obtaining.
제3항에 있어서,
상기 프로세서는,
상기 3차원 이미지에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제1 좌표 값을 획득하고, 상기 3차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제2 좌표 값을 획득하고, 상기 제1 좌표 값과 상기 제2 좌표 값에 기초하여, 상기 제2 위치에 대응되는 변환 행렬을 식별하는, 전자 장치.
According to claim 3,
the processor,
Based on the 3D image, a feature point of the object identified at a first location is identified, a first coordinate value corresponding to the feature point is obtained, and an object identified at a second location based on the 3D image An electronic device that identifies a feature point of , obtains a second coordinate value corresponding to the feature point, and identifies a transformation matrix corresponding to the second position based on the first coordinate value and the second coordinate value. .
제1항에 있어서,
상기 메모리는, 입력된 객체 이미지에 기초하여 객체에 대한 3차원 이미지를 생성하도록 학습된 신경망 모델을 포함하고,
상기 프로세서는,
상기 제1 객체 이미지를 상기 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하고, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 전자 장치.
According to claim 1,
The memory includes a neural network model trained to generate a 3D image of an object based on an input object image,
the processor,
A 3D image of the object is obtained by inputting the first object image to the neural network model, and a second object image corresponding to the second position is obtained based on the 3D image obtained through the neural network model. electronic devices to acquire.
제5항에 있어서,
상기 프로세서는,
상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득하는 전자 장치.
According to claim 5,
the processor,
A reference range for the object is identified, and if the second position is included in the identified reference range, the second object image is acquired based on the first object image and a transformation matrix, and the second position is An electronic device that obtains the second object image based on the 3D image when it is not included in the identified reference range.
제6항에 있어서,
상기 프로세서는,
상기 식별된 카메라의 화각 정보에 기초하여 상기 기준 범위를 식별하는 전자 장치.
According to claim 6,
the processor,
An electronic device that identifies the reference range based on the identified information on the angle of view of the camera.
제5항에 있어서,
상기 프로세서는,
상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득되면, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하고,
상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 전자 장치.
According to claim 5,
the processor,
When a third object image is obtained by photographing the object at a location different from the first location through the camera, at least a part of an object included in the second object image but not included in the first object image is displayed in the first object image. 3 identify whether the object is included in the image,
When at least a part of the object is included in the third object image and at least a part of the object included in the third object image is different from the second object image, the 3D image is based on the third object image. Electronic device to update.
제7항에 있어서,
상기 프로세서는,
상기 업데이트 된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 전자 장치.
According to claim 7,
the processor,
An electronic device that obtains a second object image corresponding to the second location based on the updated 3D image and displays the second object image on the display.
복수의 카메라를 포함하는 전자 장치를 제어하는 방법에 있어서,
상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하는 단계;
상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하는 단계;
상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하는 단계;
상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계; 및
상기 제1 객체 이미지 및 상기 제2 객체 이미지를 디스플레이에 표시하는 단계를 포함하는, 제어 방법.
A method for controlling an electronic device including a plurality of cameras,
identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location;
obtaining a first object image by photographing an object through the identified camera while the electronic device is in the first location;
identifying a transform function corresponding to the second position based on the 3D image of the object and the second position;
obtaining a second object image corresponding to the second position based on the first object image and the conversion function; and
and displaying the first object image and the second object image on a display.
제10항에 있어서,
상기 하나의 카메라를 식별하는 단계는,
상기 복수의 카메라 각각의 화각을 식별하는 단계; 및
상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는 단계를 포함하는, 제어 방법.
According to claim 10,
The step of identifying the one camera,
identifying angles of view of each of the plurality of cameras; and
and identifying, among the plurality of cameras, a camera corresponding to an angle of view including the second position as the one camera.
제10항에 있어서,
상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하는 단계; 및
상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 포함하는, 제어 방법.
According to claim 10,
acquiring a plurality of object images corresponding to the plurality of viewpoints by photographing the object from a plurality of viewpoints through the camera; and
And based on the object identified in each of the plurality of object images, obtaining a three-dimensional image of the object, the control method.
제12항에 있어서,
상기 변환 함수를 식별하는 단계는,
상기 3차원 이미지에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제1 좌표 값을 획득하는 단계;
상기 3차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제2 좌표 값을 획득하는 단계; 및
상기 제1 좌표 값과 상기 제2 좌표 값에 기초하여, 상기 제2 위치에 대응되는 변환 행렬을 식별하는 단계를 포함하는, 제어 방법.
According to claim 12,
Identifying the conversion function comprises:
based on the 3D image, identifying a feature point of the identified object at a first location, and obtaining a first coordinate value corresponding to the feature point;
based on the 3D image, identifying a feature point of the identified object at a second location, and obtaining a second coordinate value corresponding to the feature point; and
and identifying a transformation matrix corresponding to the second position based on the first coordinate value and the second coordinate value.
제10항에 있어서,
상기 제1 객체 이미지를 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 더 포함하고,
상기 제2 객체 이미지를 획득하는 단계는,
상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는, 제어 방법.
According to claim 10,
Further comprising obtaining a 3D image of the object by inputting the first object image to a neural network model,
Obtaining the second object image,
Acquiring a second object image corresponding to the second position based on the 3D image obtained through the neural network model.
제14항에 있어서,
상기 제2 객체 이미지를 획득하는 단계는,
상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득하는, 제어 방법.
According to claim 14,
Obtaining the second object image,
A reference range for the object is identified, and if the second position is included in the identified reference range, the second object image is acquired based on the first object image and a transformation matrix, and the second position is If not included in the identified reference range, obtaining the second object image based on the 3D image.
제15항에 있어서,
상기 기준 범위는 상기 식별된 카메라의 화각 정보에 기초하여 식별되는, 제어 방법.
According to claim 15,
The control method of claim 1 , wherein the reference range is identified based on the identified camera view angle information.
제16항에 있어서,
상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득하는 단계;
상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하는 단계; 및
상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 단계를 더 포함하는, 제어 방법.
According to claim 16,
obtaining a third object image by photographing the object at a location different from the first location through the camera;
identifying whether at least a part of an object included in the second object image but not included in the first object image is included in the third object image; and
When at least a part of the object is included in the third object image and at least a part of the object included in the third object image is different from the second object image, the 3D image is based on the third object image. Further comprising the step of updating the control method.
제17항에 있어서,
상기 제2 객체 이미지를 표시하는 단계는,
상기 업데이트된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 제어 방법.
According to claim 17,
In the step of displaying the second object image,
A control method of obtaining a second object image corresponding to the second position based on the updated 3D image, and displaying the second object image on the display.
KR1020220010900A 2022-01-25 2022-01-25 Display apparatus and method for controlling display apparatus KR20230114567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220010900A KR20230114567A (en) 2022-01-25 2022-01-25 Display apparatus and method for controlling display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220010900A KR20230114567A (en) 2022-01-25 2022-01-25 Display apparatus and method for controlling display apparatus

Publications (1)

Publication Number Publication Date
KR20230114567A true KR20230114567A (en) 2023-08-01

Family

ID=87561834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220010900A KR20230114567A (en) 2022-01-25 2022-01-25 Display apparatus and method for controlling display apparatus

Country Status (1)

Country Link
KR (1) KR20230114567A (en)

Similar Documents

Publication Publication Date Title
US11164001B2 (en) Method, apparatus, and system for automatically annotating a target object in images
WO2021036353A1 (en) Photographing-based 3d modeling system and method, and automatic 3d modeling apparatus and method
CN109064545B (en) Method and device for data acquisition and model generation of house
US9723203B1 (en) Method, system, and computer program product for providing a target user interface for capturing panoramic images
CN110300292B (en) Projection distortion correction method, device, system and storage medium
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
US10545215B2 (en) 4D camera tracking and optical stabilization
CN107113415A (en) The method and apparatus for obtaining and merging for many technology depth maps
CN108286945B (en) Three-dimensional scanning system and method based on visual feedback
CN111345029B (en) Target tracking method and device, movable platform and storage medium
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
US9049369B2 (en) Apparatus, system and method for projecting images onto predefined portions of objects
WO2010101227A1 (en) Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
US20220067974A1 (en) Cloud-Based Camera Calibration
CN104574355B (en) Calibration system of stereo camera and calibration method of stereo camera
CN113545030A (en) Automatic generation of full focus images by moving camera
CN114640833A (en) Projection picture adjusting method and device, electronic equipment and storage medium
EP2918072B1 (en) Method and apparatus for capturing and displaying an image
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
KR20170078965A (en) System and method for providing 3d image
WO2020255766A1 (en) Information processing device, information processing method, program, projection device, and information processing system
US10281265B2 (en) Method and system for scene scanning
CN110225247B (en) Image processing method and electronic equipment