KR20230114567A - Display apparatus and method for controlling display apparatus - Google Patents
Display apparatus and method for controlling display apparatus Download PDFInfo
- Publication number
- KR20230114567A KR20230114567A KR1020220010900A KR20220010900A KR20230114567A KR 20230114567 A KR20230114567 A KR 20230114567A KR 1020220010900 A KR1020220010900 A KR 1020220010900A KR 20220010900 A KR20220010900 A KR 20220010900A KR 20230114567 A KR20230114567 A KR 20230114567A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- object image
- location
- processor
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
Abstract
전자 장치 및 전자 장치의 제어 방법을 제공한다. 상기 전자 장치는, 복수의 카메라; 디스플레이; 메모리; 및 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서;를 포함한다. An electronic device and a method for controlling the electronic device are provided. The electronic device may include a plurality of cameras; display; Memory; and identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location, the identified camera while the electronic device is in the first location. Obtaining a first object image by photographing an object, identifying a transformation function corresponding to the second position based on the 3D image of the object and the second position, and identifying the first object image and the second position. and a processor for obtaining a second object image corresponding to the second position based on a conversion function and displaying the first object image and the second object image on the display.
Description
본 개시는 전자 장치에 관한 것으로, 보다 상세하게는, 카메라를 통해 촬영되는 객체에 관한 이미지를 기반으로, 카메라의 촬영 시점과는 다른 시점에서 획득될 수 있는 객체에 관한 복수의 이미지를 표시하는 전자 장치에 관한 것이다. The present disclosure relates to an electronic device, and more particularly, to an electronic device for displaying a plurality of images of an object that can be obtained at a different point of time from a point of time when the camera captures the object based on an image of the object captured through a camera. It's about the device.
모바일 산업이 발전함에 따라, 모바일 기기에 내장되는 카메라 모듈에 관한 기술도 함께 발전해왔다. 특히 스마트 폰이 본격적으로 보급된 2010년 이후부터 스마트 폰 시장의 성장세가 점점 둔화되고 있음에도 불구하고, 카메라 모듈에 관한 기술은 지속적으로 발전해왔다. 이러한 이유로 스마트 폰을 생산하는 각 기업에서는 스마트 폰의 차별화를 위한 마지막 단계로 스마트 폰에 탑재되는 카메라 모듈의 기술 차별화를 통해 스마트 폰의 차별화에 힘쓰고 있다. 예를 들어, 카메라 모듈에 TOF(Time of Flying) 센서, 라이더(Lidar) 센서 등과 같은 다양한 센서를 포함시켜 사용자가 카메라 모듈을 통해 객체에 대한 다양한 정보를 획득할 수 있도록 하였다. 또한 전면과 후면에 각각 하나의 카메라 모듈 만을 포함했던 종래 스마트 폰에서 벗어나, 화각에 따라 광각 렌즈, 표준 렌즈 및 망원 렌즈 등 다양한 렌즈를 카메라 모듈에 포함시킴으로써, 사용자가 하나의 스마트 폰 만으로 피사체에 대한 다양한 이미지를 획득할 수 있도록 하였다.As the mobile industry develops, technology related to camera modules embedded in mobile devices has also developed. In particular, since 2010, when smart phones were widely distributed, despite the fact that the growth rate of the smart phone market has gradually slowed down, technology related to camera modules has been continuously developed. For this reason, each company that produces smart phones is striving to differentiate their smart phones through technological differentiation of camera modules mounted on smart phones as the final step for differentiating their smart phones. For example, various sensors such as a Time of Flying (TOF) sensor and a Lidar sensor are included in the camera module so that the user can acquire various information about the object through the camera module. In addition, by moving away from the conventional smart phone that included only one camera module on the front and back, various lenses such as wide-angle lens, standard lens, and telephoto lens are included in the camera module according to the angle of view, so that the user can view the subject with only one smartphone. A variety of images were obtained.
그러나 이러한 카메라 모듈의 발전에도 불구하고, 여전히 카메라 모듈을 통한 피사체의 이미지 획득은 스마트 폰의 고정된 위치에서 만이 가능하다. 즉, 피사체에 대한 복수의 시점에서의 이미지를 동시에 획득하는 것은 여전히 불가능하다. 따라서 사용자들은 피사체를 촬영하기 위한 최적의 앵글을 찾기 위하여, 스마트 폰의 위치를 변경하고, 변경된 위치에서 촬영된 피사체의 이미지를 검토하는 과정을 반복해야만 한다. 특히 하나의 씬을 위해 다양한 시점에서의 촬영 영상을 필요로 하는 영화 촬영을 위해서는, 사용자가 매번 복수의 스마트 폰 또는 카메라와 같은 부가 장비를 마련해야만 한다. However, in spite of the development of the camera module, it is still possible to acquire an image of a subject through the camera module only at a fixed location of the smart phone. That is, it is still impossible to simultaneously acquire images of a subject from a plurality of viewpoints. Accordingly, users have to repeat the process of changing the position of the smart phone and reviewing the image of the subject captured at the changed position in order to find the optimal angle for photographing the subject. In particular, in order to shoot a movie that requires shooting images from various viewpoints for one scene, a user must prepare a plurality of smart phones or additional equipment such as a camera each time.
따라서 복수의 장치 없이도 하나의 카메라 모듈만으로 피사체에 대한 복수의 시점에서의 이미지를 제공할 수 있는 장치가 요구되는 실정이다. 만약 사용자가 피사체에 대한 복수의 시점에서의 촬영 이미지를 하나의 스마트 폰 만으로 동시에 제공받을 수 있다면, 상술한 과정을 반복할 필요가 없으며, 별도의 장비를 마련할 필요도 없기 때문이다. Therefore, there is a need for a device capable of providing images of a subject from a plurality of viewpoints using only one camera module without a plurality of devices. This is because if the user can simultaneously receive images captured from multiple viewpoints of the subject using only one smart phone, there is no need to repeat the above-described process or to prepare additional equipment.
본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 복수의 카메라 모듈 없이도, 오브젝트에 관한 복수의 시점에서의 촬영 이미지를 제공하는 전자 장치 및 그 제어 방법을 제공함에 있다.The present disclosure has been made to solve the above-described problems, and an object of the present disclosure is to provide an electronic device and a control method for providing captured images of an object from a plurality of viewpoints without a plurality of camera modules.
상기 목적을 달성하기 위한 본 개시의 일 면에 따른 전자 장치는, 복수의 카메라, 디스플레이, 메모리 및 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서를 포함한다. An electronic device according to an aspect of the present disclosure for achieving the above object is provided based on a plurality of cameras, a display, a memory, and a first location of the electronic device and a second location set based on the first location. One of the cameras is identified, and a first object image is obtained by capturing an object through the identified camera while the electronic device is in the first position, and a 3D image of the object and the second position are obtained. A transformation function corresponding to the second position is identified based on, a second object image corresponding to the second position is obtained based on the first object image and the transformation function, and the first object image and and a processor displaying the second object image on the display.
또한, 상기 프로세서는, 상기 복수의 카메라 각각의 화각을 식별하고, 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별한다. Also, the processor identifies an angle of view of each of the plurality of cameras, and identifies a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera.
또한, 상기 프로세서는, 상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하고, 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득한다. In addition, the processor captures the object from a plurality of viewpoints through the camera, obtains a plurality of object images corresponding to the plurality of viewpoints, and based on an object identified in each of the plurality of object images, Acquire a 3D image of an object.
또한, 상기 프로세서는, 상기 3차원 이미지에 기초하여, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득하고, 상기 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득하고, 상기 제1 객체 이미지에서 식별된 객체의 특징 점 및 상기 획득된 복수의 변환 행렬 중 상기 제1 객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다.In addition, the processor obtains coordinate values corresponding to feature points of objects identified at each of a plurality of viewpoints based on the 3D image, and generates a plurality of transformation matrices for conversion between the obtained plurality of coordinate values. Obtained, and based on a feature point of the object identified in the first object image and a transformation matrix corresponding to the feature point of the object identified in the first object image among the obtained plurality of transformation matrices, at the second position A corresponding second object image is acquired.
또한, 상기 메모리는, 입력된 객체 이미지에 기초하여 객체에 대한 3차원 이미지를 생성하도록 학습된 신경망 모델을 포함하고, 상기 프로세서는, 상기 제1 객체 이미지를 상기 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하고, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다.In addition, the memory includes a neural network model learned to generate a 3D image of an object based on an input object image, and the processor inputs the first object image to the neural network model to generate a 3D image of the object. A 3D image of the object is obtained, and a second object image corresponding to the second location is obtained based on the 3D image obtained through the neural network model.
또한, 상기 프로세서는, 상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득한다. In addition, the processor identifies a reference range for the object, and if the second location is included in the identified reference range, obtains the second object image based on the first object image and a transformation matrix; When the second position is not included in the identified reference range, the second object image is obtained based on the 3D image.
또한, 상기 프로세서는, 상기 식별된 카메라의 화각 정보에 기초하여 상기 기준 범위를 식별한다. Also, the processor identifies the reference range based on the identified information on the view angle of the camera.
또한, 상기 프로세서는, 상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득되면, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하고, 상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트한다. In addition, when a third object image is acquired by photographing the object at a location different from the first location through the camera, the processor may include an object not included in the first object image but included in the second object image. It identifies whether at least a part of is included in the third object image, and at least a part of the object is included in the third object image and at least a part of the object included in the third object image is the second object. If different from the image, the 3D image is updated based on the third object image.
또한, 상기 프로세서는, 상기 업데이트 된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시한다. Also, the processor obtains a second object image corresponding to the second location based on the updated 3D image, and displays the second object image on the display.
상기 목적을 달성하기 위한 본 개시의 다른 면에 따른 복수의 카메라를 포함하는 전자 장치를 제어하는 방법에 있어서, 상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하는 단계, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하는 단계, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하는 단계, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계 및 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 디스플레이에 표시하는 단계를 포함한다. In the method for controlling an electronic device including a plurality of cameras according to another aspect of the present disclosure for achieving the above object, based on a first position of the electronic device and a second position set based on the first position Identifying one camera among the plurality of cameras, acquiring a first object image by photographing an object through the identified camera while the electronic device is in the first location, and obtaining a 3D image of the object. and identifying a transform function corresponding to the second position based on the second position, obtaining a second object image corresponding to the second position based on the first object image and the transform function. and displaying the first object image and the second object image on a display.
또한, 상기 하나의 카메라를 식별하는 단계는, 상기 복수의 카메라 각각의 화각을 식별하는 단계 및 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는 단계를 포함한다. The identifying of the one camera may include identifying an angle of view of each of the plurality of cameras and identifying a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera. includes
또한, 상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하는 단계 및 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 포함한다. In addition, the step of acquiring a plurality of object images corresponding to the plurality of viewpoints by photographing the object from a plurality of viewpoints through the camera, and based on the object identified in each of the plurality of object images, information about the object is obtained. Acquiring a 3D image.
또한, 상기 변환 함수를 식별하는 단계는, 상기 3차원 이미지에 기초하여, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득하는 단계, 상기 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득하는 단계를 포함하고, 상기 제2 객체 이미지를 획득하는 단계는, 상기 제1 객체 이미지에서 식별된 객체의 특징 점 및 상기 획득된 복수의 변환 행렬 중 상기 제1 객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계를 포함한다. In addition, the step of identifying the conversion function may include obtaining coordinate values corresponding to feature points of the object identified at each of a plurality of viewpoints based on the 3D image, and converting between the obtained plurality of coordinate values. obtaining a plurality of transformation matrices for the first object image, wherein the obtaining of the second object image includes a feature point of an object identified in the first object image and the first object image of the obtained plurality of transformation matrices. and obtaining a second object image corresponding to the second position based on a transformation matrix corresponding to the feature point of the object identified in .
또한, 상기 제1 객체 이미지를 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 더 포함하고, 상기 제2 객체 이미지를 획득하는 단계는, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득한다. The method may further include acquiring a 3D image of the object by inputting the first object image to a neural network model, and the acquiring of the second object image may include the step of obtaining a 3D image of the object through the neural network model. A second object image corresponding to the second position is obtained based on the dimensional image.
또한, 상기 제2 객체 이미지를 획득하는 단계는, 상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득한다. The obtaining of the second object image may include identifying a reference range for the object, and if the second location is included in the identified reference range, the second location based on the first object image and a transformation matrix. A 2-object image is acquired, and if the second location is not included in the identified reference range, the second object image is acquired based on the 3-dimensional image.
또한, 상기 기준 범위는 상기 식별된 카메라의 화각 정보에 기초하여 식별된다. Also, the reference range is identified based on the identified information on the angle of view of the camera.
또한, 상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득하는 단계, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하는 단계 및 상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 단계를 포함한다. In addition, acquiring a third object image by photographing the object at a location different from the first location through the camera, at least a part of the object included in the second object image but not included in the first object image identifying whether is included in the third object image, and at least part of the object is included in the third object image and at least part of the object included in the third object image is identical to the second object image. In another case, updating the 3D image based on the third object image.
또한, 상기 제2 객체 이미지를 표시하는 단계는, 상기 업데이트된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시한다. In the displaying of the second object image, a second object image corresponding to the second location is acquired based on the updated 3D image, and the second object image is displayed on the display.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
상술한 본 개시에 의하면, 복수의 카메라 또는 카메라를 포함하는 복수의 전자 장치 없이도, 사용자는 실시간으로 카메라를 통해 촬영되는 객체에 대하여, 카메라의 촬영 위치와는 다른 복수의 위치에서의 해당 객체에 관한 이미지를 제공받을 수 있다. According to the present disclosure described above, without a plurality of cameras or a plurality of electronic devices including the cameras, the user can view the object photographed through the camera in real time at a plurality of positions different from the photographing position of the camera. Images can be provided.
이를 통해, 사용자는 해당 객체에 관한 복수의 위치에서의 촬영 이미지를 직관적으로 관찰할 수 있으며, 해당 객체를 촬영하기 위한 최적의 촬영 앵글을 결정할 수도 있다. Through this, the user can intuitively observe captured images in a plurality of positions of the corresponding object, and may determine an optimal capturing angle for capturing the corresponding object.
뿐만 아니라, 기 출력되어 메모리에 저장된 또는 출력 예정인, 복수의 위치에서의 해당 객체에 관한 이미지와 실제 촬영 이미지를 반복하여 비교하고, 실제 촬영 이미지를 통해 복수의 위치에서의 해당 객체에 관한 이미지를 업데이트 함으로써, 사용자는 보다 정확한 해당 객체에 관한 복수의 이미지를 제공받을 수 있다. In addition, iteratively compares an image of the corresponding object at a plurality of locations that has already been output and stored in memory or is scheduled to be output and an actual captured image, and updates the image of the corresponding object at a plurality of locations through the actually captured image. By doing so, the user can be provided with a plurality of more accurate images of the corresponding object.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은, 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 예시도이다.
도 2는, 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 구성도이다.
도 3은, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법의 개략적인 순서도이다.
도 4a는, 본 개시의 일 실시 예에 따른 제1 위치를 기준으로 제2 위치를 상대적으로 식별하는 것을 설명하기 위한 예시도이다.
도 4b는, 본 개시의 다른 실시 예에 따른 제1 위치와 제2 위치를 식별하는 것을 설명하기 위한 예시도이다.
도 5는, 본 개시의 일 실시 예에 따른, 객체에 대한 3차원 이미지에 기초하여, 제2 위치에 대응하는 변환 함수를 식별하는 방법을 개략적으로 나타낸 순서도이다.
도 6은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 관한 좌표 값을 기초로, 변환 행렬을 획득하고, 변환 행렬을 이용하여 제2 객체 이미지를 획득하는 전자 장치의 제어 방법에 관한 개략적인 순서도이다.
도 7은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 대응되는 좌표 값을 이용하여, 변환을 위한 변환 행렬을 획득하는 것을 나타낸 예시도이다.
도 8은, 본 개시의 일 실시 예에 따른 변환 행렬에 기초하여 제2 위치에 대응되는 객체 이미지를 획득하는 것을 나타낸 예시도이다.
도 9는, 본 개시의 일 실시 예에 따른 객체에 대한 3차원 이미지를 이용하여, 제2 객체 이미지를 획득하는 것을 나타낸 예시도이다.
도 10은, 본 개시의 일 실시 예에 따른 카메라에 설정된 화각 정보에 기초하여 기준 범위를 설정하고, 기준 범위에 따라 제2 객체 이미지 생성을 설명하기 위한 도면이다.
도 11은, 본 개시의 일 실시 예에 따른 제1 객체 이미지와 제2 객체 이미지를 디스플레이에 표시하는 예시도이다.
도 12는, 본 개시의 일 실시 예에 따른 제2 위치에서 획득된 객체의 이미지를 기초로, 객체에 대한 3차원 이미지를 업데이트하는 전자 장치의 제어 방법을 개략적으로 나타낸 순서도이다.
도 13a 및 도 13b는 업데이트된 3차원 이미지에 기초하여 제2 객체 이미지(30)를 표시하는 것을 나타낸 예시도이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성도이다. 1 is an exemplary view for explaining an electronic device according to an embodiment of the present disclosure.
2 is a schematic configuration diagram of an electronic device according to an embodiment of the present disclosure.
3 is a schematic flowchart of a method for controlling an electronic device according to an embodiment of the present disclosure.
4A is an exemplary diagram for explaining relatively identifying a second location based on a first location according to an embodiment of the present disclosure.
4B is an exemplary diagram for explaining identification of a first location and a second location according to another embodiment of the present disclosure.
5 is a flowchart schematically illustrating a method of identifying a transform function corresponding to a second position based on a 3D image of an object, according to an embodiment of the present disclosure.
6 is a schematic diagram of a control method of an electronic device for obtaining a transformation matrix based on coordinate values of feature points of an object and acquiring a second object image using the transformation matrix, according to an embodiment of the present disclosure; is a flow chart.
7 is an exemplary view illustrating obtaining a transformation matrix for transformation using coordinate values corresponding to feature points of an object according to an embodiment of the present disclosure.
8 is an exemplary view illustrating obtaining an object image corresponding to a second position based on a transformation matrix according to an embodiment of the present disclosure.
9 is an exemplary view illustrating obtaining a second object image using a 3D image of the object according to an embodiment of the present disclosure.
10 is a diagram for explaining setting a reference range based on view angle information set in a camera and generating a second object image according to the reference range, according to an embodiment of the present disclosure.
11 is an exemplary view of displaying a first object image and a second object image on a display according to an embodiment of the present disclosure.
12 is a flowchart schematically illustrating a control method of an electronic device for updating a 3D image of an object based on an image of the object acquired at a second location according to an embodiment of the present disclosure.
13A and 13B are exemplary diagrams illustrating displaying a
14 is a detailed configuration diagram of an electronic device according to an embodiment of the present disclosure.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have been selected from general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다. The expression at least one of A and/or B should be understood to denote either "A" or "B" or "A and B".
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module and implemented by at least one processor (not shown), except for "modules" or "units" that need to be implemented with specific hardware. It can be.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 예시도이다. 1 is an exemplary diagram for explaining an electronic device according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 따른 전자 장치(100)는 카메라(110)를 통해 촬영되는 객체에 관한 이미지를 디스플레이(120)에 표시한다. 전자 장치(100)는 전자 장치(100)가 위치한 지점에서 카메라(110)를 통해 객체를 바라보았을 때 획득되는 촬영 이미지를 디스플레이(120)에 표시한다. 다만, 본 개시의 일 실시 예에 따르면, 전자 장치(100)는 카메라(110)를 통해 획득되는 객체에 관한 촬영 이미지 이외에도, 전자 장치가 위치한 지점이 아닌 다른 위치에서 객체를 촬영했을 때 획득되는 이미지를 사용자에게 더 제공한다.The
구체적으로, 도 1을 참조하면, 현재 전자 장치(100)가 A 위치(11)에서 카메라를(110)를 이용하여 객체(200)를 촬영한다고 가정한다. 이때, 본 개시의 일 실시 예에 따르면, 전자 장치(100)는 A 위치(11) 이외의 B 위치(12) 또는 C 위치(13)에도 가상의 전자 장치(100-1, 100-2)가 존재한다고 가정하고, 가상의 전자 장치(100-1, 100-2)를 통해 객체(200)를 촬영하는 경우에 획득될 수 있는 촬영 이미지를 디스플레이에 표시한다. 즉, B 위치(12)에서 객체(200)를 촬영하는 경우 획득될 수 있는 객체(200)에 관한 측면 이미지와 C 위치(13)에서 객체(200)를 촬영하는 경우 획득될 수 있는 객체(200)에 관한 후면 이미지를, 전자 장치(100)의 카메라(110)를 통해 실시간으로 획득되는 객체(200)에 관한 정면 이미지와 함께 표시한다. 이를 통해, 사용자는 복수의 전자 장치(100) 없이도, 객체(200)에 관한 복수의 시점에서의 촬영 이미지를 동시에 관찰할 수 있을 것이다. Specifically, referring to FIG. 1 , it is assumed that the current
한편, 상술하여 설명한 전자 장치의 위치 이외의 다른 위치(B 위치(12) 및 C 위치(13))에서의 객체(200)에 관한 촬영 이미지는, 해당 객체를 촬영하는 경우 획득될 것으로 추정된 이미지를 의미한다. 이를 위해서 전자 장치(100)는 객체(200)에 관한 3차원 이미지(210)를 생성하고, 3차원 이미지(210)를 기초로 B 위치(12)와 C 위치(13))에서의 전자 장치(100)가 객체(200)를 촬영하는 경우 획득될 수 있는 이미지를 각각 추정한다. 이하 도 2 내지 도 14를 참조하여, 이와 관련된 본 개시의 일 실시 예에 대하여 구체적으로 설명하도록 한다. Meanwhile, the photographed images of the
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 구성도이다. 도 3은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법의 개략적인 순서도이다. 도 4a는 본 개시의 일 실시 예에 따른 제1 위치를 기준으로 제2 위치를 상대적으로 식별하는 것을 설명하기 위한 예시도이고, 도 4b는 본 개시의 다른 실시 예에 따른 제1 위치와 제2 위치를 식별하는 것을 설명하기 위한 예시도이다.2 is a schematic configuration diagram of an electronic device according to an embodiment of the present disclosure. 3 is a schematic flowchart of a method for controlling an electronic device according to an embodiment of the present disclosure. FIG. 4A is an exemplary view for explaining relatively identifying a second location based on a first location according to an embodiment of the present disclosure, and FIG. 4B is a view illustrating a first location and a second location according to another embodiment of the present disclosure. It is an exemplary diagram for explaining location identification.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 복수의 카메라(110), 디스플레이(120), 메모리(130) 및 프로세서(140)를 포함한다. Referring to FIG. 2 , an
본 개시의 일 실시 예에 따라, 전자 장치(100)는 복수의 카메라(제1 카메라(111), 제2 카메라(112), 제3 카메라(113))를 구비하되, 카메라(110)를 통해 획득되는 촬영 이미지를 표시할 수 있는 디스플레이(120)를 포함하는 전자 장치를 의미한다. 본 개시의 일 실시 예에 따라, 전자 장치(100)는 스마트 폰, 태블릿 PC, 디지털 카메라, 랩톱 컴퓨터 등으로 구현될 수 있다.According to an embodiment of the present disclosure, the
한편, 전자 장치(100)는 복수의 카메라((제1 카메라(111), 제2 카메라(112), 제3 카메라(113))를 포함한다. 복수의 카메라(110)는 객체(200)에 관한 촬영 이미지를 획득하기 위한 구성으로, 전자 장치(100)의 전면 또는 후면에 구비될 수 있으며, 복수의 카메라(111, 112, 113) 각각은 이미지 센서 및 렌즈를 포함할 수 있다. Meanwhile, the
여기에서, 각각의 카메라(111, 112, 113)에 포함된 렌즈들의 화각(Field of View, FOV)은 서로 상이할 수 있다. 예를 들어, 전자 장치(100)는 후면에 배치된 서로 다른 화각을 갖는 망원 렌즈(telephoto lens), 광각 렌즈(wide angle lens) 및 초 광각 렌즈(super wide angle lens)를 각각 포함하는 복수의 카메라(111, 112, 113)를 포함할 수 있다. 한편, 도 2에서는 제1 내지 제3 카메라를 포함하는 것으로 도시 되었으나, 본 개시에 따른 카메라의 개수와 그 유형에 특별한 제한이 있는 것은 아니다. Here, the field of view (FOV) of the lenses included in each of the
한편, 전자 장치(100)의 제어 어플리케이션(예를 들어, 촬영 어플리케이션 등)이 실행되거나, 실행된 어플리케이션 상에서 촬영과 관련된 제어 입력이 입력되면, 전자 장치(100)에 포함된 카메라(110)가 구동될 수 있다. 예를 들어, 사용자로부터 촬영 명령을 수신하면, 프로세서(140)는 카메라(110)를 제어하여 촬영을 실행하고, 특정 객체에 관한 이미지를 획득할 수 있다. 여기서 촬영 이미지는 동영상과 정지 영상 모두를 포함한다.Meanwhile, when a control application (eg, a photographing application) of the
디스플레이(120)는 다양한 화면을 표시할 수 있다. 예를 들어, 디스플레이(120)는 카메라(110)를 통해 촬영되는 이미지를 표시하거나, 카메라(110)를 통한 촬영 프로세서를 제어하는 UI(User Interface)를 표시할 수 있다. 뿐만 아니라, 디스플레이(120)는 카메라(110)를 통해 실시간으로 획득되는 이미지뿐만 아니라, 이미지에 포함된 객체에 관한 다른 시점에 상응하는 이미지를 표시할 수도 있다. 이에 관해서는 자세히 후술하도록 한다. The
디스플레이(120)는 LCD(Liquid Crystal Display) 패널, OLED(Organic Light Emitting Diodes) 패널, PDP(Plasma Display Panel) 패널, 무기 LED 패널, 마이크로 LED 패널 등 다양한 종류의 디스플레이 패널을 포함할 수 있으며, 이에 한정되는 것은 아니다. 한편, 디스플레이(120)는 터치 패널과 함께 터치스크린을 구성할 수도 있다.The
메모리(130)는 전자 장치(100)의 다양한 기능을 지원하는 정보를 저장할 수 있다. 예를 들어, 메모리(130)는 카메라(110)에 포함되는 복수의 렌즈의 화각 정보를 저장할 수 있다. 또한 메모리(130)는 전자 장치(100)의 구동 프로그램 및 다수의 어플리케이션 (application program) 또는 이들에서 사용되는 데이터들, 명령어들을 저장할 수 있다. 어플리케이션 중 적어도 일부는, 무선 통신을 통해 외부 서버(미도시)로부터 다운로드 될 수 있다. 또한 어플리케이션 중 적어도 일부는, 전자 장치(100)의 특성에 따른 기본적인 기능을 위하여 존재할 수 있다. 한편, 어플리케이션은, 메모리(130)에 저장되어 프로세서(140)에 의하여 전자 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다. The
프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(140)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.The
도 3을 참조하면, 본 개시의 실시 예에 따라, 프로세서(140)는 전자 장치의 제1 위치 및 제1 위치를 기초로 설정된 제2 위치에 기초하여 복수의 카메라 중 하나의 카메라를 식별한다(S310). Referring to FIG. 3 , according to an embodiment of the present disclosure, the
여기서 제1 위치는, 프로세서(140)가 실시간으로 복수의 카메라(111, 112, 113) 중 적어도 하나의 카메라를 이용하여 객체를 촬영하는 시점의 위치를 의미한다. 즉 제1 위치는, 전자 장치(100)의 위치에 해당할 수 있다. Here, the first position means a position when the
한편, 제2 위치는, 객체의 이미지를 획득하는 전자 장치(100)의 실시간 위치에 해당하는 제1 위치 이외의 위치로, 가상의 전자 장치의 위치를 의미한다. 구체적으로, 프로세서(140)는 카메라(110)를 이용하여 객체에 대한 촬영 이미지를 획득할 뿐만 아니라, 가상의 카메라를 통해 객체에 대한 다른 시점에서의 이미지를 획득할 수 있는데, 이때, 가상의 카메라의 위치가 제2 위치에 해당할 수 있다. 예를 들어, 도 1을 참조하면 전자 장치(100)가 이외의 가상의 전자 장치(100-1, 100-2)의 위치인, B 위치(12)와 C 위치(13)가, 제2 위치에 해당될 수 있다. Meanwhile, the second position is a position other than the first position corresponding to the real-time position of the
한편, 도 1에서는 본 개시의 이해를 위해 제2 위치가 두 곳으로 설정된 것으로 가정하여 설명하나, 제2 위치는 더 많거나 또는 더 적은 개수로 설정될 수 있음은 통상의 기술자 또한 명확히 이해할 수 있을 것이다.On the other hand, in FIG. 1, it is assumed that the second position is set to two places for understanding of the present disclosure, but the skilled person can clearly understand that the number of second positions can be set to more or less. will be.
본 개시의 실시 예에 따라, 프로세서(140)는 제1 위치를 식별한다. 그리고, 프로세서(140)는 제1 위치를 기초로 설정된 제2 위치를 식별한다. 도 1을 참조하면, 프로세서(140)는 전자 장치(100)의 실시간 위치를 식별하고, 가상의 전자 장치(100-1, 100-2)가 존재하는 것으로 식별되는 제2 위치(12, 13)를 식별할 수 있다. 예를 들어, 프로세서(140)는 전자 장치(100)에 포함된 GPS 센서(미도시)를 기반으로, WGS84 좌표 계 또는 경위도 좌표 계 상에서의 제1 위치에 대응하는 좌표 값을 식별하고, 제1 위치에 대응하는 좌표 값을 기초로, 제1 위치에 대응하여 설정된 제2 위치, 또는 제2 위치에 대응하는 좌표 값을 식별할 수 있다. According to an embodiment of the present disclosure, the
보다 구체적으로 프로세서(140)는 제1 위치, 즉 전자 장치(100)의 위치를 기준으로, 제1 위치에 대하여 상대적으로 설정된 제2 위치를 식별할 수 있다. 이를 위해 프로세서(140)는 먼저, 현재 전자 장치(100)의 위치를 식별한다. 그리고 프로세서(140)는 제1 위치를 기준으로 기 설정된 변위 각도와 기 설정된 변위 거리 등을 기초로, 제2 위치를 식별할 수 있을 것이다. 도 4a를 참조하면, 상술한 바와 같이, 제2 위치는 제1 위치를 기준으로 상대적으로 설정될 수 있다. 제1 위치는, 객체를 촬영하는 카메라(110)의 위치, 즉 전자 장치(100)의 위치에 해당한다. 이때, 제2 위치는 제1 위치를 기준으로 기 설정된 각도 및 거리의 위치로 설정될 수 있다. 도 4a를 참조하면, 제2 위치는, 제1 위치로부터 1) xy 평명 상에서 반 시계 방향의 수평 방향으로의 각도(a°) 와 2) z 축의 상측 방향의 수직 방향으로의 각도(b°)에 위치하도록 설정될 수 있다. 이때, 제1 위치, 즉 전자 장치(100)의 위치가 A(16)에서 A'(16-1)로 변경되면, 제2 위치 또한 B(18)에서 B'(18-1)로 변경된다. 따라서, 프로세서(140)는 전자 장치(100)의 위치가 변경됨에 따라 제1 위치의 변경을 감지하면, 제1 위치의 변경된 좌표 값과 제1 위치 변경에 따른 제2 위치의 변경된 좌표 값을 다시 식별해야 한다. More specifically, the
한편, 본 개시의 다른 실시 예에 따라, 도 4b를 참조하면, 프로세서(140)는 제1 위치를 기준으로 기 설정된 각도 및 거리의 위치에 위치한 제2 위치를 식별한 후 제1 위치의 변화와 무관하게 제2 위치를 고정된 위치에서 식별할 수 있다. 도 4b를 참조하면, 제2 위치는, 제1 위치로부터 1) 반 시계 방향의 수평 방향으로의 각도(a°) 와 2) 상위 방향의 수직 방향으로의 각도(b°)에 위치한다. 이때, 제1 위치, 즉 전자 장치(100)의 위치가 A(16)에서 A'(16-1)로 변경되더라도, 프로세서(140)는 제2 위치를 여전히 B(18)로 식별할 수 있다. 이 경우, 프로세서(140)는 제2 위치를 식별한 이후에는, 전자 장치(100)의 위치가 변경되어 제1 위치가 변화하더라도 제2 위치의 좌표 값을 다시 식별하지 않는다. Meanwhile, according to another embodiment of the present disclosure, referring to FIG. 4B , the
한편, 본 개시의 일 실시 예에 따라서, 프로세서(140)는 제1 위치 및 제2 위치를 식별하기 위하여, 카메라(110)를 통해 탐지된 객체(200)를 기준으로 기준 좌표 계를 설정할 수 있다. 보다 구체적으로 전자 장치에 포함된 TOF(Time of Flying) 센서(미도시) 등을 이용하여, 객체까지의 거리 정보(또는 깊이 정보)를 획득하고, 획득한 거리 정보를 기초로 객체의 위치를 기준으로 한 기준 좌표 계를 설정할 수 있다. 이때, 객체의 위치는 기준 좌표계의 원점에 해당할 수 있다. 그리고, 설정된 기준 좌표 계 내에서 프로세서(140)는 제1 위치, 즉 전자 장치(100)의 위치에 대응하는 좌표 값을 식별하고, 산출된 좌표 값에 기초하여 기 설정된 제2 위치에 대응하는 좌표 값을 식별할 수 있을 것이다. 즉, 프로세서(140)는 GPS 모듈(미도시)을 이용하여, WGS84 좌표 계 또는 경위도 좌표 계 상의 전자 장치(100)의 좌표 정보를 제1 위치에 관한 위치 정보로 획득할 수도 있으며, 또는 프로세서(140)는 카메라(110)를 통해 촬영된 객체에 관하여 설정된 기준 좌표 계 상의 전자 장치(100)의 좌표 정보를 제1 위치에 관한 위치 정보도 획득할 수도 있다. 그러나 이에 제한되는 것은 아니다. Meanwhile, according to an embodiment of the present disclosure, the
다시 도 3을 참조하면, 본 개시의 일 실시예에 따라, 프로세서(140)는 제1 위치와 제1 위치를 기초로 설정된 제2 위치를 식별한 후, 제2 위치에 기초하여 복수의 카메라 중 하나의 카메라를 식별한다(S320). 즉, 프로세서(140)는 식별된 제2 위치에 기초하여, 복수의 카메라 중 객체를 촬영하기 위하여 이용되는 하나의 카메라를 선택할 수 있다. Referring back to FIG. 3 , according to an embodiment of the present disclosure, the
이를 위해, 본 개시의 일 실시 예에 따라, 프로세서(140)는 복수의 카메라 각각의 화각 정보를 이용할 수 있다. 여기서 화각 정보는, 각각의 카메라에 포함된 각각의 렌즈의 촬영 범위를 의미한다. 프로세서(140)는 복수의 카메라 중 제2 위치를 포함하는 화각에 대응하는 카메라를 하나의 카메라로 식별할 수 있다. 상술한 바와 같이, 전자 장치(100)에 포함된 복수의 카메라의 화각은 서로 다르게 설정될 수 있다. 따라서, 프로세서(140)는 제2 위치를 식별한 후, 객체에 대한 각각의 카메라의 화각 범위를 식별한다. 그리고, 각각의 카메라의 화각 범위에 제2 위치가 포함되었는지 식별한다. 그리고, 프로세서(140)는 제2 위치를 포함하는 화각에 대응하는 카메라를 하나의 카메라로 식별하고, 식별된 하나의 카메라를 이용하여 이후 객체에 대한 이미지를 획득할 수 있을 것이다. To this end, according to an embodiment of the present disclosure, the
한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 객체에 대하여 설정된 기준 좌표 계를 기반으로, 제2 위치를 포함하는 화각에 대응하는 카메라를 식별할 수도 있을 것이다. 구체적으로, 프로세서(140)는 객체에 대하여 설정된 기준 좌표 계 내에서 제2 위치(또는 제2 위치에 대응하는 기준 좌표 계 내에서의 좌표 값)와 객체에 대한 각각의 카메라(110)의 화각 범위를 식별한다. 그리고, 프로세서(140)는 제2 위치를 포함하는 화각 범위를 식별하고, 식별된 화각 범위 또는 화각에 대응하는 카메라를 하나의 카메라로 식별할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the
다시 도 3을 참조하면, 프로세서(140)는 하나의 카메라를 식별한 후에는, 식별된 하나의 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득한다(S330). 구체적으로, 프로세서(140)는 디스플레이(120) 또는 인터페이스를 통해 카메라(110)를 동작 시키는 사용자 입력이 입력되거나, 또는 제1 객체 이미지 획득에 관하여 기 설정된 조건(예를 들어, 객체에 대하여 기 설정된 초점 거리 및/또는 각도)이 충족된 것으로 식별되면, 전자 장치가 제1 위치에 있는 동안, 객체를 촬영하여 제1 객체 이미지를 획득한다. Referring back to FIG. 3 , after identifying one camera, the
여기서 제1 객체 이미지란, 프로세서(140)가 식별된 하나의 카메라(110)를 이용하여 객체를 촬영한 후 실시간으로 획득하는 이미지를 의미한다. 한편, 제1 객체 이미지(20)는 복수의 이미지를 포함할 수 있다. 예를 들어, 프로세서(140)가 카메라(110)를 이용하여 객체(200)에 관한 동영상 촬영을 하는 경우에는, 제1 객체 이미지(20)는 각각의 프레임에 상응하는 이미지를 복수 개 포함할 수 있다. Here, the first object image refers to an image obtained in real time after the
이때, 프로세서(140)가 획득한 제1 객체 이미지(20)에는 제1 위치에 관한 위치 정보가 포함될 수 있다. 예를 들어, 도 1을 참조하면, A 위치(11)에서 프로세서(140)가 카메라(110)를 이용하여 객체를 촬영하는 경우, 제1 위치는 A 위치(11)에 해당한다. 이때, 프로세서(140)가 카메라(110)를 이용하여 획득한, 제1 객체 이미지(20) 데이터에는 A 위치(11)에 관한 위치 정보가 메타 데이터로 포함될 수 있다. In this case, the
한편, 본 명세서에서 제2 객체 이미지(30)는 제2 위치에서 획득될 수 있는 객체에 대한 이미지를 말한다. 카메라를 통해 획득되는 제1 객체 이미지와는 달리, 제2 객체 이미지(30)는 제2 위치에서의 가상의 전자 장치에 의해 획득 것으로 추정되는 객체에 관한 이미지이다. 제2 객체 이미지(30)는 실시 예에 따라서, 제1 객체 이미지를 이용하여 생성될 수 있다.Meanwhile, in this specification, the
다시 도 3을 참조하면, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제1 객체 이미지를 획득한 후, 객체에 대한 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별한다(S330). 그리고, 제1 객체 이미지와 식별된 변환 함수에 기초하여 제2 위치에 대응되는 제2 객체 이미지를 획득한다(S340).Referring back to FIG. 3 , according to an embodiment of the present disclosure, the
먼저, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제2 위치에 대응되는 변환 함수를 식별하기 위하여. 객체에 대한 3차원 이미지를 생성하고, 생성된 3차원 이미지에 기초하여 제2 위치에 대응되는 변환 함수를 식별할 수 있다. 이하, 이와 관련한 본 개시에 대하여 설명하도록 한다. First, according to an embodiment of the present disclosure, the
도 5는, 본 개시의 일 실시 예에 따른, 객체에 대한 3차원 이미지에 기초하여, 제2 위치에 대응하는 변환 함수를 식별하는 방법을 개략적으로 나타낸 순서도이다. 5 is a flowchart schematically illustrating a method of identifying a transform function corresponding to a second position based on a 3D image of an object, according to an embodiment of the present disclosure.
도 5를 참조하면, 본 개시의 일 실시 예로, 프로세서(140)는 복수의 카메라 중 하나의 카메라를 식별(S311)한 후, 식별된 카메라(110)를 통해 복수의 시점에서 객체(200)를 촬영하여, 복수의 시점에 대응되는 복수의 객체 이미지를 획득할 수 있다(S312). 그리고 프로세서(140)는 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수 있다(S313).Referring to FIG. 5 , according to an embodiment of the present disclosure, the
구체적으로, 프로세서(140)는 다양한 위치에서의 객체(200)에 대한 복수의 이미지를 획득한다. 즉, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)를 생성하기 위하여, 객체에 관한 복수의 스캔 데이터로서, 복수의 이미지를 획득할 수 있다. 이때, 프로세서(140)는 객체에 대하여 기 설정된 카메라(110)의 초점 거리 및/또는 카메라(110)에 포함된 렌즈(111) 왜곡과 같은 매개 변수를 입력으로 복수의 시점에서의 객체(200)의 이미지를 획득할 수 있을 것이다. 예를 들어, 프로세서(140)는 객체(200)에 대한 카메라(110)의 동일한 초점 거리 또는 기 설정된 오차 범위 내의 초점 거리 조건이 충족되면, 객체(200)에 대한 촬영 이미지를 획득할 수 있다. Specifically, the
또한, 본 개시의 일 실시 예에 따라, 프로세서(140)는 사용자에게 객체에 대한 복수의 이미지를 촬영하도록 가이드하는 UI를 디스플레이 상에 표시할 수도 있다. 예를 들어, 프로세서(140)는 식별된 하나의 카메라(110)를 통해 객체가 감지되면, 객체에 대하여 설정된 기준 좌표 계를 설정하고, 설정된 기준 좌표 계 내에서 복수의 위치(예를 들어, 서로 다른 방향)에서 객체를 촬영하도록 가이드하는 UI를 디스플레이(110) 상에 표시할 수 있을 것이다. 그리고, 프로세서(140)는 객체에 대하여 기 설정된 개수(보다 구체적으로, 3차원 이미지 생성을 위해 필요한 이미지 개수)의 이미지가 획득된 것으로 식별되면, 디스플레이(110) 상에 표시된 UI를 종료 시킨다. Also, according to an embodiment of the present disclosure, the
한편, 프로세서(140)는 복수의 시점에 대응되는 복수의 객체 이미지를 획득한 후, 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수 있다(S313). 구체적으로, 프로세서(140)는 삼각 측량법(triangulation)에 기초하여 복수의 이미지로부터 객체(200)에 대한 3차원 이미지(210)를 생성할 수 있다. 이때, 프로세서(140)는 객체(200)에 대하여 복수의 시점에 대응하는 복수의 이미지에 대한 켈리브레이션(calibration) 과정을 수행하고, 켈리브레이션 과정의 결과에 기초하여, 객체(200)에 관한 3차원 이미지 정보를 획득할 수 있다. 이를 위해, 메모리(130)에는 복수의 이미지를 이용하여 객체(200)에 관한 3차원 이미지(210)를 생성하기 위하여, MeshLab, netfabb, MeshMixer 등의 프로그램을 저장될 수 있으며. 프로세서(140)는 저장된 3차원 이미지 생성 프로그램을 이용하여 객체(200)에 관한 3차원 이미지(210)를 생성할 수 있다. Meanwhile, the
한편, 프로세서(140)는 카메라를 통해 객체를 식별하기 위하여 딥 러닝 기반의 객체 탐지 모델(이하, 딥 러닝 기반의 제1 모델)을 이용할 수 있다. 딥 러닝 기반의 객체 탐지 모델은, RCNN 모델, FRCNN모델 또는 YOLO 모델 등을 포함할 수 있다. 예를 들어, 프로세서(140)는 메모리(130)에 저장된 RCNN 모델, FRCNN 모델 또는 YOLO 모델 중 어느 하나에, 복수의 객체 이미지 중 적어도 하나의 객체 이미지를 입력함으로써, 각각의 객체 이미지에 포함된 객체를 탐지할 수 있다. Meanwhile, the
한편, 도 5에서는, 프로세서(140)가 제1 객체 이미지를 획득하기에 앞서, 객체에 대한 3차원 이미지를 획득하는 것으로 도시 되었다. 다만, 본 개시의 일 실시 예에 따라서는, 프로세서(140)는 제1 객체 이미지를 획득한 후 제1 객체 이미지를 포함하는, 복수의 이미지를 기초로 객체에 대한 3차원 이미지를 획득할 수도 있을 것이다. Meanwhile, in FIG. 5 , it is shown that the
또한, 본 개시의 다른 실시 예로, 프로세서(140)는 제1 객체 이미지를 딥 러닝 기반의 3차원 이미지 생성 모델에 입력하여 객체에 대한 3차원 이미지를 획득할 수도 있을 것이다. 이에 관해서는 자세히 후술하도록 한다. Also, as another embodiment of the present disclosure, the
프로세서(140)는 제1 객체 이미지(20)를 신경망 모델(이하, 딥 러닝 기반의 제2 모델)에 입력하여, 객체(200)에 대한 3차원 이미지(210)를 획득할 수도 있다. 이때, 신경망 모델은, 딥 러닝 기반의 3차원 이미지의 생성 모델을 포함한다. 딥 러닝 기반의 3차원 이미지의 생성 모델은, 특정 객체에 관한 적어도 하나의 2차원 이미지가 입력되면, 입력된 적어도 하나의 2차원 이미지에 기반하여 특정 객체에 대한 하여 3차원 이미지(210)를 추정하여 생성하도록 학습된 신경망 모델을 말한다. 이때, 메모리(130)에는 딥 러닝 기반의 3차원 이미지의 생성 모델이 기 저장될 수 있다. The
3차원 이미지(210) 획득을 위해 이용되는 딥 러닝 기반의 제1 모델은, 각각의 객체의 2차원 이미지가 입력되면 해당 객체의 3차원 이미지(210)가 출력되도록 기 학습될 수 있다. 본 개시의 일 실시 예에 따라, 신경망 모델은 딥 러닝 기반의 GAN(Generative Adversarial Network) 모델일 수 있다. 이때, GAN 모델은 각각의 객체에 관한 2차원 이미지와 3차원 이미지(실제 데이터)를 기반으로 학습된다. 구체적으로, 프로세서(140)가 특정 객체에 관한 2차원 이미지를 입력하면, 생성 모델(Generator)에 의해 2차원 이미지를 기반으로 해당 객체에 관한 3차원 이미지(210)가 생성되고, 판별 모델(Discriminator)이 해당 객체에 관한 실제 데이터에 해당하는, 3차원 이미지(210)와 생성 모델에 의해 생성된 3차원 이미지(210)를 판별한다. 이때, 판별 모델 실제 데이터의 3차원 이미지와 생성 모델에 의해 생성된 3차원 이미지(210)를 구별하면, 생성 모델의 시냅스 가중치를 보정한다. 반면에, 특정 객체에 대해, 판별 모델이 실제 데이터에 해당하는 3차원 이미지와 생성 모델에 의해 생성된 3차원 이미지(210)를 판별하지 못하는 경우에는 해당 객체에 대한 학습을 종료한다. The first model based on deep learning used to acquire the
이와 같이, 복수의 객체에 대한, 3차원 이미지(210) 생성의 사전 학습이 완료된 모델에 기초하여 프로세서(140)는 2차원 이미지인 제1 객체 이미지(20)만으로, 제1 객체 이미지(20)에 포함된 객체(200)에 관한 3차원 이미지(210)를 생성할 수 있을 것이다.In this way, based on the model for which the three-
한편, 본 개시의 일 실시 예에 따라, 복수의 이미지를 획득하기 위하여, 프로세서(140)는 카메라(110)를 통해 객체(200)를 감지하고, 객체(200)에 관한 트래킹(Tracking)을 수행할 수도 있다. 예를 들어, 프로세서(140)는 전자 장치(100)에 포함된 라이더 센서(Lidar Sensor)(미도시)를 이용하여, 카메라를 통해 획득되는 복수의 이미지에 포함된 객체(200)에 관한 클라우드 데이터를 생성한다. 그리고, 프로세서(140)는 클라우드 데이터 내 객체(200)를 포함하는 관심 영역(ROI, Region of Interest)를 설정할 수 있다. 이후, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)와 클라우드 데이터를 정합(Registration)하여, 전자 장치(100) 또는 객체(200)의 위치가 변경되더라도 지속적으로 객체(200)를 트래킹 할 수 있다. Meanwhile, according to an embodiment of the present disclosure, in order to acquire a plurality of images, the
이하에서는, 도 6 내지 도 8을 참조하여, 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별하는 본 개시의 일 실시 예에 대하고 구체적으로 설명하도록 한다. Hereinafter, with reference to FIGS. 6 to 8 , an embodiment of the present disclosure for identifying a transform function corresponding to a second position based on a 3D image and a second position will be described in detail.
상술한 바와 같이, 본 개시의 일 실시 예에 따라, 프로세서(140)는 3차원 이미지와 제2 위치에 기초하여, 제2 위치에 대응되는 변환 함수를 식별한다. 여기서, 변환 함수는, 제1 위치에서 획득된 제1 객체 이미지(20)를 제2 개체 이미지로 변환하는 함수를 의미하며, 변환 함수는 변환 행렬을 포함할 수 있다.As described above, according to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 따라, 프로세서(140)는 전자 장치의 위치인 제1 위치를 기준으로, 제2 위치의 변위 각도를 산출하고, 산출된 변위 각도에 대응되는 변환 함수를 식별한다. 또는 프로세서(140)는 전자 장치의 위치인 제1 위치를 기준으로, 제2 위치의 변위 거리를 산출하고, 산출된 변위 거리에 대응되는 변환 함수를 식별한다. 예를 들어, 프로세서(140)는 3차원 이미지(210)를 기초로, 제1 위치(예를 들어, 제1 위치의 좌표 값)와 제2 위치(제2 위치의 좌표 값) 간의 상관 관계를 식별하고, 식별된 상관 관계에 기초하여 제1 객체 이미지를 제2 위치에 대응되는 제2 객체 이미지(30)로 변환하기 위한 변환 함수를 식별할 수 있다.According to an embodiment of the present disclosure, the
도 6은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 관한 좌표 값을 기초로, 변환 행렬을 획득하고, 변환 행렬을 이용하여 제2 객체 이미지를 획득하는 전자 장치의 제어 방법에 관한 개략적인 순서도이다. 6 is a schematic diagram of a control method of an electronic device for acquiring a transformation matrix based on coordinate values of feature points of an object and obtaining a second object image using the transformation matrix, according to an embodiment of the present disclosure; is a flow chart.
한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 객체에 대한 3차원 이미지에 기초하여 변환 함수를 식별할 수도 있다. 구체적으로, 도 6을 참조하면, 프로세서(140)는, 3차원 이미지(210)에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 제1 위치에서 식별된 특징 점에 대응되는 제1 좌표 값을 획득한다 (S331). 그리고, 프로세서(140)는 3 차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 제2 위치에서 식별된 특징 점에 대응되는 제2 좌표 값을 획득하고(S332), 제1 좌표 값과 제2 좌표 값에 기초하여, 제2 위치에 대응되는 변환 행렬을 식별(S333)할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the
먼저, 프로세서(140)는, 객체에 대한 3차원 이미지(210)를 기초로, 복수의 시점 각각에서 식별되는 객체의 특징 점에 대응되는 좌표 값을 획득한다. 예를 들어, 해리스 코너 검출(Harris Corner Detect) 방법을 통해, 프로세서는 복수의 시점 각각에서 식별되는 객체의 특징 점을 검출한 후 각각의 특징 점에 관한 좌표 값을 획득할 수 있을 것이다. 또는 전자 장치(100)에 포함된 라이더 센서(미도시)를 이용하여 객체(200)의 특징 점을 검출할 수도 있을 것이다. 이때, 좌표 값은 상술하여 설명한 프로세서(140)에 의해 설정된 기준 좌표계 또는 WGS84 좌표계, 경위도 좌표계 상에서 획득될 수 있을 것이다. First, the
한편, 객체의 특징 점에 대응되는 좌표 값을 획득하기 위하여, 프로세서(140)는 3차원 이미지(210)를 획득하는데 이용된 복수의 시점에 대응되는 복수의 객체 이미지를 이용할 수 있다. 이때, 복수의 시점은 제1 위치 및/또는 제2 위치를 포함할 수 있다. 즉, 객체에 대한 3차원 이미지(210)를 획득하기 위하여, 프로세서(140)가 카메라(110)를 통해 제1 위치 및/또는 제2 위치를 포함하는 복수의 시점에서 객체(200)를 촬영하는 경우, 복수의 시점에 대응되는 복수의 객체 이미지 내에는 객체(200)의 특징 점에 대한 정보가 포함될 수 있다. 그리고 프로세서(140)는 각각의 객체 이미지 내에서 특징 점에 대응되는 좌표 값을 획득할 수 있다. Meanwhile, in order to obtain coordinate values corresponding to feature points of the object, the
프로세서(140)는, 복수의 시점 각각에서 식별된 객체의 특징 점에 대응되는 좌표 값을 획득(S351)한 후, 획득된 복수의 좌표 값 간의 변환을 위한 복수의 변환 행렬을 획득한다(S352). 이때, 복수의 변환 행렬은 제2 위치에 대응되어 생성된다. The
도 7은, 본 개시의 일 실시 예에 따른 객체의 특징 점에 대응되는 좌표 값을 이용하여, 변환을 위한 변환 행렬을 획득하는 것을 나타낸 예시도이다. 7 is an exemplary view illustrating obtaining a transformation matrix for transformation using coordinate values corresponding to feature points of an object according to an embodiment of the present disclosure.
도 7을 참조하면, 프로세서(140)는 제1 위치에서 획득한 이미지에 포함된 객체(200)에 대하여 8개의 특징 점(a1 내지 a8)를 검출하였다. 그리고 프로세서(140)는 제2 위치에서 획득한 이미지에 포함된 객체(200)에 대하여 8개의 특징 점(b1 내지 b8)을 검출하였다. 프로세서(140)는 a1 내지 a8의 특징 점의 좌표 값과 b1 내지 b8의 특징 점의 좌표 값을 이용하여, 제1 위치에서의 이미지를 제2 위치에서의 이미지로 변환하기 위한 변환 행렬(T1)을 획득할 수 있다. 구체적으로, a1 내지 a8의 특징 점의 좌표 값과 a1 내지 a8의 특징 점 각각에 대응되는 b1 내지 b8의 특징 점의 좌표 값을 기초로, 제1 위치에서의 이미지를 제2 위치에서의 이미지로 변화하는 변환 행렬을 산출할 수 있을 것이다. 한편, 도 7에서는 하나의 제2 위치에 대한 변환 행렬을 획득하는 것으로 설명하였으나, 복수의 제2 위치가 설정된 경우에는 각각의 제2 위치에 대응하는 각각의 변환 행렬을 획득할 것이다. Referring to FIG. 7 , the
도 8은, 본 개시의 일 실시 예에 따른 변환 행렬에 기초하여 제2 위치에 대응되는 객체 이미지를 획득하는 것을 나타낸 예시도이다. 8 is an exemplary view illustrating obtaining an object image corresponding to a second position based on a transformation matrix according to an embodiment of the present disclosure.
다시 도 3을 참조하면, 본 개시의 일 실시 예에 따라, 프로세서(140)는 식별된 변환 함수에 기초하여 제1 객체 이미지를 제2 객체 이미지로 변환하여, 제2 위치에 대응되는 제2 객체 이미지(30)를 획득한다. 구체적으로, 프로세서(140)는 변환 함수를 기초로, 제1 객체 이미지의 픽셀 값을 변환함으로써 제2 객체 이미지(30)를 생성할 수 있다. 도 8을 참조하면, 프로세서(140)는 객체(200)의 정면, 우측 면 및 상부 면이 관찰되는 제1 객체 이미지(20)에 변환 행렬(T1)을 적용하여, 객체(200)의 우측면이 확장되어 보이는 제2 객체 이미지(30)를 획득할 수 있다.Referring back to FIG. 3 , according to an embodiment of the present disclosure, the
다만, 이에 제한되는 것은 아니며, 프로세서(140)는 3차원 이미지(210)로부터 제2 객체 이미지(30)를 생성할 수도 있다. 즉, 제2 위치에서 객체(200)를 촬영하는 경우 획득 가능한 이미지는, 기 생성된 객체(200)의 3차원 이미지(210)로부터 획득될 수 있다. 구체적으로, 프로세서(140)는 객체(200)의 3차원 이미지를 제2 위치에서 캡쳐하여, 제2 위치에 대응되는 제2 객체 이미지를 획득할 수도 있다. 이를 위해, 프로세서(140)는 객체(200)에 관한 3차원 이미지(210)를 카메라(110)를 통해 인식되는 제1 객체 이미지(20)내 객체와 정합하는 과정을 수행할 수 있다. 예를 들어, 프로세서(140)는 객체에 대한 기준 좌표 계와 객체의 3차원 이미지에 대한 기준 좌표 계를 동기화할 수 있다. 그리고, 기준 좌표 계 내에서 제2 위치에 해당하는 지점에서, 객체의 3차원 이미지를 캡쳐함으로써, 객체에 대한 제2 위치에 대응되는 제2 객체 이미지를 획득할 수 있다. However, it is not limited thereto, and the
도 9는, 본 개시의 일 실시 예에 따른 객체에 대한 3차원 이미지를 이용하여, 제2 객체 이미지(30)를 획득하는 것을 나타낸 예시도이다. 9 is an exemplary view illustrating obtaining a
도 9를 참조하면, 제1 위치가 A이고 제2 위치가 B라고 가정한다. 이때, 제2 객체 이미지(30)는, 프로세서(140)가 기준 좌표 계 내 객체의 3차원 이미지(210)를 B에서 카메라(110)를 통해 촬영했을 때, 획득될 수 있는 이미지를 의미한다. 즉, 제2 객체 이미지(30)는, 객체(200)의 3차원 이미지(210)를 일 부분을 캡쳐(Capture)한 이미지일 수 있다. Referring to FIG. 9 , it is assumed that the first position is A and the second position is B. At this time, the
이를 위해, 앞서 설명한 바와 같이, 프로세서(140)는 기준 좌표 계 상에서 객체(200)와 객체에 대한 3차원 이미지(210)를 정합하는 과정을 수행할 수 있다. 그러나 이에 제한되는 것은 아니며, 정합 과정 없이, 프로세서(240)는 객체(200)와 객체에 대한 3차원 이미지(210)에 적용되는 기준 좌표 계를 일치시킴으로써, 객체에 대한 3차원 이미지(210)에 대한 제2 위치에 대응되는 제2 객체 이미지(30)를 획득할 수 있을 것이다. 즉, 프로세서(140)는 변환 함수를 이용하여 제2 객체 이미지(30)를 획득하는 것과는 달리, 3차원 이미지(210)를 이용하여 제2 객체 이미지(30)를 획득하는 경우에는 제1 객체 이미지를 이용하지 않을 수 있다.To this end, as described above, the
또한, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제1 객체 이미지에 변환 함수를 적용하여 획득한 제2 객체 이미지(이하, 제2-1 객체 이미지)와 3차원 이미지를 통해 획득한 제2 객체 이미지(이하, 제2-2 객체 이미지)를 합성하여 최종적으로 제2 위치에 대응되는 제2 객체 이미지를 획득할 수도 있다. In addition, according to an embodiment of the present disclosure, the
한편, 본 개시의 일 실시 예에 따라서 제2 위치는 사용자의 입력에 의하여 변경될 수 있다. 구체적으로, 프로세서(140)는 디스플레이(120) 또는 인터페이스를 통해 사용자가 제2 위치를 변경 시키면, 제2 위치를 식별한 후 변경된 제2 위치에 대응되는 제2 객체 이미지(30)를 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the second location may be changed by a user's input. Specifically, when the user changes the second position through the
이를 위해, 본 개시의 일 실시 예에 따라서 프로세서(140)는 제1 위치 및 제1 위치에 대한 제2 위치의 각도 변화 값과 변위 변화 값을 산출하고, 산출된 각도 변화 값과 변위 변화 값에 기초하여 변환 행렬을 업데이트 할 수 있다. 예를 들어, 제1 위치를 기준으로 제2 위치를 식별한 후 제2 위치를 기초로, 3차원 공간 에서의 각도 변화 값을 산출하고, 산출된 각도 변화 값에 기초하여 회전 변환 행렬을 획득할 수 있다. To this end, according to an embodiment of the present disclosure, the
한편, 프로세서(140)는 변환 행렬을 획득한 이후, 제1 객체 이미지(20)에서 식별된 객체의 특징 점 및 획득된 복수의 변환 행렬 중 제1 객체 이미지(20)에서 식별된 객체의 특징 점에 대응되는 변환 행렬에 기초하여, 제2 위치에 대응되는 제2 객체 이미지를 획득한다(S331_c). 제 1객체 이미지에서 식별된 객체의 특징 점에 대응되는 변환 행렬은, 앞서 설명한 제1 위치에 대응되는 이미지를 제2 위치에 대응되는 이미지로 변환하기 위한 행렬을 의미한다. Meanwhile, after acquiring the transformation matrix, the
한편, 본 개시의 일 실시 예에 따라, 프로세서(140)는 제2 위치에 따라서 제2 객체 이미지(30)를 획득하는 방법을 다르게 적용할 수 있다. 구체적으로, 프로세서(140)는 복수의 카메라 중 제2 위치에 기초하여 식별된 하나의 카메라의 화각 정보를 식별한다. 그리고 프로세서(140)는 식별된 화각 정보에 기초하여 객체에 대한 카메라의 기준 범위를 식별한다. 그리고 프로세서(140)는 기준 범위에 기초하여 제2 위치를 식별하고, 제2 위치가 식별된 기준 범위에 포함되면, 제1 객체 이미지와 변환 행렬에 기초하여 제2 객체 이미지(30)를 획득하고, 제2 위치가 식별된 기준 범위에 포함되지 않으면, 복수의 객체 이미지에 기초하여 획득한 객체에 대한 3차원 이미지 또는 신경망 모델(딥 러닝 기반의 3차원 이미지 생성 모델)을 통해 획득된 3차원 이미지(210)에 기초하여 제2 객체 이미지(30)를 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the
여기서 기준 범위란, 카메라를 통해 획득될 수 있는 객체의 한계 범위를 의미한다. 이때, 기준 범위는 카메라에 포함된 각각의 렌즈의 화각 범위에 대응하여 설정될 수 있다. 예를 들어, 렌즈의 화각이 120°라고 가정할 때, 기준 범위는 객체를 기준으로, 전자 장치에 대하여 120°로 설정될 수 있다. Here, the reference range means a limit range of an object that can be acquired through a camera. In this case, the reference range may be set to correspond to the angle-of-view range of each lens included in the camera. For example, assuming that the angle of view of the lens is 120°, the reference range may be set to 120° for the electronic device based on the object.
도 10은 본 개시의 일 실시 예에 따른 카메라에 설정된 화각 정보에 기초하여 기준 범위를 설정하고, 기준 범위에 따라 제2 객체 이미지 생성을 설명하기 위한 도면이다. 10 is a diagram for explaining setting a reference range based on view angle information set in a camera and generating a second object image according to the reference range, according to an embodiment of the present disclosure.
구체적으로, 도 10을 참조하면, 프로세서(140)가 제2 위치에 기초하여 식별된 하나의 카메라의 화각 정보(예를 들어, 120°)를 식별하고, 식별된 화각 정보에 기초하여 객체에 대한 카메라의 기준 범위를 120°라고 식별하였다고 가정한다. 이때, 프로세서(140)는 B에 위치한 제2 위치(12)는 식별된 기준 범위에 포함하는 것으로 식별한다. 다만, 프로세서(140)는 C에 위치한 제2 위치(13)는 기준 범위에 포함되지 않는 것을 식별한다. 이때, 프로세서(140)는 B에 위치한 제2 위치에 대응하는 제2 객체 이미지(30)의 경우 제1 객체 이미지에 변환 행렬을 적용하여 생성하고, C에 위치한 제2 위치에 대응하는 제2 객체 이미지(30)의 경우 3차원 이미지(210)를 이용하여 생성한다. Specifically, referring to FIG. 10 , the
도 11은 본 개시의 일 실시 예에 따른 제1 객체 이미지와 제2 객체 이미지(30)를 디스플레이에 표시하는 예시도이다. 11 is an exemplary view of displaying a first object image and a
다시 도 3을 참조하면, 프로세서(140)는 제2 객체 이미지(30)를 획득한 후, 제1 객체 이미지(20)와 제2 객체 이미지(30)를 디스플레이(120)에 표시한다(S350). Referring back to FIG. 3 , after acquiring the
도 11을 참조하면, 디스플레이(120)는 실시간으로 카메라(110)를 통해 획득되는 제1 객체 이미지(20)가 표시될 뿐만 아니리, 제2 위치에 대응되는 제2 객체 이미지(30)가 동시에 표시된다. 이를 통해, 사용자는 하나의 카메라(110)를 이용하여, 특정 객체에 대한 복수의 시점에서의 촬영 이미지를 제공받을 수 있으며, 해당 객체를 촬영하기 위한 최적의 촬영 시점, 각도, 위치 등을 신속하게 결정할 수 있다. Referring to FIG. 11 , the
한편, 제2 객체 이미지(30)는 제1 객체 이미지(20)와 객체에 대한 3차원 이미지(210)를 기반으로 추정된 이미지이므로, 실제 제2 위치에서 객체를 촬영하여 획득한 이미지와는 차이가 있을 수 있다. 이 경우, 사용자에게 제공됐거나, 제공될 예정인 제2 객체 이미지(30)를 교정하는 과정이 필요한데 이하, 이와 관련한 구체적인 본 개시의 실시 예에 대하여 설명한다. Meanwhile, since the
도 12는, 본 개시의 일 실시 예에 따른 제2 위치에서 획득된 객체의 이미지를 기초로, 객체에 대한 3차원 이미지를 업데이트하는 전자 장치의 제어 방법을 개략적으로 나타낸 순서도이다. 도 13a 및 도 13b는 업데이트된 3차원 이미지에 기초하여 제2 객체 이미지(30)를 표시하는 것을 나타낸 예시도이다. 12 is a flowchart schematically illustrating a control method of an electronic device for updating a 3D image of an object based on an image of the object acquired at a second location according to an embodiment of the present disclosure. 13A and 13B are exemplary diagrams illustrating displaying a
도 12를 참조하면, 프로세서는(140), 카메라(110)를 통해 제1 위치와 다른 위치에서 객체를 촬영하여 제3 객체 이미지를 획득하고(S360), 제1 객체 이미지(20)에 포함되어 있지 않지만 제2 객체 이미지(30)에 포함된 객체의 적어도 일부가 제3 객체 이미지에 포함되어 있는지를 식별하고(S30), 제3 객체 이미지에 객체(200)의 적어도 일부가 포함되어 있고, 제3 객체 이미지에 포함된 객체의 적어도 일부가 제2 객체 이미지(30)와 다른 경우, 제3 객체 이미지에 기초하여 3차원 이미지를 업데이트한다(S380). Referring to FIG. 12 , the
먼저, 프로세서는(140), 카메라(110)를 통해 제1 위치와 다른 위치에서 객체(200)를 촬영하여 제3 객체 이미지(40)가 획득한다(S360). 이때, 다른 위치는 제2 위치를 포함할 수 있다. 제3 객체 이미지는 제1 객체 이미지와 같이 카메라(110)를 통해 획득되는 것에 공통되나, 각각 획득한 위치의 차이점이 있다. 구체적으로, 제3 객체 이미지는 제1 객체 이미지를 획득한 이후에 프로세서(140)가 카메라(110)를 통해 획득한 이미지이다. First, the
프로세서(140)는 제1 객체 이미지(20)에 포함되어 있지 않으나, 제2 객체 이미지(30)에 포함된 객체(200)의 적어도 일부가 제3 객체 이미지(40)에 포함되어 있는지를 식별한다(S370). The
먼저, 도 13a를 참조하면, 제1 위치는 t1에 x축 상에 위치한 후 t2에는 x 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동하여 위치한 후 다시 t3에는 x축 상에 위치하였다. 이때, 제1 위치를 기준으로 상대적으로 설정된 제2 위치는 t1에 xy 평면 상에서 x축의 반 시계 방향으로 90°에 위치한 y 축 상에 위치하였다. 한편, 제2 위치는 제1 위치를 기준으로 상대적으로 설정되므로, t2에 제1 위치가 이동한 변위 각도만큼 제2 위치 또한 이동한다. 구체적으로, 제1 위치가 x 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동하여 위치 하였으므로, 제2 위치는 y 축으로부터 xy 평면 상에서 반 시계 방향으로 45°이동한 지점에 위치한다. 그리고 t3에 제2 위치는 y 축 상에 위치한다. 이하, 도 13a에서의 전자 장치(100)의 위치에 따른 제1 위치의 위치와 제2 위치의 위치에서의 제1 객체 이미지, 제2 객체 이미지 그리고 3차원 이미지에 대하여 도 143를 참조하여 설명하도록 한다. First, referring to FIG. 13A, the first position is located on the x-axis at t1, moves 45° counterclockwise on the xy plane from the x-axis at t2, and then is located on the x-axis at t3. At this time, the second position relatively set with respect to the first position was located on the y-axis at 90° in the counterclockwise direction of the x-axis on the xy plane at t1. Meanwhile, since the second position is set relative to the first position, the second position is also moved by the displacement angle of the first position at t2. Specifically, since the first position is moved 45° counterclockwise on the xy plane from the x axis, the second position is located at a point moved 45° counterclockwise on the xy plane from the y axis. And at t3 the second position is on the y-axis. Hereinafter, a first object image, a second object image, and a 3D image at the first location and the second location according to the location of the
도 13b를 참조하면, t2 시점에서 프로세서(140)에 의해 획득된 제3 객체 이미지(40) 내 객체(200)의 우측 면에는 문자가 포함되어 있다. 그러나, t1 시점에는 프로세서(140)에 의해 표시된 제2 객체 이미지(30) 내 객체(200)의 우측 면에는 문자가 포함되어 있지 않다. 앞서 설명한 바와 같이, 프로세서(140)는 객체(200)의 우측 면에 문자를 식별할 수 없는 제1 객체 이미지(20)와 제1 객체 이미지(20)에 기초하여 획득한 3차원 이미지(210)를 기초로 제2 객체 이미지(30)를 획득하였기 때문이다. 따라서, 프로세서(140)는 획득한 제3 객체 이미지(40)를 기반으로, 제1 객체 이미지(20)에 포함되어 있지 않으나, 제2 객체 이미지(30)에 포함된 객체(200)의 적어도 일부, 예를 들어 문자, 모양, 형상 등이 포함되어 있는지를 식별한다. 다시 말해, 제3 객체 이미지(40)를 기초로, 제1 객체 이미지(20)를 통해서는 식별되지 않은 객체(200)의 특징 정보를 식별한다. Referring to FIG. 13B , the right side of the
그리고 프로세서(140)는 제3 객체 이미지(40)에 객체(200)의 적어도 일부가 포함되어 있고, 제3 객체 이미지(40)에 포함된 객체의 적어도 일부가 제2 객체 이미지(30)와 다른 경우, 제3 객체 이미지(40)에 기초하여 3차원 이미지(210)를 업데이트한다Further, the
다시 도 13b를 참조하면, t2 시점에서 프로세서(140)가 획득한 제3 객체 이미지(40)를 기초로, 객체(200)의 우측 면에 포함된 문자를 식별하면, 이후 t3 시점에 표시되는 제2 객체 이미지(30)는, 제2 객체 이미지(30) 내 객체(200)의 우측 면에 문자가 포함되도록 업데이트 될 것이다. 도 13b를 참조하면, t1 시점 및 t3 시점에서의 제2 객체 이미지는 동일한 위치에서의 획득될 것으로 추정되어 생성된 이미지이다. 그러나 t3 시점에서의 제2 객체 이미지의 경우, t2 에서 획득한 제3 객체 이미지를 기반으로 업데이트 된 3차원 이미지를 기초로 생성된다. 그렇기 때문에, 동일한 위치에서 획득될 것으로 추정되는 이미지임에도 불구하고, t1 시점에서의 제2 객체 이미지와 t3 시점에서의 제2 객체 이미지가 상이하다. Referring back to FIG. 13B , if a character included in the right side of the
한편, 이러한 업데이트 과정은 이후 표시되는 제2 객체 이미지(30)에 대해서 수행되는 것은 아니다. 예를 들어, 프로세서(140)가 디스플레이(120)에 표시되는 제1 객체 이미지(20)와 제2 객체 이미지(30)를 메모리(130)에 저장하는 경우에는, 기 저장된 제2 객체 이미지(30)를 업데이트 된 3차원 이미지(210)를 기반으로 업데이트할 수 있다. 예를 들어, 프로세서(140)가 카메라를 통해 객체(200)에 대한 동영상 촬영 및 녹화를 수행하고, 제3 객체 이미지(40)에 기초하여 3차원 이미지(210)를 업데이트한 경우, t1 시점에 메모리에 저장된 제2 객체 이미지(30) 내 객체(200)의 우측 면에 문자가 포함되도록 제2 객체 이미지(30)를 업데이트할 수 있다. Meanwhile, this updating process is not performed on the
한편, 본 개시의 일 실시 예에 따라 프로세서(140)는, 업데이트된 3차원 이미지(210)에 기초하여 제2 위치에 대응되는 제2 객체 이미지(30)를 획득하고, 제2 객체 이미지(30)를 디스플레이(120)에 표시할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the
이를 통해, 사용자는 복수의 시점에서 객체에 대한 보다 정확한 이미지를 제공받을 수 있을 것이다. Through this, the user may be provided with more accurate images of the object from a plurality of viewpoints.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성도이다. 14 is a detailed configuration diagram of an electronic device according to an embodiment of the present disclosure.
도 14를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100는 카메라(110), 디스플레이(120), 메모리(130), 통신부(150), 라이다 센서(160), GPS 센서(170), TOF 센서(180) 및 프로세서(140)를 포함한다. 이하 상술한 설명과 중복되는 부분은 생략하거나 축약하여 설명한다.Referring to FIG. 14 , an
프로세서(140)는 통신부(150)를 통해, 전자 장치(100) 및 외부 장치 간의 다양한 정보를 송수신할 수 있다. 예를 들어, 객체(200)에 관한 신경망 모델에 관한 정보를 외부 장치(예를 들어, 전자 장치 제어 프로그램을 제공하는 서버)로부터 수신할 수도 있으며, 그 밖의 딥 러닝 기반의 객체 탐지 모델 등과 같이 전자 장치(100)를 제어하기 위한 다양한 프로그램에 관한 정보를 수신할 수 있다. 프로세서(140)는 통신부(150)를 통해 다양한 형태의 통신망을 이G알 수 있으며, 예를 들어, WLAN(Wireless LAN), 와이파이(Wi-Fi), LTE(Long Term Evolution), 5G 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신 방식이 이용될 수 있다.The
한편, 프로세서(140)는 라이다 센서(160)를 통해, 객체(200)에 관한 클라우드 데이터를 획득할 수 있다. 프로세서(140)는 라이다 센서(160)를 통해, 객체(200)에 관한 클라우드 데이터를 획득하고, 객체(20))에 대한 3차원 이미지(210)를 생성할 수 있다. Meanwhile, the
또한, 프로세서(140)는 GPS 센서(170)를 통해 WGS84 좌표계 또는 경위도 좌표계 상에서의 전자 장치(100)의 제1 위치를 감지할 수 있다. 구체적으로, 프로세서(140)는 전자 장치의 좌표 값을 기반으로 제1 위치를 식별할 수 있을 것이다. Also, the
또한 프로세서(140)는 TOF 센서(180)를 통해 카메라(110)를 이용하여 객체에 관한 제1 객체 이미지(20)를 비롯한 복수의 시점에서의 복수의 이미지를 획득함과 동시에 제1 객체에 관한 깊이(Depth) 정보를 획득할 수도 있다. 이러한 깊이 정보를 기초로, 복수의 이미지를 기반으로 객체(200)에 관한 3차원 이미지(210)를 획득할 수 있다. In addition, the
한편, 상술한 설명에서, 단계 S310 내지 S360은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. Meanwhile, in the above description, steps S310 to S360 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 기기를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Meanwhile, according to an exemplary embodiment of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage medium (eg, a computer). A device is a device capable of calling a command stored from a storage medium and operating according to the called command, and may include a device according to the disclosed embodiments. When a command is executed by a processor, the processor directly or A function corresponding to a command may be performed using other components under the control of the processor. A command may include code generated or executed by a compiler or an interpreter. A device-readable storage medium is a non-transitory It can be provided in the form of a (non-transitory) storage medium, where 'non-transitory storage medium' only means that it is a tangible device and does not contain a signal (e.g. electromagnetic wave), This term does not distinguish between a case where data is stored semi-permanently and a case where data is temporarily stored in a storage medium, for example, 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored on a device-readable storage medium such as a memory of a manufacturer's server, an application store server, or a relay server. It can be temporarily stored or created temporarily.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.
100: 전자 장치
110: 카메라
120: 디스플레이
130: 메모리
140: 프로세서
200: 객체100: electronic device
110: camera
120: display
130: memory
140: processor
200: object
Claims (18)
복수의 카메라;
디스플레이;
메모리; 및
상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하고, 상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하고, 상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하고, 상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제1 객체 이미지 및 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 프로세서;를 포함하는 전자 장치.In electronic devices,
multiple cameras;
display;
Memory; and
Identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location, and detecting the identified camera while the electronic device is in the first location. Obtaining a first object image by photographing an object, identifying a transformation function corresponding to the second location based on the 3D image of the object and the second location, and identifying the first object image and the transformation function. An electronic device comprising: a processor that obtains a second object image corresponding to the second position based on a function and displays the first object image and the second object image on the display.
상기 프로세서는,
상기 복수의 카메라 각각의 화각을 식별하고, 상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는, 전자 장치.According to claim 1,
the processor,
Identifying angles of view of each of the plurality of cameras, and identifying a camera corresponding to an angle of view including the second position among the plurality of cameras as the one camera.
상기 프로세서는,
상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하고, 상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 전자 장치.According to claim 1,
the processor,
A plurality of object images corresponding to the plurality of viewpoints are obtained by photographing the object from a plurality of viewpoints through the camera, and a 3D image of the object is obtained based on an object identified in each of the plurality of object images. An electronic device for obtaining.
상기 프로세서는,
상기 3차원 이미지에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제1 좌표 값을 획득하고, 상기 3차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제2 좌표 값을 획득하고, 상기 제1 좌표 값과 상기 제2 좌표 값에 기초하여, 상기 제2 위치에 대응되는 변환 행렬을 식별하는, 전자 장치.According to claim 3,
the processor,
Based on the 3D image, a feature point of the object identified at a first location is identified, a first coordinate value corresponding to the feature point is obtained, and an object identified at a second location based on the 3D image An electronic device that identifies a feature point of , obtains a second coordinate value corresponding to the feature point, and identifies a transformation matrix corresponding to the second position based on the first coordinate value and the second coordinate value. .
상기 메모리는, 입력된 객체 이미지에 기초하여 객체에 대한 3차원 이미지를 생성하도록 학습된 신경망 모델을 포함하고,
상기 프로세서는,
상기 제1 객체 이미지를 상기 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하고, 상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 전자 장치.According to claim 1,
The memory includes a neural network model trained to generate a 3D image of an object based on an input object image,
the processor,
A 3D image of the object is obtained by inputting the first object image to the neural network model, and a second object image corresponding to the second position is obtained based on the 3D image obtained through the neural network model. electronic devices to acquire.
상기 프로세서는,
상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득하는 전자 장치.According to claim 5,
the processor,
A reference range for the object is identified, and if the second position is included in the identified reference range, the second object image is acquired based on the first object image and a transformation matrix, and the second position is An electronic device that obtains the second object image based on the 3D image when it is not included in the identified reference range.
상기 프로세서는,
상기 식별된 카메라의 화각 정보에 기초하여 상기 기준 범위를 식별하는 전자 장치.According to claim 6,
the processor,
An electronic device that identifies the reference range based on the identified information on the angle of view of the camera.
상기 프로세서는,
상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득되면, 상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하고,
상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 전자 장치.According to claim 5,
the processor,
When a third object image is obtained by photographing the object at a location different from the first location through the camera, at least a part of an object included in the second object image but not included in the first object image is displayed in the first object image. 3 identify whether the object is included in the image,
When at least a part of the object is included in the third object image and at least a part of the object included in the third object image is different from the second object image, the 3D image is based on the third object image. Electronic device to update.
상기 프로세서는,
상기 업데이트 된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 전자 장치.According to claim 7,
the processor,
An electronic device that obtains a second object image corresponding to the second location based on the updated 3D image and displays the second object image on the display.
상기 전자 장치의 제1 위치 및 상기 제1 위치를 기초로 설정된 제2 위치에 기초하여 상기 복수의 카메라 중 하나의 카메라를 식별하는 단계;
상기 전자 장치가 상기 제1 위치에 있는 동안 상기 식별된 카메라를 통해 객체를 촬영하여 제1 객체 이미지를 획득하는 단계;
상기 객체에 대한 3차원 이미지 및 상기 제2 위치에 기초하여, 상기 제2 위치에 대응되는 변환 함수를 식별하는 단계;
상기 제1 객체 이미지 및 상기 변환 함수에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는 단계; 및
상기 제1 객체 이미지 및 상기 제2 객체 이미지를 디스플레이에 표시하는 단계를 포함하는, 제어 방법.A method for controlling an electronic device including a plurality of cameras,
identifying one of the plurality of cameras based on a first location of the electronic device and a second location set based on the first location;
obtaining a first object image by photographing an object through the identified camera while the electronic device is in the first location;
identifying a transform function corresponding to the second position based on the 3D image of the object and the second position;
obtaining a second object image corresponding to the second position based on the first object image and the conversion function; and
and displaying the first object image and the second object image on a display.
상기 하나의 카메라를 식별하는 단계는,
상기 복수의 카메라 각각의 화각을 식별하는 단계; 및
상기 복수의 카메라 중 상기 제2 위치를 포함하는 화각에 대응하는 카메라를 상기 하나의 카메라로 식별하는 단계를 포함하는, 제어 방법. According to claim 10,
The step of identifying the one camera,
identifying angles of view of each of the plurality of cameras; and
and identifying, among the plurality of cameras, a camera corresponding to an angle of view including the second position as the one camera.
상기 카메라를 통해 복수의 시점에서 상기 객체를 촬영하여, 상기 복수의 시점에 대응되는 복수의 객체 이미지를 획득하는 단계; 및
상기 복수의 객체 이미지 각각에서 식별된 객체에 기초하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 포함하는, 제어 방법.According to claim 10,
acquiring a plurality of object images corresponding to the plurality of viewpoints by photographing the object from a plurality of viewpoints through the camera; and
And based on the object identified in each of the plurality of object images, obtaining a three-dimensional image of the object, the control method.
상기 변환 함수를 식별하는 단계는,
상기 3차원 이미지에 기초하여, 제1 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제1 좌표 값을 획득하는 단계;
상기 3차원 이미지에 기초하여, 제2 위치에서 식별된 객체의 특징 점을 식별하고, 특징 점에 대응되는 제2 좌표 값을 획득하는 단계; 및
상기 제1 좌표 값과 상기 제2 좌표 값에 기초하여, 상기 제2 위치에 대응되는 변환 행렬을 식별하는 단계를 포함하는, 제어 방법. According to claim 12,
Identifying the conversion function comprises:
based on the 3D image, identifying a feature point of the identified object at a first location, and obtaining a first coordinate value corresponding to the feature point;
based on the 3D image, identifying a feature point of the identified object at a second location, and obtaining a second coordinate value corresponding to the feature point; and
and identifying a transformation matrix corresponding to the second position based on the first coordinate value and the second coordinate value.
상기 제1 객체 이미지를 신경망 모델에 입력하여, 상기 객체에 대한 3차원 이미지를 획득하는 단계를 더 포함하고,
상기 제2 객체 이미지를 획득하는 단계는,
상기 신경망 모델을 통해 획득된 상기 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하는, 제어 방법.According to claim 10,
Further comprising obtaining a 3D image of the object by inputting the first object image to a neural network model,
Obtaining the second object image,
Acquiring a second object image corresponding to the second position based on the 3D image obtained through the neural network model.
상기 제2 객체 이미지를 획득하는 단계는,
상기 객체에 대한 기준 범위를 식별하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되면, 상기 제1 객체 이미지와 변환 행렬에 기초하여 상기 제2 객체 이미지를 획득하고, 상기 제2 위치가 상기 식별된 기준 범위에 포함되지 않으면, 상기 3차원 이미지에 기초하여 상기 제2 객체 이미지를 획득하는, 제어 방법. According to claim 14,
Obtaining the second object image,
A reference range for the object is identified, and if the second position is included in the identified reference range, the second object image is acquired based on the first object image and a transformation matrix, and the second position is If not included in the identified reference range, obtaining the second object image based on the 3D image.
상기 기준 범위는 상기 식별된 카메라의 화각 정보에 기초하여 식별되는, 제어 방법. According to claim 15,
The control method of claim 1 , wherein the reference range is identified based on the identified camera view angle information.
상기 카메라를 통해 상기 제1 위치와 다른 위치에서 상기 객체를 촬영하여 제3 객체 이미지가 획득하는 단계;
상기 제1 객체 이미지에 포함되어 있지 않지만 상기 제2 객체 이미지에 포함된 객체의 적어도 일부가 상기 제3 객체 이미지에 포함되어 있는지를 식별하는 단계; 및
상기 제3 객체 이미지에 상기 객체의 적어도 일부가 포함되어 있고 상기 제3 객체 이미지에 포함된 상기 객체의 적어도 일부가 상기 제2 객체 이미지와 다른 경우, 상기 제3 객체 이미지에 기초하여 상기 3차원 이미지를 업데이트하는 단계를 더 포함하는, 제어 방법. According to claim 16,
obtaining a third object image by photographing the object at a location different from the first location through the camera;
identifying whether at least a part of an object included in the second object image but not included in the first object image is included in the third object image; and
When at least a part of the object is included in the third object image and at least a part of the object included in the third object image is different from the second object image, the 3D image is based on the third object image. Further comprising the step of updating the control method.
상기 제2 객체 이미지를 표시하는 단계는,
상기 업데이트된 3차원 이미지에 기초하여 상기 제2 위치에 대응되는 제2 객체 이미지를 획득하고, 상기 제2 객체 이미지를 상기 디스플레이에 표시하는 제어 방법.
According to claim 17,
In the step of displaying the second object image,
A control method of obtaining a second object image corresponding to the second position based on the updated 3D image, and displaying the second object image on the display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220010900A KR20230114567A (en) | 2022-01-25 | 2022-01-25 | Display apparatus and method for controlling display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220010900A KR20230114567A (en) | 2022-01-25 | 2022-01-25 | Display apparatus and method for controlling display apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230114567A true KR20230114567A (en) | 2023-08-01 |
Family
ID=87561834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220010900A KR20230114567A (en) | 2022-01-25 | 2022-01-25 | Display apparatus and method for controlling display apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230114567A (en) |
-
2022
- 2022-01-25 KR KR1020220010900A patent/KR20230114567A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11164001B2 (en) | Method, apparatus, and system for automatically annotating a target object in images | |
WO2021036353A1 (en) | Photographing-based 3d modeling system and method, and automatic 3d modeling apparatus and method | |
CN109064545B (en) | Method and device for data acquisition and model generation of house | |
US9723203B1 (en) | Method, system, and computer program product for providing a target user interface for capturing panoramic images | |
CN110300292B (en) | Projection distortion correction method, device, system and storage medium | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
US9129435B2 (en) | Method for creating 3-D models by stitching multiple partial 3-D models | |
US10545215B2 (en) | 4D camera tracking and optical stabilization | |
CN107113415A (en) | The method and apparatus for obtaining and merging for many technology depth maps | |
CN108286945B (en) | Three-dimensional scanning system and method based on visual feedback | |
CN111345029B (en) | Target tracking method and device, movable platform and storage medium | |
CN110377148B (en) | Computer readable medium, method of training object detection algorithm, and training apparatus | |
US9049369B2 (en) | Apparatus, system and method for projecting images onto predefined portions of objects | |
WO2010101227A1 (en) | Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program | |
US20220067974A1 (en) | Cloud-Based Camera Calibration | |
CN104574355B (en) | Calibration system of stereo camera and calibration method of stereo camera | |
CN113545030A (en) | Automatic generation of full focus images by moving camera | |
CN114640833A (en) | Projection picture adjusting method and device, electronic equipment and storage medium | |
EP2918072B1 (en) | Method and apparatus for capturing and displaying an image | |
CN113870213A (en) | Image display method, image display device, storage medium, and electronic apparatus | |
KR20170078965A (en) | System and method for providing 3d image | |
WO2020255766A1 (en) | Information processing device, information processing method, program, projection device, and information processing system | |
US10281265B2 (en) | Method and system for scene scanning | |
CN110225247B (en) | Image processing method and electronic equipment |