KR102679734B1 - Electronic device that generates digital surface model - Google Patents

Electronic device that generates digital surface model Download PDF

Info

Publication number
KR102679734B1
KR102679734B1 KR1020230173130A KR20230173130A KR102679734B1 KR 102679734 B1 KR102679734 B1 KR 102679734B1 KR 1020230173130 A KR1020230173130 A KR 1020230173130A KR 20230173130 A KR20230173130 A KR 20230173130A KR 102679734 B1 KR102679734 B1 KR 102679734B1
Authority
KR
South Korea
Prior art keywords
values
probability
pixel
value
processor
Prior art date
Application number
KR1020230173130A
Other languages
Korean (ko)
Inventor
신승수
Original Assignee
주식회사 메이사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메이사 filed Critical 주식회사 메이사
Priority to KR1020230173130A priority Critical patent/KR102679734B1/en
Application granted granted Critical
Publication of KR102679734B1 publication Critical patent/KR102679734B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 수치 표고 모델을 생성하는 전자 장치를 개시한다. 상기 수치 표고 모델을 생성하는 전자 장치는, 전체 촬영 면적의 일부 영역인 제1 영역에 대한 이미지 데이터에 포함된 제1 픽셀의 좌표(x1, y1)를 식별하고, 상기 제1 픽셀의 좌표(x1, y1)를 기반으로, 상기 제1 픽셀이 가질 수 있는 n개(단, n은 자연수)의 z 축 상의 값을 포함하는 가능한 z1 값을 식별하고, 상기 제1 영역과 대응되는 제1 뎁스 맵(depth map)을 기초로, 상기 가능한 z1 값 각각이 정답일 제1 확률을 식별하고, 제2 픽셀의 상기 z 축 상의 값인 확정된 z2 값과, 상기 가능한 z1 값 각각 간의 차이를 기반으로, 제2 확률을 식별하고, 상기 제1 확률 및 상기 제2 확률을 기반으로, 상기 제1 픽셀의 좌표(x1, y1)의 상기 z 축 상의 값인 제1 z 값을 식별하고, 상기 전체 촬영 면적의 나머지 영역에 포함된 복수의 픽셀 각각과, 상기 나머지 영역에 대응되는 복수의 뎁스 맵 각각을 이용하여, 상기 복수의 픽셀 각각에 대한 상기 z 축 상의 값을 식별하고, 상기 전체 촬영 면적에 대한 상기 수치 표고 모델을 생성하도록 하는 인스트럭션들(instructions)을 저장한다.The present invention discloses an electronic device for generating a digital elevation model. The electronic device that generates the digital elevation model identifies the coordinates (x1, y1) of the first pixel included in the image data for the first area, which is a partial area of the total capture area, and the coordinates (x1) of the first pixel , y1), identify possible z1 values including n values on the z-axis that the first pixel can have (where n is a natural number), and identify a first depth map corresponding to the first area. Based on a depth map, identify a first probability that each of the possible z1 values is correct, and based on the difference between each of the possible z1 values and a determined z2 value that is a value on the z axis of a second pixel, 2. Identify a probability, and based on the first probability and the second probability, identify a first z value that is the value on the z axis of the coordinates (x1, y1) of the first pixel, and the remainder of the total captured area. Using each of the plurality of pixels included in the area and each of the plurality of depth maps corresponding to the remaining area, the value on the z-axis for each of the plurality of pixels is identified, and the numerical elevation for the entire captured area Stores instructions to create a model.

Description

수치 표고 모델을 생성하는 전자 장치{Electronic device that generates digital surface model} Electronic device that generates digital surface model}

본 발명은 수치 표고 모델을 생성하는 전자 장치에 관한 것으로, 뎁스 맵(depth map)을 이용하여 수치 표고 모델을 생성하는 전자 장치에 관한 것이다.The present invention relates to an electronic device that generates a digital elevation model, and relates to an electronic device that generates a digital elevation model using a depth map.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다. The content described in this section simply provides background information for this embodiment and does not constitute prior art.

수치 표고 모델을 생성하는데 있어서, 스테레오 카메라나 3차원을 인지하는 센서 등을 이용하여, 실존하는 현장의 모습을 점 구름(point cloud)으로 생성해내는 기술이 널리 이용되고 있다. 그러나 이러한 데이터는, 점을 기반으로 하므로 연속적인 결과에 대한 추정이 어려울 수 있다. In creating a digital elevation model, technology that generates a point cloud of an actual scene using a stereo camera or a sensor that recognizes three dimensions is widely used. However, because these data are point-based, it can be difficult to estimate continuous results.

또한, 수치 표고 모델의 경우, 특정 평면 좌표에서 가장 높은 값만을 표현해주기 때문에, 기존의 보간법(interpolation)으로는 정확하고 연속적인 값을 얻기 어려운 측면이 있었다.Additionally, in the case of digital elevation models, because they only express the highest value in a specific plane coordinate, it is difficult to obtain accurate and continuous values using existing interpolation methods.

본 발명의 목적은, 뎁스 맵을 기반으로 수치 표고 모델을 생성하는 전자 장치를 제공하는 것이다. An object of the present invention is to provide an electronic device that generates a digital elevation model based on a depth map.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

본 발명의 실시예에 따른 수치 표고 모델을 생성하는 전자 장치는, 프로세서, 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고, 상기 메모리는, 실행되었을 때 상기 프로세서로 하여금 전체 촬영 면적의 일부 영역인 제1 영역에 대한 이미지 데이터에 포함된 제1 픽셀의 좌표(x1, y1)를 식별하고, 상기 제1 픽셀의 좌표(x1, y1)를 기반으로, 상기 제1 픽셀이 가질 수 있는 n개(단, n은 자연수)의 z 축 상의 값을 포함하는 가능한 z1 값을 식별하고, 상기 제1 영역과 대응되는 제1 뎁스 맵(depth map)을 기초로, 상기 가능한 z1 값 각각이 정답일 제1 확률을 식별하고, 제2 픽셀의 상기 z 축 상의 값인 확정된 z2 값과, 상기 가능한 z1 값 각각 간의 차이를 기반으로, 제2 확률을 식별하고, 상기 제1 확률 및 상기 제2 확률을 기반으로, 상기 제1 픽셀의 좌표(x1, y1)의 상기 z 축 상의 값인 제1 z 값을 식별하고, 상기 전체 촬영 면적의 나머지 영역에 포함된 복수의 픽셀 각각과, 상기 나머지 영역에 대응되는 복수의 뎁스 맵 각각을 이용하여, 상기 복수의 픽셀 각각에 대한 상기 z 축 상의 값을 식별하고, 상기 전체 촬영 면적에 대한 상기 수치 표고 모델을 생성하도록 하는 인스트럭션들(instructions)을 저장한다.An electronic device for generating a digital elevation model according to an embodiment of the present invention includes a processor and a memory operatively connected to the processor, wherein the memory, when executed, causes the processor to determine a portion of the total captured area. Identify the coordinates (x1, y1) of the first pixel included in the image data for the first area, and based on the coordinates (x1, y1) of the first pixel, n that the first pixel may have. Identify possible z1 values including values on the z-axis (where n is a natural number), and based on a first depth map corresponding to the first region, each of the possible z1 values is the correct answer. Identify a first probability, and based on the difference between each of the possible z1 values and a determined z2 value that is a value on the z axis of a second pixel, identify a second probability, and determine the first probability and the second probability. Based on this, a first z value, which is a value on the z axis of the coordinates (x1, y1) of the first pixel, is identified, each of a plurality of pixels included in the remaining area of the total captured area, and each of the plurality of pixels corresponding to the remaining area Using each of the plurality of depth maps, a value on the z-axis for each of the plurality of pixels is identified, and instructions for generating the digital elevation model for the entire captured area are stored.

또한, 상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함한다.Additionally, the first probability includes first to nth depth map probabilities for each of the n values on the z-axis included in the possible z1 values.

또한, 상기 인스트럭션들은, 상기 프로세서가, 상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)를, 상기 제1 뎁스 맵에 투영시키고, 상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)가 투영된 상기 제1 뎁스 맵에서의 제1 뎁스 값을 식별하고, 중심점에서 상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)까지의 제1 거리와, 상기 제1 뎁스 값 간의 제1 오차를 식별하고, 상기 제1 오차를 기반으로, 상기 제1 확률을 식별하도록 한다.Additionally, the instructions cause the processor to project each of the possible z1 values and the coordinates (x1, y1) of the first pixel onto the first depth map, and project each of the possible z1 values and the coordinates of the first pixel. Identifying a first depth value in the first depth map onto which (x1, y1) is projected, a first distance from a center point to each of the possible z1 values and coordinates (x1, y1) of the first pixel, A first error between first depth values is identified, and based on the first error, the first probability is identified.

또한, 상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함하고, 상기 제1 확률은, 상기 제1 뎁스 맵을 기준으로 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각이 정답일 확률이다.In addition, the first probability includes first to nth depth map probabilities for each of the n values on the z-axis included in the possible z1 values, and the first probability is based on the first depth map. This is the probability that each of the n values on the z-axis included in the possible z1 values is the correct answer.

또한, 상기 인스트럭션들은, 상기 프로세서가, 가우시안 분포를 이용하여 상기 제1 오차를 기반으로 상기 제1 확률을 식별하도록 한다.Additionally, the instructions cause the processor to identify the first probability based on the first error using a Gaussian distribution.

또한, 상기 중심점은, 상기 제1 뎁스 맵의 위치 정보를 기반으로 식별된 촬영 장치의 위치 정보이다.Additionally, the center point is location information of a photographing device identified based on location information of the first depth map.

또한, 상기 인스트럭션들은, 상기 프로세서가, 확률 밀도 함수를 이용하여 상기 제2 확률을 식별하도록 한다.Additionally, the instructions cause the processor to identify the second probability using a probability density function.

또한, 상기 제2 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각과 상기 z2 값 간의 차이를 기초로 계산된 제1 내지 제n 비교 확률을 포함한다.Additionally, the second probability includes first to nth comparison probabilities calculated based on the difference between the z2 value and each of the n values on the z-axis included in the possible z1 values.

또한, 상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함하고, 상기 제2 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각과 상기 z2 값 간의 차이를 기초로 계산된 제1 내지 제n 비교 확률을 포함하고, 상기 인스트럭션들은, 상기 프로세서가, 상기 가능한 z1 값 각각, 상기 제1 내지 제n 뎁스 맵 확률 각각 및 상기 제1 내지 제n 비교 확률 각각을 기초로, 상기 제1 z 값을 식별하도록 한다. In addition, the first probability includes first to nth depth map probabilities for each of the n values on the z-axis included in the possible z1 values, and the second probability is included in the possible z1 values. and first to nth comparison probabilities calculated based on differences between each of the n values on the z-axis and the z2 value, wherein the instructions are such that the processor, respectively, the possible z1 values, the first to nth comparison probabilities. The first z value is identified based on each of the depth map probabilities and each of the first to nth comparison probabilities.

본 발명의 수치 표고 모델을 생성하는 전자 장치는, 뎁스 맵을 기반으로 수치 표고 모델을 생성함으로써, 정확하고 연속적인 수치 표고 모델을 생성할 수 있다.The electronic device for generating a digital elevation model of the present invention can generate an accurate and continuous digital elevation model by generating a digital elevation model based on a depth map.

또한, 본 발명의 수치 표고 모델을 생성하는 전자 장치는, 뎁스 맵을 기반으로 수치 표고 모델을 생성함으로써, 현장의 높이가 급변하는 경우 높이 측정이 어려운 문제를 해결할 수 있는 수치 표고 모델을 생성할 수 있다.In addition, the electronic device for generating a digital elevation model of the present invention generates a digital elevation model based on a depth map, thereby generating a digital elevation model that can solve the problem of difficult height measurement when the height of the site changes suddenly. there is.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.

도 1은 본 발명의 실시예에 따른 전자 장치를 설명하기 위한 도면이다.
도 2는 도 1의 프로세서의 동작을 설명하기 위한 도면이다.
도 3은 도 2의 단계 S100을 설명하기 위한 도면이다.
도 4 및 도 5는 도 2의 단계 S200을 설명하기 위한 도면이다.
도 6은 도 2의 단계 S300를 설명하기 위한 도면이다.
도 7은 도 6의 단계 S301, 단계 S303 및 단계 S305를 설명하기 위한 도면이다.
도 8은 도 6의 단계 S307을 설명하기 위한 도면이다.
도 9는 도 2의 단계 S400을 설명하기 위한 도면이다.
도 10은 도 2의 단계 S500을 설명하기 위한 도면이다.
도 11은 도 2의 단계 S600 및 S700을 설명하기 위한 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 전자 장치의 하드웨어 구현을 설명하기 위한 도면이다.
1 is a diagram for explaining an electronic device according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining the operation of the processor of FIG. 1.
FIG. 3 is a diagram for explaining step S100 of FIG. 2.
Figures 4 and 5 are diagrams for explaining step S200 of Figure 2.
FIG. 6 is a diagram for explaining step S300 of FIG. 2.
FIG. 7 is a diagram for explaining steps S301, S303, and S305 of FIG. 6.
FIG. 8 is a diagram for explaining step S307 of FIG. 6.
FIG. 9 is a diagram for explaining step S400 of FIG. 2.
FIG. 10 is a diagram for explaining step S500 of FIG. 2.
FIG. 11 is a diagram for explaining steps S600 and S700 of FIG. 2.
FIG. 12 is a diagram illustrating hardware implementation of an electronic device according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define the term or word concept in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component without departing from the scope of the present invention, and similarly, the second component may also be named a first component. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No. Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.

이하에서 도 1 내지 도 11을 참조하여 본 발명의 실시예에 따른 수치 표고 모델을 생성하는 전자 장치(이하, 전자 장치라 한다)에 대해 설명한다.Hereinafter, an electronic device (hereinafter referred to as an electronic device) that generates a digital elevation model according to an embodiment of the present invention will be described with reference to FIGS. 1 to 11.

도 1은 본 발명의 실시예에 따른 전자 장치를 설명하기 위한 도면이다. 도 2는 도 1의 프로세서의 동작을 설명하기 위한 도면이다.1 is a diagram for explaining an electronic device according to an embodiment of the present invention. FIG. 2 is a diagram for explaining the operation of the processor of FIG. 1.

도 1 및 도 2를 참조하면, 본 발명의 실시예에 따른 전자 장치(100)는, 프로세서(110) 및 메모리(120)를 포함할 수 있다. Referring to FIGS. 1 and 2 , the electronic device 100 according to an embodiment of the present invention may include a processor 110 and a memory 120.

전자 장치(100)에는, 하나 이상의 다른 구성요소(예: 통신 모듈)가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. One or more other components (eg, communication module) may be added to the electronic device 100. In some embodiments, some of these components may be implemented as a single integrated circuit.

메모리(120)는, 전자 장치(100)의 적어도 하나의 구성요소(예: 프로세서(110))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(120)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. The memory 120 may store various data used by at least one component (eg, processor 110) of the electronic device 100. Data may include, for example, input data or output data for software (e.g., a program) and instructions related thereto. Memory 120 may include volatile memory or non-volatile memory.

메모리(120)는 전자 장치(100)에 포함된 구성요소들의 동작과 연관된 명령, 정보 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는, 실행 시에, 프로세서(110)가 본 문서에 기재된 다양한 동작을 수행할 수 있도록 하는 인스트럭션들(instructions)을 저장할 수 있다.The memory 120 may store commands, information, or data related to the operation of components included in the electronic device 100. For example, memory 120 may store instructions that, when executed, enable processor 110 to perform various operations described in this document.

프로세서(110)는 전자 장치(100)의 전반적인 기능을 수행하기 위하여 메모리(120)와 작동적으로(operatively) 연결될(coupled) 수 있다. 프로세서(110)는 예를 들어, 하나 이상의 프로세서를 포함할 수 있다. 하나 이상의 프로세서는 예를 들어, 이미지 시그널 프로세서(image signal processor, ISP), 애플리케이션 프로세서(application processor, AP), 또는 통신 프로세서(communication processor, CP)를 포함할 수 있다.The processor 110 may be operatively coupled with the memory 120 to perform the overall function of the electronic device 100. Processor 110 may include, for example, one or more processors. The one or more processors may include, for example, an image signal processor (ISP), an application processor (AP), or a communication processor (CP).

프로세서(110)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(110)에 연결된 전자 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(110)는 다른 구성요소(예: 통신 모듈)로부터 수신된 명령 또는 데이터를 메모리(120)에 로드하고, 메모리(120)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(120)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(110)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다. 프로그램은 메모리(120)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제, 미들 웨어 또는 어플리케이션을 포함할 수 있다.The processor 110 may, for example, execute software (e.g., a program) to control at least one other component (e.g., a hardware or software component) of the electronic device 100 connected to the processor 110. and can perform various data processing or calculations. According to one embodiment, as at least part of data processing or computation, the processor 110 loads commands or data received from another component (e.g., a communication module) into the memory 120 and stores the commands or data stored in the memory 120. Commands or data can be processed and the resulting data can be stored in the memory 120. According to one embodiment, the processor 110 includes a main processor (e.g., a central processing unit or an application processor) and an auxiliary processor that can operate independently or together with the main processor (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or communication processor). Additionally or alternatively, a coprocessor may be configured to use less power than the main processor or to specialize in designated functions. The auxiliary processor may be implemented separately from the main processor or as part of it. Programs may be stored in the memory 120 as software and may include, for example, an operating system, middleware, or applications.

프로세서(110)는 수치 표고 모델을 생성하기 위해 먼저, 촬영 대상 영역의 일부 영역을 촬영한 이미지 데이터에서 적어도 하나의 픽셀의 좌표를 식별할 수 있다. 프로세서(110)는 제1 영역에 포함된 제1 픽셀의 좌표(x1, y1)를 식별할 수 있다(S100). In order to generate a digital elevation model, the processor 110 may first identify the coordinates of at least one pixel in image data of a partial area of the subject area. The processor 110 may identify the coordinates (x1, y1) of the first pixel included in the first area (S100).

도 3은 도 2의 단계 S100을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining step S100 of FIG. 2.

도 1, 도 2 및 도 3을 참조하면, 프로세서(110)는 제1 영역(R1)과 대응되는 이미지 데이터에서, 제1 픽셀(PX1)의 좌표(x1, y1)를 식별할 수 있다. 전체 촬영 면적(WA)은 x 축 및 y 축을 포함하도록 대응될 수 있다. x 축과 y 축은 서로 수직할 수 있다. 제1 영역(R1)은, 전체 촬영 면적(WA)의 일부 영역일 수 있다. 제1 영역(R1)은, 전체 촬영 면적(WA) 상에 촬영 장치가 위치하는 경우, 1회 촬영 대상 영역일 수 있다. 전체 촬영 면적(WA)은 제1 영역(R1) 및 제2 영역(R2)을 포함하는 복수의 영역을 포함할 수 있다. 도면에서 제1 영역(R1)과 제2 영역(R2)이 서로 중첩되지 않는 것으로 도시하였으나, 이에 제한되는 것은 아니다. 예를 들어 제1 영역(R1)과 제2 영역(R2)은 일부가 중첩될 수도 있다. 제1 영역(R1)은 제1 픽셀(PX1) 및 제2 픽셀(PX2)을 포함할 수 있다. 프로세서(110)는 제2 픽셀(PX2)의 좌표(x2, y2)를 더 식별할 수 있다.Referring to FIGS. 1, 2, and 3, the processor 110 may identify the coordinates (x1, y1) of the first pixel (PX1) in the image data corresponding to the first region (R1). The total imaging area (WA) can be mapped to include the x-axis and y-axis. The x and y axes can be perpendicular to each other. The first area R1 may be a partial area of the total imaging area WA. The first area R1 may be an area to be captured once when the imaging device is located on the entire capturing area WA. The total imaging area WA may include a plurality of areas including the first area R1 and the second area R2. Although it is shown in the drawing that the first area R1 and the second area R2 do not overlap each other, the present invention is not limited thereto. For example, the first area R1 and the second area R2 may partially overlap. The first area R1 may include a first pixel PX1 and a second pixel PX2. The processor 110 may further identify the coordinates (x2, y2) of the second pixel (PX2).

다시 도 1 및 도 2를 참조하면, 프로세서(110)는 제1 픽셀(도 3의 PX1)이 가질 수 있는 가능한 z 값을 식별할 수 있다(S200). Referring again to FIGS. 1 and 2, the processor 110 may identify possible z values that the first pixel (PX1 in FIG. 3) may have (S200).

도 4 및 도 5는 도 2의 단계 S200을 설명하기 위한 도면이다.Figures 4 and 5 are diagrams for explaining step S200 of Figure 2.

도 1, 도 2, 도 4 및 도 5를 참조하면, 프로세서(110)는 제1 픽셀(PX1)의 좌표(x1, y1)를 기반으로, 제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 가능한 z 값을 식별할 수 있다. z 축은, x 축 및 y 축과 서로 수직한 축일 수 있다. 제1 픽셀(PX1)의 가능한 z 값은, 제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 n개(단, n은 자연수)의 z 축 상의 값일 수 있다. 예를 들어 제1 픽셀(PX1)은 z1, z2, …, zn의 가능한 z 값을 가질 수 있다. 이를 좌표로 표현하면, 도 5에 도시된 바와 같다. Referring to FIGS. 1, 2, 4, and 5, the processor 110 calculates the Possible z values can be identified. The z-axis may be an axis perpendicular to the x-axis and the y-axis. The possible z values of the first pixel PX1 may be n values on the z-axis that the first pixel PX1 can have on the z-axis (where n is a natural number). For example, the first pixel (PX1) is z1, z2,... , zn can have possible z values. If this is expressed in coordinates, it is as shown in FIG. 5.

제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 가능한 z 값은 예를 들어, 지면을 기준으로, 제1 영역(R1)의 제1 픽셀(PX1)에 대응되는 이미지 데이터의 실제 촬영 현장에 존재하는 물체(예: 건물, 나무 등)가 가질 수 있는 높이일 수 있다. 제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 가능한 z 값 중 확정되는 z 값은, 지면을 기준으로, 제1 영역(R1)의 제1 픽셀(PX1)에 대응되는 이미지 데이터의 실제 촬영 현장에 존재하는 물체(예: 건물, 나무 등)가 실제로 갖는 높이일 수 있다. The possible z values that the first pixel (PX1) can have on the z-axis exist at the actual shooting site of the image data corresponding to the first pixel (PX1) in the first area (R1), for example, based on the ground. It can be the height that an object (e.g. building, tree, etc.) can have. The z value that is determined among the possible z values that the first pixel (PX1) can have on the z axis is the actual shooting site of the image data corresponding to the first pixel (PX1) in the first area (R1), based on the ground. It may be the actual height of an object (e.g. building, tree, etc.) existing in .

다시 도 1 및 도 2를 참조하면, 프로세서(110)는 제1 뎁스 맵을 기초로, 제1 픽셀의 가능한 z 값 각각이 정답일 제1 확률을 식별할 수 있다(S300). Referring again to FIGS. 1 and 2 , the processor 110 may identify a first probability that each possible z value of the first pixel is correct, based on the first depth map (S300).

제1 뎁스 맵은, 제1 영역에 대한 뎁스 맵일 수 있다. 프로세서(110)는 제1 뎁스 맵을 이용하여, z1, z2, …, zn 각각이 뎁스 맵을 기준으로 정답일 제1 확률을 식별할 수 있다.The first depth map may be a depth map for the first area. The processor 110 uses the first depth map to determine z1, z2,... , zn, the first probability that each is the correct answer can be identified based on the depth map.

도 6은 도 2의 단계 S300를 설명하기 위한 도면이다. 도 7은 도 6의 단계 S301, 단계 S303 및 단계 S305를 설명하기 위한 도면이다. 도 8은 도 6의 단계 S307을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining step S300 of FIG. 2. FIG. 7 is a diagram for explaining steps S301, S303, and S305 of FIG. 6. FIG. 8 is a diagram for explaining step S307 of FIG. 6.

도 1, 도 2, 도 5, 도 6, 도 7 및 도 8을 참조하면, 프로세서(110)는 제1 확률을 식별하기 위해 먼저, 제1 픽셀(PX1)의 가능한 z 값 각각과 제1 픽셀(PX1)의 좌표(x1, y1)를 제1 뎁스 맵(DM1)에 투영시킬 수 있다(S301). 1, 2, 5, 6, 7, and 8, the processor 110 first identifies each of the possible z values of the first pixel PX1 and the first pixel PX1 to identify the first probability. The coordinates (x1, y1) of (PX1) may be projected onto the first depth map (DM1) (S301).

프로세서(110)는 z1, z2, …, zn 각각을 제1 픽셀(PX1)의 좌표(x1, y1)에 포함시킨 후, x, y 및 z 값을 포함하는 복수의 좌표 각각을 제1 뎁스 맵(DM1)에 투영시킬 수 있다. 예를 들어 프로세서(110)는 제1 픽셀(PX1)의 좌표(x1, y1)에 대해 가능한 z 축 상의 값을 포함시킨 좌표 PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각을 제1 뎁스 맵(DM1)에 투영시킬 수 있다. 프로세서(110)는 제1 뎁스 맵(DM1)에 투영된 좌표 PX1'_1(x1', y1', z1') 내지 PX1'_n(x1', y1', zn') 각각을 식별할 수 있다. Processor 110 operates z1, z2,... After each of , zn is included in the coordinates (x1, y1) of the first pixel (PX1), each of a plurality of coordinates including x, y, and z values can be projected onto the first depth map (DM1). For example, the processor 110 sets the coordinates PX1_1(x1, y1, z1) to PX1_n(x1, y1, zn) including the possible z-axis values for the coordinates (x1, y1) of the first pixel (PX1), respectively. Can be projected onto the first depth map DM1. The processor 110 may identify each of the coordinates PX1'_1 (x1', y1', z1') to PX1'_n (x1', y1', zn') projected on the first depth map DM1.

프로세서(110)는 제1 뎁스 맵(DM1)에서의 제1 뎁스 값을 식별할 수 있다(S303). 제1 뎁스 값은 제1 뎁스 맵(DM1)으로부터 식별될 수 있다. 프로세서(110)는 제1 픽셀(PX1)의 좌표(x1, y1)에 대해 가능한 z 축 상의 값 중 z1 값을 포함시킨 좌표 PX1_1(x1, y1, z1)가 투영된 좌표 PX1'_1(x1', y1', z1')에서의 제1 뎁스 값을 식별할 수 있다.The processor 110 may identify the first depth value in the first depth map DM1 (S303). The first depth value may be identified from the first depth map DM1. The processor 110 is configured to project the coordinate PX1_1(x1, y1, z1), which includes the z1 value among the possible values on the z-axis with respect to the coordinates (x1, y1) of the first pixel (PX1), into the projected coordinate PX1'_1(x1' , y1', z1'), the first depth value can be identified.

프로세서(110)는 중심점(CP)에서 제1 픽셀(PX1)의 가능한 z 값 각각과 제1 픽셀(PX1)의 좌표(z1, y1)까지의 제1 거리(D1)와, 제1 뎁스 값 간의 제1 오차를 식별할 수 있다(S305). 중심점(CP)은, 제1 뎁스 맵(DM1)의 위치 정보를 기반으로 식별된 촬영 장치의 위치 정보일 수 있다. 예를 들어 중심점(CP)은, 제1 뎁스 맵(DM1)을 생성하기 위해 이미지 데이터를 생성한 촬영 장치의 위치에 대응될 수 있다. The processor 110 determines each possible z value of the first pixel PX1 from the center point CP and a first distance D1 from the coordinates (z1, y1) of the first pixel PX1 and the first depth value. The first error can be identified (S305). The center point CP may be location information of the photographing device identified based on the location information of the first depth map DM1. For example, the center point CP may correspond to the location of the photographing device that generated image data to generate the first depth map DM1.

프로세서(110)는, PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각과 중심점(CP) 까지의 거리를 식별하고, PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각이 제1 뎁스 맵에 투영되었을 때의 제1 뎁스 값 사이의 제1 오차를 계산할 수 있다. The processor 110 identifies the distance from each of PX1_1 (x1, y1, z1) to PX1_n (x1, y1, zn) to the center point (CP), and PX1_1 (x1, y1, z1) to PX1_n (x1, y1). , zn), the first error between the first depth values when each is projected on the first depth map can be calculated.

예를 들어, 프로세서(110)는 PX1_1(x1, y1, z1)과 중심점(CP)간의 제1 거리(D1)와, PX1_1(x1, y1, z1)를 제1 뎁스 맵(DM1)에 투영했을 때의 좌표인 PX1'_1(x1', y1', z1')에서의 제1 뎁스 값을 각각 식별하여, 제1 오차를 계산할 수 있다. For example, the processor 110 may project the first distance D1 between PX1_1 (x1, y1, z1) and the center point (CP) and PX1_1 (x1, y1, z1) onto the first depth map (DM1). The first error can be calculated by identifying the first depth values at the coordinates PX1'_1 (x1', y1', z1'), respectively.

프로세서(110)는 제1 오차를 기반으로, 제1 확률(P1)을 식별할 수 있다(S307). 제1 확률(P1)은, 제1 픽셀(PX1)의 가능한 z 값에 포함되는 n개의 z 축 상의 값 각각에 대한, 제1 내지 제n 뎁스 맵 확률(Pd_1 내지 Pd_n)을 포함할 수 있다. 예를 들어 프로세서(110)는 PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각에 대해 계산된 복수의 오차를 포함하는 제1 오차를 기반으로, PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각에 대한 제1 내지 제n 뎁스 맵 확률(Pd_1 내지 Pd_n)을 계산할 수 있다. 예를 들어, 프로세서(110)는 PX1_1(x1, y1, z1)에 대해 계산된 오차를 기반으로, 제1 뎁스 맵 확률(Pd_1)을 계산할 수 있다. The processor 110 may identify the first probability (P1) based on the first error (S307). The first probability P1 may include first to nth depth map probabilities (Pd_1 to Pd_n) for each of the n values on the z-axis included in the possible z values of the first pixel PX1. For example, the processor 110 may perform PX1_1(x1, y1, z1) based on the first error including a plurality of errors calculated for each of PX1_1(x1, y1, z1) to PX1_n(x1, y1, zn). ) to PX1_n (x1, y1, zn), respectively, the first to nth depth map probabilities (Pd_1 to Pd_n) can be calculated. For example, the processor 110 may calculate the first depth map probability (Pd_1) based on the error calculated for PX1_1 (x1, y1, z1).

제1 확률(P1)은, 제1 뎁스 맵(DM1)을 기준으로, 제1 픽셀(PX1)의 가능한 z 값에 포함되는 n개의 z 축 상의 값 각각이 정답일 확률일 수 있다. 제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 가능한 z 값 각각이 정답일 확률은, 제1 영역(R1)의 제1 픽셀(PX1)에 대응되는 이미지 데이터의 실제 촬영 현장에 존재하는 물체가 실제로 갖는 높이와 근접할 확률일 수 있다.The first probability P1 may be a probability that each of the n values on the z-axis included in the possible z values of the first pixel PX1 is the correct answer, based on the first depth map DM1. The probability that each of the possible z values that the first pixel (PX1) can have on the z-axis is correct is that the object present at the actual shooting scene of the image data corresponding to the first pixel (PX1) in the first region (R1) is It may be the probability that it is close to the actual height.

프로세서(110)는 예를 들어, 가우시안 분포를 이용하여, 제1 오차를 기반으로 제1 확률(P1)을 식별할 수 있다. The processor 110 may identify the first probability P1 based on the first error, for example, using a Gaussian distribution.

다시 도 1 및 도 2를 참조하면, 프로세서(110)는 제2 픽셀의 z2 값과, 제1 픽셀의 가능한 z 값 각각 간의 차이를 기반으로, 제2 확률을 식별할 수 있다(S400).Referring again to FIGS. 1 and 2 , the processor 110 may identify a second probability based on the difference between the z2 value of the second pixel and each of the possible z values of the first pixel (S400).

도 9는 도 2의 단계 S400을 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining step S400 of FIG. 2.

도 1, 도 2, 도 4 및 도 9를 참조하면, 제2 픽셀(PX2)은 제1 영역(R1)에 포함된 픽셀 중 하나로, 제1 픽셀(PX1)의 옆에 위치하는 픽셀일 수 있다. 제2 픽셀(PX2)은 z 축 상의 확정된 z 값을 가질 수 있다. 프로세서(110)는 PX1_1(x1, y1, z1) 내지 PX1_n(x1, y1, zn) 각각과 PX2(x2, y2, z)와의 차이를 기반으로, 제2 확률(P2)을 식별할 수 있다. 제2 확률(P2)은, 제1 픽셀(PX1)의 가능한 z 값에 포함되는 n개의 z 축 상의 값 각각과, 제2 픽셀(PX2)의 확정된 z 값 간의 차이를 기반으로 한, 제1 내지 제n 비교 확률(Pc_1 내지 Pc_n)을 포함할 수 있다. 예를 들어 프로세서(110)는, 제1 픽셀(PX1)의 가능한 z 값 중 하나인 z1 값과 제2 픽셀(PX2)의 확정된 z 값 간의 차이를 기반으로, 제1 비교 확률(Pc_1)을 계산할 수 있다.Referring to FIGS. 1, 2, 4, and 9, the second pixel (PX2) is one of the pixels included in the first region (R1) and may be a pixel located next to the first pixel (PX1). . The second pixel PX2 may have a determined z value on the z axis. The processor 110 may identify the second probability (P2) based on the difference between each of PX1_1 (x1, y1, z1) to PX1_n (x1, y1, zn) and PX2 (x2, y2, z). The second probability P2 is based on the difference between each of the n values on the z axis included in the possible z values of the first pixel PX1 and the confirmed z value of the second pixel PX2. It may include through nth comparison probabilities (Pc_1 to Pc_n). For example, the processor 110 determines the first comparison probability (Pc_1) based on the difference between the z1 value, which is one of the possible z values of the first pixel (PX1), and the confirmed z value of the second pixel (PX2). It can be calculated.

제2 확률(P2)은, 제1 픽셀(PX1)의 옆 픽셀인 제2 픽셀(PX2)을 기준으로, 제1 픽셀(PX1)의 가능한 z 값에 포함되는 n개의 z 축 상의 값 각각이 정답일 확률일 수 있다. 제1 픽셀(PX1)이 z 축 상에서 가질 수 있는 가능한 z 값 각각이 정답일 확률은, 제1 영역(R1)의 제1 픽셀(PX1)에 대응되는 이미지 데이터의 실제 촬영 현장에 존재하는 물체가 실제로 갖는 높이와 근접할 확률일 수 있다.The second probability (P2) is, based on the second pixel (PX2), which is a pixel next to the first pixel (PX1), each of the n values on the z-axis included in the possible z values of the first pixel (PX1) is the correct answer. It may be a probability. The probability that each of the possible z values that the first pixel (PX1) can have on the z-axis is correct is that the object present at the actual shooting scene of the image data corresponding to the first pixel (PX1) in the first region (R1) is It may be the probability that it is close to the actual height.

프로세서(110)는 예를 들어, 확률 밀도 함수를 이용하여 제2 확률(P2)을 식별할 수 있다.The processor 110 may identify the second probability P2 using, for example, a probability density function.

다시 도 1 및 도 2를 참조하면, 프로세서(110)는 제1 확률 및 제2 확률을 기반으로, 제1 픽셀의 좌표(x1, y1)의 z 축 상의 값인 제1 z 값을 식별할 수 있다(S500). 제1 z 값은, 제1 픽셀의 확정된 z 값일 수 있다.Referring again to FIGS. 1 and 2, the processor 110 may identify a first z value, which is a value on the z axis of the coordinates (x1, y1) of the first pixel, based on the first probability and the second probability. (S500). The first z value may be a confirmed z value of the first pixel.

도 10은 도 2의 단계 S500을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining step S500 of FIG. 2.

도 1, 도 2 및 도 10을 참조하면, 프로세서(110)는 제1 픽셀(PX1)의 z 값인 제1 z 값(Zpx1)을 확정하기 위해, n개의 z 축 상의 값 각각에 대한 뎁스 맵 확률(Pd_1 내지 Pd_n) 각각, n개의 z 축 상의 값 각각에 대한 비교 확률(Pc_1 내지 Pc_n) 각각 및 n개의 z 축 상의 값 각각을 곱한 값을 모두 합하여, 제1 픽셀(PX1)의 확정된 z 값(Zpx1)을 계산할 수 있다. 예를 들어 프로세서(110)는, 제1 픽셀(PX1)의 z 값을 확정하기 위해, z1 값, 제1 뎁스 맵 확률(Pd_1), 및 제1 비교 확률(Pc_1)을 곱하고, 이를 z2 내지 zn 각각에 대해 수행하여 도출된 값을 모두 더할 수 있다.Referring to FIGS. 1, 2, and 10, the processor 110 determines the first z value (Zpx1), which is the z value of the first pixel (PX1), the depth map probability for each of the n values on the z axis. (Pd_1 to Pd_n), respectively, the determined z value of the first pixel (PX1) by summing the comparison probabilities (Pc_1 to Pc_n) for each of the n values on the z-axis and the product of each of the n values on the z-axis. (Zpx1) can be calculated. For example, the processor 110 multiplies the z1 value, the first depth map probability (Pd_1), and the first comparison probability (Pc_1) to determine the z value of the first pixel (PX1), and You can add up all the values derived by performing each operation.

다시 도 1 및 도 2를 참조하면, 프로세서(110)는 전체 촬영 면적의 나머지 영역에 포함된 복수의 픽셀 각각과, 나머지 영역에 대응되는 복수의 뎁스 맵 각각을 이용하여, 복수의 픽셀 각각에 대한 z 축 상의 값을 식별할 수 있다(S600).Referring again to FIGS. 1 and 2, the processor 110 uses each of a plurality of pixels included in the remaining area of the total shooting area and each of a plurality of depth maps corresponding to the remaining area, The value on the z-axis can be identified (S600).

예를 들어, 도 4에 도시된 바와 같이, 전체 촬영 면적(WA)은 제1 영역(R1) 이외의 나머지 영역을 포함할 수 있다. 프로세서(110)는 제1 영역(R1)에 포함된 모두의 픽셀 각각에 대해, 단계 S100 내지 단계 S500을 수행하여, 제1 영역(R1)의 모든 픽셀 각각에 대해 확정된 z 값을 식별할 수 있다. 나아가 프로세서(110)는 전체 촬영 면적(WA)의 나머지 영역에 포함된 모두의 픽셀 각각에 대해, 단계 S100 내지 단계 S500을 수행하여, 전체 촬영 면적(WA)의 모든 픽셀 각각에 대해 확정된 z 값을 식별할 수 있다. 전체 촬영 면적(WA)의 모든 픽셀 각각에 대해 확정된 z 값 각각은, 뎁스 맵을 생성한 영역에 대응되는 실제 영역에 존재하는 물체(예: 건물, 나무 등)의 높이 정보일 수 있다. For example, as shown in FIG. 4, the total imaging area WA may include a remaining area other than the first area R1. The processor 110 may perform steps S100 to S500 for each of all pixels included in the first region R1 to identify a determined z value for each of the pixels in the first region R1. there is. Furthermore, the processor 110 performs steps S100 to S500 for each of all pixels included in the remaining area of the total imaging area (WA), and determines the z value for each of the pixels in the total imaging area (WA). can be identified. Each z value determined for each pixel of the total shooting area (WA) may be height information of an object (eg, a building, a tree, etc.) existing in the actual area corresponding to the area in which the depth map was created.

프로세서(110)는 전체 촬영 면적에 대한 수치 표고 모델을 생성할 수 있다(S700). 프로세서(110)는 전체 촬영 면적(WA)의 모든 픽셀 각각에 대해 단계 S100 내지 단계 S500을 수행하여 얻은 확정된 z 값을 기초로, 전체 촬영 면적(WA)에 대한 수치 표고 모델을 생성할 수 있다.The processor 110 may generate a digital elevation model for the entire shooting area (S700). The processor 110 may generate a digital elevation model for the entire photographed area (WA) based on the determined z value obtained by performing steps S100 to S500 for each of all pixels of the entire photographed area (WA). .

도 11은 도 2의 단계 S600 및 S700을 설명하기 위한 도면이다.FIG. 11 is a diagram for explaining steps S600 and S700 of FIG. 2.

도 11을 참조하면, 수치 표고 모델(DSM)은 전체 촬영 면적(WA)의 모든 픽셀 각각에 대해 단계 S100 내지 단계 S500을 수행하여 얻은 확정된 z 값을 기초로 생성된 것이다. 수치 표고 모델(DSM)에서, 전체 촬영 면적(WA)의 모든 픽셀 각각에 대한 확정된 z 값은 픽셀 값과 대응되어 표현될 수 있다. 예를 들어 픽셀 값이 높을수록 확정된 z 값은 높을 수 있고, 픽셀 값이 낮을수록 확정된 z 값은 낮을 수 있다. 본 발명의 실시예에 따른 전자 장치에 의해 확정된 z 값은 지면을 기준으로 픽셀과 대응되는 실제 지형 또는 실제 위치에 존재하는 사물의 높이와 근사한 값일 수 있다.Referring to FIG. 11, a digital elevation model (DSM) is generated based on the determined z value obtained by performing steps S100 to S500 for each pixel of the entire captured area (WA). In a digital elevation model (DSM), the determined z value for each pixel of the total capture area (WA) can be expressed in correspondence with the pixel value. For example, the higher the pixel value, the higher the confirmed z value may be, and the lower the pixel value, the lower the confirmed z value may be. The z value determined by the electronic device according to an embodiment of the present invention may be a value approximate to the height of an object existing in an actual location or actual terrain corresponding to a pixel relative to the ground.

본 발명의 실시예에 따른 전자 장치는, 전체 촬영 면적의 일부 영역에 대한 뎁스 맵을 기초로 뎁스 맵 확률을 계산하고, 일부 영역의 두 개의 픽셀 사이에서 도출된 비교 확률을 계산하여, 뎁스 맵 생성 영역이 실제 갖고 있는 높이와 가장 근접한 z 축 상의 값을 확정함으로써, 실제 촬영 현장의 높이가 급변하더라도 연속적이고 정확도가 높은 높이 정보를 획득하여 수치 표고 모델을 생성할 수 있다. The electronic device according to an embodiment of the present invention calculates a depth map probability based on a depth map for a partial area of the total shooting area, calculates a comparison probability derived between two pixels in the partial area, and generates a depth map. By determining the value on the z-axis that is closest to the actual height of the area, continuous and highly accurate height information can be obtained and a digital elevation model can be created even if the height of the actual shooting site changes rapidly.

도 12는 본 발명의 몇몇 실시예에 따른 전자 장치의 하드웨어 구현을 설명하기 위한 도면이다.FIG. 12 is a diagram illustrating hardware implementation of an electronic device according to some embodiments of the present invention.

도 12를 참조하면, 본 발명의 몇몇 실시예들에 따른 전자 장치(100)는 전자 장치(1000)로 구현될 수 있다. 전자 장치(1000)는 프로세서(1010), 입출력 장치(1020, I/O), 메모리(1030, memory), 인터페이스(1040), 스토리지(1050, storage) 및 버스(1060, bus)를 포함할 수 있다. 프로세서(1010), 입출력 장치(1020), 메모리(1030), 인터페이스(1040), 및/또는 스토리지(1050)는 버스(1060)를 통하여 서로 결합될 수 있다. 버스(1060)는 데이터들이 이동되는 통로(path)에 해당한다.Referring to FIG. 12, the electronic device 100 according to some embodiments of the present invention may be implemented as the electronic device 1000. The electronic device 1000 may include a processor 1010, an input/output device 1020 (I/O), a memory 1030, an interface 1040, a storage 1050, and a bus 1060. there is. The processor 1010, input/output device 1020, memory 1030, interface 1040, and/or storage 1050 may be coupled to each other through a bus 1060. The bus 1060 corresponds to a path along which data moves.

구체적으로, 프로세서(1010)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit), 마이크로프로세서, 디지털 신호 프로세스, 마이크로컨트롤러, 어플리케이션 프로세서(AP, application processor) 및 이들과 유사한 기능을 수행할 수 있는 논리 소자들 중에서 적어도 하나를 포함할 수 있다. Specifically, the processor 1010 includes a Central Processing Unit (CPU), Micro Processor Unit (MPU), Micro Controller Unit (MCU), Graphic Processing Unit (GPU), microprocessor, digital signal processor, microcontroller, and application processor (AP). , application processor) and logic elements capable of performing similar functions.

입출력 장치(1020)는 키패드(keypad), 키보드, 터치스크린 및 디스플레이 장치 중 적어도 하나를 포함할 수 있다. The input/output device 1020 may include at least one of a keypad, a keyboard, a touch screen, and a display device.

메모리(1030)는 데이터 및/또는 프로그램 등을 로드할 수 있다. 이때, 메모리(1030)는 프로세서(1010)의 동작을 향상시키기 위한 동작 메모리로서, 고속의 디램 및/또는 에스램 등을 포함할 수 있다. 메모리(1030)는 DDR SDRAM(Double Data Rate Static DRAM), SDR SDRAM(Single Data Rate SDRAM)과 같은 하나 이상의 휘발성 메모리 장치 및/또는 EEPROM(Electrical Erasable Programmable ROM), 플래시 메모리(flash memory)과 같은 하나 이상의 비휘발성 메모리 장치를 포함할 수 있다.The memory 1030 may load data and/or programs. At this time, the memory 1030 is an operating memory for improving the operation of the processor 1010, and may include high-speed DRAM and/or SRAM. The memory 1030 may be one or more volatile memory devices, such as Double Data Rate Static DRAM (DDR SDRAM), Single Data Rate SDRAM (SDR SDRAM), and/or Electrical Erasable Programmable ROM (EEPROM), or flash memory. It may include one or more non-volatile memory devices.

인터페이스(1040)는 통신 네트워크로 데이터를 전송하거나 통신 네트워크로부터 데이터를 수신하는 기능을 수행할 수 있다. 인터페이스(1040)는 유선 또는 무선 형태일 수 있다. 예컨대, 인터페이스(1040)는 안테나 또는 유무선 트랜시버 등을 포함할 수 있다. The interface 1040 may perform a function of transmitting data to or receiving data from a communication network. Interface 1040 may be wired or wireless. For example, the interface 1040 may include an antenna or a wired or wireless transceiver.

스토리지(1050)는 데이터 및/또는 프로그램 등을 저장 및 보관할 수 있다. 스토리지(1050)는 반도체 드라이브(SSD, Solid State Drive), 하드 드라이브(hard drive), 플래시 메모리(flash memory)와 같은 하나 이상의 비휘발성 메모리 장치를 포함할 수 있다. 본 발명에서 스토리지(1050)는 이상거래 탐지 방법을 수행하기 위한 인스트럭션(instruction)으로 구성된 컴퓨터 프로그램을 저장할 수 있다.The storage 1050 may store and store data and/or programs. Storage 1050 may include one or more non-volatile memory devices, such as a solid state drive (SSD), a hard drive, or flash memory. In the present invention, the storage 1050 can store a computer program consisting of instructions for performing an abnormal transaction detection method.

또는, 본 발명의 실시예들에 따른 전자 장치(100)는 복수의 전자 장치(1000)가 네트워크를 통해서 서로 연결되어 형성된 시스템일 수 있다. 이러한 경우에는 각각의 모듈 또는 모듈의 조합들이 전자 장치(1000)로 구현될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Alternatively, the electronic device 100 according to embodiments of the present invention may be a system formed by connecting a plurality of electronic devices 1000 to each other through a network. In this case, each module or combination of modules may be implemented as the electronic device 1000. However, this embodiment is not limited to this.

추가적으로, 전자 장치(100)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.Additionally, the electronic device 100 may be a workstation, a data center, an internet data center (IDC), a direct attached storage (DAS) system, a storage area network (SAN) system, or a network attached storage (NAS). ) system and a RAID (redundant array of inexpensive disks, or redundant array of independent disks) system, but the present embodiment is not limited thereto.

또한, 전자 장치(100)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.Additionally, the electronic device 100 can transmit data through a network. Networks may include networks based on wired Internet technology, wireless Internet technology, and short-distance communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DMNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), DMNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology. However, this embodiment is not limited to this.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication. At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, this embodiment is not limited to this.

네트워크를 통해서 통신하는 전자 장치(100)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The electronic device 100 that communicates through a network can comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only). , Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include. However, this embodiment is not limited to this.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

Claims (10)

수치 표고 모델을 생성하는 전자 장치에 있어서,
프로세서; 및
상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고,
상기 메모리는, 실행되었을 때 상기 프로세서로 하여금:
전체 촬영 면적의 일부 영역인 제1 영역에 대한 이미지 데이터에 포함된 제1 픽셀의 좌표(x1, y1)를 식별하고,
상기 제1 픽셀의 좌표(x1, y1)를 기반으로, 상기 제1 픽셀이 가질 수 있는 n개(단, n은 자연수)의 z 축 상의 값을 포함하는 가능한 z1 값을 식별하고,
상기 제1 영역과 대응되는 제1 뎁스 맵(depth map)을 기초로, 상기 가능한 z1 값 각각이 정답일 제1 확률을 식별하고,
제2 픽셀의 상기 z 축 상의 값인 확정된 z2 값과, 상기 가능한 z1 값 각각 간의 차이를 기반으로, 제2 확률을 식별하고,
상기 제1 확률 및 상기 제2 확률을 기반으로, 상기 제1 픽셀의 좌표(x1, y1)의 상기 z 축 상의 값인 제1 z 값을 식별하고,
상기 전체 촬영 면적의 나머지 영역에 포함된 복수의 픽셀 각각과, 상기 나머지 영역에 대응되는 복수의 뎁스 맵 각각을 이용하여, 상기 복수의 픽셀 각각에 대한 상기 z 축 상의 값을 식별하고,
상기 전체 촬영 면적에 대한 상기 수치 표고 모델을 생성하도록 하는 인스트럭션들(instructions)을 저장하는
전자 장치.
In the electronic device for generating a digital elevation model,
processor; and
a memory operatively coupled to the processor,
The memory, when executed, causes the processor to:
Identifying the coordinates (x1, y1) of the first pixel included in the image data for the first area, which is a partial area of the total shooting area,
Based on the coordinates (x1, y1) of the first pixel, identify possible z1 values that include n values on the z-axis that the first pixel can have (where n is a natural number),
Identifying a first probability that each of the possible z1 values is correct based on a first depth map corresponding to the first area,
identify a second probability based on the difference between each of the possible z1 values and a confirmed z2 value, which is a value on the z-axis of a second pixel;
Based on the first probability and the second probability, identify a first z value that is a value on the z axis of the coordinates (x1, y1) of the first pixel,
Identifying a value on the z-axis for each of the plurality of pixels using each of a plurality of pixels included in the remaining area of the total shooting area and each of a plurality of depth maps corresponding to the remaining area,
Storing instructions for generating the digital elevation model for the entire shooting area.
Electronic devices.
제1 항에 있어서,
상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함하는
전자 장치.
According to claim 1,
The first probability includes first to nth depth map probabilities for each of the n values on the z axis included in the possible z1 values.
Electronic devices.
제1 항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)를, 상기 제1 뎁스 맵에 투영시키고,
상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)가 투영된 상기 제1 뎁스 맵에서의 제1 뎁스 값을 식별하고,
중심점에서 상기 가능한 z1 값 각각과 상기 제1 픽셀의 좌표(x1, y1)까지의 제1 거리와, 상기 제1 뎁스 값 간의 제1 오차를 식별하고,
상기 제1 오차를 기반으로, 상기 제1 확률을 식별하도록 하는
전자 장치.
According to claim 1,
The instructions allow the processor to:
Projecting each of the possible z1 values and the coordinates (x1, y1) of the first pixel onto the first depth map,
Identifying a first depth value in the first depth map onto which each of the possible z1 values and the coordinates (x1, y1) of the first pixel are projected,
identify a first error between the first depth value and a first distance from a center point to each of the possible z1 values and coordinates (x1, y1) of the first pixel;
Based on the first error, to identify the first probability
Electronic devices.
제3 항에 있어서,
상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함하고,
상기 제1 확률은, 상기 제1 뎁스 맵을 기준으로 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각이 정답일 확률인
전자 장치.
According to clause 3,
The first probability includes first to nth depth map probabilities for each of the n values on the z-axis included in the possible z1 values,
The first probability is the probability that each of the n values on the z-axis included in the possible z1 values is the correct answer based on the first depth map.
Electronic devices.
제3 항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
가우시안 분포를 이용하여 상기 제1 오차를 기반으로 상기 제1 확률을 식별하도록 하는
전자 장치.
According to clause 3,
The instructions are such that the processor,
Identifying the first probability based on the first error using a Gaussian distribution
Electronic devices.
제3 항에 있어서,
상기 중심점은, 상기 제1 뎁스 맵의 위치 정보를 기반으로 식별된 촬영 장치의 위치 정보인
전자 장치.
According to clause 3,
The center point is location information of the photographing device identified based on the location information of the first depth map.
Electronic devices.
제1 항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
확률 밀도 함수를 이용하여 상기 제2 확률을 식별하도록 하는
전자 장치.
According to claim 1,
The instructions are such that the processor,
To identify the second probability using a probability density function
Electronic devices.
제1 항에 있어서,
상기 제2 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각과 상기 z2 값 간의 차이를 기초로 계산된 제1 내지 제n 비교 확률을 포함하는
전자 장치.
According to claim 1,
The second probability includes first to nth comparison probabilities calculated based on the difference between the z2 value and each of the n values on the z axis included in the possible z1 values.
Electronic devices.
제1 항에 있어서,
상기 제1 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각에 대한 제1 내지 제n 뎁스 맵 확률을 포함하고,
상기 제2 확률은, 상기 가능한 z1 값에 포함되는 상기 n개의 z 축 상의 값 각각과 상기 z2 값 간의 차이를 기초로 계산된 제1 내지 제n 비교 확률을 포함하고,
상기 인스트럭션들은, 상기 프로세서가,
상기 가능한 z1 값 각각, 상기 제1 내지 제n 뎁스 맵 확률 각각 및 상기 제1 내지 제n 비교 확률 각각을 기초로, 상기 제1 z 값을 식별하도록 하는
전자 장치.
According to claim 1,
The first probability includes first to nth depth map probabilities for each of the n values on the z-axis included in the possible z1 values,
The second probability includes first to nth comparison probabilities calculated based on the difference between the z2 value and each of the n values on the z-axis included in the possible z1 values,
The instructions are such that the processor,
Based on each of the possible z1 values, each of the first to nth depth map probabilities, and each of the first to nth comparison probabilities, to identify the first z value
Electronic devices.
제1 항 내지 제9 항 중 어느 하나에 기재된 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program capable of executing the method according to any one of claims 1 to 9.
KR1020230173130A 2023-12-04 2023-12-04 Electronic device that generates digital surface model KR102679734B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230173130A KR102679734B1 (en) 2023-12-04 2023-12-04 Electronic device that generates digital surface model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230173130A KR102679734B1 (en) 2023-12-04 2023-12-04 Electronic device that generates digital surface model

Publications (1)

Publication Number Publication Date
KR102679734B1 true KR102679734B1 (en) 2024-07-01

Family

ID=91944366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230173130A KR102679734B1 (en) 2023-12-04 2023-12-04 Electronic device that generates digital surface model

Country Status (1)

Country Link
KR (1) KR102679734B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030043637A (en) * 2001-11-27 2003-06-02 삼성전자주식회사 Apparatus and method for depth image-based representation of 3-dimensional object
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar
KR20210026412A (en) * 2019-08-30 2021-03-10 순천향대학교 산학협력단 Method for Real-time Object Detection Based on Lidar Sensor and Camera Using CNN
KR20210069388A (en) * 2019-12-03 2021-06-11 주식회사 포스코아이씨티 Face Recognition System For Real Image Judgment Using Face Recognition Model Based on Deep Learning
KR20220159402A (en) * 2020-03-27 2022-12-02 홀로직, 인크. Systems and methods for linkage of regions of interest in multiple imaging modalities
KR20230050396A (en) * 2020-08-26 2023-04-14 베이징 로보락 이노베이션 테크노로지 씨오.,엘티디. Obstacle detection method, device, autonomous walking robot and storage medium
KR20230055311A (en) * 2021-10-18 2023-04-25 삼성전자주식회사 Electronic device and method for identifying content

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030043637A (en) * 2001-11-27 2003-06-02 삼성전자주식회사 Apparatus and method for depth image-based representation of 3-dimensional object
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar
KR20210026412A (en) * 2019-08-30 2021-03-10 순천향대학교 산학협력단 Method for Real-time Object Detection Based on Lidar Sensor and Camera Using CNN
KR20210069388A (en) * 2019-12-03 2021-06-11 주식회사 포스코아이씨티 Face Recognition System For Real Image Judgment Using Face Recognition Model Based on Deep Learning
KR20220159402A (en) * 2020-03-27 2022-12-02 홀로직, 인크. Systems and methods for linkage of regions of interest in multiple imaging modalities
KR20230050396A (en) * 2020-08-26 2023-04-14 베이징 로보락 이노베이션 테크노로지 씨오.,엘티디. Obstacle detection method, device, autonomous walking robot and storage medium
KR20230055311A (en) * 2021-10-18 2023-04-25 삼성전자주식회사 Electronic device and method for identifying content

Similar Documents

Publication Publication Date Title
US10466348B2 (en) Position acquisition method and apparatus
EP4027299A2 (en) Method and apparatus for generating depth map, and storage medium
US9135678B2 (en) Methods and apparatus for interfacing panoramic image stitching with post-processors
JP2021524115A (en) Target 3D detection and smart operation control methods, devices, media and equipment
KR102211292B1 (en) System and method for grid-based geofencing service
KR102347232B1 (en) Electronic device for providing visual localization based on outdoor three-dimension map information and operating method thereof
CN112414403A (en) Robot positioning and attitude determining method, equipment and storage medium
KR102679734B1 (en) Electronic device that generates digital surface model
CN117075171B (en) Pose information determining method, device and equipment of laser radar and storage medium
WO2019105194A1 (en) Propagation path search method and apparatus
KR102359250B1 (en) Point cloud inference device and method thereof
US20230245344A1 (en) Electronic device and controlling method of electronic device
CN115311418B (en) Multi-detail-level tree model single reconstruction method and device
KR20230104105A (en) Hole filling method for virtual 3 dimensional model and computing device therefor
WO2022107112A1 (en) Neural network model based depth estimation
KR102629871B1 (en) Device and method for blade modeling
US11475631B2 (en) Training dataset generation for depth measurement
US20240273848A1 (en) Texturing method for generating three-dimensional virtual model, and computing device therefor
CN114581746B (en) Object detection method, device, equipment and medium
KR102669839B1 (en) Pre-processing method for generating 3D virtual model and computing device therefor
CN116229209B (en) Training method of target model, target detection method and device
WO2024196492A1 (en) Adaptive region-based object sampling for object detection
KR20230119493A (en) Method and device for processing point cloud data
CN108062793A (en) Processing method, device, equipment and storage medium at the top of object based on elevation
US20230177871A1 (en) Face detection based on facial key-points