KR102412373B1 - Apparatus and method for generating 3D data using multi-view X-ray data - Google Patents

Apparatus and method for generating 3D data using multi-view X-ray data Download PDF

Info

Publication number
KR102412373B1
KR102412373B1 KR1020210146873A KR20210146873A KR102412373B1 KR 102412373 B1 KR102412373 B1 KR 102412373B1 KR 1020210146873 A KR1020210146873 A KR 1020210146873A KR 20210146873 A KR20210146873 A KR 20210146873A KR 102412373 B1 KR102412373 B1 KR 102412373B1
Authority
KR
South Korea
Prior art keywords
image
dimensional
generating
images
input
Prior art date
Application number
KR1020210146873A
Other languages
Korean (ko)
Inventor
이시운
최우식
김태규
김판규
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Priority to KR1020210146873A priority Critical patent/KR102412373B1/en
Application granted granted Critical
Publication of KR102412373B1 publication Critical patent/KR102412373B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06T5/001
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

생성 장치가 제공된다. 상기 생성 장치는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함할 수 있다.A generating device is provided. The generating device may include a generator configured to generate a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model.

Description

다중 시점 X-ray 데이터를 활용한 3D 데이터 생성 장치 및 방법{Apparatus and method for generating 3D data using multi-view X-ray data}Apparatus and method for generating 3D data using multi-view X-ray data

본 발명은 다각도로 촬영된 2차원 이미지들을 이용하여 3차원 이미지를 생성하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a three-dimensional image using two-dimensional images taken from multiple angles.

사물의 내부를 정확하게 파악하기 위해 3차원 엑스레이(X-ray) 기술이 도입되고 있다.3D X-ray technology is being introduced to accurately grasp the inside of an object.

3차원 엑스레이 기술을 이용하여 다양한 사물의 내부를 파악하고 처리하는 각종 알고리즘이 적용될 수 있다. 이들 알고리즘 중 일부는 기계 학습을 통해 생성될 수 있다. 이때, 기존 2차원 엑스레이 기술 단계에서 학습된 기존 기계 학습 모델을 그대로 3차원 엑스레이 기술에 적용한다면 많은 도움이 될 것이 자명하다.Various algorithms for identifying and processing the inside of various objects using 3D X-ray technology can be applied. Some of these algorithms can be created through machine learning. At this time, it will be of great help if the existing machine learning model learned in the existing 2D X-ray technology stage is applied to the 3D X-ray technology as it is.

하지만, 측면 2차원 데이터, 평면 2차원 데이터 등과 같은 다중시점 2D(2차원) 데이터로부터 3D 데이터를 생성하는 기존 방법론은 다중 시점에 대한 데이터가 상당히 많이 필요하고 부정확하다는 단점이 존재한다. 이러한 문제로 인해 기학습된 2차원 엑스레이 처리 모델을 3차원 엑스레이 처리 모델로 변환하는 것이 현실적으로 어렵다.However, existing methodologies for generating 3D data from multi-view 2D (two-dimensional) data, such as lateral two-dimensional data and planar two-dimensional data, have disadvantages in that data for multiple views is required and inaccurate. Due to these problems, it is practically difficult to convert the previously learned 2D X-ray processing model into a 3D X-ray processing model.

한국공개특허공보 제2020-0100190호에는 이미지 변환을 위한 픽셀 좌표 및 상기 변환된 이미지 데이터를 저장하기 위한 메모리 주소를 결정하는 기술이 나타나 있다.Korean Patent Application Laid-Open No. 2020-0100190 discloses a technique for determining pixel coordinates for image conversion and a memory address for storing the converted image data.

한국공개특허공보 제2020-0100190호Korean Patent Publication No. 2020-0100190

본 발명은 다중 시점의 2차원 이미지 복수개를 이용하여 3차원 이미지를 정확하게 생성할 수 있는 생성 장치 및 생성 방법을 제공하기 위한 것이다.An object of the present invention is to provide a generating apparatus and a generating method capable of accurately generating a three-dimensional image using a plurality of two-dimensional images of multiple viewpoints.

본 발명의 생성 장치는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함할 수 있다.The generating apparatus of the present invention may include a generator configured to generate a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model.

본 발명의 생성 방법은 3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영 단계; 기계 학습된 생성 모델을 이용하여, 상기 복수의 제2 이미지가 입력되면 3차원의 제3 이미지를 생성하는 생성 단계; 상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 보정 단계;를 포함할 수 있다.The generating method of the present invention comprises: a projection step of generating a plurality of two-dimensional second images in which the first image is projected from multiple angles when a three-dimensional first image is input; a generating step of generating a three-dimensional third image when the plurality of second images are input by using the machine-learned generative model; Comparing the first image and the third image, calculating a loss (loss) in units of pixels, and a correction step of learning the generation model in a direction in which the loss is minimized; may include.

본 발명에 따르면, 다중 시점의 2차원 엑스레이 영상이 3차원 엑스레이 영상으로 정확하게 변환될 수 있다.According to the present invention, a multi-view 2D X-ray image can be accurately converted into a 3D X-ray image.

이를 통해, 기존 2차원 이미지 기반으로 학습되고 생성된 각종 이미지 처리 모델을 3차원 이미지에 접목할 수 있는 환경이 제공될 수 있다.Through this, an environment in which various image processing models learned and generated based on an existing two-dimensional image can be grafted onto a three-dimensional image can be provided.

또한, 2차원 이미지를 분석하는 기존 시스템에 본 발명의 생성 장치가 적용될 경우, 2차원 이미지와 함께 3차원 이미지가 획득되고 분석될 수 있다. 따라서, 2차원 이미지의 분석에 대한 보조 분석으로서 3차원 이미지 분석이 추가될 수 있다.In addition, when the generating apparatus of the present invention is applied to an existing system for analyzing a two-dimensional image, a three-dimensional image may be acquired and analyzed together with the two-dimensional image. Accordingly, a 3D image analysis may be added as an auxiliary analysis to the analysis of the 2D image.

도 1은 본 발명의 생성 장치를 나타낸 블록도이다.
도 2는 생성 장치의 동작을 나타낸 개략도이다.
도 3은 본 발명의 생성 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a block diagram showing a generating device of the present invention.
Fig. 2 is a schematic diagram showing the operation of the generating device.
3 is a flowchart illustrating a method for generating according to the present invention.
4 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is said that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but other elements in the middle It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that another element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It is to be understood that the existence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof, is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of described items or any item of a plurality of described items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 생성 장치(100)를 나타낸 블록도이다. 도 2는 생성 장치(100)의 동작을 나타낸 개략도이다.1 is a block diagram showing a generating apparatus 100 of the present invention. 2 is a schematic diagram illustrating an operation of the generating device 100 .

도 1에 도시된 생성 장치(100)는 투영부(110), 생성부(130), 보정부(150)를 포함할 수 있다.The generating apparatus 100 illustrated in FIG. 1 may include a projecting unit 110 , a generating unit 130 , and a correcting unit 150 .

생성부(130)는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 대상물의 3차원 이미지를 생성할 수 있다.The generator 130 may generate a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model.

생성 모델은 특정 대상물을 여러 각도에서 촬영한(다중 시점) 복수의 2차원 이미지를 이용하여 특정 대상물의 3차원 이미지를 생성할 수 있다. 이 과정에서 많은 오류가 포함될 수 있다. 2차원 이미지를 3차원 이미지로 변환하는 기술의 실효성을 개선하기 위해 해당 오류가 최소화될 필요가 있다. 이를 위해 생성 모델을 위한 많은 양의 학습 데이터가 요구된다.The generative model may generate a 3D image of the specific target by using a plurality of 2D images obtained by photographing the specific target from various angles (multi-viewpoint). Many errors can be involved in this process. In order to improve the effectiveness of a technology for converting a two-dimensional image into a three-dimensional image, the error needs to be minimized. For this, a large amount of training data for the generative model is required.

수많은 학습 데이터가 존재할 수 있다. 하지만, 정확도까지 고려되면 실질적인 학습 데이터의 양은 급감할 수 있다.Numerous training data may exist. However, when accuracy is considered, the amount of actual training data may drop sharply.

따라서, 설정 범위의 정확도를 만족하는 다량의 학습 데이터가 생성될 필요가 있다.Therefore, it is necessary to generate a large amount of learning data satisfying the accuracy of the setting range.

생성 모델을 위한 학습 데이터를 획득하기 위해 투영부(110)가 이용될 수 있다.The projection unit 110 may be used to obtain training data for the generative model.

투영부(110)는 3차원의 제1 이미지(10)가 입력되면, 제1 이미지(10)가 다각도로 투영된 2차원의 복수의 제2 이미지(20)를 생성할 수 있다.When the three-dimensional first image 10 is input, the projection unit 110 may generate a plurality of two-dimensional second images 20 in which the first image 10 is projected from various angles.

일 예로, 투영부(110)는 3차원의 제1 이미지(10)의 중심을 회전 중심으로 하여 제1 이미지(10)를 다양한 각도로 회전시킬 수 있다. 예를 들어, 서로 직교하는 x축, y축, z축이 형성하는 가상 공간 상에서 투영부(110)는 제1 이미지(10)를 x축, y축, z축 중 적어도 하나를 기준으로 다양하게 회전시킬 수 있다. 투영부(110)는 제1 이미지(10)를 설정 각도만큼 회전시킬 때마다 설정 위치에서 제1 이미지(10)를 바라본 2차원 이미지를 캡처할 수 있다. 이렇게 캡처된 2차원 이미지가 제2 이미지(20)에 해당될 수 있다.For example, the projection unit 110 may rotate the first image 10 at various angles with the center of the three-dimensional first image 10 as the rotation center. For example, in the virtual space formed by the x-axis, y-axis, and z-axis orthogonal to each other, the projection unit 110 variously displays the first image 10 based on at least one of the x-axis, y-axis, and z-axis. can be rotated The projection unit 110 may capture a two-dimensional image of the first image 10 viewed from the set position whenever the first image 10 is rotated by a set angle. The two-dimensional image captured in this way may correspond to the second image 20 .

투영부(110)에 따르면, 3차원 이미지를 이용해 생성부(130)를 위한 다수의 2차원 학습 이미지가 생성될 수 있다.According to the projection unit 110 , a plurality of 2D learning images for the generation unit 130 may be generated using the 3D image.

단일의 제1 이미지(10)로부터 획득된 복수의 제2 이미지(20)는 제1 이미지(10)의 정면 이미지, 측면 이미지, 평면 이미지를 모두 포함할 수 있다. 제2 이미지(20)는 기본적으로 정면 이미지, 측면 이미지, 평면 이미지를 포함하고, 그 밖에 다양한 각도의 다른 이미지를 추가로 포함할 수 있다.The plurality of second images 20 obtained from the single first image 10 may include all of a front image, a side image, and a planar image of the first image 10 . The second image 20 basically includes a front image, a side image, and a planar image, and may additionally include other images of various angles.

생성부(130)는 단일의 3차원 이미지로부터 획득된 복수의 제2 이미지(20)가 입력되면, 생성 모델을 이용하여 3차원 제3 이미지(30)를 생성할 수 있다.When a plurality of second images 20 obtained from a single three-dimensional image are input, the generator 130 may generate the three-dimensional third image 30 by using the generation model.

투영부(110) 및 생성부(130)에 따르면, 제2 이미지(20)는 제1 이미지(10)를 기초로 생성된 것이고, 제3 이미지(30)는 제2 이미지(20)를 기초로 생성된 것일 수 있다. 이에 따르면, 3차원 이미지에 해당되는 제1 이미지(10)와 제3 이미지(30)는 동일해야 하지만, 현실적으로 그렇지 못하다. 즉, 3차원의 A를 2차원의 B로 만든 후, 2차원의 B를 3차원으로 만들면 A가 되어야 하겠지만, 현실은 A와 다른 C가 생성될 수 있다. 이때, 생성부(130)에서 생성하는 C가 A를 추종하도록 생성 모델이 보정될 필요가 있다.According to the projection unit 110 and the generation unit 130 , the second image 20 is generated based on the first image 10 , and the third image 30 is generated based on the second image 20 . may have been created. According to this, the first image 10 and the third image 30 corresponding to the three-dimensional image should be the same, but in reality, this is not the case. In other words, if three-dimensional A is made into two-dimensional B, and then two-dimensional B is made three-dimensional, it should be A, but in reality, C different from A can be created. In this case, the generation model needs to be corrected so that C generated by the generation unit 130 tracks A.

보정부(150)는 제1 이미지(10)와 제3 이미지(30)를 비교할 수 있다.The compensator 150 may compare the first image 10 and the third image 30 .

보정부(150)는 제3 이미지(30)가 제1 이미지(10)를 추종하도록 생성 모델을 보정할 수 있다. 일 예로, 보정부(150)는 제1 이미지(10)와 제3 이미지(30)를 비교하여 픽셀 단위의 손실(Loss)을 산출할 수 있다. 보정부(150)는 해당 손실이 최소가 되는 방향으로 생성 모델을 학습시킬 수 있다.The corrector 150 may correct the generated model so that the third image 30 follows the first image 10 . For example, the compensator 150 may calculate a loss in units of pixels by comparing the first image 10 and the third image 30 . The compensator 150 may train the generative model in a direction in which the corresponding loss is minimized.

예를 들어, 보정부(150)는 제1 이미지(10)의 각 픽셀값과 제3 이미지(30)의 각 픽셀값 간의 오차값을 제곱하는 방식으로 이미지 내의 모든 좌표에 대한 픽셀 단위의 손실을 산출할 수 있다. 이때, 픽셀값은 화소의 색이나 명암 또는 다른 속성을 나타내는 이산값을 포함할 수 있다.For example, the compensator 150 compensates for the loss in units of pixels for all coordinates in the image by squaring the error value between each pixel value of the first image 10 and each pixel value of the third image 30 . can be calculated. In this case, the pixel value may include a discrete value indicating the color, contrast, or other property of the pixel.

보정부(150)는 모든 좌표에 대해 산출된 손실을 평균내어 평균 제곱 오차 (Mean Squared Error)를 산출할 수 있다.The correction unit 150 may calculate a mean squared error by averaging the losses calculated for all coordinates.

보정부(150)는 오차 역전파법(Back propagation)을 이용하여 생성 모델에 평균 제곱 오차를 적용할 수 있다. 보정부(150)는 평균 제곱 오차가 최소화되는 방향으로 생성 모델을 학습시킬 수 있다.The corrector 150 may apply the mean square error to the generated model using an error back propagation method. The compensator 150 may train the generative model in a direction in which the mean square error is minimized.

본 발명의 생성 장치(100)에 따르면, 투영부(110) 및 보정부(150)를 통해 생성부(130)의 대상물 복원 능력, 다시 말해 2차원 이미지를 3차원 이미지로 정확하게 변환하는 능력이 개선될 수 있다.According to the generating apparatus 100 of the present invention, the object restoration ability of the generating unit 130, that is, the ability to accurately convert a two-dimensional image into a three-dimensional image, is improved through the projection unit 110 and the correction unit 150 . can be

신뢰성 있게 2차원 이미지를 3차원 이미지로 변환할 수 있는 생성부(130)에 따르면, 기존 2차원 이미지를 대상으로 학습된 다양한 딥러닝 모델을 3차원 이미지를 대상으로 적용할 수 있는 방안이 현실화될 수 있다.According to the generator 130 capable of reliably converting a two-dimensional image into a three-dimensional image, a method for applying various deep learning models learned on an existing two-dimensional image to a three-dimensional image will be realized. can

일 예로, 2차원의 제2 이미지(20)는 기존의 다양한 2차원 이미지로 학습된 특정 딥러닝 모델에 입력될 수 있다. 특정 딥러닝 모델은 정상적인 2차원 이미지가 입력되면 기존 학습 결과를 토대로 각종 효과가 부가된 2차원의 효과 이미지를 생성할 수 있다.As an example, the two-dimensional second image 20 may be input to a specific deep learning model learned from various existing two-dimensional images. When a normal two-dimensional image is input to a specific deep learning model, a two-dimensional effect image to which various effects are added can be generated based on the existing learning results.

생성부(130)는 복수의 제2 이미지(20)와 딥러닝 모델의 출력 데이터를 입수할 수 있다.The generator 130 may obtain the plurality of second images 20 and output data of the deep learning model.

생성부(130)는 복수의 제2 이미지(20)를 이용하여 제1 이미지(10)를 복원할 수 있다. 생성부(130)는 복원되는 제1 이미지(10)에 출력 데이터를 추가할 수 있다. 생성부(130)를 통해서 생성된 제3 이미지(30)는 제2 이미지(20)를 이용하여 복원된 제1 이미지(10)를 포함할 수 있다. 이때, 복원된 제1 이미지(10)는 본래의 제1 이미지(10)와 완전하게 동일하지는 않을 수 있으므로, 앞에서는 제1 이미지(10)와 일부 다르다는 의미에서 제3 이미지(30)로 명명하였음을 환기한다. 생성부(130)는 제2 이미지(20)를 입력으로 하여 딥러닝 모델에서 출력된 출력 데이터를 새롭게 복원된 제1 이미지(10)(제3 이미지(30)에 해당됨)에 추가할 수 있다.The generator 130 may restore the first image 10 by using the plurality of second images 20 . The generator 130 may add output data to the restored first image 10 . The third image 30 generated by the generator 130 may include the first image 10 restored using the second image 20 . At this time, since the restored first image 10 may not be completely the same as the original first image 10, it was named as the third image 30 in the sense that it is partly different from the first image 10 previously. to ventilate The generator 130 may receive the second image 20 as an input and add output data output from the deep learning model to the newly restored first image 10 (corresponding to the third image 30 ).

본 실시예에 따르면, 3차원 이미지에 적용이 어려운 딥러닝 모델을 이용하기 위해, 일단 투영부(110)에 의해 3차원 이미지가 2차원 이미지로 변환될 수 있다. 투영부(110)에 의해 변환된 2차원 이미지에 대해 딥러닝 모델이 정상적으로 적용될 수 있다. 딥러닝 모델의 적용 결과, 처리 결과, 출력 결과 등은 2차원 이미지에 반영된 상태일 수 있다. 생성부(130)는 딥러닝 모델의 출력 결과가 반영된 2차원 이미지를 본래의 제1 이미지(10)로 복원할 수 있다. 이때, 복원된 제1 이미지(10)에는 딥러닝 모델의 적용 결과물이 반영된 상태일 수 있다.According to this embodiment, in order to use a deep learning model that is difficult to apply to a 3D image, the 3D image may be converted into a 2D image by the projection unit 110 once. A deep learning model may be normally applied to the two-dimensional image converted by the projection unit 110 . The application result, processing result, output result, etc. of the deep learning model may be reflected in the two-dimensional image. The generator 130 may restore the two-dimensional image in which the output result of the deep learning model is reflected to the original first image 10 . In this case, the restored first image 10 may be in a state in which the application result of the deep learning model is reflected.

본 실시예에 따르면, 기존의 2차원 이미지를 사용하여 학습된 다양한 딥러닝 모델이 3차원 이미지를 대상으로 사용될 수 있다.According to this embodiment, various deep learning models learned using an existing two-dimensional image may be used for a three-dimensional image.

도 3은 본 발명의 생성 방법을 나타낸 흐름도이다.3 is a flow chart showing a generating method of the present invention.

도 3에 도시된 생성 방법은 도 1의 생성 장치(100)에 의해 수행될 수 있다.The generating method shown in FIG. 3 may be performed by the generating apparatus 100 of FIG. 1 .

생성 방법은 투명 단계(S 510), 생성 단계(S 520), 보정 단계(S 530)를 포함할 수 있다.The generating method may include a transparent step (S510), a generating step (S520), and a correction step (S530).

투명 단계(S 510)는 3차원의 제1 이미지(10)가 입력되면 제1 이미지(10)가 다각도로 투영된 2차원의 복수의 제2 이미지(20)를 생성할 수 있다. 투영 단계(S 510)는 투영부(110)에 의해 수행될 수 있다.In the transparent step S510 , when the three-dimensional first image 10 is input, a plurality of two-dimensional second images 20 in which the first image 10 is projected from various angles may be generated. The projecting step ( S510 ) may be performed by the projection unit 110 .

생성 단계(S 520)는 기계 학습된 생성 모델을 이용하여, 복수의 제2 이미지(20)가 입력되면 3차원의 제3 이미지(30)를 생성할 수 있다. 생성 단계(S 520)는 생성부(130)에 의해 수행될 수 있다.In the generating step ( S520 ), a three-dimensional third image 30 may be generated when a plurality of second images 20 are input by using the machine-learned generative model. The generating step ( S520 ) may be performed by the generating unit 130 .

보정 단계(S 530)는 제1 이미지(10)와 상기 제3 이미지(30)를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 손실이 최소가 되는 방향으로 생성 모델을 학습시킬 수 있다. 보정 단계(S 530)는 보정부(150)에 의해 수행될 수 있다. 보정부(150)에 따르면, 제3 이미지(30)는 학습이 진행될수록 제1 이미지(10)와 유사해지며, 복원된 제1 이미지(10)의 지위를 가질 수 있다.In the correction step ( S530 ), the first image 10 and the third image 30 may be compared to calculate a loss in units of pixels, and the generation model may be trained in a direction in which the loss is minimized. The correction step ( S530 ) may be performed by the correction unit 150 . According to the corrector 150 , the third image 30 may become similar to the first image 10 as learning progresses, and may have the status of the restored first image 10 .

인공 지능 모델(생성 모델(Generative Model))은 다중 시점의 2차원 이미지를 복수로 입력받아 3차원 이미지 하나를 출력할 수 있다. 학습 데이터 획득 방법은 하나의 3D(3차원) 엑스레이(X-RAY) 스캔 데이터를 각각의 시점(정면 이미지, 측면 이미지, 평면 이미지 포함) 기준으로 투영(Projection)시켜 복수의 2D 이미지를 획득한다. 인공 지능 모델은 획득된 2D 이미지 데이터를 입력받아 원본 3D 이미지를 최대한 자연스럽게 재복원(Reconstruct)하는 것을 목표로 학습할 수 있다. 학습이 완료된 인공 지능은 다중 시점 2D 입력 데이터로부터 3D 입체 데이터를 생성해낼 수 있다.An artificial intelligence model (generative model) may receive a plurality of two-dimensional images from multiple viewpoints and output one three-dimensional image. The learning data acquisition method acquires a plurality of 2D images by projecting one 3D (three-dimensional) X-RAY scan data based on each viewpoint (including a front image, a side image, and a plane image). The artificial intelligence model can learn with the goal of reconstructing the original 3D image as naturally as possible by receiving the acquired 2D image data. Artificial intelligence that has been trained can generate 3D stereoscopic data from multi-view 2D input data.

투영부(110)는 3D X-RAY를 통해 3D 이미지를 확보한다. 획득한 3D 이미지에 대하여 각각의 시점(예를 들어, xy 평면, yz 평면 등)에 대하여 2D 투영(projection)을 진행하여 다수의 2D 이미지를 획득한다.The projection unit 110 secures a 3D image through 3D X-RAY. A plurality of 2D images are obtained by performing 2D projection with respect to each viewpoint (eg, xy plane, yz plane, etc.) with respect to the acquired 3D image.

생성부(130)는 다수의 2D 이미지를 입력으로 하고 3D 이미지를 출력으로 하는 생성 모델(Generative Model) 기반의 인공 지능을 만들 수 있다.The generator 130 may create a generative model-based artificial intelligence in which a plurality of 2D images are input and 3D images are output.

생성부(130)는 다수의 2D 이미지를 인공 지능의 입력으로 받아 3D 이미지 하나를 만들어낸다.The generator 130 receives a plurality of 2D images as inputs of artificial intelligence and generates one 3D image.

보정부(150)는 만들어진 3D 이미지(제3 이미지(30), 복원된 제1 이미지(10))와 원본 3D 이미지(본래의 제1 이미지(10))를 비교하여 Pixel 단위의 손실(Loss)을 계산하여 그 손실이 최소가 되는 방향으로 생성 모델을 학습시킨다. 여기서 손실 함수(Loss function)는 평균 제곱 오차(Mean Squared Error)를 사용한다. 예를 들어 원본 데이터의 (1,5,3) 위치상의 pixel 값이 0.3이라 하고 모델을 통해 생성된 데이터의 (1,5,3) 위치상의 pixel 값이 0.5라고 하면, 여기서 발생한 pixel 단위의 손실(Squared Error)은 (0.3-0.5)2가 되고, 이와 같은 방법으로 모든 좌표에 대한 pixel 단위의 손실을 구하고 이를 평균을 내어 평균 제곱 오차(Mean Squared Error)를 측정한다.The compensator 150 compares the created 3D image (the third image 30, the restored first image 10) and the original 3D image (the original first image 10) to obtain a pixel-unit loss (Loss) , and train the generative model in a direction that minimizes the loss. Here, the loss function uses a mean squared error. For example, if the pixel value at the (1,5,3) position of the original data is 0.3, and the pixel value at the (1,5,3) position of the data generated through the model is 0.5, the loss of pixel unit occurred here (Squared Error) becomes (0.3-0.5) 2 , and in this way, the loss in pixels for all coordinates is obtained, and the mean squared error is measured by averaging them.

보정부(150)는 위와 같은 방법으로 측정된 손실로 오차 역전파법(Back-propagation)을 인공 지능에 적용하여 오차를 최소화하도록 학습시킨다.The correction unit 150 learns to minimize the error by applying the error back-propagation method to the artificial intelligence with the loss measured in the above manner.

도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 4의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 생성 장치(100) 등) 일 수 있다. 4 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 4 may be a device described herein (eg, the generating device 100 , etc.).

도 4의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 4 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.

10...제1 이미지 20...제2 이미지
30...제3 이미지 100...생성 장치
110...투영부 130...생성부
150...보정부
10...First image 20...Second image
30...third image 100...generating device
110...projection unit 130...creation unit
150...correction unit

Claims (8)

기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함하고,
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 생성부는 상기 복수의 제2 이미지가 입력되면 상기 생성 모델을 이용하여 3차원의 제3 이미지를 생성하며,
상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하는 보정부가 마련되고,
상기 보정부는 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
When the plurality of second images are input, the generating unit generates a three-dimensional third image by using the generation model,
A correction unit is provided to compare the first image and the third image to calculate a loss in units of pixels,
The compensator trains the generative model in a direction in which the loss is minimized.
삭제delete 삭제delete 삭제delete 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함하고,
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 생성부는 상기 복수의 제2 이미지가 입력되면 상기 생성 모델을 이용하여 3차원의 제3 이미지를 생성하며,
상기 제1 이미지의 각 픽셀값과 상기 제3 이미지의 각 픽셀값 간의 오차값을 제곱하는 방식으로 모든 좌표에 대한 픽셀 단위의 손실을 산출하는 보정부가 마련되고,
상기 보정부는 모든 좌표에 대해 산출된 손실을 평균내어 평균 제곱 오차(Mean Squared Error)를 산출하며,
상기 보정부는 오차 역전파법(Back propagation)을 이용하여 상기 생성 모델에 상기 평균 제곱 오차를 적용하고, 상기 평균 제곱 오차가 최소화되는 방향으로 상기 생성 모델을 학습시키는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
When the plurality of second images are input, the generating unit generates a three-dimensional third image by using the generation model,
A correction unit is provided for calculating the loss in units of pixels for all coordinates in a manner of squaring an error value between each pixel value of the first image and each pixel value of the third image;
The correction unit calculates a mean squared error by averaging the losses calculated for all coordinates,
The compensator applies the mean square error to the generative model using an error back propagation method, and trains the generative model in a direction in which the mean square error is minimized.
제1항에 있어서,
상기 복수의 제2 이미지는 상기 제1 이미지의 정면 이미지, 측면 이미지, 평면 이미지를 모두 포함하는 생성 장치.
The method of claim 1,
The plurality of second images includes all of a front image, a side image, and a planar image of the first image.
기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함하고,
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 제2 이미지는 2차원 이미지로 학습된 딥러닝 모델에 입력되며,
상기 생성부는 상기 복수의 제2 이미지와 상기 딥러닝 모델의 출력 데이터를 입수하고,
상기 생성부는 상기 복수의 제2 이미지를 이용하여 상기 제1 이미지를 복원하며, 복원되는 상기 제1 이미지에 상기 출력 데이터를 추가하는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
The second image is input to the deep learning model trained as a two-dimensional image,
The generating unit obtains the plurality of second images and output data of the deep learning model,
The generator restores the first image by using the plurality of second images, and adds the output data to the restored first image.
생성 장치에 의해 수행되는 생성 방법에 있어서,
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영 단계;
기계 학습된 생성 모델을 이용하여, 상기 복수의 제2 이미지가 입력되면 3차원의 제3 이미지를 생성하는 생성 단계;
상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 보정 단계;
를 포함하는 생성 방법.
A generating method performed by a generating device, comprising:
a projection step of generating a plurality of two-dimensional second images in which the first image is projected from multiple angles when a three-dimensional first image is input;
a generating step of generating a three-dimensional third image when the plurality of second images are input using a machine-learned generating model;
a correction step of calculating a loss in units of pixels by comparing the first image with the third image, and learning the generative model in a direction in which the loss is minimized;
A creation method comprising
KR1020210146873A 2021-10-29 2021-10-29 Apparatus and method for generating 3D data using multi-view X-ray data KR102412373B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210146873A KR102412373B1 (en) 2021-10-29 2021-10-29 Apparatus and method for generating 3D data using multi-view X-ray data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210146873A KR102412373B1 (en) 2021-10-29 2021-10-29 Apparatus and method for generating 3D data using multi-view X-ray data

Publications (1)

Publication Number Publication Date
KR102412373B1 true KR102412373B1 (en) 2022-06-23

Family

ID=82221926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210146873A KR102412373B1 (en) 2021-10-29 2021-10-29 Apparatus and method for generating 3D data using multi-view X-ray data

Country Status (1)

Country Link
KR (1) KR102412373B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200100190A (en) 2018-01-31 2020-08-25 구글 엘엘씨 Image Transformation for Machine Learning
KR102215056B1 (en) * 2020-01-23 2021-02-10 울산대학교 산학협력단 Medical Image De-Identification System, Method and Computer Readable Recording Medium
KR102275098B1 (en) * 2019-04-02 2021-07-09 재단법인 아산사회복지재단 System and method for predicting of intensity modulated treatment plan

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200100190A (en) 2018-01-31 2020-08-25 구글 엘엘씨 Image Transformation for Machine Learning
KR102275098B1 (en) * 2019-04-02 2021-07-09 재단법인 아산사회복지재단 System and method for predicting of intensity modulated treatment plan
KR102215056B1 (en) * 2020-01-23 2021-02-10 울산대학교 산학협력단 Medical Image De-Identification System, Method and Computer Readable Recording Medium

Similar Documents

Publication Publication Date Title
US9270974B2 (en) Calibration between depth and color sensors for depth cameras
JP4679033B2 (en) System and method for median fusion of depth maps
US10867407B2 (en) System and methods for extrinsic calibration of cameras and diffractive optical elements
JP3745117B2 (en) Image processing apparatus and image processing method
US7768527B2 (en) Hardware-in-the-loop simulation system and method for computer vision
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
JP7082713B2 (en) Rolling Shutter Correction for images / videos using convolutional neural networks in applications for image / video SFM / SLAM
WO2018156126A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
EP3676653B1 (en) Generating a new frame using rendered content and non-rendered content from a previous perspective
CN101577004B (en) Rectification method for polar lines, appliance and system thereof
EP3633606A1 (en) Information processing device, information processing method, and program
JP6319804B2 (en) Projection image generation apparatus, projection image generation method, and projection image generation program
CN112487923A (en) Method and system for acquiring training data of human face head posture
KR20120071276A (en) Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof
US20190311524A1 (en) Method and apparatus for real-time virtual viewpoint synthesis
US6256035B1 (en) Image processing method and apparatus
KR102412373B1 (en) Apparatus and method for generating 3D data using multi-view X-ray data
EP3756164A1 (en) Methods of modeling a 3d object, and related devices and computer program products
CN115164823B (en) Method and device for acquiring gyroscope information of camera
Peng et al. Projective reconstruction with occlusions
CN117237544B (en) Training data generation method and device, electronic equipment and storage medium
Lambers et al. Realistic lens distortion rendering
Cheng et al. A linear approach for depth and colour camera calibration using hybrid parameters
JP4144981B2 (en) Stereoscopic image display device
CN112634439B (en) 3D information display method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant