KR102412373B1 - Apparatus and method for generating 3D data using multi-view X-ray data - Google Patents
Apparatus and method for generating 3D data using multi-view X-ray data Download PDFInfo
- Publication number
- KR102412373B1 KR102412373B1 KR1020210146873A KR20210146873A KR102412373B1 KR 102412373 B1 KR102412373 B1 KR 102412373B1 KR 1020210146873 A KR1020210146873 A KR 1020210146873A KR 20210146873 A KR20210146873 A KR 20210146873A KR 102412373 B1 KR102412373 B1 KR 102412373B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- dimensional
- generating
- images
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000012937 correction Methods 0.000 claims description 13
- 238000013136 deep learning model Methods 0.000 claims description 13
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/158—Switching image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G06T5/001—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
생성 장치가 제공된다. 상기 생성 장치는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함할 수 있다.A generating device is provided. The generating device may include a generator configured to generate a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model.
Description
본 발명은 다각도로 촬영된 2차원 이미지들을 이용하여 3차원 이미지를 생성하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a three-dimensional image using two-dimensional images taken from multiple angles.
사물의 내부를 정확하게 파악하기 위해 3차원 엑스레이(X-ray) 기술이 도입되고 있다.3D X-ray technology is being introduced to accurately grasp the inside of an object.
3차원 엑스레이 기술을 이용하여 다양한 사물의 내부를 파악하고 처리하는 각종 알고리즘이 적용될 수 있다. 이들 알고리즘 중 일부는 기계 학습을 통해 생성될 수 있다. 이때, 기존 2차원 엑스레이 기술 단계에서 학습된 기존 기계 학습 모델을 그대로 3차원 엑스레이 기술에 적용한다면 많은 도움이 될 것이 자명하다.Various algorithms for identifying and processing the inside of various objects using 3D X-ray technology can be applied. Some of these algorithms can be created through machine learning. At this time, it will be of great help if the existing machine learning model learned in the existing 2D X-ray technology stage is applied to the 3D X-ray technology as it is.
하지만, 측면 2차원 데이터, 평면 2차원 데이터 등과 같은 다중시점 2D(2차원) 데이터로부터 3D 데이터를 생성하는 기존 방법론은 다중 시점에 대한 데이터가 상당히 많이 필요하고 부정확하다는 단점이 존재한다. 이러한 문제로 인해 기학습된 2차원 엑스레이 처리 모델을 3차원 엑스레이 처리 모델로 변환하는 것이 현실적으로 어렵다.However, existing methodologies for generating 3D data from multi-view 2D (two-dimensional) data, such as lateral two-dimensional data and planar two-dimensional data, have disadvantages in that data for multiple views is required and inaccurate. Due to these problems, it is practically difficult to convert the previously learned 2D X-ray processing model into a 3D X-ray processing model.
한국공개특허공보 제2020-0100190호에는 이미지 변환을 위한 픽셀 좌표 및 상기 변환된 이미지 데이터를 저장하기 위한 메모리 주소를 결정하는 기술이 나타나 있다.Korean Patent Application Laid-Open No. 2020-0100190 discloses a technique for determining pixel coordinates for image conversion and a memory address for storing the converted image data.
본 발명은 다중 시점의 2차원 이미지 복수개를 이용하여 3차원 이미지를 정확하게 생성할 수 있는 생성 장치 및 생성 방법을 제공하기 위한 것이다.An object of the present invention is to provide a generating apparatus and a generating method capable of accurately generating a three-dimensional image using a plurality of two-dimensional images of multiple viewpoints.
본 발명의 생성 장치는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 상기 대상물의 3차원 이미지를 생성하는 생성부;를 포함할 수 있다.The generating apparatus of the present invention may include a generator configured to generate a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model.
본 발명의 생성 방법은 3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영 단계; 기계 학습된 생성 모델을 이용하여, 상기 복수의 제2 이미지가 입력되면 3차원의 제3 이미지를 생성하는 생성 단계; 상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 보정 단계;를 포함할 수 있다.The generating method of the present invention comprises: a projection step of generating a plurality of two-dimensional second images in which the first image is projected from multiple angles when a three-dimensional first image is input; a generating step of generating a three-dimensional third image when the plurality of second images are input by using the machine-learned generative model; Comparing the first image and the third image, calculating a loss (loss) in units of pixels, and a correction step of learning the generation model in a direction in which the loss is minimized; may include.
본 발명에 따르면, 다중 시점의 2차원 엑스레이 영상이 3차원 엑스레이 영상으로 정확하게 변환될 수 있다.According to the present invention, a multi-view 2D X-ray image can be accurately converted into a 3D X-ray image.
이를 통해, 기존 2차원 이미지 기반으로 학습되고 생성된 각종 이미지 처리 모델을 3차원 이미지에 접목할 수 있는 환경이 제공될 수 있다.Through this, an environment in which various image processing models learned and generated based on an existing two-dimensional image can be grafted onto a three-dimensional image can be provided.
또한, 2차원 이미지를 분석하는 기존 시스템에 본 발명의 생성 장치가 적용될 경우, 2차원 이미지와 함께 3차원 이미지가 획득되고 분석될 수 있다. 따라서, 2차원 이미지의 분석에 대한 보조 분석으로서 3차원 이미지 분석이 추가될 수 있다.In addition, when the generating apparatus of the present invention is applied to an existing system for analyzing a two-dimensional image, a three-dimensional image may be acquired and analyzed together with the two-dimensional image. Accordingly, a 3D image analysis may be added as an auxiliary analysis to the analysis of the 2D image.
도 1은 본 발명의 생성 장치를 나타낸 블록도이다.
도 2는 생성 장치의 동작을 나타낸 개략도이다.
도 3은 본 발명의 생성 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a block diagram showing a generating device of the present invention.
Fig. 2 is a schematic diagram showing the operation of the generating device.
3 is a flowchart illustrating a method for generating according to the present invention.
4 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is said that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but other elements in the middle It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that another element does not exist in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It is to be understood that the existence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof, is not precluded in advance.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of described items or any item of a plurality of described items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명의 생성 장치(100)를 나타낸 블록도이다. 도 2는 생성 장치(100)의 동작을 나타낸 개략도이다.1 is a block diagram showing a generating
도 1에 도시된 생성 장치(100)는 투영부(110), 생성부(130), 보정부(150)를 포함할 수 있다.The generating
생성부(130)는 기계 학습된 생성 모델을 이용하여, 대상물의 2차원 이미지가 입력되면 대상물의 3차원 이미지를 생성할 수 있다.The
생성 모델은 특정 대상물을 여러 각도에서 촬영한(다중 시점) 복수의 2차원 이미지를 이용하여 특정 대상물의 3차원 이미지를 생성할 수 있다. 이 과정에서 많은 오류가 포함될 수 있다. 2차원 이미지를 3차원 이미지로 변환하는 기술의 실효성을 개선하기 위해 해당 오류가 최소화될 필요가 있다. 이를 위해 생성 모델을 위한 많은 양의 학습 데이터가 요구된다.The generative model may generate a 3D image of the specific target by using a plurality of 2D images obtained by photographing the specific target from various angles (multi-viewpoint). Many errors can be involved in this process. In order to improve the effectiveness of a technology for converting a two-dimensional image into a three-dimensional image, the error needs to be minimized. For this, a large amount of training data for the generative model is required.
수많은 학습 데이터가 존재할 수 있다. 하지만, 정확도까지 고려되면 실질적인 학습 데이터의 양은 급감할 수 있다.Numerous training data may exist. However, when accuracy is considered, the amount of actual training data may drop sharply.
따라서, 설정 범위의 정확도를 만족하는 다량의 학습 데이터가 생성될 필요가 있다.Therefore, it is necessary to generate a large amount of learning data satisfying the accuracy of the setting range.
생성 모델을 위한 학습 데이터를 획득하기 위해 투영부(110)가 이용될 수 있다.The
투영부(110)는 3차원의 제1 이미지(10)가 입력되면, 제1 이미지(10)가 다각도로 투영된 2차원의 복수의 제2 이미지(20)를 생성할 수 있다.When the three-dimensional
일 예로, 투영부(110)는 3차원의 제1 이미지(10)의 중심을 회전 중심으로 하여 제1 이미지(10)를 다양한 각도로 회전시킬 수 있다. 예를 들어, 서로 직교하는 x축, y축, z축이 형성하는 가상 공간 상에서 투영부(110)는 제1 이미지(10)를 x축, y축, z축 중 적어도 하나를 기준으로 다양하게 회전시킬 수 있다. 투영부(110)는 제1 이미지(10)를 설정 각도만큼 회전시킬 때마다 설정 위치에서 제1 이미지(10)를 바라본 2차원 이미지를 캡처할 수 있다. 이렇게 캡처된 2차원 이미지가 제2 이미지(20)에 해당될 수 있다.For example, the
투영부(110)에 따르면, 3차원 이미지를 이용해 생성부(130)를 위한 다수의 2차원 학습 이미지가 생성될 수 있다.According to the
단일의 제1 이미지(10)로부터 획득된 복수의 제2 이미지(20)는 제1 이미지(10)의 정면 이미지, 측면 이미지, 평면 이미지를 모두 포함할 수 있다. 제2 이미지(20)는 기본적으로 정면 이미지, 측면 이미지, 평면 이미지를 포함하고, 그 밖에 다양한 각도의 다른 이미지를 추가로 포함할 수 있다.The plurality of
생성부(130)는 단일의 3차원 이미지로부터 획득된 복수의 제2 이미지(20)가 입력되면, 생성 모델을 이용하여 3차원 제3 이미지(30)를 생성할 수 있다.When a plurality of
투영부(110) 및 생성부(130)에 따르면, 제2 이미지(20)는 제1 이미지(10)를 기초로 생성된 것이고, 제3 이미지(30)는 제2 이미지(20)를 기초로 생성된 것일 수 있다. 이에 따르면, 3차원 이미지에 해당되는 제1 이미지(10)와 제3 이미지(30)는 동일해야 하지만, 현실적으로 그렇지 못하다. 즉, 3차원의 A를 2차원의 B로 만든 후, 2차원의 B를 3차원으로 만들면 A가 되어야 하겠지만, 현실은 A와 다른 C가 생성될 수 있다. 이때, 생성부(130)에서 생성하는 C가 A를 추종하도록 생성 모델이 보정될 필요가 있다.According to the
보정부(150)는 제1 이미지(10)와 제3 이미지(30)를 비교할 수 있다.The
보정부(150)는 제3 이미지(30)가 제1 이미지(10)를 추종하도록 생성 모델을 보정할 수 있다. 일 예로, 보정부(150)는 제1 이미지(10)와 제3 이미지(30)를 비교하여 픽셀 단위의 손실(Loss)을 산출할 수 있다. 보정부(150)는 해당 손실이 최소가 되는 방향으로 생성 모델을 학습시킬 수 있다.The
예를 들어, 보정부(150)는 제1 이미지(10)의 각 픽셀값과 제3 이미지(30)의 각 픽셀값 간의 오차값을 제곱하는 방식으로 이미지 내의 모든 좌표에 대한 픽셀 단위의 손실을 산출할 수 있다. 이때, 픽셀값은 화소의 색이나 명암 또는 다른 속성을 나타내는 이산값을 포함할 수 있다.For example, the
보정부(150)는 모든 좌표에 대해 산출된 손실을 평균내어 평균 제곱 오차 (Mean Squared Error)를 산출할 수 있다.The
보정부(150)는 오차 역전파법(Back propagation)을 이용하여 생성 모델에 평균 제곱 오차를 적용할 수 있다. 보정부(150)는 평균 제곱 오차가 최소화되는 방향으로 생성 모델을 학습시킬 수 있다.The
본 발명의 생성 장치(100)에 따르면, 투영부(110) 및 보정부(150)를 통해 생성부(130)의 대상물 복원 능력, 다시 말해 2차원 이미지를 3차원 이미지로 정확하게 변환하는 능력이 개선될 수 있다.According to the
신뢰성 있게 2차원 이미지를 3차원 이미지로 변환할 수 있는 생성부(130)에 따르면, 기존 2차원 이미지를 대상으로 학습된 다양한 딥러닝 모델을 3차원 이미지를 대상으로 적용할 수 있는 방안이 현실화될 수 있다.According to the
일 예로, 2차원의 제2 이미지(20)는 기존의 다양한 2차원 이미지로 학습된 특정 딥러닝 모델에 입력될 수 있다. 특정 딥러닝 모델은 정상적인 2차원 이미지가 입력되면 기존 학습 결과를 토대로 각종 효과가 부가된 2차원의 효과 이미지를 생성할 수 있다.As an example, the two-dimensional
생성부(130)는 복수의 제2 이미지(20)와 딥러닝 모델의 출력 데이터를 입수할 수 있다.The
생성부(130)는 복수의 제2 이미지(20)를 이용하여 제1 이미지(10)를 복원할 수 있다. 생성부(130)는 복원되는 제1 이미지(10)에 출력 데이터를 추가할 수 있다. 생성부(130)를 통해서 생성된 제3 이미지(30)는 제2 이미지(20)를 이용하여 복원된 제1 이미지(10)를 포함할 수 있다. 이때, 복원된 제1 이미지(10)는 본래의 제1 이미지(10)와 완전하게 동일하지는 않을 수 있으므로, 앞에서는 제1 이미지(10)와 일부 다르다는 의미에서 제3 이미지(30)로 명명하였음을 환기한다. 생성부(130)는 제2 이미지(20)를 입력으로 하여 딥러닝 모델에서 출력된 출력 데이터를 새롭게 복원된 제1 이미지(10)(제3 이미지(30)에 해당됨)에 추가할 수 있다.The
본 실시예에 따르면, 3차원 이미지에 적용이 어려운 딥러닝 모델을 이용하기 위해, 일단 투영부(110)에 의해 3차원 이미지가 2차원 이미지로 변환될 수 있다. 투영부(110)에 의해 변환된 2차원 이미지에 대해 딥러닝 모델이 정상적으로 적용될 수 있다. 딥러닝 모델의 적용 결과, 처리 결과, 출력 결과 등은 2차원 이미지에 반영된 상태일 수 있다. 생성부(130)는 딥러닝 모델의 출력 결과가 반영된 2차원 이미지를 본래의 제1 이미지(10)로 복원할 수 있다. 이때, 복원된 제1 이미지(10)에는 딥러닝 모델의 적용 결과물이 반영된 상태일 수 있다.According to this embodiment, in order to use a deep learning model that is difficult to apply to a 3D image, the 3D image may be converted into a 2D image by the
본 실시예에 따르면, 기존의 2차원 이미지를 사용하여 학습된 다양한 딥러닝 모델이 3차원 이미지를 대상으로 사용될 수 있다.According to this embodiment, various deep learning models learned using an existing two-dimensional image may be used for a three-dimensional image.
도 3은 본 발명의 생성 방법을 나타낸 흐름도이다.3 is a flow chart showing a generating method of the present invention.
도 3에 도시된 생성 방법은 도 1의 생성 장치(100)에 의해 수행될 수 있다.The generating method shown in FIG. 3 may be performed by the generating
생성 방법은 투명 단계(S 510), 생성 단계(S 520), 보정 단계(S 530)를 포함할 수 있다.The generating method may include a transparent step (S510), a generating step (S520), and a correction step (S530).
투명 단계(S 510)는 3차원의 제1 이미지(10)가 입력되면 제1 이미지(10)가 다각도로 투영된 2차원의 복수의 제2 이미지(20)를 생성할 수 있다. 투영 단계(S 510)는 투영부(110)에 의해 수행될 수 있다.In the transparent step S510 , when the three-dimensional
생성 단계(S 520)는 기계 학습된 생성 모델을 이용하여, 복수의 제2 이미지(20)가 입력되면 3차원의 제3 이미지(30)를 생성할 수 있다. 생성 단계(S 520)는 생성부(130)에 의해 수행될 수 있다.In the generating step ( S520 ), a three-dimensional
보정 단계(S 530)는 제1 이미지(10)와 상기 제3 이미지(30)를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 손실이 최소가 되는 방향으로 생성 모델을 학습시킬 수 있다. 보정 단계(S 530)는 보정부(150)에 의해 수행될 수 있다. 보정부(150)에 따르면, 제3 이미지(30)는 학습이 진행될수록 제1 이미지(10)와 유사해지며, 복원된 제1 이미지(10)의 지위를 가질 수 있다.In the correction step ( S530 ), the
인공 지능 모델(생성 모델(Generative Model))은 다중 시점의 2차원 이미지를 복수로 입력받아 3차원 이미지 하나를 출력할 수 있다. 학습 데이터 획득 방법은 하나의 3D(3차원) 엑스레이(X-RAY) 스캔 데이터를 각각의 시점(정면 이미지, 측면 이미지, 평면 이미지 포함) 기준으로 투영(Projection)시켜 복수의 2D 이미지를 획득한다. 인공 지능 모델은 획득된 2D 이미지 데이터를 입력받아 원본 3D 이미지를 최대한 자연스럽게 재복원(Reconstruct)하는 것을 목표로 학습할 수 있다. 학습이 완료된 인공 지능은 다중 시점 2D 입력 데이터로부터 3D 입체 데이터를 생성해낼 수 있다.An artificial intelligence model (generative model) may receive a plurality of two-dimensional images from multiple viewpoints and output one three-dimensional image. The learning data acquisition method acquires a plurality of 2D images by projecting one 3D (three-dimensional) X-RAY scan data based on each viewpoint (including a front image, a side image, and a plane image). The artificial intelligence model can learn with the goal of reconstructing the original 3D image as naturally as possible by receiving the acquired 2D image data. Artificial intelligence that has been trained can generate 3D stereoscopic data from multi-view 2D input data.
투영부(110)는 3D X-RAY를 통해 3D 이미지를 확보한다. 획득한 3D 이미지에 대하여 각각의 시점(예를 들어, xy 평면, yz 평면 등)에 대하여 2D 투영(projection)을 진행하여 다수의 2D 이미지를 획득한다.The
생성부(130)는 다수의 2D 이미지를 입력으로 하고 3D 이미지를 출력으로 하는 생성 모델(Generative Model) 기반의 인공 지능을 만들 수 있다.The
생성부(130)는 다수의 2D 이미지를 인공 지능의 입력으로 받아 3D 이미지 하나를 만들어낸다.The
보정부(150)는 만들어진 3D 이미지(제3 이미지(30), 복원된 제1 이미지(10))와 원본 3D 이미지(본래의 제1 이미지(10))를 비교하여 Pixel 단위의 손실(Loss)을 계산하여 그 손실이 최소가 되는 방향으로 생성 모델을 학습시킨다. 여기서 손실 함수(Loss function)는 평균 제곱 오차(Mean Squared Error)를 사용한다. 예를 들어 원본 데이터의 (1,5,3) 위치상의 pixel 값이 0.3이라 하고 모델을 통해 생성된 데이터의 (1,5,3) 위치상의 pixel 값이 0.5라고 하면, 여기서 발생한 pixel 단위의 손실(Squared Error)은 (0.3-0.5)2가 되고, 이와 같은 방법으로 모든 좌표에 대한 pixel 단위의 손실을 구하고 이를 평균을 내어 평균 제곱 오차(Mean Squared Error)를 측정한다.The
보정부(150)는 위와 같은 방법으로 측정된 손실로 오차 역전파법(Back-propagation)을 인공 지능에 적용하여 오차를 최소화하도록 학습시킨다.The
도 4는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 4의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 생성 장치(100) 등) 일 수 있다. 4 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 4 may be a device described herein (eg, the generating
도 4의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 4 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.
10...제1 이미지 20...제2 이미지
30...제3 이미지 100...생성 장치
110...투영부 130...생성부
150...보정부10...
30...
110...
150...correction unit
Claims (8)
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 생성부는 상기 복수의 제2 이미지가 입력되면 상기 생성 모델을 이용하여 3차원의 제3 이미지를 생성하며,
상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하는 보정부가 마련되고,
상기 보정부는 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
When the plurality of second images are input, the generating unit generates a three-dimensional third image by using the generation model,
A correction unit is provided to compare the first image and the third image to calculate a loss in units of pixels,
The compensator trains the generative model in a direction in which the loss is minimized.
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 생성부는 상기 복수의 제2 이미지가 입력되면 상기 생성 모델을 이용하여 3차원의 제3 이미지를 생성하며,
상기 제1 이미지의 각 픽셀값과 상기 제3 이미지의 각 픽셀값 간의 오차값을 제곱하는 방식으로 모든 좌표에 대한 픽셀 단위의 손실을 산출하는 보정부가 마련되고,
상기 보정부는 모든 좌표에 대해 산출된 손실을 평균내어 평균 제곱 오차(Mean Squared Error)를 산출하며,
상기 보정부는 오차 역전파법(Back propagation)을 이용하여 상기 생성 모델에 상기 평균 제곱 오차를 적용하고, 상기 평균 제곱 오차가 최소화되는 방향으로 상기 생성 모델을 학습시키는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
When the plurality of second images are input, the generating unit generates a three-dimensional third image by using the generation model,
A correction unit is provided for calculating the loss in units of pixels for all coordinates in a manner of squaring an error value between each pixel value of the first image and each pixel value of the third image;
The correction unit calculates a mean squared error by averaging the losses calculated for all coordinates,
The compensator applies the mean square error to the generative model using an error back propagation method, and trains the generative model in a direction in which the mean square error is minimized.
상기 복수의 제2 이미지는 상기 제1 이미지의 정면 이미지, 측면 이미지, 평면 이미지를 모두 포함하는 생성 장치.
The method of claim 1,
The plurality of second images includes all of a front image, a side image, and a planar image of the first image.
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영부가 마련되고,
상기 제2 이미지는 2차원 이미지로 학습된 딥러닝 모델에 입력되며,
상기 생성부는 상기 복수의 제2 이미지와 상기 딥러닝 모델의 출력 데이터를 입수하고,
상기 생성부는 상기 복수의 제2 이미지를 이용하여 상기 제1 이미지를 복원하며, 복원되는 상기 제1 이미지에 상기 출력 데이터를 추가하는 생성 장치.
A generator that generates a three-dimensional image of the object when a two-dimensional image of the object is input by using the machine-learned generation model;
When a three-dimensional first image is input, a projection unit for generating a plurality of two-dimensional second images in which the first image is projected from various angles is provided;
The second image is input to the deep learning model trained as a two-dimensional image,
The generating unit obtains the plurality of second images and output data of the deep learning model,
The generator restores the first image by using the plurality of second images, and adds the output data to the restored first image.
3차원의 제1 이미지가 입력되면 상기 제1 이미지가 다각도로 투영된 2차원의 복수의 제2 이미지를 생성하는 투영 단계;
기계 학습된 생성 모델을 이용하여, 상기 복수의 제2 이미지가 입력되면 3차원의 제3 이미지를 생성하는 생성 단계;
상기 제1 이미지와 상기 제3 이미지를 비교하여 픽셀 단위의 손실(Loss)을 산출하고, 상기 손실이 최소가 되는 방향으로 상기 생성 모델을 학습시키는 보정 단계;
를 포함하는 생성 방법.A generating method performed by a generating device, comprising:
a projection step of generating a plurality of two-dimensional second images in which the first image is projected from multiple angles when a three-dimensional first image is input;
a generating step of generating a three-dimensional third image when the plurality of second images are input using a machine-learned generating model;
a correction step of calculating a loss in units of pixels by comparing the first image with the third image, and learning the generative model in a direction in which the loss is minimized;
A creation method comprising
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210146873A KR102412373B1 (en) | 2021-10-29 | 2021-10-29 | Apparatus and method for generating 3D data using multi-view X-ray data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210146873A KR102412373B1 (en) | 2021-10-29 | 2021-10-29 | Apparatus and method for generating 3D data using multi-view X-ray data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102412373B1 true KR102412373B1 (en) | 2022-06-23 |
Family
ID=82221926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210146873A KR102412373B1 (en) | 2021-10-29 | 2021-10-29 | Apparatus and method for generating 3D data using multi-view X-ray data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102412373B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200100190A (en) | 2018-01-31 | 2020-08-25 | 구글 엘엘씨 | Image Transformation for Machine Learning |
KR102215056B1 (en) * | 2020-01-23 | 2021-02-10 | 울산대학교 산학협력단 | Medical Image De-Identification System, Method and Computer Readable Recording Medium |
KR102275098B1 (en) * | 2019-04-02 | 2021-07-09 | 재단법인 아산사회복지재단 | System and method for predicting of intensity modulated treatment plan |
-
2021
- 2021-10-29 KR KR1020210146873A patent/KR102412373B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200100190A (en) | 2018-01-31 | 2020-08-25 | 구글 엘엘씨 | Image Transformation for Machine Learning |
KR102275098B1 (en) * | 2019-04-02 | 2021-07-09 | 재단법인 아산사회복지재단 | System and method for predicting of intensity modulated treatment plan |
KR102215056B1 (en) * | 2020-01-23 | 2021-02-10 | 울산대학교 산학협력단 | Medical Image De-Identification System, Method and Computer Readable Recording Medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9270974B2 (en) | Calibration between depth and color sensors for depth cameras | |
JP4679033B2 (en) | System and method for median fusion of depth maps | |
US10867407B2 (en) | System and methods for extrinsic calibration of cameras and diffractive optical elements | |
JP3745117B2 (en) | Image processing apparatus and image processing method | |
US7768527B2 (en) | Hardware-in-the-loop simulation system and method for computer vision | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
JP7082713B2 (en) | Rolling Shutter Correction for images / videos using convolutional neural networks in applications for image / video SFM / SLAM | |
WO2018156126A1 (en) | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation | |
EP3676653B1 (en) | Generating a new frame using rendered content and non-rendered content from a previous perspective | |
CN101577004B (en) | Rectification method for polar lines, appliance and system thereof | |
EP3633606A1 (en) | Information processing device, information processing method, and program | |
JP6319804B2 (en) | Projection image generation apparatus, projection image generation method, and projection image generation program | |
CN112487923A (en) | Method and system for acquiring training data of human face head posture | |
KR20120071276A (en) | Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof | |
US20190311524A1 (en) | Method and apparatus for real-time virtual viewpoint synthesis | |
US6256035B1 (en) | Image processing method and apparatus | |
KR102412373B1 (en) | Apparatus and method for generating 3D data using multi-view X-ray data | |
EP3756164A1 (en) | Methods of modeling a 3d object, and related devices and computer program products | |
CN115164823B (en) | Method and device for acquiring gyroscope information of camera | |
Peng et al. | Projective reconstruction with occlusions | |
CN117237544B (en) | Training data generation method and device, electronic equipment and storage medium | |
Lambers et al. | Realistic lens distortion rendering | |
Cheng et al. | A linear approach for depth and colour camera calibration using hybrid parameters | |
JP4144981B2 (en) | Stereoscopic image display device | |
CN112634439B (en) | 3D information display method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |