KR20210045923A - 엑스선 데이터 생성을 위한 장치 및 방법 - Google Patents

엑스선 데이터 생성을 위한 장치 및 방법 Download PDF

Info

Publication number
KR20210045923A
KR20210045923A KR1020200125381A KR20200125381A KR20210045923A KR 20210045923 A KR20210045923 A KR 20210045923A KR 1020200125381 A KR1020200125381 A KR 1020200125381A KR 20200125381 A KR20200125381 A KR 20200125381A KR 20210045923 A KR20210045923 A KR 20210045923A
Authority
KR
South Korea
Prior art keywords
data
object data
ray
generating
attenuation coefficient
Prior art date
Application number
KR1020200125381A
Other languages
English (en)
Other versions
KR102591668B1 (ko
Inventor
채승훈
이수열
이정원
김승환
송윤선
정지욱
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/072,496 priority Critical patent/US11557038B2/en
Publication of KR20210045923A publication Critical patent/KR20210045923A/ko
Application granted granted Critical
Publication of KR102591668B1 publication Critical patent/KR102591668B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 엑스선 데이터 생성에 관한 것으로, 좀 더 상세하게는 신경망 학습에 이용되는 엑스선 데이터 생성을 위한 장치 및 방법에 관한 것이다. 본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 장치는 3차원 데이터를 입력 받아 출력 데이터를 생성하는 프로세서 및 버퍼를 포함하되, 상기 프로세서는 상기 3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하는 추출부, 상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하는 증식부, 상기 제 2 객체 데이터와 배경 데이터를 합성하여 합성 데이터를 생성하는 합성부, 및 상기 합성 데이터에 대해 후처리를 수행하여 상기 출력 데이터를 생성하는 후처리부를 포함하고, 그리고 상기 버퍼는 상기 제 1 객체 데이터, 상기 제 2 객체 데이터, 상기 합성 데이터, 및 상기 출력 데이터의 생성과 관련된 복수의 파라미터들을 저장한다.

Description

엑스선 데이터 생성을 위한 장치 및 방법{APPARATUS AND METHOD FOR X-RAY DATA GENERATION}
본 발명은 엑스선 데이터 생성에 관한 것으로, 좀 더 상세하게는 신경망 학습에 이용되는 엑스선 데이터 생성을 위한 장치 및 방법에 관한 것이다.
인공지능은 그 기술의 발달로 다양한 분야에 이용되고 있다. 인공지능에 이용되는 신경망의 예측 성능은 신경망의 학습 방법에 따라 결정되기 때문에 양질의 학습 데이터를 이용하여 신경망을 학습시킬 필요가 있다. 그러나, 실제 환경에서 획득되는 데이터만을 이용하여 신경망을 학습시키는 경우, 학습 데이터의 양이 제한적이고, 다양한 환경을 반영하는 학습 데이터를 확보하는 데 어려움이 있다. 또한, 실제 환경에서 획득되는 데이터들을 이용하여 신경망을 학습시키기 위해서는 획득된 데이터에 대한 부가적인 처리가 필요하며, 획득된 데이터 내에 학습을 위한 추가적인 어노테이션(annotation) 작업이 필요할 수 있다.
나아가, 엑스선(X-ray) 영상의 경우, 일반적인 가시광선 영상에 비해 그 표본의 수가 적고, 촬영 기기의 특성 상 다양한 환경에서의 영상을 획득하는 것이 제한적이다. 따라서, 엑스선 영상이 주로 이용되는 의료 분야나 세관 감식 분야의 경우, 인공지능을 도입하기 위한 학습 데이터를 확보하는 것이 어려운 상황이다.
본 발명의 목적은 엑스선 영상 분석을 수행하는 신경망의 학습에 이용되는 엑스선 데이터 생성을 위한 장치 및 방법을 제공하는 데 있다.
본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 장치는 3차원 데이터를 입력 받아 출력 데이터를 생성하는 프로세서 및 버퍼를 포함하되, 상기 프로세서는 상기 3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하는 추출부, 상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하는 증식부, 상기 제 2 객체 데이터와 배경 데이터를 합성하여 합성 데이터를 생성하는 합성부, 및 상기 합성 데이터에 대해 후처리를 수행하여 상기 출력 데이터를 생성하는 후처리부를 포함하고, 그리고 상기 버퍼는 상기 제 1 객체 데이터, 상기 제 2 객체 데이터, 상기 합성 데이터, 및 상기 출력 데이터의 생성과 관련된 복수의 파라미터들을 저장한다.
본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 방법은 3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하는 단계; 상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하는 단계; 상기 제 2 객체 데이터를 배경 데이터와 합성하여 합성 데이터를 생성하는 단계; 및 상기 합성 데이터에 대해 후처리를 수행하여 출력 데이터를 생성하는 단계를 포함한다.
본 발명의 실시 예에 따르면, 3차원 데이터로부터 객체를 추출하여 2차원 공간에 투영함으로써 2차원 데이터를 획득하고, 획득한 2차원 데이터를 증식하여 배경 데이터와 합성함으로써 학습을 위한 엑스선 데이터를 생성할 수 있다.
나아가 본 발명의 실시 예에 따르면, 의료용 신경망 학습 및 세관 감식용 신경망 학습을 위한 양질의 엑스선 데이터를 생성할 수 있다.
도 1은 본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 장치의 예시적인 구성을 나타내는 블록도이다.
도 2는 제 1 객체 데이터 및 제 2 객체 데이터를 생성하는 과정을 개념적으로 나타낸다.
도 3은 합성 데이터 및 출력 데이터를 생성하는 과정을 개념적으로 나타낸다.
도 4는 하나의 배경 데이터에 대하여 복수의 객체들이 합성된 합성 데이터를 나타낸다.
도 5는 본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 방법을 나타내는 예시적인 순서도이다.
도 6은 본 발명의 실시 예에 따른 객체 추출 및 데이터 증식 과정을 나타내는 예시적인 순서도이다.
도 7은 본 발명의 실시 예에 따른 배경 데이터와 제 2 객체 데이터의 합성 방법을 나타내는 예시적인 순서도이다.
도 8은 본 발명의 실시 예에 따른 생성적 적대 신경망(GAN) 기반의 후처리 방법을 나타낸다.
도 9는 본 발명의 다른 실시 예에 따라 소프트웨어로서 구현한 합성부를 예시적으로 나타낸다.
도 10은 본 발명의 실시 예에 따른 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블을 생성하는 과정을 개념적으로 나타낸다.
도 11은 본 발명의 다른 실시 예에 따른 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블을 생성하는 과정을 개념적으로 나타낸다.
아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 쉽게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.
상세한 설명에서 사용되는 부 또는 유닛(unit), 모듈(module), 블록(block), ~기(~or, ~er) 등의 용어들을 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈 (microelectromechanical system; MEMS), 수동 소자, 또는 그것들의 조합을 포함할 수 있다.
도 1은 본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 장치(100)의 예시적인 구성을 나타내는 블록도이다. 장치(100)는 프로세서(110) 및 버퍼(120)를 포함할 수 있다.
프로세서(110)는 추출부(111), 증식부(112), 합성부(113), 및 후처리부(114)를 포함할 수 있다. 프로세서(110)는 입력 데이터(IDAT)를 입력 받을 수 있다. 예를 들어, 입력 데이터(IDAT)는 실물 객체(예를 들어, 암세포 또는 도검)를 전산화 단층촬영(computed tomography; CT) 기법으로 촬영한 3차원 CT 데이터일 수 있다. 프로세서(110)는 입력 받은 입력 데이터(IDAT)에 기반하여 2차원 객체 데이터를 생성할 수 있다.
프로세서(110)는 생성된 2차원 객체 데이터를 배경 데이터와 합성함으로써 엑스선 데이터를 생성하고 후처리하여, 신경망 학습에 이용될 수 있는 출력 데이터(IOUT)를 생성할 수 있다. 예를 들어, 프로세서(110)는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 신경망 처리 장치(NPU), 또는 가속 처리 장치(APU) 등과 같은 프로세싱 유닛 중 적어도 하나를 포함할 수 있다.
추출부(111)는 입력 데이터(IDAT)로부터 분석의 대상이 되는 원시 객체 데이터(OBJ0)(예를 들어, 암세포 또는 도검)를 추출할 수 있다. 이하의 설명들에서 원시 객체 데이터(OBJ0)는 객체(OBJ0)라고 한다. 예를 들어, 추출부(111)는 입력 데이터(IDAT)에 대하여 엣지 검출(edge detection) 또는 영역 분할(image segmentation) 알고리즘을 적용하여 분석의 대상이 되는 객체(OBJ0)를 추출할 수 있다.
추출부(111)는 입력 데이터(IDAT)로부터 추출된 객체(OBJ0)를 2차원 평면으로 투영(projection)할 수 있다. 추출부(111)는 입력 데이터(IDAT)로부터 추출된 객체(OBJ0)를 2차원 평면으로 투영하기 위하여 임의의 위치에 가상 엑스선 소스를 설정할 수 있다. 예를 들어, 가상 엑스선 소스는 추출한 객체 외부에 위치하는 것으로 설정될 수 있다. 추출부(111)는 설정한 가상 엑스선 소스에서, 입력 데이터(IDAT)로부터 추출된 객체를 향해 가상의 엑스선을 조사하여 얻어지는 엑스선 이미지를 제 1 객체 데이터(OBJ1)로서 생성할 수 있다. 도 2를 참조하면, 제 1 객체 데이터(OBJ1)의 생성 과정이 나타나 있다.
추출부(111)는 상술한 바와 같이 가상 엑스선 소스를 이용함으로써, 입력 데이터(IDAT)로부터 추출된 객체(OBJ0)가 다양한 각도로 2차원 평면에 투영된 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 예를 들어, 객체(OBJ0)가 수평 방향으로 촬영된 입력 데이터(IDAT)로부터 추출된 경우라도, 추출부(111)는 수직 방향의 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 마찬가지로, 객체(OBJ0)가 수직 방향으로 촬영된 입력 데이터(IDAT)로부터 추출된 경우라도, 추출부(111)는 수평 방향의 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 이로써, 추출부(111)는 수평 방향 및 수직 방향의 제 1 객체 데이터(OBJ1)를 동시에 생성할 수 있다.추출부(111)는 입력 데이터(IDAT)와 동일한 피사체를 동일한 각도에서 촬영하되, 촬영 에너지(예를 들어, CT 촬영에 사용된 엑스선 에너지)만 다르게 설정된 레퍼런스 데이터(RDAT)를 추가로 입력 받을 수 있다. 추출부(111)는 입력 데이터(IDAT) 및 레퍼런스 데이터(RDAT)에 기반하여, 촬영 엑스선 에너지 및 객체(OBJ0)의 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 생성할 수 있다. 추출부(111)는 생성한 룩업 테이블(LUT)을 버퍼(120)에 저장할 수 있다. 추출부(111)가 룩업 테이블(LUT)을 생성하는 과정은 도 10 내지 도 11을 통해 설명된다.
다른 실시 예에서, 입력 데이터(IDAT)에서 객체의 추출이 어려운 경우, 추출부(111)는 가상의 엑스선 소스를 이용하여 입력 데이터(IDAT) 전체를 2차원 평면에 투영한 후, 2차원 엑스선 이미지로부터 분석의 대상이 되는 객체를 추출하여 제 1 객체 데이터(OBJ1)를 생성할 수도 있다.
추출부(111)는 입력 데이터(IDAT)로부터 객체를 추출하는 것 및 2차원 평면으로 투영하는 것과 관련된 복수의 파라미터들(예를 들어, 추출한 객체의 위치, 추출한 객체의 크기, 및 가상 엑스선 소스의 위치 정보 등)을 버퍼(120)에 저장할 수 있다.
증식부(112)는 추출부(111)에서 생성한 제 1 객체 데이터(OBJ1)에 대해 데이터 증식(data augmentation)을 수행하여 제 2 객체 데이터(OBJ2)를 생성할 수 있다. 예를 들어, 데이터 증식은 데이터의 이동, 회전, 또는 크기 변경을 포함할 수 있다. 제 1 객체 데이터(OBJ1)에 대한 데이터 증식은 분석의 대상이 되는 객체의 속성에 따라 제한될 수 있다. 예를 들어, 분석의 대상이 되는 객체가 암세포인 경우, 암의 진행 단계에 따라 암세포의 크기가 달라질 수 있으므로, 제 1 객체 데이터(OBJ1)의 크기 변경은 제한될 수 있다.
증식부(112)는 데이터 회전을 수행하여 제 1 객체 데이터(OBJ1)로부터, 다양한 각도의 제 2 객체 데이터(OBJ2)를 생성할 수 있다. 예를 들어, 증식부(112)는 수평 방향의 제 1 객체 데이터(OBJ1)에 대해 데이터 회전을 수행하여 수직 방향의 제 2 객체 데이터(OBJ2)를 생성할 수 있다. 마찬가지로, 증식부(112)는 수직 방향의 제 1 객체 데이터(OBJ1)에 대해 데이터 회전을 수행하여 수평 방향의 제 2 객체 데이터(OBJ2)를 생성할 수 있다. 이로써, 증식부(112)는 수평 방향의 이미지 및 수직 방향의 제 2 객체 데이터(OBJ2)를 동시에 생성할 수 있다.
증식부(112)는 제 1 객체 데이터(OBJ1)의 데이터 증식과 관련된 복수의 파라미터들(예를 들어, 데이터를 이동시킨 위치의 좌표, 데이터를 회전시킨 각도, 데이터의 변경 전후의 크기 등)을 버퍼(120)에 저장할 수 있다.
합성부(113)는 증식부(112)에서 생성한 제 2 객체 데이터(OBJ2)를 배경 데이터와 합성하여 합성 데이터(ICOMP)를 생성할 수 있다. 합성부(113)는 복수의 배경 데이터를 저장할 수 있고, 제 2 객체 데이터(OBJ2)에 대응하는 배경 데이터를 선택할 수 있다. 배경 데이터는 분석의 대상이 되는 객체의 종류 및 분석의 목적에 따라 달라질 수 있다.
예를 들어, 분석의 대상이 되는 객체의 종류가 암세포이고, 분석의 목적은 의료용 신경망 학습을 위한 데이터 생성인 경우, 합성부(113)는 배경 데이터로서 인체의 장기를 나타내는 이미지를 선택할 수 있다. 예를 들어, 분석의 대상이 되는 객체의 종류가 도검이고, 분석의 목적은 세관 감식용 신경망 학습을 위한 데이터 생성인 경우, 합성부(113)는 배경 데이터로서 컨테이너 박스를 포함하는 트럭의 이미지를 선택할 수 있다.
합성부(113)는 분석의 대상이 되는 객체의 종류 및 분석의 목적에 기반하여, 배경 데이터 상에서 제 2 객체 데이터(OBJ2)가 위치할 수 있는 영역을 나타내는 합성 가능 영역을 결정할 수 있다. 예를 들어, 분석의 대상이 되는 객체가 폐암 세포이고, 분석의 목적은 의료용 신경망 학습을 위한 데이터 생성인 경우, 합성부(113)는 인체에서 폐가 위치하는 영역을 합성 가능 영역으로서 결정할 수 있다. 예를 들어, 분석의 대상이 되는 객체가 도검이고, 분석의 목적은 세관 감식용 신경망 학습을 위한 데이터 생성인 경우, 합성부(113)는 트럭을 제외한 컨테이너 박스 내부의 영역을 합성 가능 영역으로서 결정할 수 있다.
합성부(113)는 결정된 합성 가능 영역 중에서 제 2 객체 데이터(OBJ2)가 실제로 합성될 합성 영역을 결정할 수 있다. 도 3을 참조하면, 배경 데이터 상의 합성 가능 영역 및 합성 영역이 예시적으로 나타나 있다.
다른 실시 예에서, 합성부(113)는 비일시적 컴퓨터 판독가능 매체에 저장된 소프트웨어로서 구현되어 사용자에게 합성 영역을 입력 받을 수도 있다. 이 경우, 합성부(113)는 디스플레이 장치(도시되지 않음) 상에 합성 영역을 입력 받을 수 있는 사용자 인터페이스를 제공할 수 있다. 합성부(113)가 소프트웨어로서 구현되는 실시 예에 대해서는 도 9를 통해 설명된다.
합성부(113)는 결정된 합성 영역에 제 2 객체 데이터(OBJ2)를 합성하여 합성 데이터(ICOMP)를 생성할 수 있다. 제 2 객체 데이터(OBJ2)와 배경 데이터의 합성은 엑스선이 피사체를 투과할 때 세기가 감쇄(attenuation)되는 특징에 기반하여 수행될 수 있다.
일반적으로, 피사체를 직선으로 투과하는 엑스선의 세기 I는 아래의 수학식 1과 같이 나타낼 수 있다.
Figure pat00001
I 0 (v)는 엑스선 검출기의 위치 v(즉, 피사체가 없는 위치)에서의 엑스선의 세기로서, 이는 피사체가 위치하지 않는 공기에 대한 엑스선의 세기를 나타낼 수 있다. μ(E,t)는 피사체의 감쇄계수(attenuation coefficient)로서, 일정한 두께의 피사체를 투과할 때 길이에 따라 엑스선의 세기가 감쇄되는 정도를 나타내며, 엑스선의 에너지 E와 피사체의 두께 t에 의해 달라질 수 있다.
또한, 피사체가 두 개 존재하는 경우, 제 1 피사체 및 제 2 피사체를 직선으로 투과하는 엑스선의 세기 I는 아래의 수학식 2와 같이 나타낼 수 있다.
Figure pat00002
μ 1 (E,t)는 제 1 피사체의 감쇄계수를 나타내고, μ 2 (E,t)는 제 2 피사체의 감쇄계수를 나타낸다.
수학식 1 및 수학식 2를 통해 나타난 바와 같이, 엑스선의 진행 경로 상에 위치하는 피사체의 감쇄계수에 따라 엑스선의 세기가 감쇄되는 특징을 이용하면, 임의의 배경 데이터 상에 피사체의 위치를 나타낼 수 있다. 즉, 엑스선 이미지는 복수의 픽셀들을 포함할 수 있고, 복수의 픽셀들의 각각은 각 픽셀에 위치한 피사체의 감쇄계수를 나타낼 수 있다.
따라서, 합성부(113)는 배경 데이터의 각 픽셀에 대응하는 감쇄계수의 값과, 제 2 객체 데이터(OBJ2)의 각 픽셀에 대응하는 감쇄계수의 값을 곱하여 합성 데이터(ICOMP)를 생성할 수 있다. 예를 들어, 합성부(113)는 컨테이너 박스의 각 픽셀에 대응하는 감쇄계수의 값과 도검의 각 픽셀에 대응하는 감쇄계수의 값을 곱함으로써, 컨테이너 박스 상에 도검이 합성된 합성 데이터(ICOMP)를 생성할 수 있다. 도 3을 참조하면, 컨테이너 박스 상에 복수의 도검들이 합성된 합성 데이터(ICOMP)가 나타나 있다. 합성부(113)는 제 2 객체 데이터(OBJ2)의 각 픽셀에 대응하는 감쇄계수의 값에 임의의 가중치를 생성하여 곱할 수 있다. 가중치가 곱해지는 경우, 합성 데이터(ICOMP) 상에서 제 2 객체 데이터(OBJ2)가 더 선명하게 보일 수 있다.
복수의 객체 데이터가 존재하는 경우, 합성부(113)는 배경 데이터의 각 픽셀에 대응하는 감쇄계수의 값과 복수의 객체 데이터 각각의 각 픽셀에 대응하는 감쇄계수의 값을 곱하여 합성 데이터(ICOMP)를 생성할 수 있다. 예를 들어, 합성부(113)는 컨테이너 박스의 각 픽셀에 대응하는 감쇄계수의 값과 복수의 도검들 각각의 각 픽셀에 대응하는 감쇄계수의 값을 곱함으로써, 컨테이너 박스 상에 복수의 도검들이 합성된 합성 데이터(ICOMP)를 생성할 수 있다. 도 4를 참조하면, 컨테이너 박스 상에 복수의 도검들이 합성된 합성 데이터(ICOMP)가 합성 영역(점선으로 도시)과 함께 나타나 있다.
합성부(113)는 배경 데이터와 제 2 객체 데이터(OBJ2)의 합성을 수행하기 전에, 제 2 객체 데이터(OBJ2)에 대해 촬영 엑스선 에너지의 변환을 수행할 수 있다. 예를 들어, 배경 데이터의 촬영 엑스선 에너지와 제 2 객체 데이터(OBJ2)의 촬영 엑스선 에너지를 일치시킬 필요가 있을 경우, 합성부(113)는 제 2 객체 데이터(OBJ2)에 대해 촬영 엑스선 에너지의 변환을 수행할 수 있다. 이로써, 합성부(113)는 제 2 객체 데이터(OBJ2)의 촬영 엑스선 에너지를 배경 데이터의 촬영 엑스선 에너지와 일치시킬 수 있다.
수학식 1 및 수학식 2를 통해 나타난 바와 같이, 피사체의 감쇄계수는 촬영 시 조사한 엑스선의 에너지에 따라 달라질 수 있다. 그러므로, 피사체의 각 픽셀에 대응하는 감쇄계수의 값(즉, 변환 전 에너지에 따른 감쇄계수의 값)을 변환하고자 하는 에너지에 따른 감쇄계수의 값으로 대체함으로써 피사체의 촬영 엑스선 에너지의 변환이 수행될 수 있다.
상술한 에너지 변환을 수행하기 위하여, 합성부(113)는 버퍼(120)로부터, 엑스선 에너지 및 피사체의 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 호출할 수 있다. 예를 들어, 룩업 테이블(LUT)은 제 2 객체 데이터(OBJ2)가 제 1 에너지에 기반하여 생성되었을 때의 감쇄계수와, 제 2 객체 데이터(OBJ2)가 제 2 에너지에 기반하여 생성되었을 때의 감쇄계수 사이의 대응 관계를 나타낼 수 있다.
예를 들어, 제 2 객체 데이터(OBJ2)의 촬영 엑스선 에너지를 제 1 에너지 에서 제 2 에너지로 변환하고자 하는 경우, 합성부(113)는 룩업 테이블(LUT)을 참조하여, 제 2 객체 데이터(OBJ2)의 각 픽셀에 대응하는 감쇄계수의 값(즉, 제 1 에너지에 따른 감쇄계수의 값)을 제 2 에너지에 따른 감쇄계수의 값으로 대체할 수 있다. 이로써, 제 2 객체 데이터(OBJ2)의 촬영 엑스선 에너지는 제 1 에너지에서 제 2 에너지로 변환될 수 있다.
합성부(113)는 배경 데이터와 제 2 객체 데이터(OBJ2)의 합성과 관련된 복수의 파라미터들(예를 들어, 합성 가능 영역의 위치, 합성 영역의 위치, 감쇄계수 등)을 버퍼(120)에 저장할 수 있다.
후처리부(114)는 합성부(113)에서 생성한 합성 데이터(ICOMP)에 대해 후처리를 수행하여 배경 데이터와 객체 사이의 이질감이 해소된 출력 데이터(IOUT)를 생성할 수 있다. 예를 들어, 후처리부(114)는 배경 데이터와 객체 사이의 경계선을 흐리게 하여 출력 데이터(IOUT)를 생성할 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 합성부(113)는 합성 데이터(ICOMP)를 후처리부(114)로 출력하지 않고, 바로 출력 데이터(IOUT)로서 출력할 수도 있다.
후처리부(114)는 생성적 적대 신경망(Generative Adversarial Network; GAN)을 포함할 수 있다. 예를 들어, 후처리부(114)는 GAN에 기반하여, 배경 데이터와 객체 사이의 이질감이 해소된 출력 데이터(IOUT)를 생성할 수 있다.
GAN은 생성 모델 및 분류 모델을 포함할 수 있다. 생성 모델은 합성 데이터(ICOMP)를 입력 받아, 복수의 이질감이 제거된 합성 데이터를 생성할 수 있다. 분류 모델은 복수의 이질감이 제거된 합성 데이터와, 복수의 합성이 이루어지지 않은 데이터를 입력 받을 수 있고, 입력 받은 데이터에 대한 합성 여부 판단을 학습할 수 있다.
분류 모델이 데이터의 합성 여부를 판단하는 것을 충분히 학습한 후, 분류 모델은 데이터의 합성 여부 판단 결과에 기반하여, 생성 모델을 다시 학습시킬 수 있다. 예를 들어, 분류 모델이 이질감이 제거된 합성 데이터에 대하여 합성이 이루어지지 않은 것으로 잘못 판단한 경우, 생성 모델은 이질감이 제거된 합성 데이터를 추가로 생성하도록 학습될 수 있다. 분류 모델은 생성 모델에서 추가로 생성한 데이터에 기반하여 합성 여부 판단을 다시 학습할 수 있다.
이로써, 후처리부(114)는 GAN에 기반하여 생성 모델과 분류 모델을 반복적, 경쟁적으로 학습시킴으로써 생성 모델의 성능을 높일 수 있고, 생성 모델의 성능이 높아진 후 생성 모델만을 이용하여 합성 데이터(ICOMP)에서 이질감이 해소된 출력 데이터(IOUT)를 생성할 수 있다. GAN에 기반한 후처리 과정은 도 8을 참조하여 더 상세히 설명된다.
후처리부(114)는 후처리 수행과 관련된 복수의 파라미터들(예를 들어, 배경 데이터와 객체 사이의 경계선을 얼마나 흐리게 하였는지에 관한 정보, GAN과 관련된 정보 등)을 버퍼(120)에 저장할 수 있다.
버퍼(120)는 촬영 엑스선 에너지의 변환을 수행하기 위한 룩업 테이블(LUT)을 포함할 수 있다. 버퍼(120)는 프로세서(110)에서 수행하는 객체 추출, 2차원 투영, 데이터 증식, 배경 데이터와 객체의 합성, 및 합성 데이터의 후처리와 관련된 복수의 파라미터들을 포함할 수 있다. 버퍼(120)는 복수의 파라미터들을 출력 데이터(IOUT)에 대하여 부가 정보로서 어노테이션할 수 있다.
도 2는 제 1 객체 데이터(OBJ1) 및 제 2 객체 데이터(OBJ2)를 생성하는 과정을 개념적으로 나타낸다. 이하 도 2와 함께, 도 1을 참조하여 설명한다.
추출부(111)는 입력 데이터(IDAT)로부터 추출된 객체(OBJ0)를 2차원 공간으로 투영하기 위하여 임의의 위치에 가상 엑스선 소스(200)를 설정할 수 있다. 설정된 가상 엑스선 소스(200)는 추출된 객체(OBJ0)를 향해 엑스선을 조사하여 2차원 공간으로 투영된 엑스선 이미지를 제 1 객체 데이터(OBJ1)로서 생성할 수 있다. 예를 들어, 분석의 대상이 되는 객체가 도검인 경우, 제 1 객체 데이터(OBJ1)는 도검의 엑스선 이미지일 수 있다.
예를 들어, 추출부(111)가 생성하는 제 1 객체 데이터(OBJ1)의 수는 설정된 가상 엑스선 소스(200)의 수와 동일할 수 있다. 증식부(112)는 제 1 객체 데이터(OBJ1)에 대해 데이터 증식(예를 들어, 데이터의 이동, 회전, 또는 크기 변경)을 수행하여 제 2 객체 데이터(OBJ2)를 생성할 수 있다.
도 3은 합성 데이터(ICOMP) 및 출력 데이터(IOUT)를 생성하는 과정을 개념적으로 나타낸다. 이하 도 3과 함께, 도 1을 참조하여 설명한다.
합성부(113)는 제 2 객체 데이터(OBJ2)에 대응하는 배경 데이터(BG)를 선택할 수 있다. 예를 들어, 분석의 대상이 되는 객체의 종류가 도검이고, 분석의 목적은 세관 감식용 신경망 학습을 위한 데이터 생성인 경우, 합성부(113)는 배경 데이터(BG)로서 컨테이너 박스를 포함하는 트럭의 이미지를 선택할 수 있다.
합성부(113)는 배경 데이터(BG)를 선택한 후, 제 2 객체 데이터(OBJ2)가 위치할 수 있는 합성 가능 영역을 결정할 수 있다. 예를 들어, 배경 데이터(BG)가 컨테이너 박스를 포함하는 트럭의 이미지인 경우, 제 2 객체 데이터(OBJ2)가 위치할 수 있는 합성 가능 영역은 트럭을 제외한 컨테이너 박스 내부의 영역일 수 있다.
합성부(113)는 결정된 합성 가능 영역 중에서 제 2 객체 데이터(OBJ2)가 실제로 합성될 합성 영역을 결정할 수 있다. 예를 들어, 컨테이너 박스 내부의 영역에 도검을 합성하는 경우, 합성 영역은 컨테이너 박스 내부의 영역 중 도검을 숨길 수 있는 다른 물품(예를 들어, 상자)이 존재하는 영역(예를 들어, 빗금 부분)으로 결정될 수 있다. 합성부(113)는 결정된 합성 영역 상에 제 2 객체 데이터(OBJ2)를 합성하여 합성 데이터(ICOMP)를 생성할 수 있다.
합성부(113)는 합성 데이터(ICOMP)를 후처리부(114)로 출력할 수 있고, 후처리부(114)는 합성 데이터(ICOMP)에 대해 후처리를 수행하여 출력 데이터(IOUT)를 생성할 수 있다. 다만 본 발명은 이에 한정되지 않으며, 합성부(113)는 합성 데이터(ICOMP)를 후처리부(114)로 출력하지 않고, 바로 출력 데이터(IOUT)로서 출력할 수 있다.
도 3은 합성부(113)가 하나의 배경 데이터(BG)에 대하여 하나의 객체를 합성하는 경우를 나타내고 있다. 다만, 본 발명은 이에 한정되지 않으며, 도 4에 나타난 바와 같이 합성부(113)는 하나의 배경 데이터(BG)에 대하여 복수의 객체들(점선 테두리 및 빗금으로 표시)을 합성한 합성 데이터(ICOMP)를 생성할 수 있다.
도 5는 본 발명의 실시 예에 따른 엑스선 데이터 생성을 위한 방법을 나타내는 예시적인 순서도이다. 이하 도 5와 함께, 도 1을 참조하여 설명한다.
단계 S110에서, 추출부(111)는 입력 데이터(IDAT)로부터 분석의 대상이 되는 객체(OBJ0)를 추출하고 2차원 평면으로 투영하여 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 추출부(111)는 입력 데이터(IDAT)로부터 추출된 객체를 2차원 평면으로 투영하기 위하여 임의의 위치에 가상 엑스선 소스를 설정할 수 있다. 추출부(111)는 설정한 가상 엑스선 소스에서, 입력 데이터(IDAT)로부터 추출된 객체(OBJ0)를 향해 가상의 엑스선을 조사하여 얻어지는 엑스선 이미지를 제 1 객체 데이터(OBJ1)로서 생성할 수 있다.
단계 S120에서, 증식부(112)는 제 1 객체 데이터(OBJ1)에 대해 데이터 증식을 수행하여 제 2 객체 데이터(OBJ2)를 생성할 수 있다. 예를 들어, 데이터 증식은 데이터의 이동, 회전, 또는 크기 변경을 포함할 수 있다.
단계 S130에서, 합성부(113)는 제 2 객체 데이터(OBJ2)를 배경 데이터와 합성하여 합성 데이터(ICOMP)를 생성할 수 있다. 제 2 객체 데이터(OBJ2)와 배경 데이터의 합성은 엑스선이 피사체를 투과할 때 세기가 감쇄(attenuation)되는 특징에 기반하여 수행될 수 있다.
단계 S140에서, 후처리부(114)는 합성 데이터(ICOMP)에 대해 후처리를 수행하여 배경 데이터와 객체 사이의 이질감이 해소된 출력 데이터(IOUT)를 생성할 수 있다.
도 6은 본 발명의 실시 예에 따른 객체 추출 및 데이터 증식 과정을 나타내는 예시적인 순서도이다. 이하 도 6과 함께, 도 1을 참조하여 설명한다.
단계 S201에서, 프로세서(110)는 추출부(111)가 입력 데이터(IDAT)로부터 분석의 대상이 되는 객체(OBJ0)를 추출하였는지 판단할 수 있다. 객체(OBJ0)가 추출되지 은 경우, 단계 S202에서 추출부(111)는 객체 추출을 진행할 수 있다. 분석의 대상이 되는 객체가 추출된 경우, 단계 S203에서 추출부(111)는 추출된 객체(OBJ0)를 2차원 평면으로 투영할 수 있고, 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 이하의 동작들은 증식부(112)에 의해 수행될 수 있다.
단계 S204에서, 제 1 객체 데이터(OBJ1)의 이동이 필요한지 여부가 판단될 수 있다. 제 1 객체 데이터(OBJ1)의 이동이 필요한 경우, 단계 S205에서, 제 1 객체 데이터(OBJ1)의 이동이 수행될 수 있다. 단계 S206에서, 제 1 객체 데이터(OBJ1)의 회전이 필요한지 여부가 판단될 수 있다. 제 1 객체 데이터(OBJ1)의 회전이 필요한 경우, 단계 S207에서, 제 1 객체 데이터(OBJ1)의 회전이 수행될 수 있다.
단계 S208에서, 제 1 객체 데이터(OBJ1)의 크기 변경이 필요한지 여부가 판단될 수 있다. 제 1 객체 데이터(OBJ1)의 크기 변경이 필요한 경우, 단계 S209에서, 제 1 객체 데이터(OBJ1)의 크기 변경이 수행될 수 있다. 제 1 객체 데이터(OBJ1)에 대한 데이터 크기 변경은 분석의 대상이 되는 객체의 속성에 따라 제한될 수 있다. 예를 들어, 분석의 대상이 되는 객체가 암세포인 경우, 암의 진행 단계에 따라 암세포의 크기가 달라질 수 있으므로, 제 1 객체 데이터(OBJ1)의 크기 변경은 제한될 수 있다.
다만 본 발명은 도 6에 나타난 순서에 한정되지 않으며, 객체 추출 및 제 1 객체 데이터(OBJ1)에 대한 데이터 증식의 수행은 도 6에 나타난 순서와 다르게 수행될 수 있다.
도 7은 본 발명의 실시 예에 따른 합성 방법을 나타내는 예시적인 순서도이다. 이하 도 7과 함께, 도 1을 참조하여 설명한다.
단계 S310에서, 합성부(113)는 분석의 대상이 되는 객체의 종류 및 분석의 목적에 기반하여 배경 데이터 상의 합성 가능 영역을 결정할 수 있다. 단계 S320에서, 합성부(113)는 결정된 합성 가능 영역 중에서 제 2 객체 데이터(OBJ2)가 실제로 합성될 합성 영역을 결정할 수 있다.
단계 S330에서, 합성부(113)는 배경 데이터의 각 픽셀에 대응하는 감쇄계수의 값과 제 2 객체 데이터(OBJ2)의 각 픽셀에 대응하는 감쇄계수의 값을 곱하여 합성 데이터(ICOMP)를 생성할 수 있다. 단계 S330은 엑스선이 피사체를 투과할 때 세기가 감쇄되는 특징, 및 엑스선 이미지를 구성하는 복수의 픽셀들의 각각은 각 픽셀에 위치한 피사체의 감쇄계수를 나타내는 특징에 기반한다.
도 8은 본 발명의 실시 예에 따른 생성적 적대 신경망(GAN) 기반의 후처리 방법을 나타낸다. 후처리부(114)는 생성적 적대 신경망(Generative Adversarial Network; GAN)을 포함할 수 있다. 후처리부(114)는 GAN에 기반하여, 배경 데이터와 객체 사이의 이질감이 해소된 출력 데이터(IOUT)를 생성할 수 있다. 이하 도 8과 함께, 도 1을 참조하여 설명한다.
GAN은 생성 모델(G) 및 분류 모델(D)을 포함할 수 있다. 생성 모델(G)은 합성 데이터(Z)를 입력 받아, 복수의 이질감이 제거된 합성 데이터(G(Z))를 생성하도록 구현될 수 있다. 분류 모델(D)은 생성 모델(G)이 생성한 복수의 데이터(G(Z))와, 복수의 합성이 이루어지지 않은 데이터(Y)를 입력 받을 수 있다. 이하의 설명에서 생성 모델(G)이 생성한 복수의 데이터(G(Z))와, 복수의 합성이 이루어지지 않은 데이터(Y)의 집합을 데이터 셋(X)이라 한다.
분류 모델(D)은 데이터 셋(X)을 입력 받아, 데이터 셋(X)에 포함된 각 데이터의 합성 여부 판단 결과(D(X))를 출력할 수 있다. 예를 들어, 입력 받은 데이터가 합성이 이루어진 데이터인 경우 D(X)의 값은 1일 수 있고, 입력 받은 데이터가 합성이 이루어지지 않은 데이터인 경우 D(X)의 값은 0일 수 있다. 이로써, 분류 모델(D)는 데이터의 합성 여부 판단을 학습할 수 있다.
분류 모델(D)이 데이터의 합성 여부 판단을 충분히 학습한 후, 분류 모델(D)은 생성 모델(G)에서 생성한 데이터(G(Z))의 합성 여부 판단 결과에 기반하여, 생성 모델(G)을 다시 학습시키도록 구현될 수 있다. 생성 모델(G)에서 생성한 데이터(G(Z))는 합성이 이루어진 데이터이므로, 분류 모델(D)의 합성 여부 판단 결과 D(G(Z))의 값은 1일 수 있다. 반면, 합성이 이루어지지 않은 데이터(Y)에 대한 분류 모델(D)의 합성 여부 판단 결과 D(Y)의 값은 0일 수 있다.
예를 들어, 분류 모델(D)의 합성 여부 판단 결과 D(G(Z))의 값이 0인 경우, 분류 모델(D)이 합성 여부를 잘못 판단한 경우에 해당하므로, 생성 모델(G)은 이질감이 제거된 합성 데이터(G(Z))를 추가로 생성하도록 학습될 수 있다. 분류 모델(D)은 생성 모델(G)에서 추가로 생성한 데이터(G(Z))에 기반하여 합성 여부 판단을 다시 학습할 수 있다.
상술한 과정을 반복적으로 수행함으로써, 생성 모델(G) 및 분류 모델(D)은 서로 경쟁적으로 학습될 수 있고, 생성 모델(G)이 생성한 데이터(G(Z))에 대한 분류 모델(D)의 합성 여부 판단의 정확도는 더 높아질 수 있다. 분류 모델(D)이 충분히 학습되어 합성 여부 판단 정확도가 임의의 임계값 이상으로 높아진 경우, 생성 모델(G)도 충분히 학습된 것으로 판단될 수 있다. 생성 모델(G)이 충분히 학습된 것으로 판단되는 경우, 후처리부(114)는 생성 모델(G)만을 이용하여 이질감이 해소된 합성 데이터(Z)를 출력 데이터(IOUT)로서 생성할 수 있다.
도 9는 본 발명의 다른 실시 예에 따라 소프트웨어로서 구현한 합성부(1000)를 예시적으로 나타낸다. 합성부(1000)는 도 1의 합성부(113)와 같은 기능을 수행할 수 있다. 합성부(1000)는 배경 데이터의 각 픽셀에 대응하는 감쇄계수의 값과 객체 데이터의 각 픽셀에 대응하는 감쇄계수의 값을 곱함으로써 배경 데이터와 객체 데이터를 합성할 수 있다.
합성부(1000)는 객체 데이터 불러오기(1100)를 수행할 수 있다. 사용자는 불러온 객체 데이터에 대하여, 데이터 증식이 추가로 필요한지 판단할 수 있다. 사용자에 의해 데이터 증식이 추가로 필요하다고 판단되는 경우, 합성부(1000)는 객체 데이터 회전(1200), 객체 데이터 좌우 대칭(1300), 객체 데이터 상하 대칭(1400), 및 객체 데이터 크기 변경(1500)을 수행할 수 있다. 나아가, 합성부(1000)는 객체 데이터 가중치 입력(1600)을 수행하여 객체 데이터의 각 픽셀에 대응하는 감쇄계수의 값에 가중치를 곱함으로써, 합성 결과 객체 데이터가 더 선명하게 보이도록 할 수 있다.
합성부(1000)는 배경 데이터 불러오기(1700)을 수행할 수 있다. 불러온 배경 데이터 및 객체 데이터의 합성을 실행하기 전에, 사용자는 합성 조건(예를 들어, 합성 영역의 위치 등)을 직접 입력할지 여부를 판단할 수 있다. 사용자가 직접 합성 조건을 입력하는 경우, 합성부(1000)는 합성 조건 입력하기(1800)를 수행할 수 있다. 합성부(1000)는 배경 데이터, 객체 데이터, 및 합성 조건에 기반하여 합성 실행(1900)을 수행할 수 있다.
도 10은 본 발명의 실시 예에 따른 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 생성하는 과정을 개념적으로 나타낸다. 도 11은 본 발명의 다른 실시 예에 따른 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 생성하는 과정을 개념적으로 나타낸다. 이하 도 10 내지 도 11과 함께, 도 1을 참조하여 설명한다.
도 10을 참조하면, 추출부(111)는 입력 데이터(IDAT)와 함께, 입력 데이터(IDAT)와 동일한 피사체를 동일한 각도에서 촬영하되, 촬영 에너지(예를 들어, CT 촬영에 사용된 엑스선 에너지)만 다르게 설정된 3차원의 레퍼런스 데이터(RDAT)를 추가로 입력 받을 수 있다. 입력 데이터(IDAT)와 다르게 레퍼런스 데이터(RDAT)를 빗금으로 나타낸 것은 촬영에 사용된 엑스선 에너지의 차이를 나타낸다.
예를 들어, 레퍼런스 데이터(RDAT)가 3차원 데이터인 경우, 입력 데이터(IDAT)의 촬영 엑스선 에너지 및 레퍼런스 데이터(RDAT)의 촬영 엑스선 에너지는 모두 keV 대역일 수 있다. 즉, 입력 데이터(IDAT)의 촬영 엑스선 에너지 대역과, 레퍼런스 데이터(RDAT)의 촬영 엑스선 에너지의 대역은 유사할 수 있다. 따라서, 입력 데이터(IDAT) 및 레퍼런스 데이터(RDAT)를 하나의 장비로 촬영하는 것이 가능할 수 있다.
이 경우, 추출부(111)는 입력 데이터(IDAT) 촬영에 이용된 엑스선의 세기와, 레퍼런스 데이터(RDAT) 촬영에 이용된 엑스선의 세기를 비교함으로써, 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 생성할 수 있다. 예를 들어, 생성된 룩업 테이블(LUT)은 촬영 엑스선의 에너지를 keV 대역에서 keV 대역으로 변환할 때 사용될 수 있다. 추출부(111)는 생성한 룩업 테이블(LUT)을 버퍼(120)에 저장할 수 있다.
도 11을 참조하면, 다른 실시 예에서, 추출부(111)는 입력 데이터(IDAT)와 함께, 입력 데이터(IDAT)와 동일한 피사체를 2차원 엑스선 촬영 장치를 이용하여 촬영한 2차원의 레퍼런스 데이터(RDAT, 빗금으로 도시)를 추가로 입력 받을 수 있다. 추출부(111)는 입력 데이터(IDAT)로부터 분석의 대상이 되는 객체(OBJ0)를 추출할 수 있고, 객체(OBJ0)를 2차원 평면으로 투영하여 제 1 객체 데이터(OBJ1)를 생성할 수 있다. 입력 데이터(IDAT) 및 제 1 객체 데이터(OBJ1)과 다르게 레퍼런스 데이터(RDAT)를 빗금으로 나타낸 것은 촬영에 사용된 엑스선 에너지의 차이를 나타낸다.
예를 들어, 레퍼런스 데이터(RDAT)가 2차원 데이터인 경우, 입력 데이터(IDAT)의 촬영 엑스선 에너지는 keV 대역일 수 있고, 레퍼런스 데이터(RDAT)의 촬영 엑스선 에너지는 MeV 대역일 수 있다. 즉, 입력 데이터(IDAT)의 촬영 엑스선 에너지 대역과, 레퍼런스 데이터(RDAT)의 촬영 엑스선 에너지의 대역은 다를 수 있다. 따라서, 입력 데이터(IDAT) 및 레퍼런스 데이터(RDAT)를 하나의 장비로 촬영하는 것은 불가능할 수 있다.
이 경우, 추출부(111)는 제 1 객체 데이터(OBJ1)의 각 픽셀에 대응하는 감쇄계수 값과, 레퍼런스 데이터(RDAT)의 각 픽셀에 대응하는 감쇄계수 값을 비교함으로써, 촬영 엑스선 에너지 및 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블(LUT)을 생성할 수 있다. 예를 들어, 생성된 룩업 테이블(LUT)은 촬영 엑스선의 에너지를 keV 대역에서 MeV 대역으로 변환할 때 사용될 수 있다. 추출부(111)는 생성한 룩업 테이블(LUT)을 버퍼(120)에 저장할 수 있다.
상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.
110: 프로세서 111: 추출부
112: 증식부 113: 합성부
114: 후처리부 120: 버퍼

Claims (16)

  1. 3차원 데이터를 입력 받아 출력 데이터를 생성하는 프로세서; 및
    버퍼를 포함하되,
    상기 프로세서는:
    상기 3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하는 추출부;
    상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하는 증식부;
    상기 제 2 객체 데이터와 배경 데이터를 합성하여 합성 데이터를 생성하는 합성부; 및
    상기 합성 데이터에 대해 후처리를 수행하여 상기 출력 데이터를 생성하는 후처리부를 포함하고, 그리고
    상기 버퍼는 상기 제 1 객체 데이터, 상기 제 2 객체 데이터, 상기 합성 데이터, 및 상기 출력 데이터의 생성과 관련된 복수의 파라미터들을 저장하는 엑스선 데이터 생성을 위한 장치.
  2. 제 1 항에 있어서,
    상기 추출부는 상기 원시 객체 데이터의 외부에 하나 이상의 가상 엑스선 소스를 설정하고, 그리고
    상기 제 1 객체 데이터는 상기 하나 이상의 가상 엑스선 소스에서 엑스선을 조사하여 생성되는 하나 이상의 이미지인 엑스선 데이터 생성을 위한 장치.
  3. 제 1 항에 있어서,
    상기 데이터 증식은 상기 제 1 객체 데이터의 이동, 상기 제 1 객체 데이터의 회전, 및 상기 제 1 객체 데이터의 크기 변경을 포함하는 엑스선 데이터 생성을 위한 장치.
  4. 제 1 항에 있어서,
    상기 배경 데이터 및 상기 제 2 객체 데이터는 복수의 픽셀들을 포함하고,
    상기 복수의 픽셀들의 각각은 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 포함하고,
    상기 합성 데이터는, 상기 배경 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값과, 상기 제 2 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 곱하여 생성되는 엑스선 데이터 생성을 위한 장치.
  5. 제 4 항에 있어서,
    상기 합성부는 가중치를 생성하고, 상기 제 2 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값에 상기 가중치를 곱하는 엑스선 데이터 생성을 위한 장치.
  6. 제 1 항에 있어서,
    상기 버퍼는 상기 복수의 파라미터들을 상기 출력 데이터에 대하여 어노테이션(annotation)하는 엑스선 데이터 생성을 위한 장치.
  7. 제 1 항에 있어서,
    상기 추출부는:
    3차원 레퍼런스 데이터를 더 입력 받고,
    상기 3차원 데이터에 대응하는 엑스선의 세기 및 상기 3차원 레퍼런스 데이터에 대응하는 엑스선의 세기를 비교함으로써 상기 제 2 객체 데이터에 대응하는 엑스선 에너지 및 상기 제 2 객체 데이터의 엑스선 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블을 생성하는 엑스선 데이터 생성을 위한 장치.
  8. 제 7 항에 있어서,
    상기 합성부는 상기 룩업 테이블에 기반하여 상기 제 2 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 조절하는 엑스선 데이터 생성을 위한 장치.
  9. 제 1 항에 있어서,
    상기 추출부는:
    2차원 레퍼런스 데이터를 더 입력 받고,
    상기 제 1 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값 및 상기 2차원 레퍼런스 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 비교함으로써 상기 제 2 객체 데이터에 대응하는 엑스선 에너지 및 상기 제 2 객체 데이터의 엑스선 감쇄계수 사이의 대응 관계를 나타내는 룩업 테이블을 생성하는 엑스선 데이터 생성을 위한 장치.
  10. 제 9 항에 있어서,
    상기 합성부는 상기 룩업 테이블에 기반하여 상기 제 2 데이터 객체의 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 조절하는 엑스선 데이터 생성을 위한 장치.
  11. 3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하는 단계;
    상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하는 단계;
    상기 제 2 객체 데이터를 배경 데이터와 합성하여 합성 데이터를 생성하는 단계; 및
    상기 합성 데이터에 대해 후처리를 수행하여 출력 데이터를 생성하는 단계를 포함하는 엑스선 데이터 생성을 위한 방법.
  12. 제 11 항에 있어서,
    상기 제 1 객체 데이터를 생성하는 단계는:
    하나 이상의 가상 엑스선 소스를 설정하는 단계;
    상기 하나 이상의 가상 엑스선 소스에서 엑스선을 조사하여 하나 이상의 이미지를 생성하는 단계를 포함하는 엑스선 데이터 생성을 위한 방법.
  13. 제 11 항에 있어서,
    상기 제 2 객체 데이터를 생성하는 단계는:
    상기 제 1 객체 데이터에 대하여 데이터 이동을 수행하는 단계;
    상기 제 1 객체 데이터에 대하여 데이터 회전을 수행하는 단계; 및
    상기 제 1 객체 데이터에 대하여 데이터 크기 변환을 수행하는 단계를 포함하는 엑스선 데이터 생성을 위한 방법.
  14. 제 11 항에 있어서,
    상기 배경 데이터 및 상기 제 2 객체 데이터는 복수의 픽셀들을 포함하고,
    상기 복수의 픽셀들의 각각은 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 포함하고,
    상기 합성 데이터를 생성하는 단계는:
    상기 배경 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값과, 상기 제 2 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값을 곱하는 단계를 포함하는 엑스선 데이터 생성을 위한 방법.
  15. 제 14 항에 있어서,
    상기 합성 데이터를 생성하는 단계는:
    가중치를 생성하는 단계; 및
    상기 제 2 객체 데이터의 각 픽셀에 대응하는 엑스선 감쇄계수의 값에 상기 가중치를 곱하는 단계를 더 포함하는 엑스선 데이터 생성을 위한 방법.
  16. 프로그램 코드를 포함하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 프로세서에 의해 상기 프로그램 코드가 실행될 때, 상기 프로세서는:
    3차원 데이터로부터 원시 객체 데이터를 추출하고, 상기 원시 객체 데이터를 2차원 평면으로 투영하여 제 1 객체 데이터를 생성하고,
    상기 제 1 객체 데이터에 대해 데이터 증식을 수행하여 제 2 객체 데이터를 생성하고,
    상기 제 2 객체 데이터를 배경 데이터와 합성하여 합성 데이터를 생성하고, 그리고
    상기 합성 데이터에 대해 후처리를 수행하여 출력 데이터를 생성하는 비일시적 컴퓨터 판독 가능 매체.
KR1020200125381A 2019-10-17 2020-09-28 엑스선 데이터 생성을 위한 장치 및 방법 KR102591668B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/072,496 US11557038B2 (en) 2019-10-17 2020-10-16 Apparatus and method for x-ray data generation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190128840 2019-10-17
KR1020190128840 2019-10-17

Publications (2)

Publication Number Publication Date
KR20210045923A true KR20210045923A (ko) 2021-04-27
KR102591668B1 KR102591668B1 (ko) 2023-10-20

Family

ID=75725786

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200125381A KR102591668B1 (ko) 2019-10-17 2020-09-28 엑스선 데이터 생성을 위한 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102591668B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230004185A (ko) * 2021-06-30 2023-01-06 주식회사 에이리스 인공 지능 기반 검출 모델에 대한 학습 데이터를 생성하기 위한 방법, 시스템 및 기록 매체

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087207A (ko) * 2012-12-28 2014-07-09 삼성전자주식회사 엑스선 영상 장치, 엑스선 영상 생성 방법 및 3차원 영상 장치
KR20150022176A (ko) * 2013-08-22 2015-03-04 삼성전자주식회사 영상 처리 유닛, 영상 재구성 방법 및 방사선 영상 장치
KR20180086773A (ko) * 2017-01-23 2018-08-01 한국전자통신연구원 평면 보간 기반 2차원 의료 영상을 생성하는 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087207A (ko) * 2012-12-28 2014-07-09 삼성전자주식회사 엑스선 영상 장치, 엑스선 영상 생성 방법 및 3차원 영상 장치
KR20150022176A (ko) * 2013-08-22 2015-03-04 삼성전자주식회사 영상 처리 유닛, 영상 재구성 방법 및 방사선 영상 장치
KR20180086773A (ko) * 2017-01-23 2018-08-01 한국전자통신연구원 평면 보간 기반 2차원 의료 영상을 생성하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230004185A (ko) * 2021-06-30 2023-01-06 주식회사 에이리스 인공 지능 기반 검출 모델에 대한 학습 데이터를 생성하기 위한 방법, 시스템 및 기록 매체

Also Published As

Publication number Publication date
KR102591668B1 (ko) 2023-10-20

Similar Documents

Publication Publication Date Title
Song et al. Neural illumination: Lighting prediction for indoor environments
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
JP7062506B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
SE534551C2 (sv) Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
US11557038B2 (en) Apparatus and method for x-ray data generation
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
KR102591668B1 (ko) 엑스선 데이터 생성을 위한 장치 및 방법
JP5373931B2 (ja) 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
CN107632997B (zh) 依据签名集合确定图像组
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN108573523A (zh) 用于分割体积渲染的方法和系统
CN111783497B (zh) 视频中目标的特征确定方法、装置和计算机可读存储介质
Purps et al. Reconstructing facial expressions of hmd users for avatars in vr
JP6898264B2 (ja) 合成装置、方法及びプログラム
JP2023153534A (ja) 画像処理装置、画像処理方法、およびプログラム
Cho et al. Depth image processing technique for representing human actors in 3DTV using single depth camera
KR20210075843A (ko) 신경망 모델의 학습을 위한 방법
US20220067435A1 (en) Apparatus and method for x-ray data generation
JP7322235B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN116664730B (zh) 感知模型的生成方法、装置、计算机设备及存储介质
KR102355578B1 (ko) 정보 처리 장치, 프로그램을 기록한 기록 매체 및 정보 처리 방법
KR102648938B1 (ko) 기하학적 일관성을 이용한 소수 샷 신경 방사장 기반 3차원 이미지 재구성 방법 및 장치
KR20220027003A (ko) 엑스선 데이터 생성을 위한 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant