KR102560911B1 - 화상 처리 장치, 화상 처리 방법 및 저장 매체 - Google Patents

화상 처리 장치, 화상 처리 방법 및 저장 매체 Download PDF

Info

Publication number
KR102560911B1
KR102560911B1 KR1020190097919A KR20190097919A KR102560911B1 KR 102560911 B1 KR102560911 B1 KR 102560911B1 KR 1020190097919 A KR1020190097919 A KR 1020190097919A KR 20190097919 A KR20190097919 A KR 20190097919A KR 102560911 B1 KR102560911 B1 KR 102560911B1
Authority
KR
South Korea
Prior art keywords
contour
candidate
field
outline
processing
Prior art date
Application number
KR1020190097919A
Other languages
English (en)
Other versions
KR20200019572A (ko
Inventor
츠요시 고바야시
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20200019572A publication Critical patent/KR20200019572A/ko
Application granted granted Critical
Publication of KR102560911B1 publication Critical patent/KR102560911B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/06Diaphragms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

방사선 촬영을 통해 취득된 화상으로부터 조사 필드를 추출하도록 구성되는 화상 처리 장치는, 추론 처리에 기초하여 화상에서 조사 필드 후보를 취득하도록 구성되는 추론 유닛; 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 기초하여 조사 필드의 윤곽을 추출하도록 구성되는 윤곽 추출 유닛; 및 윤곽에 기초하여 조사 필드를 추출하도록 구성되는 필드 추출 유닛을 포함한다.

Description

화상 처리 장치, 화상 처리 방법 및 저장 매체{IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND STORAGE MEDIUM}
본 발명은 방사선사진의 조사 필드를 추출하는 화상 처리 장치, 화상 처리 방법 및 저장 매체에 관한 것이다.
근년, 의료 환경에서 방사선 촬영 장치가 널리 사용되고 있으며, 방사선사진을 디지털 신호로서 취득하고, 화상 처리를 행한 후, 표시 장치에 의해 표시해서 진단을 하는데 이용한다.
방사선 촬영에서는, 진단에 필요한 관심 필드(이하, "조사 필드"라 칭함) 이외의 영역의 조사는, 조사 필드 이외의 영역에 대한 방사선의 영향을 억제하고, 조사 필드의 외부로부터의 산란을 방지하며, 콘트라스트의 저하를 방지하기 위해서, 콜리메이터를 사용해서 조사 필드를 좁힘으로써 일반적으로 방지된다.
조사 필드를 좁힘으로써 취득되는 화상에 관해서는, 진단의 관심 필드인 조사 필드에 대한 화상 처리를 실시하기 위해서, 조사 필드를 추출하는 다양한 유형의 기술이 제안되고 있다.
예를 들어, 일본 특허 공개 제2015-123157호는, 화상 내의 에지 강도에 기초하여, 복수의 윤곽을 구하고, 정확성 판정을 행하여 조사 필드를 추출하는 기술을 제안하고 있다. 또한, 일본 특허 공개 제04-261649호는 화상 데이터를 신경망에 입력하고 조사 필드를 결과로서 출력하는 기술을 제안하고 있다.
그러나, 피사체가 되는 인체는, 뼈, 임플란트 등과 같이, 강한 에지 성분을 가지며 조사 필드를 좁히기 위해 사용되는 윤곽과 구별하기 어려운 구조를 포함할 수 있으며, 일본 특허 공개 제2015-123157호에 개시된 기술을 사용하여서는 조사 필드를 인식할 수 없는 경우가 있을 수 있다.
일본 특허 공개 제04-261649호에 개시된 기술은, 신경망을 사용하여 더 많은 수의 화상의 종합적인 특징에 기초하여 조사 필드를 판정할 수 있지만, 신경망만을 사용하여 영역을 조사 필드로서 분류하는 것이 어려운 경우가 있을 수 있다.
본 발명은 상기 과제의 견지에서 이루어졌으며 조사 필드의 추출을 가능하게 하는 화상 처리 기술을 제공한다.
본 발명의 일 양태에 따르면, 방사선 촬영을 통해 취득된 화상으로부터 조사 필드를 추출하도록 구성되는 화상 처리 장치로서, 추론 처리에 기초하여 상기 화상에서 조사 필드 후보를 취득하도록 구성되는 추론 유닛; 상기 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 기초하여 상기 조사 필드의 윤곽을 추출하도록 구성되는 윤곽 추출 유닛; 및 상기 윤곽에 기초하여 상기 조사 필드를 추출하도록 구성되는 필드 추출 유닛을 포함하는 화상 처리 장치가 제공된다.
본 발명의 다른 양태에 따르면, 방사선 촬영을 통해 취득된 화상으로부터 조사 필드를 추출하는 화상 처리 방법으로서, 추론 처리에 기초하여 상기 화상에서 조사 필드 후보를 취득하는 단계; 상기 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 기초하여 상기 조사 필드의 윤곽을 추출하는 단계; 및 상기 윤곽에 기초하여 상기 조사 필드를 추출하는 단계를 포함하는 화상 처리 방법이 제공된다.
본 발명에 따르면, 조사 필드의 추출을 가능하게 하는 화상 처리 기술이 제공될 수 있다.
본 발명의 추가적인 특징은 (첨부된 도면을 참고한) 예시적인 실시형태에 대한 이하의 설명으로부터 명확해질 것이다.
도 1a는 실시형태에 따른 화상 처리 장치를 포함한 방사선 촬영 시스템의 예시적인 기본 구성을 도시하는 블록도이다.
도 1b는 조사 필드 인식 유닛의 예시적인 기본 구성을 도시하는 블록도이다.
도 2a는 조사 필드 인식 유닛에 의해 행해지는 처리의 흐름을 도시하는 흐름도이다.
도 2b는 조사 필드 인식 유닛에 의해 행해지는 처리에서 처리되는 화상을 도시하는 개략도이다.
도 3a는 신경망에 의한 학습의 개념을 나타내는 설명도이다.
도 3b는 신경망에 의한 추론의 개념을 나타내는 설명도이다.
도 4a는 윤곽 추출 처리의 흐름을 도시하는 흐름도이다.
도 4b는 윤곽 추출 처리에서 처리되는 화상을 나타내는 개략도이다.
도 4c는 화상을 극좌표 공간으로 변환하는 예를 나타내는 도면이다.
도 5a는 윤곽 추출 처리의 흐름을 나타내는 흐름도이다.
도 5b는 윤곽 추출 처리에서 처리되는 화상을 나타내는 개략도이다.
도 6은 실시형태에 따른 화상 처리 장치를 포함하는 방사선 촬영 시스템의 예시적인 기본 구성을 나타내는 블록도이다.
이하는 도면을 참조하여 본 발명의 예시적인 실시형태를 상세하게 설명한다. 본 발명의 방사선은 일반적으로 사용되는 X 선뿐만 아니라 방사성 붕괴를 통해 방출되는 입자(광자를 포함)에 의해 구성되는 빔인 α 선, β 선, γ 선 등과, 실질적으로 동등하거나 더 높은 레벨의 에너지를 갖는 빔(예를 들어, 입자 빔 및 우주 선)도 포함한다는 것에 유의해야 한다. 이하는 방사선으로서 X 선을 사용하는 예시적인 경우를 설명한다.
제1 실시형태: 직사각형 콜리메이터
먼저, 도 1a 및 도 1b를 참고하여, 본 발명의 제1 실시형태에 따른 화상 처리 장치의 예시적인 구성에 대해서 설명한다. 도 1a는, 제1 실시형태의 화상 처리 장치를 포함하는 방사선 촬영 시스템의 예시적인 기본적인 구성을 도시하는 블록도이다.
방사선 촬영 시스템(100)은, 방사선을 발생시키는 방사선 발생 장치(101), 피사체(102)가 배치되는 베드(103), 방사선을 검출하고 피사체(102)를 통과한 방사선에 대응하는 화상 데이터를 출력하는 검출 장치(104)(FPD), 방사선 발생 장치(101)의 방사선 발생 타이밍과 방사선 발생 조건을 제어하는 제어 장치(105), 각종 디지털 데이터를 수집하는 데이터 수집 장치(106), 및 유저로부터의 지시에 따라서 화상 처리를 행하고 장치 전체를 제어하는 정보 처리 장치(107)를 포함한다. 방사선 촬영 시스템(100)의 구성을 방사선 촬영 장치라고도 칭할 수 있다는 것에 유의해야 한다.
정보 처리 장치(107)는, 조사 필드 인식 유닛(109) 및 진단 화상 처리 유닛(110)을 포함하는 화상 처리 장치(108), CPU(112), 메모리(113), 조작 패널(114), 저장 장치(115), 및 표시 장치(116)를 포함하며, 이들은 CPU 버스(111)를 통해서 서로 전기적으로 연결되어 있다.
메모리(113)에는, CPU(112)에서 실행되는 처리에 필요한 각종 데이터 등이 저장되어 있으며, 메모리(113)는 CPU(112)에 의해 사용되는 작업 메모리를 포함한다. CPU(112)는, 메모리(113)를 사용하여, 조작 패널(114)을 통해 유저에 의해 입력된 지시에 따라 장치 전체의 동작을 제어하도록 구성된다.
도 1b는, 제1 실시형태의 화상 처리 장치에서의, 조사 필드 인식 유닛(109)의 기본적인 기능 구성의 예를 나타내는 블록도이다. 조사 필드 인식 유닛(109)은, 기능 유닛으로서, 전처리 유닛(120), 추론 유닛(121), 윤곽 추출 유닛(122), 및 필드 추출 유닛(123)을 포함한다.
방사선 촬영 시스템(100)은, 조작 패널(114)을 통해 유저에 의해 주어진 지시에 따라 피사체(102)의 촬영 시퀀스를 개시한다. 방사선 발생 장치(101)에 의해 미리결정된 조건에 따른 방사선이 발생하고, 피사체(102)를 통과한 방사선이 검출 장치(104)에 조사된다. 여기서, 제어 장치(105)는, 전압, 전류 및 조사 시간 등의 방사선 발생 조건에 기초하여 방사선 발생 장치(101)를 제어하고, 미리결정된 조건하에서 방사선 발생 장치(101)가 방사선을 발생시키게 한다.
검출 장치(104)는, 피사체(102)를 통과한 방사선을 검출하고, 검출된 방사선을 전기 신호로 변환하며, 신호를 방사선에 대응하는 화상 데이터로서 출력한다. 검출 장치(104)로부터 출력된 화상 데이터는, 데이터 수집 장치(106)에 의해 디지털 화상 데이터로서 수집된다. 데이터 수집 장치(106)는 검출 장치(104)로부터 수집된 화상 데이터를 정보 처리 장치(107)에 전송한다. 정보 처리 장치(107)에서, 화상 데이터는 CPU(112)에 의해 행해지는 제어하에 CPU 버스(111)를 통해서 메모리(113)에 전송된다.
화상 처리 장치(108)는, 메모리(113)에 저장된 화상 데이터에 대하여 각종 화상 처리를 적용하여, 방사선 촬영을 통해 취득된 화상으로부터 조사 필드를 추출한다. 화상 처리 장치(108)의 진단 화상 처리 유닛(110)은, 조사 필드 인식 유닛(109)에 의해 피사체 영역이 추출된 후에, 계조 처리, 강조 처리, 또는 노이즈 저감 처리 등의 진단 화상 처리를 적용하여, 진단에 적합했던 화상을 생성한다. 화상 처리 장치(108)는, 진단 화상 처리 유닛(110)에 의해 행해진 처리의 결과를 저장 장치(115)에 저장하고, 결과를 표시 장치(116)에 표시한다.
이어서, 도 2a 및 도 2b를 참고하여, 조사 필드 인식 유닛(109)에 의해 행해지는 처리에 대해서 설명한다. 도 2a는 조사 필드 인식 유닛(109)에 의해 행해지는 처리의 흐름을 나타내는 흐름도이며, 도 2b는 조사 필드 인식 유닛(109)에 의해 행해지는 처리에서 처리되는 화상의 예를 도시하는 개략도이다. 이하는 피사체(102)의 손부가 직사각형 콜리메이터를 사용하여 촬영되는 예를 설명한다. 그러나, 본 발명은, 제1 실시형태에서 설명되는 촬영 부분 및 콜리메이터의 형상에 의해 한정되지 않고, 흉부 또는 복부 등의 피사체(102)의 다른 부분, 또는 예를 들어 원형 콜리메이터를 사용하는 경우 등의 조사 필드를 좁히기 위한 임의의 형상에도 적용될 수 있다.
단계 S201에서, 전처리 유닛(120)은 입력 화상의 전처리를 행한다. 본 전처리를 통해, 입력 화상은 신경망을 이용하여 행해지는 후속 추론 처리가 효과적으로 행해질 수 있는 형식으로 변환된다. 여기서, 전처리 유닛(120)은, 추론 유닛(121)에 의한 학습, 예를 들어 신경망에 의한 학습에 사용되는 화상과 같은 동일한 유형의 화상으로 입력 화상을 변환할 수 있다. 전처리 유닛(120)에 의해 행해지는 전처리의 일례로서, 전처리 유닛(120)은 그리드 제거 처리, 산란 선 저감 처리, 노이즈 저감 처리, 대수 변환 처리, 및 정규화 처리를 행한 후, 추론 유닛(121)에 의해 행해지는 추론 처리에서 사용되는 신경망에 적합한 화상 사이즈로 확대 또는 축소하는 처리를 행할 수 있다.
임의의 화상 사이즈가 채택될 수 있지만, 예를 들어 전처리 유닛(120)에 입력되는 화상이 112 × 112 화소 또는 224 × 224 화소 등의 길이 및 폭에 있어서의 1:1의 종횡비를 갖는 경우, 회전으로의 일반화(generalization)의 능력을 향상시킬 수 있다. 또한, 전처리 유닛(120)은, 정규화 처리의 일례로서, 입력 화상의 신호가 0으로부터 1로 변화되도록 신호 레벨을 정규화할 수 있다. 전처리 유닛(120)은 상기 처리를 실행함으로써 전처리 화상(211)을 취득한다. 전처리 화상(211)은, 도 2b에 도시하는 바와 같이, 조사 필드(212)와 콜리메이터 영역(213)을 주어진 비율로 포함한다.
단계 S202에서, 추론 유닛(121)은, 방사선 촬영을 통해 취득된 화상 내의 조사 필드 후보를 추론 처리에 기초하여 취득한다. 추론 유닛(121)은 전처리된 전처리 화상(211)에 대하여 추론 처리(예를 들어, 신경망을 이용한 추론 처리)를 행하여, 방사선 촬영을 통해 취득된 화상으로부터 조사 필드 후보를 취득한다. 추론 유닛(121)은, 방사선 촬영을 통해 취득된 화상을 입력으로서 그리고 조사 필드를 출력으로서 포함하는 데이터의 세트를 사용하여 행해지는 학습에 기초하여 추론 처리를 행한다. 추론 유닛(121)은 신경망에 의한 학습을 포함하는 학습의 결과에 기초하여 추론 처리를 행한다. 예를 들어, 추론 유닛(121)은, 추론 처리에서 사용되는 신경망으로서, 사전에 학습을 행한 신경망을 사용할 수 있다. 신경망에 의한 학습과 신경망을 사용한 추론 처리의 상세에 대해서는 후술한다. 추론 처리는 신경망을 사용하여 행해지는 처리로 한정되지 않고, 추론 유닛(121)은 예를 들어 서포트-벡터 머신 또는 부스팅(boosting)을 사용하여 행해지는 기계 학습을 통해 생성되는 처리 유닛을 사용할 수도 있다는 것에 유의해야 한다.
추론 유닛(121)은, 입력된 화상의 각각의 화소에 대하여, "조사 필드인지" 또는 "조사 필드가 아닌지(즉, 콜리메이터 영역인지)"의 확률을 나타내는 확률 맵(214)을 조사 필드 후보로서 취득한다. 여기서, 신경망을 사용하여 행해지는 추론 처리는, 인력에 의해서는 취득될 수 없는 많은 특징량을 사용하고, 에지 특징에 한정되지 않는 화상의 종합적인 특징을 사용한 조사 필드의 판정을 가능하게 하지만, 이 처리만을 통해 영역을 조사 필드로서 분류하는 것은 어려운 경우가 있다. 예를 들어, 도 2b에 나타내는 확률 맵(214)에서는, 조사 필드일 가능성이 높은 영역(215)과 콜리메이터일 가능성이 높은 영역(216)이 취득되지만, 확률 맵이 실제로는 콜리메이터 영역이 아니지만 콜리메이터 영역이라고 판정되는 오검출 영역(217)을 포함하는 경우가 있을 수 있다.
단계 S203에서, 윤곽 추출 유닛(122)은 조사 필드 후보에 기초하여 조사 필드의 윤곽을 추출한다. 윤곽 추출 유닛(122)은 조사 필드 후보에 대해 행해지는 윤곽 추출 처리에 기초하여 조사 필드의 윤곽을 추출한다. 윤곽 추출 유닛(122)은, 단계 S202에서 취득된 확률 맵(214)(조사 필드 후보)에 대하여, 콜리메이터의 형상에 기초하여 윤곽(218)을 추출함으로써 윤곽 추출 처리를 행한다.
윤곽 추출 유닛(122)은, 조사 필드 후보에 대하여, 콜리메이터의 형상을 기초로 윤곽을 추출함으로써 윤곽 추출 처리를 행한다. 윤곽 추출 유닛(122)은, 콜리메이터의 형상에 따라, 윤곽 추출 처리를 변경한다. 예를 들어, 윤곽 추출 유닛(122)은, 콜리메이터의 형상이 직사각형인 경우에는 직사각형 윤곽 추출 처리를 행하고, 콜리메이터의 형상이 원형인 경우에는 원형 윤곽 추출 처리를 행할 수 있다. 윤곽 추출 유닛(122)은, 콜리메이터의 직사각형 형상을 위한 윤곽 추출 처리와 콜리메이터의 원형 형상을 위한 윤곽 추출 처리를 선택할 수 있다.
제1 실시형태에서는, 콜리메이터(직사각형 콜리메이터)가 직사각형 윤곽을 갖는 것으로 상정되며, 윤곽 추출 유닛(122)은 직사각형 윤곽 추출 처리를 행함으로써 윤곽 후보로서 직선을 추출한다. 즉, 윤곽 추출 유닛(122)은, 확률 맵(214)으로부터, 콜리메이터의 직사각형 형상에 기초하여, 콜리메이터의 윤곽을 구성하는 윤곽선으로서 최대 4개의 직선을 구하는 윤곽 추출 처리를 행한다. 그리고, 추출된 윤곽 후보에 대해 행해지는 타당성 확인 처리에 기초하여 최종 윤곽이 설정된다. 이 윤곽 추출 처리의 상세에 대해서는 후술한다.
단계 S204에서, 필드 추출 유닛(123)은 윤곽(218)에 기초하여 조사 필드를 추출한다. 구체적으로는, 필드 추출 유닛(123)은 조사 필드 추출 처리를 행하여 입력된 화상을 조사 필드(221)와 콜리메이터 영역(220)으로 분할함으로써 취득되는 화상인 분할 영역 화상(219)을 취득한다. 여기서, 필드 추출 유닛(123)은 윤곽(218)의 내측 영역을 조사 필드(221)로서 추출한다. 윤곽(218)의 내측 영역은 윤곽(218)에 의해 둘러싸이는 영역이다. 즉, 필드 추출 유닛(123)은, 단계 S203에서 추출된 윤곽(218)에 관한 정보에 기초하여, 윤곽(218)에 의해 둘러싸이는 영역을 조사 필드(221)로서 추출하고, 이 영역 이외의 영역(즉, 윤곽(218)에 의해 둘러싸여 있지 않은 영역)을 콜리메이터 영역(220)으로서 추출한다. 필드 추출 유닛(123)에 의해 행해진 조사 필드 추출 처리를 통해, 신경망을 사용하여 행해진 추론 처리의 결과에 포함되는 오검출 영역(217)이 제거된 조사 필드(221)를 추출할 수 있다.
필드 추출 유닛(123)은, 윤곽(218)으로부터 상정되는 조사 필드가 확률 맵(214)으로부터 상정되는 조사 필드와 중복되는 영역에 기초하여, 조사 필드를 추출함으로써 조사 필드의 추출 처리를 행할 수 있다는 것에 유의해야 한다. 즉, 필드 추출 유닛(123)은, 윤곽(218)으로부터 상정되는 조사 필드와 확률 맵(214)으로부터 상정되는 조사 필드 사이의 중복 비율이 설정값 이상인 영역을 조사 필드로서 추출할 수 있다. 예를 들어, 필드 추출 유닛(123)은, 윤곽(218)에 관련된 정보(S203)와 확률 맵(214)에 관련된 정보(S202)에 기초하여, 윤곽(218)에 의해 형성될 수 있는 영역과 확률 맵(214)에서 조사 필드일 가능성이 높은 영역(215) 사이의 중복 비율이 미리결정된 기준값(예를 들어 75%) 이상인 영역을 조사 필드(221)로서 추출함으로써 조사 필드 추출 처리를 행할 수 있다.
상기 단계 S201 내지 S204에서 행해지는 처리를 통해, 조사 필드 인식 유닛(109)은 높은 정밀도로 조사 필드를 추출할 수 있다.
계속해서, 도 3a 및 도 3b을 참조하여 추론 유닛(121)에 의해 행해지는 처리의 상세에 대해서 설명한다. 도 3a는 신경망에 의한 학습의 개념을 나타내는 설명도이며, 도 3b는 신경망에 의한 추론의 개념을 나타내는 설명도이다.
신경망에 의한 학습은 입력 데이터의 세트(301) 및 대응하는 트레이닝 데이터의 세트(305)를 사용하여 행해진다.
먼저, 입력 데이터의 세트(301)에 대하여 학습 과정에 있는 신경망(302)을 사용하여 추론 처리를 행하여, 추론 결과의 세트(304)를 출력한다. 계속해서, 추론 결과의 세트(304)와 트레이닝 데이터의 세트(305)로부터 손실 함수를 산출한다. 손실 함수로서, 제곱 오차 함수 또는 교차 엔트로피 오차 함수 등의 임의의 함수를 사용할 수 있다. 또한, 손실 함수로부터 시작되는 역전파를 행하여 학습 과정의 신경망(302)의 파라미터 군을 갱신한다. 입력 데이터의 세트(301)와 트레이닝 데이터의 세트(305)를 변경하면서 상기 처리를 반복함으로써, 학습 과정의 신경망(302)에 의한 학습을 진행시킬 수 있다.
신경망에 의한 추론은, 입력 데이터(306)에 대하여 학습 완료 신경망(307)을 사용하여 행해지는 추론 처리를 적용하고, 추론 결과(308)를 출력하는 처리이다.
제1 실시형태에서, 트레이닝 데이터의 세트(305)는, 입력 데이터의 세트(301)에서 조사 필드를 1로 나타내고 콜리메이터 영역을 0으로 나타내도록 설정된다. 트레이닝 데이터의 세트(305)는 수동 입력을 통해 적절히 생성될 수 있거나 또는 조사 필드 인식 유닛(109)에 의해 외부 소스로부터 취득될 수 있다. 대안적으로, 조사 필드 인식 유닛(109)은 촬영된 부분에 따라서 표준 트레이닝 데이터를 자동으로 생성할 수 있다.
여기서, 신경망(302)은 다수의 처리 유닛(303)이 임의로 서로 연결되는 구조를 갖는다. 처리 유닛(303)의 예는, 컨벌루션 연산(convolution calculation), 배치 정규화(batch normalization) 등의 정규화 처리, 및 ReLU 또는 시그모이드(Sigmoid) 등의 활성화 함수를 사용하여 행해지는 처리를 포함하는 처리를 행하며, 처리 유닛은 처리 내용을 기술하기 위한 파라미터 군을 갖는다. 예를 들어, 예를 들어 컨벌루션 연산, 정규화, 및 활성화 함수의 순서로 처리를 행하는 이들 처리 유닛의 세트가 3 내지 약 몇백 개의 층으로 배치되고 서로 연결되며, 컨벌루션 신경망 또는 회귀 신경망이라 불리는 구조를 형성할 수 있다.
신경망(302)의 입력 및 출력은 전처리 유닛(120)에 의해 처리된 화상의 형태를 취한다는 것에 유의해야 한다. 출력 화상이 입력 화상과 동일한 해상도를 갖고 각각의 화소마다 조사 필드일 확률을 나타내는 구성을 채용하는 것이 가능하다. 다른 예에서, 출력 화상의 해상도는 입력 화상의 해상도보다 낮게 설정될 수 있다. 이 경우에는, 학습 및 추론의 처리 기간을 단축할 수 있지만, 후속 처리를 포함하는 전체 처리의 정밀도가 절충으로서 저하될 수 있다.
계속해서, 도 4a, 도 4b 및 도 4c를 참고하여, 윤곽 추출 유닛(122)에 의해 행해지는 윤곽 추출 처리의 상세에 대해서 설명한다. 도 4a는 윤곽 추출 처리의 흐름을 나타내는 흐름도이고, 도 4b는 윤곽 추출 처리에서 처리되는 화상을 나타내는 개략도이며, 도 4c는 화상을 극좌표 공간으로 변환하는 예를 나타내는 도면이다. 윤곽 추출 유닛(122)은, 확률 맵(214)으로부터 취득되며, 조사 필드와 콜리메이터 영역 사이의 경계를 나타내는 에지를 포함하는 화상으로부터 조사 필드의 윤곽을 추출한다.
단계 S401에서, 윤곽 추출 유닛(122)은, 확률 맵(214)으로부터 조사 필드일 가능성이 높은 영역(215)과 콜리메이터일 확률이 높은 영역(216) 사이의 경계를 나타내는 에지를 추출한다. 에지를 추출하는 방법은 제한되지 않지만, 예를 들어 확률 맵(214)에 대하여 소벨 필터 등의 미분 필터를 적용함으로써 에지를 추출할 수 있다. 확률 맵(214)의 각각의 화소에 대하여 0 내지 1의 확률이 설정되지만, 에지 추출 처리를 간편하게 하기 위해서, 사전에 설정된 임계값(예를 들어, 0.5)에 기초하여 2진화 처리를 행하고, 임계값 이상을 갖는 화소를 추출하는 처리를 행하는 것도 가능하다. 상기 처리를 통해, 조사 필드와 콜리메이터 영역 사이의 경계를 포함하는 에지(412)를 포함한 화상(411)을 취득할 수 있다.
단계 S402에서, 윤곽 추출 유닛(122)은 화상(411)에 대하여 허프 변환(Hough transform)을 적용한다. 여기에서는, 직교 좌표계에서 (x, y)로서 표현되는 화상(411) 상의 점을 식 1을 사용해서 각도 θ와 거리 ρ의 극좌표 공간으로 변환한다. 여기서, θ는 (x, y)을 통과하는 직선에 대하여 원점으로부터 수직으로 그려지는 선과 x 축 사이의 각도이며, ρ은 (x, y)을 통과하는 직선에 대하여 원점으로부터 수직으로 그려지는 선의 길이이다. 예를 들어, -90°< θ ≤ 90°의 범위에서 변환을 행하면, 도 4c에 도시된 바와 같이 극좌표 공간의 분포가 취득된다. 여기서, 극좌표 공간에서 국소 최대값을 취하는 쌍(θ, ρ)은, 직교 좌표계의 화상에서 직선이 존재할 확률이 높은 것을 나타낸다. 이 특징을 이용함으로써, 허프 변환의 적용을 통해 직선적인 구조를 갖는 직사각형 콜리메이터의 윤곽을 용이하게 추출할 수 있다.
식 1
Figure 112019082178022-pat00001
단계 S403에서, 윤곽 추출 유닛(122)은 화상(411)으로부터 가장 긴 직선(413)을 윤곽 후보로서 추출한다. 이 단계에서는, 윤곽 추출 유닛(122)은, 극좌표 공간 전체를 검색하고, 극좌표 공간에서 최대값을 취하는 쌍(θ, ρ)(417)에 의해 형성되는 직선을 추출한다.
단계 S404에서, 윤곽 추출 유닛(122)은, 직선(413)에 대하여 대향하며 평행한 직선(414)을 윤곽 후보로서 추출한다. 콜리메이터가 직사각형 형상을 갖는 것을 상정하면, 하나의 변에 대해 평행한 방향으로 연장되는 다른 변이 존재하는 것이 생각된다. 이 상정에 기초하여, 윤곽 추출 유닛(122)은, 극좌표 공간에서, 직선(413)에 대응하는 쌍(θ, ρ)(417)에 대하여 θ가 미리결정된 범위 내에 있는 영역(421)에서 국소 최대값을 탐색한다. θ의 범위는 θ=-90°에 대하여 약 5° 내지 15°로 또는 θ=90°에 대하여 약 - (5° 내지 15°)로 설정될 수 있다. 따라서, 윤곽 추출 유닛(122)은, 쌍(θ, ρ)(417) 이외의 국소 최대값으로서의 쌍(θ, ρ)(418)과 쌍(418)에 대응하는 직선(414)을 추출할 수 있다.
단계 S405에서, 윤곽 추출 유닛(122)은 직선(413)에 대하여 교차하며 수직인 직선(415)을 윤곽 후보로서 추출한다. 콜리메이터가 직사각형 형상을 갖는 것을 상정하면, 하나의 변에 대해 수직인 방향으로 연장되는 다른 변이 존재하는 것이 생각된다. 그 상정에 기초하여, 윤곽 추출 유닛(122)은, 극좌표 공간에서, 직선(413)에 대응하는 쌍(θ, ρ)(417)에 대하여 θ가 극좌표 공간의 미리결정된 범위 내에 있는 영역(422)에서 쌍(θ, ρ)을 탐색한다. 탐색 범위는, 기준 쌍(417)의 θ(= -90°)로부터 +90°의 위상차를 갖는 θ=0°에 대하여 약 ±15°인 임의의 범위로 설정될 수 있다. 따라서, 윤곽 추출 유닛(122)은, 쌍(θ, ρ)(417)을 통과하는 파형(431)과 쌍(θ, ρ)(418)을 통과하는 파형(432)이 서로 교차하는 점으로서의 쌍(θ, ρ)(419)과 쌍(419)에 대응하는 직선(415)을 추출할 수 있다.
단계 S406에서, 윤곽 추출 유닛(122)은, 직선(415)에 대하여 대향하며 평행한 직선(416)을 윤곽 후보로서 추출한다. 단계 S404와 마찬가지로, 윤곽 추출 유닛(122)은, 직선(415)에 대하여 평행한 방향으로 연장되는 변을 탐색하기 위해서, 극좌표 공간의 영역(423)으로부터 쌍(θ, ρ)을 탐색한다. 탐색 범위로서 사용되는 영역(423)은, 쌍(θ, ρ)(419)이 추출된 영역(422)보다 좁게 설정될 수 있다. 윤곽 추출 유닛(122)은, 쌍(θ, ρ)(417)을 통과하는 파형(433)과 쌍(θ, ρ)(418)을 통과하는 파형(434)이 서로 교차하는 쌍(θ, ρ)(420)과, 쌍(420)에 대응하는 직선(416)을 영역(423)으로부터 추출한다. 단계 S403 내지 S406 중 임의의 것에서 직선이 발견되지 않는 경우, 직선이 없는 것으로 간주하여 그 단계의 처리를 스킵할 수 있다는 것에 유의해야 한다.
단계 S407에서, 윤곽 추출 유닛(122)은, 단계 S403 내지 S406에서 추출된 윤곽 후보인 직선(413 내지 416)이 조사 필드와 콜리메이터 영역의 윤곽으로서 타당한지의 여부를 확인한다. 예를 들어, 윤곽 추출 유닛(122)은, 추출된 직선이 미리결정된 길이보다 긴지의 여부를 판정할 수 있다. 이 판정에 기초하여, 윤곽 추출 유닛(122)은, 윤곽 후보로서 추출된 직선 중, 미리결정된 길이보다 긴 직선을 윤곽으로서 추출한다.
대안적으로, 윤곽 추출 유닛(122)은, 추출된 직선에 의해 형성되는 영역이, 확률 맵(214)에서 조사 필드일 가능성이 높은 영역(215)과 잘 중복하고 일치하는지의 여부, 예를 들어 이들 영역 사이의 중복 비율을 나타내는 중복률이 임계값 이상인지의 여부를 판정할 수 있다. 윤곽 추출 유닛(122)은, 윤곽 후보에 기초한 영역(추출된 직선(413 내지 416)에 기초한 영역)과 확률 맵(214)으로부터 상정되는 조사 필드 사이의 중복의 비율을 나타내는 중복률이 임계값 이상인 경우, 윤곽 후보(직선(413 내지 416))를 윤곽으로서 추출한다.
윤곽의 타당성의 확인과 관련하여, 윤곽 추출 유닛(122)은, 피사체의 촬영 부분과 같은 방사선 촬영을 통해 취득된 화상의 특징에 맞는 판정 처리를 행할 수 있다. 윤곽 추출 유닛(122)은, 본 단계에서 직선의 타당성이 확인되지 않은 경우, 직선을 제거하고, 필요에 따라 다른 탐색을 행하며, 남아 있는 직선의 군을 최종 윤곽으로서 출력한다. 상기 단계 S401 내지 S407에서 행해진 처리를 통해, 윤곽 추출 유닛(122)은 높은 정밀도로 윤곽을 추출할 수 있다.
제1 실시형태에 따르면, 조사 필드가 강한 에지 성분을 가지며 조사 필드를 좁히기 위해 사용되는 윤곽과 구별하기 어려운 구조를 포함하는 경우에도, 조사 필드를 정확하게 추출할 수 있는 화상 처리 기술을 제공할 수 있다.
제2 실시형태: 원형 조사 필드
이어서, 본 발명의 제2 실시형태에 대해서 설명한다. 제2 실시형태에서는, 조사 필드를 좁히기 위해서 원형 콜리메이터를 사용하는 경우의 예시적인 구성에 대해서 설명한다. 방사선 촬영 시스템(100) 및 화상 처리 장치의 구성예는 제1 실시형태와 마찬가지이다. 제2 실시형태는, 윤곽 추출 유닛(122)이 원형 콜리메이터의 사용을 상정하여 원형 윤곽 추출 처리를 행하는 점에서 제1 실시형태와 상이하다. 제2 실시형태에서, 윤곽 추출 유닛(122)은 원형 윤곽 추출 처리를 행함으로써 윤곽 후보로서 원 또는 타원을 추출한다.
도 5a 및 도 5b를 참조하여, 윤곽 추출 유닛(122)에 의해 행해지는 윤곽 추출 처리의 상세에 대해서 설명한다. 도 5a는 제2 실시형태에서의 윤곽 추출 처리의 흐름을 나타내는 흐름도이며, 도 5b는 제2 실시형태에서의 윤곽 추출 처리에서 처리되는 화상을 나타내는 개략도이다.
조사 필드 인식 유닛(109)에 원형 콜리메이터를 사용하여 조사 필드를 좁힘으로써 취득되는 화상(511)이 입력되며, 추론 유닛(121)에 의해 확률 맵(512)이 출력되는 것을 상정한다. 확률 맵(512)에서는, 조사 필드일 가능성이 높은 영역(515)과 콜리메이터일 확률이 높은 영역(516)이 취득되지만, 확률 맵이 실제로는 콜리메이터 영역이 아니지만 콜리메이터 영역인 것으로 판정되는 오검출 영역(517)을 포함하는 경우가 있을 수 있다.
단계 S501에서, 윤곽 추출 유닛(122)은, 확률 맵(512)으로부터 조사 필드일 가능성이 높은 영역(515)과 콜리메이터일 확률이 높은 영역(516) 사이의 경계를 나타내는 에지를 포함하는 화상(513)을 취득한다. 본 처리는 도 4a의 단계 S401과 동등하다.
단계 S502에서, 윤곽 추출 유닛(122)은 화상(513)에 대하여 허프 변환을 적용한다. 여기에서는, 직교 좌표계에서 (x, y)로서 표현되는 화상(513) 상의 점을, 식 2를 사용해서 원의 중심점(중심 X, 중심 Y)과 반경 r의 3차원의 허프 공간으로 변환한다.
식 2
Figure 112019082178022-pat00002
대안적으로, 윤곽 추출 유닛(122)은, 콜리메이터가 타원형 윤곽을 갖는 것을 상정하면, 직교 좌표계에서 (x, y)로서 표현되는 화상(513) 상의 점을 식 3을 사용해서 타원의 중심점(중심 X, 중심 Y)과 타원의 장축(a) 및 단축(b)의 4차원 허프 공간으로 변환할 수 있다.
식 3
Figure 112019082178022-pat00003
단계 S503에서, 윤곽 추출 유닛(122)은, 허프 변환의 결과로부터 원형 윤곽(514)에 대응하는 허프 공간의 좌표를 선택함으로써 원형 윤곽(514)을 추출한다.
단계 S504에서, 윤곽 추출 유닛(122)은, 단계 S503에서 추출된 원형 윤곽(514)이 조사 필드와 콜리메이터 영역의 윤곽으로서 타당한지의 여부를 확인한다. 예를 들어, 윤곽 추출 유닛(122)은, 추출된 원(또는 타원)의 중심 좌표의 위치와 그 반경(또는 장축 및 단축)이 미리결정된 범위 내에 포함되어 있는지의 여부를 판정할 수 있다. 예를 들어, 윤곽 추출 유닛(122)은, 윤곽 후보로서 추출되며 중심 좌표의 위치와 반경이 미리결정된 범위에 포함되어 있는 원을 윤곽으로서 추출한다. 대안적으로, 윤곽 추출 유닛(122)은, 윤곽 후보로서 추출되고 중심 좌표의 위치와 장축 및 단축이 미리결정된 범위에 포함되는 타원을 윤곽으로서 추출한다.
대안적으로, 윤곽 추출 유닛(122)은, 추출된 원(또는 타원)에 의해 형성되는 영역이, 확률 맵(512)에서 조사 필드일 가능성이 높은 영역(515)과 잘 중복되고 일치하는 지의 여부, 예를 들어 이들 영역 사이의 중복의 비율을 나타내는 중복률이 기준값 이상인지의 여부를 판정할 수 있다. 윤곽 추출 유닛(122)은, 윤곽 후보에 기초하는 영역(추출된 원형 윤곽(514)에 기초한 영역)과 확률 맵(512)으로부터 상정되는 조사 필드 사이의 중복의 비율을 나타내는 중복률이 임계값 이상인 경우, 윤곽 후보(원형 윤곽(514))를 윤곽으로서 추출한다.
윤곽의 타당성의 확인에 관해서, 윤곽 추출 유닛(122)은, 피사체의 촬영 부분과 같은 방사선 촬영을 통해 취득된 화상의 특징에 맞는 판정 처리를 행할 수 있다.
상기 단계 S501 내지 S504에서 행해진 처리를 통해, 윤곽 추출 유닛(122)은, 조사 필드를 좁히기 위해 원형 콜리메이터를 사용하는 경우에도, 높은 정밀도로 윤곽을 추출할 수 있다.
직사각형 콜리메이터의 예와 원형 콜리메이터(타원형 콜리메이터를 포함)의 예가 양자 모두 추론 유닛(121)에 의한 학습에 사용되는 트레이닝 데이터에 포함되는 경우, 추론 유닛(121)은 콜리메이터가 직사각형 형상 또는 원형 형상을 갖는지의 여부에 관계없이 확률 맵(512)을 취득할 수 있다는 것에 유의해야 한다. 이러한 특성을 이용하여, 취득된 확률 맵의 형상에 따라, 제1 실시형태에서 설명된 직사각형 윤곽을 위한 것과 제2 실시형태에서 설명된 원형 윤곽을 위한 것 중에서 가장 적합한 윤곽 추출 유닛(122)이 선택될 수 있는 구성을 채용할 수 있다.
예를 들어, 조작 패널(114)을 통해서 유저가 선택을 행하는 구성을 채용할 수 있거나 또는 윤곽 추출 유닛(122)이 직사각형 윤곽을 위한 처리와 원형 윤곽을 위한 처리의 양자 모두를 행하는 구성을 채용할 수 있으며, 필드 추출 유닛(123)은, 추출된 윤곽에 의해 형성되는 영역과 확률 맵에서 조사 필드일 가능성이 높은 영역 사이의 중복의 비율이 미리결정된 기준값 이상인 영역을 조사 필드(221)로서 자동으로 추출한다.
제3 실시형태: 유저 사이트에서의 학습 메커니즘
이어서, 제3 실시형태에 대해서 설명한다. 도 6은 제3 실시형태의 화상 처리 장치를 포함하는 방사선 촬영 시스템의 예시적인 기본적인 구성을 도시하는 블록도이다. 제3 실시형태의 구성은, 제1 실시형태의 것과 동일한 요소 이외에, 정보 처리 장치(107)에 학습 장치(601)가 포함되는 점에서 제1 실시형태의 구성과 상이하다.
제1 및 제2 실시형태에서는, 방사선 촬영 시스템(100)은, 추론 유닛(121)이 신경망을 사용한 추론 처리만을 행하고, 신경망에 의한 학습은 미리 행해지도록 구성된다.
제3 실시형태에서는, 방사선 촬영 시스템(100)은, 유저의 사용 환경에서 취득되는 화상과 조사 필드의 데이터세트의 세트가 저장 장치(115)에 축적되도록 구성된다. 정보 처리 장치(107) 내의 CPU 버스(111)에 학습 장치(601)를 전기적으로 연결함으로써, 학습 처리도 방사선 촬영 시스템(100)의 정보 처리 장치(107) 내에서 실시할 수 있다. 추론 유닛(121)은, 유저의 사용 환경에서 취득된 화상과, 조사 필드의 데이터세트의 세트가 새롭게 추가된 학습의 결과와, 사전에 행해진 학습의 결과에 기초하여 추론 처리를 행한다. 따라서, 저장 장치(115)에 저장된 데이터세트의 세트를 새로운 트레이닝 데이터로서 사용하여 학습 장치(601)를 사용한 추가의 학습 처리를 행하여, 추론 유닛(121)의 파라미터 군을 갱신할 수 있다. 학습 장치(601)로서 GPU 등의 병렬 연산 성능이 높은 연산 유닛을 사용할 수 있다는 것에 유의해야 한다.
추가의 학습을 행하는 타이밍으로서, 저장 장치(115)에 새로운 트레이닝 데이터로서의 역할을 하는 데이터세트가 미리결정된 수 이상 축적되어 있는 경우 또는 유저에 의한 조사 필드 인식 결과의 수정을 통해 취득되는 데이터세트가 미리결정된 수 이상 축적되어 있는 경우 등의 임의의 타이밍을 선택할 수 있다. 또한, 추론 유닛(121)에 이해 추가 학습을 행할 때의 신경망의 파라미터 군의 디폴트값으로서는 학습 전에 사용하고 있었던 파라미터 군을 설정함으로써 전이 학습을 행할 수 있다.
저장 장치(115) 및 학습 장치(601)는, 정보 처리 장치(107)에 직접적으로 설치되어야 하는 것은 아니며, 네트워크를 통해서 정보 처리 장치(107)에 연결되는 클라우드 서버에 제공될 수 있다. 이 경우에는, 복수의 방사선 촬영 시스템(100)에 의해 취득되는 데이터세트를 클라우드 서버에 수집 및 저장할 수 있고, 이들 데이터세트를 사용해서 추가의 학습을 행할 수도 있다.
이상 설명한 바와 같이, 제3 실시형태에 따르면, 제1 및 제2 실시형태의 효과를 달성할뿐만 아니라 유저의 사용 환경에 맞게 조사 필드 인식 처리를 최적화함으로써 조사 필드의 더 정확한 추출을 가능하게 하기도 하는 화상 처리 기술이 제공될 수 있다.
본 발명의 일부 실시형태에 대해서 설명했지만, 본 발명은 이들 실시형태로 한정되지 않는 것은 말할 필요도 없고, 본 발명의 요지의 범위 내에서 다양한 변형 및 변경이 가능하다.
다른 실시형태
본 발명의 실시형태(들)는, 전술한 실시형태(들) 중 하나 이상의 기능을 실행하기 위해 저장 매체(보다 완전하게는 '비일시적 컴퓨터 판독가능 저장 매체'라 칭할수도 있음)에 기록된 컴퓨터 실행가능 명령어(예를 들어, 하나 이상의 프로그램)를 판독 및 실행하고 그리고/또는 전술한 실시형태(들) 중 하나 이상의 기능을 실행하는 하나 이상의 회로(예를 들어, 주문형 집적 회로(ASIC))를 포함하는 시스템 또는 장치의 컴퓨터에 의해, 그리고 예를 들어 전술한 실시형태(들) 중 하나 이상의 기능을 실행하기 위해 저장 매체로부터 컴퓨터 실행가능 명령어를 판독 및 실행함으로써 그리고/또는 전술한 실시형태(들) 중 하나 이상의 기능을 실행하기 위해 하나 이상의 회로를 제어함으로써 상기 시스템 또는 장치의 컴퓨터에 의해 실행되는 방법에 의해 실현될 수도 있다. 컴퓨터는 하나 이상의 프로세서(예를 들어, 중앙 처리 유닛(CPU), 마이크로 처리 유닛(MPU))를 포함할 수 있고 컴퓨터 실행가능 명령어를 판독 및 실행하기 위한 별도의 컴퓨터 또는 별도의 프로세서의 네트워크를 포함할 수 있다. 컴퓨터 실행가능 명령어는 예를 들어 네트워크 또는 저장 매체로부터 컴퓨터에 제공될 수 있다. 저장 매체는, 예를 들어 하드 디스크, 랜덤 액세스 메모리(RAM), 리드 온리 메모리(ROM), 분산형 컴퓨팅 시스템의 스토리지, 광디스크(예를 들어, 콤팩트 디스크(CD), 디지털 다기능 디스크(DVD) 또는 블루레이 디스크(BD)TM), 플래시 메모리 디바이스, 메모리 카드 등 중 하나 이상을 포함할 수 있다.
(기타의 실시예)
본 발명은, 상기의 실시형태의 1개 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억 매체를 개입하여 시스템 혹은 장치에 공급하고, 그 시스템 혹은 장치의 컴퓨터에 있어서 1개 이상의 프로세서가 프로그램을 읽어 실행하는 처리에서도 실현가능하다.
또한, 1개 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행가능하다.
본 발명을 예시적인 실시형태를 참고하여 설명하였지만, 본 발명은 개시된 예시적인 실시형태로 한정되지 않음을 이해해야 한다. 이하의 청구항의 범위는 이러한 모든 변형과 동등한 구조 및 기능을 포함하도록 최광의로 해석되어야 한다.

Claims (24)

  1. 방사선 촬영을 통해 취득된 2차원 화상으로부터 조사 필드를 추출하도록 구성되는 화상 처리 장치이며,
    2차원 화상에서 조사 필드에 관한 정보를 포함하는 학습 데이터를 사용하여 훈련된 신경망에 2차원 화상을 입력함으로써 조사 필드 후보를 추론하도록 구성되는 추론 유닛;
    상기 추론된 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 의해 취득된 상기 조사 필드의 윤곽 후보와 상기 추론된 조사 필드 후보를 사용하여 상기 조사 필드의 윤곽에 관한 결정을 행하고, 상기 결정에 기초하여 상기 조사 필드의 윤곽을 추출하도록 구성되는 윤곽 추출 유닛; 및
    상기 윤곽에 기초하여 상기 조사 필드를 추출하도록 구성되는 필드 추출 유닛을 포함하는, 화상 처리 장치.
  2. 제1항에 있어서,
    상기 윤곽 추출 유닛은 상기 추론된 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 의해 취득된 상기 조사 필드의 윤곽 후보 및 상기 추론된 조사 필드 후보를 사용하여, 상기 조사 필드의 상기 윤곽 후보가 상기 조사 필드의 윤곽으로서 유효한지 여부를 결정하고, 상기 결정에 기초하여 상기 조사 필드의 윤곽을 추출하는, 화상 처리 장치.
  3. 제1항에 있어서,
    상기 윤곽 추출 유닛은 상기 추론된 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 의해 취득된 상기 조사 필드의 윤곽 후보 및 상기 추론된 조사 필드를 사용하여 상기 조사 필드의 윤곽에 관한 결정을 행하고,
    상기 윤곽 후보가 상기 윤곽으로서 유효하다고 결정되는 경우에, 상기 윤곽 추출 유닛은 상기 윤곽 후보를 상기 윤곽으로서 추출하는, 화상 처리 장치.
  4. 제1항에 있어서,
    상기 윤곽 추출 유닛은 상기 추론된 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 의해 취득된 상기 조사 필드의 상기 윤곽 후보 및 상기 추론된 조사 필드 후보를 사용하여 상기 조사 필드의 상기 윤곽에 관한 상기 결정을 행하고,
    상기 윤곽 후보가 상기 윤곽으로서 유효하다고 결정되는 경우에, 상기 윤곽 추출 유닛은 상기 윤곽 후보를 상기 윤곽으로서 추출하고,
    상기 윤곽 후보가 상기 윤곽으로서 유효하지 않다고 결정되는 경우에, 상기 윤곽 추출 유닛은 상기 윤곽 추출 처리에 기초하여 추출된 상기 조사 필드의 다른 윤곽 후보를, 상기 윤곽으로서 추출하는, 화상 처리 장치.
  5. 제1항에 있어서,
    상기 추론 유닛은, 상기 2차원 화상의 각각의 화소에 대해 조사 필드일 확률 또는 조사 필드가 아닐 확률을 나타내는 확률 맵을 상기 조사 필드 후보로서 취득하는, 화상 처리 장치.
  6. 제5항에 있어서,
    상기 윤곽 추출 유닛은, 상기 확률 맵으로부터 취득되고 상기 조사 필드와 콜리메이터 영역 사이의 경계를 나타내는 에지를 포함하는 2차원 화상으로부터, 상기 조사 필드의 상기 윤곽을 추출하는, 화상 처리 장치.
  7. 제5항에 있어서,
    상기 윤곽 추출 유닛은, 상기 조사 필드 후보에 대해 콜리메이터의 형상에 기초하여 상기 윤곽을 추출하는 윤곽 추출 처리를 행하는, 화상 처리 장치.
  8. 제7항에 있어서,
    상기 윤곽 추출 유닛은 상기 형상에 따라 상기 윤곽 추출 처리를 변경하는, 화상 처리 장치.
  9. 제7항에 있어서,
    상기 윤곽 추출 유닛은, 상기 형상이 직사각형인 경우 직사각형 윤곽 추출 처리를 행하며 상기 형상이 원형인 경우 원형 윤곽 추출 처리를 행하는, 화상 처리 장치.
  10. 제9항에 있어서,
    상기 윤곽 추출 유닛은, 상기 직사각형의 형상을 위한 상기 직사각형 윤곽 추출 처리 및 상기 원형의 형상을 위한 상기 원형 윤곽 추출 처리를 선택할 수 있는, 화상 처리 장치.
  11. 제9항에 있어서,
    상기 윤곽 추출 유닛은 상기 직사각형 윤곽 추출 처리를 통해 직선을 윤곽 후보로서 추출하는, 화상 처리 장치.
  12. 제11항에 있어서,
    상기 윤곽 추출 유닛은 상기 윤곽 후보로서 각각 추출되는 직선들 중 미리결정된 길이보다 긴 직선을 상기 윤곽으로서 추출하는, 화상 처리 장치.
  13. 제9항에 있어서,
    상기 윤곽 추출 유닛은 상기 원형 윤곽 추출 처리를 통해 원 또는 타원을 윤곽 후보로서 추출하는, 화상 처리 장치.
  14. 제13항에 있어서,
    상기 윤곽 추출 유닛은, 상기 윤곽 후보로서 추출되는 원을 상기 윤곽으로서 추출하고, 상기 원의 중심 좌표의 위치 및 상기 원의 반경이 미리결정된 범위에 포함되는, 화상 처리 장치.
  15. 제13항에 있어서,
    상기 윤곽 추출 유닛은, 상기 윤곽 후보로서 추출되는 타원을 상기 윤곽으로서 추출하고, 상기 타원의 중심 좌표의 위치와 상기 타원의 장축 및 단축이 미리결정된 범위에 포함되는, 화상 처리 장치.
  16. 제11항에 있어서,
    상기 윤곽 후보에 기초하는 영역과 상기 확률 맵으로부터 상정되는 조사 필드 사이의 중복의 비율을 나타내는 중복률이 임계값 이상인 경우, 상기 윤곽 추출 유닛은 상기 윤곽 후보를 상기 윤곽으로서 추출하는, 화상 처리 장치.
  17. 제1항에 있어서,
    상기 필드 추출 유닛은 상기 윤곽 내의 영역을 상기 조사 필드로서 추출하는, 화상 처리 장치.
  18. 제5항에 있어서,
    상기 필드 추출 유닛은, 상기 윤곽으로부터 상정되는 조사 필드가 상기 확률 맵으로부터 상정되는 조사 필드와 중복되는 영역에 기초하여 상기 조사 필드를 추출하는, 화상 처리 장치.
  19. 제18항에 있어서,
    상기 필드 추출 유닛은, 상기 윤곽으로부터 상정되는 상기 조사 필드와 상기 확률 맵으로부터 상정되는 상기 조사 필드 사이의 중복의 비율이 설정값 이상인 영역을 상기 조사 필드로서 추출하는, 화상 처리 장치.
  20. 제1항에 있어서,
    상기 추론 유닛은, 상기 2차원 화상을 입력으로서 그리고 상기 조사 필드를 출력으로서 포함하는 데이터의 세트를 사용하여 행해지는 학습에 기초하여 상기 추론 처리를 행하는, 화상 처리 장치.
  21. 제1항에 있어서,
    상기 추론 유닛은, 유저의 사용 환경에서 취득된 2차원 화상 및 상기 조사 필드의 데이터세트들의 세트에 기초하여 새롭게 추가된 학습의 결과 및 사전에 행해진 학습의 결과에 기초하여 상기 추론 처리를 행하는, 화상 처리 장치.
  22. 제20항에 있어서,
    상기 추론 유닛은 신경망에 의한 학습을 포함하는 상기 학습의 결과에 기초하여 상기 추론 처리를 행하는, 화상 처리 장치.
  23. 방사선 촬영을 통해 취득된 2차원 화상으로부터 조사 필드를 추출하는 화상 처리 방법이며,
    2차원 화상에서 조사 필드에 관한 정보를 포함하는 학습 데이터를 사용하여 훈련된 신경망에 2차원 화상을 입력함으로써 조사 필드 후보를 추론하는 단계;
    상기 추론된 조사 필드 후보에 대해 행해진 윤곽 추출 처리에 의해 취득된 상기 조사 필드의 윤곽 후보와 상기 추론된 조사 필드 후보를 사용하여 상기 조사 필드의 윤곽에 관한 결정을 행하는 단계;
    상기 결정에 기초하여 상기 조사 필드의 윤곽을 추출하는 단계; 및
    상기 윤곽에 기초하여 상기 조사 필드를 추출하는 단계를 포함하는, 화상 처리 방법.
  24. 컴퓨터가 제23항에 따른 상기 화상 처리 방법의 각각의 단계를 실행하게 하는 프로그램이 저장된, 컴퓨터 판독가능 저장 매체.
KR1020190097919A 2018-08-14 2019-08-12 화상 처리 장치, 화상 처리 방법 및 저장 매체 KR102560911B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018152722A JP7134017B2 (ja) 2018-08-14 2018-08-14 画像処理装置、画像処理方法、及びプログラム
JPJP-P-2018-152722 2018-08-14

Publications (2)

Publication Number Publication Date
KR20200019572A KR20200019572A (ko) 2020-02-24
KR102560911B1 true KR102560911B1 (ko) 2023-07-31

Family

ID=67658329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190097919A KR102560911B1 (ko) 2018-08-14 2019-08-12 화상 처리 장치, 화상 처리 방법 및 저장 매체

Country Status (7)

Country Link
US (2) US11295158B2 (ko)
EP (1) EP3611700A1 (ko)
JP (1) JP7134017B2 (ko)
KR (1) KR102560911B1 (ko)
CN (1) CN110859638A (ko)
BR (1) BR102019016252A2 (ko)
RU (1) RU2737018C1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663982B1 (en) * 2018-12-05 2023-09-13 Agfa Nv Method to improve the segmentation performance of a computer implemented deep learning algorithm
JP2021036969A (ja) 2019-08-30 2021-03-11 キヤノン株式会社 機械学習装置、機械学習方法及びプログラム
JP7427856B2 (ja) * 2020-04-13 2024-02-06 公立大学法人会津大学 学習プログラム、学習装置及び学習方法
JP7454456B2 (ja) * 2020-06-25 2024-03-22 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
CN112070780A (zh) * 2020-08-05 2020-12-11 中国人民解放军61540部队 居民地提取结果轮廓直线性处理方法和装置及设备
CN112464948A (zh) * 2020-11-11 2021-03-09 常州码库数据科技有限公司 一种基于仿生学的自然场景目标轮廓提取方法及系统
CN113020428B (zh) * 2021-03-24 2022-06-28 北京理工大学 级进模的加工监控方法、装置、设备及存储介质
CN113393543B (zh) * 2021-06-15 2022-07-01 武汉大学 高光谱图像压缩方法、装置、设备及可读存储介质
CN115177755A (zh) * 2022-07-07 2022-10-14 中国人民解放军军事科学院军事医学研究院 在线智能紫外辐射消毒系统和方法
CN116051681B (zh) * 2023-03-02 2023-06-09 深圳市光速时代科技有限公司 一种基于智能手表生成图像数据的处理方法及系统
CN116843748B (zh) * 2023-09-01 2023-11-24 上海仙工智能科技有限公司 一种远距二维码及其物体空间位姿获取方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887194B1 (ko) * 2018-06-20 2018-08-10 주식회사 뷰노 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261649A (ja) 1990-08-20 1992-09-17 Fuji Photo Film Co Ltd 放射線画像解析方法および装置
US5828775A (en) * 1990-04-18 1998-10-27 Fuji Photo Film Co., Ltd. Method and apparatus for adjusting read-out conditions and/or image processing conditions for radiation images , radiation image read-out apparatus, and radiation image analyzing method and apparatus
JPH0538334A (ja) * 1991-03-08 1993-02-19 Fuji Photo Film Co Ltd 放射線照射野認識方法および装置
JP3239186B2 (ja) * 1991-06-18 2001-12-17 コニカ株式会社 放射線画像の照射野領域抽出装置
KR19990082557A (ko) 1996-02-09 1999-11-25 윌리암 제이. 버크 불확실한 트레이닝 데이터를 사용하여 대상을검출 및 분류하기위한 뉴럴 네트워크의 트레이닝 방법 및 장치
JP3609211B2 (ja) * 1996-08-29 2005-01-12 富士写真フイルム株式会社 放射線画像処理装置
EP0990222B1 (en) 1998-04-03 2003-06-04 Koninklijke Philips Electronics N.V. Image processing method and system involving contour detection steps
JP4261649B2 (ja) 1998-10-30 2009-04-30 キヤノン株式会社 画像処理装置、方法、記録媒体
US7295700B2 (en) * 2003-10-24 2007-11-13 Adobe Systems Incorporated Object extraction based on color and visual texture
JP4708712B2 (ja) * 2004-02-04 2011-06-22 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
JP4484579B2 (ja) 2004-05-11 2010-06-16 キヤノン株式会社 画像処理装置及びその方法、プログラム
JP4280729B2 (ja) * 2005-05-31 2009-06-17 キヤノン株式会社 照射野領域抽出方法及び放射線撮影装置
JP5074777B2 (ja) 2006-05-22 2012-11-14 キヤノン株式会社 撮像機能付表示装置、画像処理装置、画像処理方法、および、画像表示システム
US8831325B2 (en) * 2009-12-29 2014-09-09 Shimadzu Corporation Radiographic image processing apparatus and radiographic image processing program
JP5845002B2 (ja) 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6326812B2 (ja) 2013-12-26 2018-05-23 コニカミノルタ株式会社 画像処理装置及び照射野認識方法
JP6570330B2 (ja) 2015-06-12 2019-09-04 キヤノン株式会社 画像処理装置、放射線撮影装置、画像処理方法、プログラム、および記憶媒体
JP6491545B2 (ja) 2015-06-12 2019-03-27 キヤノン株式会社 画像処理装置、放射線撮影装置、画像処理方法、プログラム、および記憶媒体
EP3380859A4 (en) * 2015-11-29 2019-07-31 Arterys Inc. AUTOMATED SEGMENTATION OF CARDIAC VOLUME
JP6833444B2 (ja) 2016-10-17 2021-02-24 キヤノン株式会社 放射線撮影装置、放射線撮影システム、放射線撮影方法、及びプログラム
CA2989159C (en) * 2016-12-02 2021-12-28 Michael R. AVENDI System and method for navigation to a target anatomical object in medical imaging-based procedures
FR3060169B1 (fr) * 2016-12-09 2019-05-17 Universite D'orleans Detection de nerfs dans une serie d'images echographiques

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887194B1 (ko) * 2018-06-20 2018-08-10 주식회사 뷰노 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Liang Zhao 외. Automatic Collimation Detection in Digital Radiographs with the Directed Hough Transform and Learning-Based Edge Detection. Patch-Based Techniques in Medical Imaging. Patch-MI 2015.*

Also Published As

Publication number Publication date
RU2737018C1 (ru) 2020-11-24
US20200057907A1 (en) 2020-02-20
US11295158B2 (en) 2022-04-05
CN110859638A (zh) 2020-03-06
KR20200019572A (ko) 2020-02-24
JP7134017B2 (ja) 2022-09-09
BR102019016252A2 (pt) 2020-02-18
JP2020025780A (ja) 2020-02-20
US20220058423A1 (en) 2022-02-24
EP3611700A1 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
KR102560911B1 (ko) 화상 처리 장치, 화상 처리 방법 및 저장 매체
CA3068526A1 (en) Classification and 3d modelling of 3d dento-maxillofacial structures using deep learning methods
US8483470B2 (en) Radiological image area extracting apparatus, radiological image area extraction program, and radiographic apparatus
JP2005296605A (ja) 放射線写真画像を診断関連領域と診断非関連領域とにセグメント化する方法
CN111540025A (zh) 预测用于图像处理的图像
JP5839710B2 (ja) 解析点設定装置および方法、並びに体動検出装置および方法
JPH1094538A (ja) 異常陰影候補の検出方法および装置
KR101885562B1 (ko) 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치
EP3349655B1 (en) Tomography apparatus and controlling method for the same
JP2001076141A (ja) 画像認識方法および画像処理装置
JP6309417B2 (ja) 検出器生成装置、方法およびプログラム並びに画像検出装置
US20220175331A1 (en) Image processing apparatus, radiation imaging system, image processing method, and non-transitory computer-readable storage medium
US11823441B2 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable storage medium
JP7277536B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP4060609A1 (en) Detecting abnormalities in an x-ray image
US20230005148A1 (en) Image analysis method, image analysis device, image analysis system, control program, and recording medium
JP2009090054A (ja) 胸部正面x線画像の検像方法及び検像装置
JP2023100836A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2002140714A (ja) 特徴量正誤判定方法および画像処理装置
JP2001070290A (ja) 画像処理方法および画像処理装置
US20240054643A1 (en) Image processing apparatus, image processing method, and recording medium
Elgargni Investigation of Image Processing for Detecting Teeth Conditions of Dental X-Ray Images
CN117830187A (zh) 医学图像处理方法、装置以及医疗设备
CN117830449A (zh) 基于生成对抗网络的神经辐射场实现从单张医学x光图像重建新视角图像的方法
JP2002133396A (ja) 異常陰影候補検出装置および画像処理装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant