WO2020031515A1 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
WO2020031515A1
WO2020031515A1 PCT/JP2019/024229 JP2019024229W WO2020031515A1 WO 2020031515 A1 WO2020031515 A1 WO 2020031515A1 JP 2019024229 W JP2019024229 W JP 2019024229W WO 2020031515 A1 WO2020031515 A1 WO 2020031515A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
value
dose
unit
image
Prior art date
Application number
PCT/JP2019/024229
Other languages
English (en)
French (fr)
Inventor
高橋 直人
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to EP19848078.2A priority Critical patent/EP3799789A4/en
Priority to CN201980054144.6A priority patent/CN112601493A/zh
Publication of WO2020031515A1 publication Critical patent/WO2020031515A1/ja
Priority to US17/146,709 priority patent/US20210133979A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an image processing technique for outputting a dose index value from an image obtained by radiography.
  • This radiation imaging device has an extremely wide dynamic range for radiation dose, and the automatic density correction by image processing enables stable concentration even in the case of insufficient or excessive dose compared to conventional analog radiography. There is an advantage that an output can be obtained. On the other hand, even when the imaging technician performs imaging with an inappropriate dose, the imaging technician is unlikely to notice that, and there is a problem that the amount of exposure to the patient increases, especially when the dose is excessive.
  • a dose index value which is a guide of the imaging dose of a digital radiographic image together with the imaging image.
  • various methods have been proposed for calculating the dose index value.
  • IEC International Electrotechnical Commission
  • EI Exposure @ Index
  • an EIT Target ⁇ Exposure ⁇ Index
  • DI DI indicating a deviation amount between the dose index value EI and the dose target value EIT
  • An operation method of dose management using (Deviation Index) is also provided.
  • Each manufacturer provides a dose management function that complies with this international standard. For example, various calculation methods have been proposed by manufacturers, such as the methods of Patent Literature 1 and Patent Literature 2.
  • the calculation method of the dose index value EI is often a black box. For this reason, the numerical significance of the dose index value EI is not clear to the operator, and the operator is inconvenient as a reference value for dose management.
  • the present disclosure provides a technique for performing more appropriate dose management based on standards intended by an operator.
  • the image processing apparatus has the following configuration. That is, an image processing apparatus, a dividing unit that divides a radiation image obtained by radiography of a subject into a plurality of anatomical regions, and extracts at least one of the plurality of anatomical regions. Extracting means for calculating the dose index value of the radiography for the extracted area based on the pixel value in the area extracted by the extracting means.
  • 1 is a configuration example of a radiation imaging apparatus according to Embodiment 1.
  • 5 is a flowchart illustrating a processing procedure of the radiation imaging apparatus 100 according to the first embodiment.
  • 6 is a flowchart illustrating a processing procedure for changing a region for calculating a dose index value according to the first embodiment.
  • 1 is a configuration example of a radiation imaging apparatus according to Embodiment 1.
  • 13 is a flowchart illustrating a processing procedure for changing a division configuration of a region for calculating a dose index value according to the second embodiment.
  • FIG. 13 is a configuration example of a radiation imaging apparatus according to Embodiment 3.
  • 15 is a flowchart illustrating a processing procedure for automatically updating a dose target value EIT according to the third embodiment.
  • FIG. 3 is a diagram illustrating an example of a segmentation map according to the first embodiment.
  • FIG. 10 is a diagram illustrating an example of a modified correct segmentation map according to the second embodiment.
  • FIG. 9 is a diagram illustrating an example of a correspondence table between a plurality of imaging regions and label numbers.
  • FIG. 1 shows a configuration example of the radiation imaging apparatus 100 according to the first embodiment.
  • the radiation imaging apparatus 100 is an imaging apparatus having an image processing function of outputting a dose index value from an image obtained by radiation imaging. That is, the radiation imaging apparatus 100 also functions as an image processing apparatus.
  • the radiation imaging apparatus 100 includes a radiation generation unit 101, a radiation detector 104, a data collection unit 105, a preprocessing unit 106, a CPU (Central Processing Unit) 108, a storage unit 109, an operation unit 110, a display unit 111, and an image processing unit 112. These are connected to each other via a CPU bus 107 so as to be able to exchange data.
  • a CPU bus 107 so as to be able to exchange data.
  • the image processing unit 112 includes a dividing unit 113, an extracting unit 114, a calculating unit 115, and a setting unit 116.
  • the storage unit 109 stores various data and control programs necessary for processing in the CPU 108 and functions as a working memory of the CPU 108.
  • the CPU 108 uses the storage unit 109 to control the operation of the entire apparatus in accordance with an operation from the operation unit 110. Thereby, the radiation imaging apparatus 100 operates as follows.
  • the imaging instruction is transmitted to the radiation generation unit 101 and the radiation detector 104 via the data collection unit 105 by the CPU.
  • the CPU 108 controls the radiation generator 101 and the radiation detector 104 to execute radiation imaging.
  • the radiation generator 101 irradiates the subject 103 with the radiation beam 102.
  • the radiation beam 102 emitted from the radiation generator 101 passes through the subject 103 and reaches the radiation detector 104.
  • the radiation detector 104 outputs a signal corresponding to the intensity of the arrived radiation beam 102 (radiation intensity).
  • the subject 103 is a human body. Therefore, the signal output from the radiation detector 104 is data obtained by imaging a human body.
  • the data collection unit 105 converts the signal output from the radiation detector 104 into a predetermined digital signal and supplies the digital signal to the preprocessing unit 106 as image data.
  • the preprocessing unit 106 performs preprocessing such as offset correction and gain correction on the image data supplied from the data collection unit 105.
  • the image data pre-processed by the pre-processing unit 106 is sequentially transferred to the storage unit 109 and the image processing unit 112 via the CPU bus 107 under the control of the CPU 108.
  • the image processing unit 112 performs a process for calculating a dose index value from the image data (hereinafter, radiation image) obtained from the preprocessing unit 106.
  • the dose index value is a value that is a guide of the imaging dose as described above.
  • the dividing unit 113 divides the input radiation image (radiation image obtained by performing radiography on the subject 103) into a plurality of anatomical regions. In the present embodiment, the dividing unit 113 creates a segmentation map (multi-value image) described later.
  • the extracting unit 114 sets at least one of the plurality of anatomical regions divided by the dividing unit 113 based on an operation performed on the operation unit 110 by the operator as a region for calculating a dose index value. ,Extract.
  • the calculation unit 115 calculates a radiation index value for radiography for the extracted region based on the pixel values in the region extracted by the extraction unit 114.
  • the setting unit 116 sets and manages teacher data, which will be described later, and information on the correspondence between the imaging region and the label number.
  • the dose index value calculated by the image processing unit 112 is displayed on the display unit 111 together with the radiation image obtained from the preprocessing unit 106 under the control of the CPU 108. After the operator checks the dose index value and the radiation image displayed on the display unit 111, a series of imaging operations ends.
  • the dose index value and the radiation image displayed on the display unit 111 may be output to a printer (not shown) or the like.
  • FIG. 2 is a flowchart illustrating a processing procedure of the radiation imaging apparatus 100 according to the present embodiment.
  • the flowchart illustrated in FIG. 2 can be realized by the CPU 108 executing a control program stored in the storage unit 109, performing information calculation and processing, and controlling each hardware.
  • the radiation image obtained by the preprocessing unit 106 is transferred to the image processing unit 112 via the CPU bus 107.
  • the transferred radiation image is input to the dividing unit 113.
  • the dividing unit 113 creates a segmentation map (multivalued image) from the input radiation image (S201). Specifically, the dividing unit 113 assigns, to each pixel of the radiation image, a label indicating the anatomical region to which the pixel belongs. Dividing such an image into arbitrary anatomical regions is called semantic segmentation.
  • the label is a label number that can be identified by a pixel value. That is, the dividing unit 113 divides the radiation image into a plurality of anatomical regions by assigning different label numbers to the plurality of anatomical regions.
  • FIG. 8A shows an example of the segmentation map created in S201.
  • FIG. 8A is a diagram illustrating an example of a segmentation map in a case where the input radiation image is an image of the chest.
  • the dividing unit 113 gives the same value (for example, pixel value 0) to the pixels in the region belonging to the lung field 801, and gives the pixels in the region belonging to the spine 802 the same value (for example, Give the value 1).
  • the dividing unit 113 gives another identical value (for example, pixel value 2) to a pixel belonging to the subject structure 803 that does not belong to any of the lung field 801 and the spine 802.
  • the division shown in FIG. 8A is an example, and there is no particular limitation on what anatomical region granularity the radiation image is divided.
  • the dividing unit 113 may appropriately determine the granularity of the division according to a desired region for calculating the dose index value, which is instructed by the operator via the operating unit 110.
  • the dividing unit 113 may create a segmentation map by similarly assigning a label number (pixel value) to an area other than the subject structure. For example, in FIG. 8A, a segmentation map in which different label numbers are assigned to regions 804 where the radiation directly reaches the radiation detector 104 and regions 805 where the radiation is shielded by a collimator (not shown) is created. Is also possible.
  • the dividing unit 113 creates the segmentation map in S201 using a known method.
  • a CNN Convolutional Neural Network
  • the CNN is a neural network composed of a convolutional layer, a pooling layer, a fully connected layer, and the like, and is realized by appropriately combining the layers according to a problem to be solved.
  • CNN is a type of machine learning algorithm, and requires prior learning. Specifically, it is necessary to adjust (optimize) filter coefficients used in the convolutional layer and parameters (variables) such as weights and bias values of each layer by so-called supervised learning using a large number of learning data. .
  • the supervised learning prepares a large number of samples of combinations of an image (input image) input to the CNN and an output result (correct answer) expected when the input image is given, and outputs the expected result. Involves repeatedly adjusting the parameters as required. For this adjustment, an error backpropagation method (back vacation) is generally used. That is, the parameters of the CNN are repeatedly adjusted so that the difference between the correct answer and the actual output result (error defined by the loss function) becomes smaller.
  • an error backpropagation method back vacation
  • the input image to the CNN is a radiation image obtained by the preprocessing unit 106, and the expected output result is a correct segmentation map (for example, FIG. 8A).
  • a correct segmentation map can be created in advance by the operator according to the desired granularity of the anatomical region.
  • the CNN parameters (learned parameters 202) are generated in advance by machine learning using a plurality of samples of a combination of an input image and an expected output result.
  • the learned parameters 202 are stored in the storage unit 109 in advance, and when the dividing unit 113 creates the segmentation map in S201, the learned parameters 202 are called and semantic segmentation by the CNN is performed.
  • the dividing unit 113 divides the radiation image into a plurality of anatomical regions using parameters generated in advance by machine learning. Further, the operator can determine predetermined image data and a correct segmentation map (divided allocation data) corresponding to the predetermined image data as teacher data.
  • the teacher data is managed by the setting unit 116.
  • the only learned parameter 202 may be generated using the combined data of all parts, but the learned parameter 202 is generated for each part (for example, head, chest, abdomen, limbs, etc.). May be. That is, learning may be performed separately using a plurality of samples of the combination of the input image and the expected output result for each part, and a plurality of sets of learned parameters 202 for each part may be generated. .
  • the learned parameters of each set are stored in advance in the storage unit 109 in association with the part information, and the dividing unit 113 performs What is necessary is just to call the learned parameter 202 corresponding to the imaging region from the storage unit 109 and perform semantic segmentation by the CNN.
  • the network structure of the CNN is not particularly limited, and a generally known network structure may be used. Specifically, FCN (Fully Convolutional Networks), SegNet, U-net, or the like can be used as machine learning.
  • the input image to the CNN is a radiation image obtained by the pre-processing unit 106, but a reduced radiation image may be used as an input image to the CNN.
  • the semantic segmentation by the CNN requires a large amount of calculation and takes a lot of calculation time. Therefore, using reduced image data can lead to a reduction in calculation time.
  • the extraction unit 114 extracts a region for calculating the dose index value (S203). Specifically, the extraction unit 114 extracts a region designated by the operator via the operation unit 110 as a region for calculating a dose index value.
  • the correspondence information 204 between the imaging part and the label number is used as the area information. That is, the extraction unit 114 uses the preset correspondence information 204 between the plurality of parts and the label numbers corresponding to each of the plurality of parts, and according to the operator's instruction, the plurality of the anatomical regions. At least one region is extracted. FIG.
  • the correspondence table 900 shown in FIG. 9 is created in advance by an operator or the like and stored in the storage unit 109.
  • the extraction unit 114 refers to the correspondence table 900 and obtains a label number corresponding to a part of the area designated (instructed) by the operator via the operation unit 110. Note that the extraction unit 114 may directly acquire the label number specified by the operator via the operation unit 110. Subsequently, the extraction unit 114 generates a mask image (Mask) in which the value of the pixel corresponding to the acquired label number is 1 by (Equation 1). (Equation 1)
  • Map represents a segmentation map
  • (x, y) represents coordinates of an image.
  • L represents the acquired label number.
  • the number of regions designated by the operator is not limited to one, but may be plural.
  • the extraction unit 114 When the operator specifies a plurality of areas, the extraction unit 114 generates a mask image by setting the value of a pixel corresponding to any of a plurality of label numbers corresponding to the plurality of areas to 1 and setting the other pixels to 0. good. The details of the method of setting the region by the operator will be described later with reference to the flowchart of FIG.
  • the calculation unit 115 calculates a value V indicating the central tendency of the extracted region as a representative value in the region extracted in S203 (that is, the region having a pixel value of 1 in the mask image) (S205). ).
  • the value V is calculated as in (Equation 2).
  • Org represents an input image (a radiation image obtained by the preprocessing unit 106 in the present embodiment)
  • Mask represents a mask image
  • (x, y) represents coordinates of the image
  • Org (x, y) represents Represents the pixel value at the coordinates (x, y) in the input image.
  • the calculation unit 115 converts the obtained value V into a dose index value EI (S206). Specifically, the calculation unit 115 converts the value V into the dose index value EI as shown in (Equation 3) according to the definition of the international standard IEC62449-1. (Equation 3)
  • the function g is a function for converting the value V into the air kerma, and is determined in advance according to the relationship between the value V and the air kerma under specified conditions. The function g differs depending on the characteristics of the radiation detector 104. Therefore, the operator previously stores a plurality of functions g in the storage unit 109 in accordance with the available radiation detectors 104, and the calculation unit 115 calculates the function g corresponding to the radiation detector 104 actually used. Can be used to perform the conversion.
  • the calculating unit 115 calculates a deviation amount (deviation) DI between the dose target value EIT and the dose index value EI using (Equation 4) (S207).
  • the dose target value EIT is set in advance for each part according to a dose management standard determined by the operator. Since the deviation DI is a numerical value representing the deviation between the target dose value EIT and the dose index value EI, it is 0 if the target dose value EIT and the dose index value EI are the same. Further, the larger the dose index value EI, that is, the larger the dose of the captured image is greater than the target dose value EIT, the larger the deviation DI becomes.
  • the deviation DI is about 3.
  • the deviation DI decreases as the dose of the captured image is smaller than the target dose value EIT.
  • the deviation DI is approximately -3.
  • the CPU 108 displays the obtained dose index value EI and the deviation DI on the display unit 111 (S208).
  • the display method is not particularly limited.
  • the CPU 108 can display the radiation image obtained by the pre-processing unit 106 on the display unit 111.
  • the obtained dose index value EI and deviation DI may be controlled so as to be displayed in a part of the display area 111 by overlay.
  • the radiation imaging apparatus 100 calculates a value D for each of the plurality of regions, and calculates a value D from the value D. May be calculated and displayed on the display unit 111.
  • FIG. 3 is a flowchart illustrating a processing procedure for changing a region for calculating a dose index value.
  • the flowchart illustrated in FIG. 3 can be realized by the CPU 108 executing the control program stored in the storage unit 109, performing the calculation and processing of information, and the control of each hardware.
  • the same steps as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted.
  • the operator selects a part of a region to be changed (a part to which the region belongs) via the operation unit 110 (S301).
  • the setting unit 116 determines whether or not there is teacher data corresponding to the selected part (S302).
  • the teacher data refers to the correct segmentation map (divided assignment data) determined by the operator as described above.
  • the setting unit 116 acquires the teacher data from the storage unit 109 (S303).
  • the setting unit 116 acquires image data (radiation image) of the selected part obtained by the past imaging from the storage unit 109 (S304).
  • a segmentation map is created from the image data acquired by the dividing unit 113 (S201). The method of creating the segmentation map is as described in S201 of FIG.
  • the CPU 108 displays a segmentation map as shown in FIG. 8A on the display unit 111 (S305).
  • the operator specifies an arbitrary area for calculating the dose index value, which is an area to be changed, using a mouse or the like (not shown) (S306).
  • the setting unit 116 acquires the label number corresponding to the designated area, updates the correspondence information 204 (for example, the correspondence table 900 between the radiographed part and the label number shown in FIG. 9), and saves it in the storage unit 109. (Setting) (S307).
  • the area for calculating the dose index value can be freely changed from the divided areas in the radiation image, and the appropriate dose management is performed based on the standard intended by the operator. It becomes possible.
  • FIG. 4 shows a configuration example of the radiation imaging apparatus 400 according to the second embodiment.
  • the radiation imaging apparatus 400 has a configuration including a machine learning unit 401 with respect to the radiation imaging apparatus 100 shown in FIG.
  • the machine learning unit 401 has a function of performing learning for changing a division configuration of a region for calculating a dose index value.
  • the machine learning unit 401 performs machine learning (re-learning of CNN) based on teacher data (predetermined image data and a correct segmentation map (divided allocation data) corresponding to the predetermined image data). I do.
  • FIG. 5 is a flowchart illustrating a processing procedure for changing a division configuration of an area for calculating a dose index value.
  • the flowchart illustrated in FIG. 5 can be realized by the CPU 108 executing the control program stored in the storage unit 109, performing the calculation and processing of information, and the control of each hardware.
  • the machine learning unit 401 re-learns the CNN based on the teacher data 502 (S501). This re-learning is learning using teacher data 502 prepared in advance.
  • the difference between the correct answer and the actual output result (the error defined by the loss function) is obtained by using the backpropagation method (back propagation). This is performed by repeatedly adjusting the parameters of the CNN in the direction in which is smaller.
  • the setting unit 116 can set teacher data for re-learning by the machine learning unit 401 as follows. That is, the setting unit 116 can change the correct segmentation map, which is the teacher data, and set the changed segmentation map in the machine learning unit 401.
  • FIG. 8B shows an example of the modified correct segmentation map.
  • the dividing unit 113 regards the lung field 801 as one region and assigns the same label.
  • the setting unit 116 considers the case where the lung field is divided into different areas in the right lung field and the left lung field, and as shown in FIG. A correct segmentation map with different labels is prepared as teacher data 502.
  • FIG. 8A the dividing unit 113 regards the lung field 801 as one region and assigns the same label.
  • the setting unit 116 considers the case where the lung field is divided into different areas in the right lung field and the left lung field, and as shown in FIG.
  • a correct segmentation map with different labels is prepared as teacher data 502.
  • the dividing unit 113 regards the spine 802 as one region and assigns the same label.
  • the setting unit 116 prepares a correct segmentation map in which different labels are assigned to the thoracic vertebra 802a and the lumbar vertebra 802b as shown in FIG. .
  • the machine learning unit 401 updates (saves) the parameter obtained by the re-learning in the storage unit 109 as a new parameter of the CNN (S503).
  • the image processing unit 112 resets an area for calculating the dose index value (S504).
  • the resetting method is the same as the operation in the flowchart of FIG. In FIG. 3, a new segmentation map is created by using the new teacher data in the above processing.
  • the correspondence information 204 (for example, the correspondence table 900 of the photographed part and the label number shown in FIG. 9). ) Is updated. That is, the setting unit 116 updates and sets the correspondence information 204 according to the plurality of anatomical regions divided using the updated parameters.
  • the learning unit 202 replaces the learned parameter 202 (FIG. 2) with the parameter updated in step S ⁇ b> 503. Can be divided into multiple anatomical regions. Furthermore, by using the correspondence information 204 used in S203 instead of the information updated according to the present embodiment, it becomes possible to calculate a dose index value in a newly defined area.
  • the division configuration of the area for calculating the dose index value can be changed, and the operator can freely change the area for calculating the dose index value.
  • FIG. 6 shows a configuration example of the radiation imaging apparatus 600 according to the third embodiment.
  • the radiation imaging apparatus 600 has a configuration including a target value updating unit 601 in the radiation imaging apparatus 400 shown in FIG.
  • the target value updating unit 601 has a function of automatically setting the dose target value EIT.
  • the dose target value EIT is a reference value of the dose index value EI, and if the area for calculating the dose index value EI changes, the dose target value EIT also needs to be changed. This change is manually set by the operator in accordance with the dose management standard. However, it is very complicated to set the change from the beginning every time the area for calculating the dose index value EI is changed. Therefore, the target value updating unit 601 has a function of automatically updating using a value substantially equivalent to the dose target value EIT before the change based on the difference before and after the change of the area for calculating the dose index value EI. .
  • FIG. 7 is a flowchart illustrating a processing procedure for automatically updating the dose target value EIT.
  • the flowchart illustrated in FIG. 7 can be realized by the CPU 108 executing the control program stored in the storage unit 109, performing the calculation and processing of information, and the control of each hardware. Note that this flowchart operates at the timing when the area for calculating the dose target value is changed. Specifically, a case where the region for calculating the dose index value is changed (operation according to the flowchart of FIG. 3) or a case where the division configuration of the region for calculating the dose index value is changed (FIG. 5) (Operation according to the flowchart).
  • the target value updating unit 601 acquires the EIT currently set in the area for calculating the dose target value (S701).
  • the calculation unit 115 loads a plurality of radiation images obtained by past imaging from the storage unit 109 and calculates a dose index value EI for each radiation image (S702).
  • the method of calculating the dose index value EI is as described in the flowchart of FIG.
  • the learned parameter 202 and the correspondence information 204 used when calculating the dose index value EI are used to change the settings (change the area for calculating the dose index value (FIG. 3) and calculate the dose index value).
  • the calculating unit 115 executes the calculation of the dose index value EI after the setting change in the same manner as in S702 (S703).
  • the difference from S702 is that the learned parameter 202 and the correspondence information 204 after the setting change are used.
  • Equation 5 the EI error Err before and after the setting change is calculated by (Equation 5) (S704).
  • Equation 5 k represents an image number, and N represents the total number of images for which EI has been calculated. Further, EI1 (k) and EI2 (k) are EIs calculated from the image of the image number k, EI1 represents the EI before the setting change, and EI2 represents the EI after the setting change.
  • EIT is updated with the obtained error Err (S705).
  • EIT1 is the dose target value before update
  • EIT2 is the dose target value after update.
  • the target value updating unit 601 determines the dose index calculated by the calculating unit 115 before and after the update.
  • the dose target value as the target value of the dose index value is updated using the value.
  • the value of the EIT is automatically updated when the setting is changed, so that there is an effect that the labor of the operator can be reduced.
  • the present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program.
  • This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割し、該複数の解剖学的領域のうちの少なくとも一つの領域を抽出し、該抽出された領域における画素値に基づいて、該抽出された領域に対する該放射線撮影の線量指標値を算出する。

Description

画像処理装置、画像処理方法、およびプログラム
 本発明は、放射線撮影により得られた画像から線量指標値を出力する画像処理技術に関する。
 近年、医療分野ではデジタル画像の利用が進んでいる。デジタル画像を生成するために、放射線(X線)を間接的または直接的に電気信号に変換するセンサを用いたデジタルラジオグラフィ装置(放射線撮影装置)を用いることが主流となっている。
 この放射線撮影装置は、放射線の線量に対して極めて広いダイナミックレンジを有しており、また画像処理による自動濃度補正によって、従来のアナログ放射線撮影に比べ線量不足や線量過多の状態でも安定した濃度の出力が得られるというメリットがある。その一方で、撮影技師が不適切な線量で撮影した場合も、撮影技師はそのことに気づきにくく、特に、線量過多の場合では、患者への被曝量が増加してしまうという課題がある。
 そこで、この課題を解決するためにデジタル放射線画像の撮影線量の目安となる値(以下、線量指標値と呼ぶ)を撮影画像とともに表示することが一般的に行われている。また、線量指標値の算出方法についても様々な方法が提案されている。近年では、IEC(国際電気標準会議)により国際規格IEC62494-1が発行され、標準化された線量指標値としてEI(Exposure Index)が定義された。また、この国際規格では、目標とすべき線量の値(以下、線量目標値と呼ぶ)として、EIT(Target Exposure Index)を定め、線量指標値EIと線量目標値EITとのずれ量を表すDI(Deviation Index)を用いた線量管理の運用方法も与えられている。各メーカーは、この国際規格に準拠した線量管理機能を提供している。例えば特許文献1や特許文献2の方法など、メーカーから様々な算出方法が提案されている。
特開2014-158580号公報 特開2015-213546号公報
 線量指標値EIの算出方法についてはブラックボックスの場合が多い。そのため、操作者にとっては線量指標値EIの数値的意味合いが明確ではなく、線量管理の基準値として使い勝手の悪いものとなっていた。
 本開示では、操作者が意図した基準でより適切な線量管理を行うための技術を提供する。
 上記目的を達成するための一手段として、本発明による画像処理装置は以下の構成を有する。すなわち、画像処理装置であって、被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割手段と、前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出手段と、前記抽出手段により抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出手段と、を有する。
 本発明によれば、操作者が意図した基準でより適切な線量管理を行うことが可能となる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
実施形態1による放射線撮影装置の構成例である。 実施形態1による放射線撮影装置100の処理手順を示すフローチャートである。 実施形態1による線量指標値を算出するための領域を変更する処理手順を示すフローチャートである。 実施形態1による放射線撮影装置の構成例である。 実施形態2による線量指標値を算出するための領域の分割構成を変更する処理手順を示すフローチャートである。 実施形態3による放射線撮影装置の構成例である。 実施形態3による線量目標値EITを自動で更新する処理手順を示すフローチャートである。 実施形態1によるセグメンテーションマップの一例を示す図である。 実施形態2による変更した正解のセグメンテーションマップの一例を示す図である。 複数の撮影部位とラベル番号との対応表の一例を示す図である。
 以下、添付の図面を参照して、本発明をその実施形態の一例に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
 [実施形態1]
 (放射線撮影装置の構成)
 実施形態1による放射線撮影装置100の構成例を図1に示す。放射線撮影装置100は、放射線撮影により得られた画像から線量指標値を出力する画像処理機能を有する放射線撮影装置である。すなわち、放射線撮影装置100は、画像処理装置としても機能する。放射線撮影装置100は、放射線発生部101、放射線検出器104、データ収集部105、前処理部106、CPU(Central Processing Unit)108、記憶部109、操作部110、表示部111、画像処理部112を備えており、これらはCPUバス107を介して互いにデータ授受が可能に接続されている。また、画像処理部112は、分割部113、抽出部114、算出部115、設定部116を備えている。記憶部109は、CPU108での処理に必要な各種のデータや制御プログラムを記憶すると共に、CPU108のワーキング・メモリとして機能する。CPU108は、記憶部109を用いて、操作部110からの操作に従った装置全体の動作制御等を行う。これにより放射線撮影装置100は、以下のように動作する。
 まず、操作部110を介して操作者から撮影指示が入力されると、この撮影指示はCPU108によりデータ収集部105を介して放射線発生部101および放射線検出器104に伝えられる。続いて、CPU108は、放射線発生部101及び放射線検出器104を制御して放射線撮影を実行させる。放射線撮影では、まず放射線発生部101が、被検体103に対して放射線ビーム102を照射する。放射線発生部101から照射された放射線ビーム102は、被検体103を透過して、放射線検出器104に到達する。そして、放射線検出器104は、到達した放射線ビーム102の強度(放射線強度)に応じた信号を出力する。なお、本実施形態では被検体103を人体とする。よって、放射線検出器104から出力される信号は、人体を撮影したデータとなる。
 データ収集部105は、放射線検出器104から出力された信号を所定のデジタル信号に変換して画像データとして前処理部106に供給する。前処理部106は、データ収集部105から供給された画像データに対して、オフセット補正やゲイン補正等の前処理を行う。前処理部106で前処理が行われた画像データは、CPU108の制御により、CPUバス107を介して、記憶部109、画像処理部112に順次転送される。
 画像処理部112は、前処理部106から得られた画像データ(以下、放射線画像)から線量指標値を算出するための処理を行う。線量指標値とは、上述したように撮影線量の目安となる値である。分割部113は、入力された放射線画像(被検体103に対する放射線撮影により得られた放射線画像)を複数の解剖学的領域に分割する。本実施形態では、分割部113は、後述するセグメンテーションマップ(多値画像)を作成する。抽出部114は、操作者による操作部110への操作に基づいて、分割部113により分割された複数の解剖学的領域のうちの少なくとも一つの領域を、線量指標値を算出するための領域として、抽出する。算出部115は、抽出部114により抽出された領域における画素値に基づいて、抽出された領域に対する放射線撮影の線量指標値を算出する。設定部116は、後述する教師データや撮影部位とラベル番号との対応情報の設定や管理を行う。
 画像処理部112により算出された線量指標値は、CPU108の制御により、前処理部106から得られた放射線画像とともに表示部111にて表示される。操作者が表示部111に表示された線量指標値および放射線画像を確認後、一連の撮影動作が終了する。表示部111に表示された線量指標値および放射線画像は、図示しないプリンタ等に出力されても良い。
(放射線撮影装置の動作)
 続いて、本実施形態による放射線撮影装置100の動作に関して、図2のフローチャートを用いて具体的に説明する。図2は、本実施形態による放射線撮影装置100の処理手順を示すフローチャートである。図2に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。
 上述したように、前処理部106によって得られた放射線画像は、CPUバス107を介して画像処理部112に転送される。転送された放射線画像は、分割部113に入力される。分割部113は、入力された放射線画像からセグメンテーションマップ(多値画像)を作成する(S201)。具体的には、分割部113は、放射線画像の各画素に対し、その画素が属する解剖学的領域を示すラベルを付与する。このような、画像を任意の解剖学的領域に分割することは、セマンティックセグメンテーション(意味的領域分割)と呼ばれる。なお、本実施形態では、当該ラベルは、画素値によって識別可能なラベル番号とする。すなわち、分割部113は、複数の解剖学的領域に異なるラベル番号を付与することにより、放射線画像を複数の解剖学的領域に分割する。
 図8Aに、S201で作成されるセグメンテーションマップの例を示す。図8Aは、入力された放射線画像が胸部を写す画像の場合のセグメンテーションマップの一例を示す図である。図8Aのように、分割部113は、肺野801に属する領域における画素に同じ値(例えば画素値0)を与え、脊椎802に属する領域における画素に、肺野とは異なる同一値(例えば画素値1)を与える。また、肺野801、脊椎802の何れにも属さない被写体構造803に属する画素には、分割部113は、さらに別の同一値(例えば画素値2)を与える。
 なお、図8Aで示した分割は一例であり、放射線画像をどのような解剖学的領域の粒度で分割するかは特に限定されない。例えば、分割部113は、操作者により操作部110を介して指示された、線量指標値を算出するための所望の領域に応じて、分割の粒度を適宜決定しても良い。また、分割部113は、被写体構造以外の領域についても同様にラベル番号(画素値)を付与することによりセグメンテーションマップを作成してもよい。例えば、図8Aにおいて、放射線が直接に放射線検出器104に到達する領域804や放射線がコリメータ(不図示)により遮蔽された領域805に関しても其々別のラベル番号を付与したセグメンテーションマップを作成することも可能である。
 本実施形態では、分割部113は、S201におけるセグメンテーションマップの作成を、公知の方法を用いて行うこととする。公知の方法の一例として、ここではCNN(Convolutional Neural Network)を用いる。CNNとは、畳込み層、プーリング層、全結合層などから構成されるニューラルネットワークであり、解決する問題に応じて各層を適当に組み合わせることで実現される。また、CNNは、機械学習アルゴリズムの一種であり、事前学習を必要とする。具体的には、畳み込み層で用いられるフィルタ係数や、各層の重みやバイアス値などのパラメータ(変数)を、多数の学習データを用いた、いわゆる教師あり学習によって調整(最適化)する必要がある。
 ここで、教師あり学習は、CNNに入力される画像(入力画像)と当該入力画像が与えられたときに期待される出力結果(正解)の組み合わせのサンプルを多数用意し、期待する結果が出力されるようにパラメータを繰り返し調整することを含む。この調整には、一般には、誤差逆伝搬法(バックプロバケーション)が用いられる。すなわち、正解と実際の出力結果の差(損失関数で定義された誤差)が小さくなる方向に、CNNのパラメータが繰り返し調整される。
 なお、本実施形態では、CNNへの入力画像は、前処理部106によって得られた放射線画像とし、期待される出力結果は、正解のセグメンテーションマップ(例えば図8A)となる。このような正解のセグメンテーションマップは、予め操作者により、所望の解剖学的領域の粒度に応じて作成され得る。CNNのパラメータ(学習されたパラメータ202)は、入力画像と期待される出力結果との組み合わせの複数のサンプルを用いて、機械学習により予め生成される。学習されたパラメータ202は予め記憶部109に記憶され、分割部113がS201でセグメンテーションマップを作成する際に、学習されたパラメータ202を呼び出し、CNNによるセマンティックセグメンテーションを行う。すなわち、分割部113は、予め機械学習によって生成されたパラメータを用いて、放射線画像を複数の解剖学的領域に分割する。また、操作者は、所定の画像データと当該所定の画像データに対応する正解のセグメンテ―ションマップ(分割割り当てデータ)を、教師データとして決定することができる。当該教師データは、設定部116により管理される。
 なお、全部位を合わせたデータを用いて唯一の学習されたパラメータ202が生成されてもよいが、部位毎(例えば、頭部、胸部、腹部、四肢など)に、学習されたパラメータ202が生成されても良い。すなわち、部位毎の、入力画像と期待される出力結果の組み合わせの複数のサンプルを用いて、別々に学習を行って、各部位に対する、複数のセットの学習されたパラメータ202が生成されても良い。複数のセットの学習されたパラメータ202が生成された場合は、それぞれのセットの学習されたパラメータを部位情報と関連付けて記憶部109に予め記憶し、分割部113は、入力画像の部位に応じて記憶部109から撮影部位に対応する学習されたパラメータ202を呼び出し、CNNによるセマンティックセグメンテーションを行えば良い。
 なお、CNNのネットワーク構造については特に限定するものではなく、一般的に知られたものを用いれば良い。具体的には、機械学習として、FCN(Fully Convolutional Networks)、SegNet、U-net等を用いることができる。また、本実施形態では、CNNへの入力画像を前処理部106によって得られた放射線画像としたが、当該放射線画像を縮小した放射線画像をCNNへの入力画像として用いても良い。CNNによるセマンティックセグメンテーションは、計算量が多く計算時間が掛かるため、縮小した画像データを用いることにより、計算時間の削減につながり得る。
 次に、抽出部114は、線量指標値を算出するための領域を抽出する(S203)。具体的には、抽出部114は、操作者により操作部110を介して指定された領域を、線量指標値を算出するための領域として抽出する。本実施形態では、当該抽出処理のために、領域情報として、撮影部位とラベル番号の対応情報204を用いる。すなわち、抽出部114は、予め設定された、複数の部位と当該複数の部位のそれぞれに対応するラベル番号との対応情報204を用いて、操作者の指示に従って、複数の解剖学的領域のうちの少なくとも一つの領域を抽出する。図9は、対応情報204の一例としての、複数の撮影部位と当該複数の部位の夫々に対応するラベル番号との対応表の一例を示す。図9に示す対応表900は、操作者等により予め作成され、記憶部109に格納されているものとする。抽出部114は、対応表900を参照し、操作者により操作部110を介して指定(指示)された領域の部位に対応するラベル番号を取得する。なお、抽出部114は、操作者により操作部110を介して指定されたラベル番号を直接取得しても良い。続いて、抽出部114は、取得したラベル番号に該当する画素の値を1としたマスク画像(Mask)を、(数1)にて生成する。
(数1)
Figure JPOXMLDOC01-appb-I000001
 ただし、Mapはセグメンテーションマップを表し、(x、y)は画像の座標を表す。また、Lは取得されたラベル番号を表す。
 なお、操作者が指定する領域は1つに限るのもではなく、複数であっても良い。操作者が複数の領域を指定した場合は、抽出部114は、複数の領域に対応する複数のラベル番号の何れかに該当する画素の値を1、それ以外を0としてマスク画像を生成すれば良い。なお、操作者が領域を設定する方法の詳細に関しては、図3のフローチャートを用いて後述する。
 次に、算出部115は、S203で抽出された領域(すなわち、マスク画像のうち、画素値が1の領域)における代表値として、抽出された領域の中心傾向を示す値Vを算出する(S205)。本実施形態では、値Vを、(数2)のように算出する。
(数2)
Figure JPOXMLDOC01-appb-I000002
 ただし、Orgは入力画像(本実施形態では前処理部106によって得られた放射線画像)、Maskはマスク画像を表し、(x、y)は画像の座標を表し、Org(x、y)は、入力画像における座標(x、y)における画素値を表す。
 次に、算出部115は、求めた値Vを、線量指標値EIに変換する(S206)。具体的には、算出部115は、国際規格IEC62494-1の定義に従って、(数3)のように値Vを線量指標値EIに変換する。
(数3)
Figure JPOXMLDOC01-appb-I000003
 ただし、関数gは値Vを空気カーマに変換するための関数であり、規定された条件下における値Vと空気カーマの関係に従って予め定められる。なお、関数gは、放射線検出器104の特性により異なる。そのため、操作者は、使用し得る放射線検出器104に応じて複数の関数gを予め記憶部109に記憶しておき、算出部115は、実際に使用する放射線検出器104に対応する関数gを用いて変換を行い得る。
 また、算出部115にて、線量目標値EITと線量指標値EIとのずれ量(偏差)DIを(数4)にて算出する(S207)。
(数4)
Figure JPOXMLDOC01-appb-I000004
 ただし、線量目標値EITは、操作者が定める線量管理基準に従って部位毎に予め設定されるものとする。偏差DIは、線量目標値EITと線量指標値EIとの偏差を表す数値であるから、線量目標値EITと線量指標値EIが同じであれば0となる。また、線量指標値EIが大きくなるほど、すなわち、撮影された画像の線量が線量目標値EITよりも多くなるほど、偏差DIは大きくなる。例えば、撮影された画像の線量が線量目標値EITの2倍であれば偏差DIは約3となる。また、撮影された画像の線量が線量目標値EITよりも少ないほど偏差DIは小さくなり、例えば、撮影された画像の線量が線量目標値の半分であれば偏差DIは約-3となる。これにより、操作者は、撮影された画像の線量が、基準である線量目標値EITに対して不足しているのか、逆に線量過多の状態なのかを、瞬時に把握することができる。
 次に、CPU108は、求めた線量指標値EIおよび偏差DIを、表示部111に表示する(S208)。ここで、表示の方法は特に限定するものではなく、例えば、CPU108は、表示部111において、前処理部106により得られた放射線画像と合わせて表示することができる、また、CPU108は、表示部111による表示エリアの一部に、求めた線量指標値EIおよび偏差DIをオーバーレイ表示するように制御しても良い。
 なお、本実施形態では、操作者が指定した領域から、唯一の線量指標値EIおよび偏差DIを算出したが、例えば、複数の線量指標値EIおよび偏差DIを求める構成としても良い。具体的には、操作者が領域を複数指定することにより、複数の領域が抽出された場合は、放射線撮影装置100は、複数の領域それぞれに対して値Dを算出し、当該値Dからそれぞれの線量指標値EIおよび偏差DIを算出し、表示部111に表示しても良い。
 以上、撮影により得られた放射線画像から線量指標値を算出する動作について説明した。次に、操作者が線量指標値を算出するための領域を変更する場合の画像処理部112の動作に関して、図3のフローチャートを用いて説明する。図3は、線量指標値を算出するための領域を変更する処理手順を示すフローチャートである。図3に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。なお、図3のフローチャートにおいて、図2に示したステップと同じステップには同じ符号を付し、説明を省略する。
 まず、操作者は、操作部110を介して、変更しようとする領域の部位(当該領域が属する部位)を選択する(S301)。次に、設定部116は、選択された部位に対応する教師データがあるか否かを判定する(S302)。ここで、教師データとは、上述した通り、操作者により決定された、正解のセグメンテーションマップ(分割割り当てデータ)を指す。選択された部位に対応する教師データがある場合(S302でYes)、設定部116は、教師データを記憶部109から取得する(S303)。選択された部位に対応する教師データがない場合(S302でNo)、設定部116は、記憶部109から過去の撮影により得られた選択された部位の画像データ(放射線画像)を取得し(S304)、分割部113が取得した画像データからセグメンテーションマップを作成する(S201)。セグメンテーションマップの作成方法は、図2のS201において説明した通りである。
 次に、CPU108は、図8Aのようなセグメンテーションマップを表示部111に表示する(S305)。操作者は、変更する領域である、線量指標値を計算するための任意の領域を、図示しないマウス等を使って指定する(S306)。次に、設定部116は、指定された領域に対応するラベル番号を取得し、対応情報204(例えば図9に示した撮影部位とラベル番号の対応表900)を更新し、記憶部109に保存(設定)する(S307)。
 以上、実施形態1では、放射線画像において分割された領域の中から、線量指標値を算出するための領域を自由に変更することが可能となり、操作者が意図した基準で適切な線量管理を行うことが可能となる。
 [実施形態2]
 (放射線撮影装置の構成)
 実施形態2による放射線撮影装置400の構成例を図4に示す。放射線撮影装置400は、図1に示した放射線撮影装置100に対し、機械学習部401を備える構成である。機械学習部401は、線量指標値を算出するための領域の分割構成を変更するための学習を行う機能を有する。具体的には、機械学習部401は、教師データ(所定の画像データと当該所定の画像データに対応する正解のセグメンテ―ションマップ(分割割り当てデータ))に基づいて機械学習(CNNの再学習)を行う。
 (放射線撮影装置の動作)
 以下、実施形態1と異なる動作である、線量指標値を算出するための領域の分割構成を変更処理について、図5を用いて説明する。図5は、線量指標値を算出するための領域の分割構成を変更する処理手順を示すフローチャートである。図5に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。
 まず、機械学習部401は、教師データ502に基づいてCNNの再学習を行う(S501)。この再学習は、予め準備した教師データ502を用いた学習である。なお、学習の具体的な方法については、実施形態1で説明したと同様に、誤差逆伝搬法(バックプロバケーション)を用い、正解と実際の出力結果の差(損失関数で定義された誤差)が小さくなる方向にCNNのパラメータを繰り返し調整することで行われる。
 ここで、設定部116は、機械学習部401による再学習のための教師データを以下のように設定することができる。すなわち、設定部116は、教師データである、正解のセグメンテーションマップを変更し、機械学習部401に設定することができる。図8Bに変更した正解のセグメンテーションマップの一例を示す。例えば、実施形態1では、分割部113は、図8Aに示すように、肺野801を一つの領域ととみなして同一のラベルを付与した。一方、本実施形態では、設定部116は、肺野を右肺野と左肺野で異なる領域として分割する場合を考慮して、図8Bのように右肺野801aと左肺野801bに対し異なるラベルを付与した正解のセグメンテーションマップを、教師データ502として準備する。また、実施形態1では、分割部113は、図8Aに示すように、脊椎802を1つの領域とみなして同一のラベルを付与した。一方、本実施形態では、設定部116は、脊椎を胸椎と腰椎で分割する場合を考慮して、図8Bのように胸椎802a、腰椎802bに対し異なるラベルを付与した正解のセグメンテーションマップを準備する。
 次に、機械学習部401は、再学習により得られたパラメータをCNNの新たなパラメータとして、記憶部109において更新(保存)する(S503)。続いて、画像処理部112は、線量指標値を計算する領域を再設定する(S504)。ここで、再設定の方法は図3のフローチャートの動作と同様であるため説明を省略する。なお、図3では、上記処理で新たな教師データを用いることにより、新たなセグメンテーションマップが作成され、S307の処理では、対応情報204(例えば図9に示した撮影部位とラベル番号の対応表900)が更新される。すなわち、設定部116は、更新されたパラメータを用いて分割された複数の解剖学的領域に応じて、対応情報204を更新して設定する。これにより、例えば次回以降の撮影(図2)では、学習されたパラメータ202(図2)をS503で更新されたパラメータに替えることで、分割部113は、更新されたパラメータを用いて、放射線画像を複数の解剖学的領域に分割することができる。さらに、S203で用いる対応情報204を、本実施形態により更新されたものに替えて用いることで、新たに定義された領域での線量指標値の算出が可能となる。
 以上、実施形態2では、線量指標値を算出するための領域の分割構成を変更することが可能となり、操作者が線量指標値を算出する領域を自由に変更できるという効果がある。
 [実施形態3]
 (放射線撮影装置の構成)
 実施形態3による放射線撮影装置600の構成例を図6に示す。放射線撮影装置600は、図4に示した放射線撮影装置400に対し、目標値更新部601を備える構成である。目標値更新部601は、線量目標値EITを自動で設定する機能を有する。
 線量目標値EITは,線量指標値EIの基準となる値であり、線量指標値EIを算出するための領域が変われば線量目標値EITも変更する必要がある。この変更は線量管理基準に合わせて操作者が手動で設定するものであるが、線量指標値EIを算出するための領域が変更されるたびに一から設定するのは非常に煩雑である。そこで、目標値更新部601は、線量指標値EIを算出するための領域の変更前後の差に基づいて、変更前の線量目標値EITと略等価の値を用いて自動で更新する機能を有する。
 (放射線撮影装置の動作)
 以下、線量目標値EITを自動で更新する方法について、図7を用いて説明する。図7は、線量目標値EITを自動で更新する処理手順を示すフローチャートである。図7に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。なお、このフローチャートは、線量目標値を算出するための領域が変更されたタイミングで動作するものである。具体的には、線量指標値を算出するための領域を変更した場合(図3のフローチャートに従った動作)や、線量指標値を算出するための領域の分割構成を変更した場合(図5のフローチャートに従った動作)の後に実行される。
 まず、目標値更新部601は、線量目標値を算出するための領域に現在設定されているEITを取得する(S701)。次に、算出部115は、記憶部109から、過去の撮影よる複数の放射線画像をロードし各々の放射線画像に対する線量指標値EIを算出する(S702)。ここで、線量指標値EIの算出方法は図2のフローチャートで説明した通りである。なお、線量指標値EIを算出する際に用いる学習されたパラメータ202および、対応情報204は、設定変更(線量指標値を算出するための領域の変更(図3)や、線量指標値を算出するための領域の分割構成の変更(図5))の前のものが利用されるものとする。次に、算出部115は、設定変更の後の線量指標値EIの算出をS702と同様に実行する(S703)。S702との違いは、設定変更の後の学習されたパラメータ202および対応情報204を利用する点である。
 次に、設定変更前後でのEIの誤差Errを(数5)にて算出する(S704)。
(数5)
Figure JPOXMLDOC01-appb-I000005
 ただし、kは画像番号を表し、NはEIを算出した画像の総数を表す。また、EI1(k)、EI2(k)は画像番号kの画像から算出したEIであり、EI1が設定変更前、EI2が設定変更後のEIを表している。
 次に求めた誤差Errにて線量目標値EITを更新する(S705)。
(数6)
Figure JPOXMLDOC01-appb-I000006
 ただし、EIT1が更新前の線量目標値であり、EIT2が更新後の線量目標値を表す。
 このように、目標値更新部601は、学習されたパラメータ202が更新された場合、または、対応情報204が更新された場合に、当該更新の前後に算出部115により算出されたそれぞれの線量指標値を用いて、線量指標値の目標値としての線量目標値を更新する。以上、実施形態3では設定変更時にEITの値を自動で更新することで、操作者の手間を低減できる効果がある。
 以上、いくつかの実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施例) 
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
 本願は、2018年8月10日提出の日本国特許出願特願2018-151967を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。

 

Claims (14)

  1.  画像処理装置であって、
     被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割手段と、
     前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出手段と、
     前記抽出手段により抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出手段と、
    を有することを特徴とする画像処理装置。
  2.  前記分割手段は、前記複数の解剖学的領域に異なるラベル番号を付与することにより、放射線画像を複数の解剖学的領域に分割することを特徴とする請求項1に記載の画像処理装置。
  3.  前記分割手段は、予め機械学習によって生成されたパラメータを用いて、前記放射線画像を複数の解剖学的領域に分割することを特徴とする請求項1または2に記載の画像処理装置。
  4.  機械学習により生成されたパラメータを記憶する記憶手段を更に有することを特徴とする請求項3に記載の画像処理装置。
  5.  前記記憶手段は、機械学習されたパラメータを部位と関連付けて記憶することを特徴とする請求項4に記載の画像処理装置。
  6.  前記抽出手段は、予め設定された、複数の部位と当該複数の部位のそれぞれに対応するラベル番号との対応情報を用いて、操作者の指示に従って、前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出することを特徴とする請求項3から5のいずれか1項に記載の画像処理装置。
  7.  予め設定された、所定の画像データと当該所定の画像データに対応する正解の分割割り当てデータに基づいて機械学習を行うことにより前記パラメータを更新する機械学習手段と更に有し、
     前記分割手段は、前記更新されたパラメータを用いて、前記放射線画像を複数の解剖学的領域に分割することを特徴とする請求項6に記載の画像処理装置。
  8.  前記分割手段により前記更新されたパラメータを用いて分割された複数の解剖学的領域に応じて、前記対応情報を更新して設定する設定手段を更に有することを特徴とする請求項7に記載の画像処理装置。
  9.  前記パラメータが更新された場合、または、前記対応情報が更新された場合に、当該更新の前後に前記算出手段により算出されたそれぞれの前記線量指標値を用いて、前記線量指標値の目標値としての線量目標値を更新する更新手段を更に有することを特徴とする請求項8に記載の画像処理装置。
  10.  前記機械学習は、CNN(Convolutional Neural Network)、FCN(Fully Convolutional Networks)、SegNet、U-netのいずれかを用いた機械学習であることを特徴とする請求項3から9のいずれか1項に記載の画像処理装置。
  11.  前記算出手段は、前記放射線画像における、前記抽出手段により抽出された領域の中心傾向を示す値を代表値として算出し、前記代表値を用いて前記線量指標値を算出することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12.  前記抽出手段により、前記複数の解剖学的領域のうち複数の領域が抽出された場合、
     前記算出手段は、前記抽出手段により抽出された複数の領域のそれぞれに対して前記代表値を算出し、複数の前記代表値から、前記抽出された複数の領域に対する複数の前記放射線撮影の線量指標値を算出することを特徴とする請求項11に記載の画像処理装置。
  13.  画像処理方法であって、
     被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割工程と、
     前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出工程と、
     前記抽出工程において抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出工程と、
    を備えることを特徴とする画像処理方法。
  14.  コンピュータを、請求項1から12のいずれか1項に記載の画像処理装置として機能させるためのプログラム。

     
PCT/JP2019/024229 2018-08-10 2019-06-19 画像処理装置、画像処理方法、およびプログラム WO2020031515A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19848078.2A EP3799789A4 (en) 2018-08-10 2019-06-19 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
CN201980054144.6A CN112601493A (zh) 2018-08-10 2019-06-19 图像处理装置、图像处理方法及程序
US17/146,709 US20210133979A1 (en) 2018-08-10 2021-01-12 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018151967A JP2020025730A (ja) 2018-08-10 2018-08-10 画像処理装置、画像処理方法、およびプログラム
JP2018-151967 2018-08-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/146,709 Continuation US20210133979A1 (en) 2018-08-10 2021-01-12 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2020031515A1 true WO2020031515A1 (ja) 2020-02-13

Family

ID=69414619

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024229 WO2020031515A1 (ja) 2018-08-10 2019-06-19 画像処理装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US20210133979A1 (ja)
EP (1) EP3799789A4 (ja)
JP (1) JP2020025730A (ja)
CN (1) CN112601493A (ja)
WO (1) WO2020031515A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159905B2 (ja) * 2019-02-21 2022-10-25 コニカミノルタ株式会社 画像処理装置、プログラム及び放射線科情報システム
JP7414432B2 (ja) * 2019-09-06 2024-01-16 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7557282B2 (ja) 2020-05-15 2024-09-27 キヤノン株式会社 放射線撮像システム、撮像制御装置、放射線撮像方法及びプログラム
CN116421207B (zh) * 2023-06-12 2023-08-25 上海西门子医疗器械有限公司 医用x射线成像方法及医用x射线成像装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
JP2014158580A (ja) 2013-02-20 2014-09-04 Fujifilm Corp 放射線画像解析装置および方法、並びに放射線撮影装置
JP2015213546A (ja) 2014-05-08 2015-12-03 コニカミノルタ株式会社 放射線画像撮影装置および放射線画像撮影システム
US20160328855A1 (en) * 2015-05-04 2016-11-10 Siemens Aktiengesellschaft Method and System for Whole Body Bone Removal and Vascular Visualization in Medical Image Data
US20170245825A1 (en) * 2016-02-29 2017-08-31 Varian Medical Systems, Inc. Automatic organ-dose-estimation for patient-specific computed tomography scans
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method
JP2018151967A (ja) 2017-03-14 2018-09-27 日本電気株式会社 情報配信システム、情報配信装置、端末装置、情報配信方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5647639B2 (ja) * 2012-03-19 2015-01-07 富士フイルム株式会社 放射線撮影情報管理システムおよび方法、並びにプログラム
US8835858B2 (en) * 2012-03-23 2014-09-16 General Electric Company Systems and methods for attenuation compensation in nuclear medicine imaging based on emission data
DE102012214593A1 (de) * 2012-08-16 2013-08-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Detektion eines körperfremden Objektes in einem Röntgenbild
CN104460181A (zh) * 2013-09-25 2015-03-25 深圳市蓝韵实业有限公司 数字放射成像曝光剂量的评价方法
JP6626344B2 (ja) * 2015-09-29 2019-12-25 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
US11557390B2 (en) * 2018-04-30 2023-01-17 Elekta, Inc. Radiotherapy treatment plan modeling using generative adversarial networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
JP2014158580A (ja) 2013-02-20 2014-09-04 Fujifilm Corp 放射線画像解析装置および方法、並びに放射線撮影装置
JP2015213546A (ja) 2014-05-08 2015-12-03 コニカミノルタ株式会社 放射線画像撮影装置および放射線画像撮影システム
US20160328855A1 (en) * 2015-05-04 2016-11-10 Siemens Aktiengesellschaft Method and System for Whole Body Bone Removal and Vascular Visualization in Medical Image Data
US20170245825A1 (en) * 2016-02-29 2017-08-31 Varian Medical Systems, Inc. Automatic organ-dose-estimation for patient-specific computed tomography scans
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method
JP2018151967A (ja) 2017-03-14 2018-09-27 日本電気株式会社 情報配信システム、情報配信装置、端末装置、情報配信方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3799789A4

Also Published As

Publication number Publication date
CN112601493A (zh) 2021-04-02
EP3799789A4 (en) 2022-03-16
US20210133979A1 (en) 2021-05-06
EP3799789A1 (en) 2021-04-07
JP2020025730A (ja) 2020-02-20

Similar Documents

Publication Publication Date Title
WO2020031515A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110047128B (zh) 从几个x射线放射照片3d重建x射线ct体积和分割掩模的方法和系统
CN112651885B (zh) 用于减少图像记录噪声的方法和装置
WO2020070834A1 (ja) 学習済みモデルの製造方法、輝度調整方法および画像処理装置
KR102472464B1 (ko) 영상처리방법 및 이를 이용한 영상처리장치
JP6678541B2 (ja) 画像処理装置、方法およびプログラム
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
CN116018611A (zh) 使用深度卷积网络的噪声抑制
CN115943420A (zh) 图像处理装置、图像处理方法、训练装置、训练方法、以及程序
US7680352B2 (en) Processing method, image processing system and computer program
JP6083990B2 (ja) 放射線撮影装置、その制御方法及びプログラム
JP5223266B2 (ja) X線画像システム
WO2019030348A1 (en) METHOD AND SYSTEM FOR X-RAY IMAGE PROCESSING, AND COMPUTER STORAGE MEDIUM
CN111127371A (zh) 图像增强参数自动优化方法、存储介质和x射线扫描装置
JP4323770B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
WO2021044757A1 (ja) 画像処理装置、画像処理方法、およびプログラム
Hariharan et al. An analytical approach for the simulation of realistic low-dose fluoroscopic images
CN110678123B (zh) 改进的x射线图像中的几何测量
JP2015093013A (ja) 放射線画像処理装置、放射線撮影装置、それらの制御方法及びプログラム
JP7566696B2 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム
CN111915499B (zh) 一种x射线图像处理方法和装置以及计算机可读存储介质
EP4201332A1 (en) Dynamic imaging system workflow optimization
CN117770850B (zh) 一种射线源辐射剂量自适应方法、ct系统
EP4287201A1 (en) Compensating for differences in medical images
Slabaugh et al. Probabilistic spatial regression using a deep fully convolutional neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19848078

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019848078

Country of ref document: EP

Effective date: 20210111

NENP Non-entry into the national phase

Ref country code: DE