WO2015025387A1 - 画像処理方法 - Google Patents

画像処理方法 Download PDF

Info

Publication number
WO2015025387A1
WO2015025387A1 PCT/JP2013/072332 JP2013072332W WO2015025387A1 WO 2015025387 A1 WO2015025387 A1 WO 2015025387A1 JP 2013072332 W JP2013072332 W JP 2013072332W WO 2015025387 A1 WO2015025387 A1 WO 2015025387A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
correction
vertebral body
boundary line
pelvis
Prior art date
Application number
PCT/JP2013/072332
Other languages
English (en)
French (fr)
Inventor
知宏 中矢
和義 西野
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to US14/911,483 priority Critical patent/US9922418B2/en
Priority to JP2015532622A priority patent/JP6115643B2/ja
Priority to PCT/JP2013/072332 priority patent/WO2015025387A1/ja
Publication of WO2015025387A1 publication Critical patent/WO2015025387A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/482Diagnostic techniques involving multiple energy imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/505Clinical applications involving diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Definitions

  • the present invention relates to an image processing method for performing image processing, and more particularly to a technique for automatically extracting a vertebral body region.
  • the image processing method for automatically extracting the vertebral body region is performed using a medical image in which a spinal column obtained by an X-ray fluoroscope or a bone density measuring device is reflected.
  • the bone density measuring apparatus will be described as an example.
  • a measurement using an X-ray beam having two different energy peaks such as a DXA (Dual Energy X-Ray Absorptiometry) method is performed.
  • the subject (patient) is laid on a bed, the lumbar spine is imaged with the knee bent, and an image (X-ray attenuation image) in which only bones are selectively reflected is obtained.
  • the bone density such as bone mineral content, which is an indicator of the amount of mineral (such as calcium and phosphorus) contained in a certain amount of bone, the area of each vertebral body is determined. It needs to be determined accurately. Therefore, techniques for automatically extracting the vertebral body region have been proposed (see, for example, Patent Documents 1 to 3 and Non-Patent Documents 1 to 3).
  • the present invention relates to the above (2).
  • the vertebral column extends vertically between the cervical vertebra and the pelvis, and in addition to the vertebral body A, there is an intervertebral (intervertebral disc) C between vertebral bodies A adjacent to each other.
  • the boundary line between the vertebral bodies A is detected by being drawn to the center of the intervertebral C.
  • the constriction position of the contour (side line) of the lumbar vertebra and the pixel value between vertebrae (when the pixel value is displayed on the monitor, it becomes “luminance” by gradation processing) are low, Alternatively, it is considered that the boundary between the vertebral bodies is detected from the brightness and darkness between the vertebral bodies and the edge information of the upper and lower vertebral bodies. In the present specification, unless otherwise specified, the pixel value and the luminance are treated equally.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide an image processing method capable of accurately detecting a boundary line between vertebral bodies.
  • the present invention has the following configuration. That is, the image processing method according to the present invention is an image processing method for performing image processing, and a pedicle detection step for detecting a pedicle region in a vertebral body, and a case where a vertebra cannot be detected.
  • a boundary line drawing step of drawing a boundary line that contacts the cervical vertebra side of the pedicle detected in the pedicle detection step, and the boundary lines drawn in the boundary line drawing step It is characterized by a boundary line between them.
  • an area of a pedicle that is almost always seen in the upper part of the vertebral body (cervical vertebra side of the vertebral body) and has a higher pixel value than the periphery is detected in the pedicle detection process. If the intervertebra cannot be detected due to the collapse of the intervertebral space, the boundary line contacting the cervical vertebra side detected in the above-described pedicle detection step is drawn in the boundary line drawing step. . Thereby, even when the intervertebral space is collapsed or when the intervertebral space cannot be detected, the boundary line between the vertebral bodies can be accurately detected. Therefore, the detection performance of the correct boundary line is improved, the frequency of manual correction by the user is reduced, and the throughput is improved.
  • the pedicle region is the A region
  • the vertebral body region excluding the A region is the B region
  • the intervertebral region is the C region.
  • a region classification step for classifying the region into the region B and the region C described above is provided. If there is the above-described C region, a boundary line between vertebral bodies is drawn in the C region, and even when there is no C region, the B region and the A region are sorted in order from the cervical vertebra to the pelvis. Sometimes, it is preferable to use the boundary from the B region to the A region as a boundary line between vertebral bodies.
  • the region classification process can accurately classify the A region, the B region, and the C region, and there is no C region (that is, when the intervertebral space is collapsed or the intervertebral space cannot be detected).
  • the boundary line between the vertebral bodies can be detected more accurately by setting the part that becomes the A area from the B area as the boundary line between the vertebral bodies.
  • the region classification step described above it is more preferable to carry out as follows. That is, in the region classification process described above, when classifying into the above-described A region, the above-described B region, and the above-described C region, the size of the average pixel value is divided into three in the horizontal direction on the line of interest. It is preferable to perform classification using a magnitude relationship between the moving average pixel value centered on the target line and the average pixel value of the entire target line.
  • the left pedicle, the central part without the pedicle and the right pedicle are divided into three parts, and by using the respective magnitude relations, A It is possible to classify correctly into a region, a B region, and a C region.
  • the image forming apparatus includes an area correction process for performing the following corrections (1) to (5) based on the classification results regarding the above-described A area, the above-described B area, and the above-described C area classified in the above-described area classification process.
  • the length from the cervical vertebra to the pelvis of the B region when the A region, the B region, and the A region are sorted in order from the cervical vertebra to the pelvis is determined in advance. Is shorter than the pelvis side, the correction is performed to replace all the A areas classified into the pelvis side.
  • the B region is corrected to be replaced with the A region.
  • the A region classified on the pelvis side when the C region, the A region, the B region, the A region, and the C region are sorted in order from the cervical vertebra toward the pelvis Perform correction to replace with.
  • the longitudinal direction extending between the cervical vertebra and the pelvis is set as the upper and lower y directions, and in the classification after the correction of (3) described above, from the cervical vertebra toward the pelvis, C region, A region or B
  • the y coordinate from the C region to the A region or the B region when classified in the order of the region is set to the upper side of the vertebral body, the A region, the B region, or the C region from the cervical vertebra to the pelvis.
  • the y coordinate from the A area or the B area to the C area is classified in the order of the B area and the A area from the lower side of the vertebral body toward the pelvis from the cervical vertebra
  • the y coordinate from the B area to the A area is the upper side of the next vertebral body
  • the (y-1) coordinate one pixel before the upper side of the next vertebral body on the cervical vertebra side is the lower side of the vertebral body.
  • the average vertebral body length is taken as the average vertebral body length, and the actual vertebral body length is ranked based on the calculated average vertebral body length.
  • the process of combining with any one of the vertebral bodies is repeated until the number of vertebral bodies having a ratio less than a predetermined ratio of the average vertebral body length disappears or the number of divided vertebral bodies becomes the above-mentioned known number.
  • the longitudinal direction extending between the cervical vertebra and the pelvis is set as the upper and lower y directions, and when the B region and the A region are classified in this order from the cervical vertebra to the pelvis, the B region to the A region The distance between the left and right of the side line that is adjacent to each other by a certain number of pixels centering on the boundary line at the y-coordinate and that defines the vertebral body in units of pixel lines along the boundary line. Then, the y coordinate at the pixel line with the shortest distance is obtained, and the y coordinate is newly corrected from the B area as a boundary line that becomes the A area.
  • the corrections (1) to (5) are performed to exclude the boundary lines of the vertebral body that are not originally detected and detect only the correct boundary lines. be able to.
  • the actual vertebral body lengths are ranked based on the average vertebral body length obtained, and the vertebrae in the upper and lower vertebrae are arranged in order from the shortest vertebral body. By repeating the process of combining with one of the bodies, a vertebral body that is unusually long in the longitudinal direction is prevented from being formed by combining. Further, by performing the correction of (5) above, it is possible to improve the detection accuracy of the boundary line.
  • the order of the correction in (1) to the correction in (5) is not particularly limited except that the correction in (4) is performed after the correction in (3).
  • the correction of (1), the correction of (2), the correction of (3), and the correction of (4) above It is preferable to perform the correction and the correction in the above (5).
  • a boundary line correcting step it is preferable to include a boundary line correcting step. That is, when the intervertebra cannot be detected, when the boundary line that contacts the cervical vertebra side of the pedicle detected in the above-described pedicle detection step is used as the boundary line between adjacent vertebral bodies.
  • the boundary correction process the left and right sides of the side lines that define the vertebral body in units of pixel lines that are adjacent to the cervical vertebra side and pelvis side with a certain number of pixels centered on the boundary line and along the boundary line. It is preferable to obtain a distance between each pixel and newly correct a pixel line having the shortest distance as a boundary line between adjacent vertebral bodies. Similar to the correction (5) above, it is possible to improve the detection accuracy of the boundary line.
  • a pedicle region having a pixel value higher than that of the periphery is detected in the pedicle detection step. If the intervertebra cannot be detected due to the collapse of the intervertebral space, the boundary line contacting the cervical vertebra side detected in the above-described pedicle detection step is drawn in the boundary line drawing step. . Thereby, even when the intervertebral space is collapsed or when the intervertebral space cannot be detected, the boundary line between the vertebral bodies can be accurately detected.
  • FIG. 1 is a block diagram of an image processing apparatus according to an embodiment. It is a series of flowcharts showing a flow of an image processing method according to an embodiment. It is a specific flowchart of the magnitude relation regarding ABC3 classification (area classification) of Step S2 of FIG. It is a schematic diagram regarding ABC3 classification (pedicle detection) of step S2 of FIG. It is a schematic diagram regarding ABC3 classification
  • FIG. 1 is a block diagram of the image processing apparatus according to the embodiment.
  • FIG. 1 a case where image processing is performed using an X-ray attenuated image in which a spinal column obtained by a bone density measuring device is reflected will be described as an example.
  • An image processing apparatus 1 shown in FIG. 1 includes a GPU (Graphics ⁇ ⁇ ⁇ Processing (Unit), a central processing unit (CPU), or a programmable device (for example, a logic circuit) that can change an internal hardware circuit (for example, a logic circuit) according to program data (for example, It consists of an input unit composed of an FPGA (Field Programmable Gate Array) and a pointing device represented by a mouse, keyboard, joystick, trackball, touch panel, and the like.
  • a GPU Graphics ⁇ ⁇ ⁇ Processing
  • CPU central processing unit
  • a programmable device for example, a logic circuit
  • program data for example, It consists of an input unit composed of an FPGA (Field Programmable Gate Array) and a pointing device represented by a mouse, keyboard, joystick, trackball, touch panel, and the like.
  • the image processing apparatus 1 includes a preprocessing unit 11, a pedicle detection unit 12, a region classification unit 13, a boundary line drawing unit 14, and a region / boundary line correction unit 15. And a display unit 16 for outputting and displaying each image.
  • the region corrected by the region / boundary line correction unit 15 and an image with a boundary line (between vertebral bodies) are output and displayed on the display unit 16, but actually, the preprocessing unit 11
  • FIG. 2 is a series of flowcharts showing the flow of the image processing method according to the embodiment
  • FIG. 3 is a specific flowchart of the magnitude relation regarding ABC3 classification (region classification) in step S2 of FIG.
  • FIG. 5 is a schematic diagram relating to ABC3 classification (pedicle detection) in step S2 of FIG. 2
  • FIG. 5 is a schematic diagram relating to ABC3 classification (region classification) in step S2 of FIG. 2
  • FIG. 7 is a schematic diagram relating to ABC3 classification (border drawing) in step S2 of FIG. 2 when there is no image
  • FIG. 7 is a schematic diagram relating to the result correction (correction of area correction (1)) in step S3 of FIG.
  • FIG. 8 is a schematic diagram regarding the result correction (region correction (2) correction) in step S3 in FIG. 2
  • FIG. 9 is the result correction (region correction (3) in step S3 in FIG. 2).
  • It is a schematic diagram regarding 10 is a schematic diagram relating to the result correction in step S3 of FIG. 2 (region correction (4) correction)
  • FIG. 11 is the result correction of step S3 in FIG. 2 (region correction (5) correction).
  • FIG. 12 is a schematic diagram of classification result correction regarding boundary line determination in step S4 of FIG.
  • the image is a vertebral body
  • the pixel value (luminance) is high and appears whitish in the vertebral body region
  • the pixel value (luminance) is low and appears black in the other background regions.
  • the images are schematically represented by hatching as black and white inverted images. Therefore, background areas with low pixel values (luminance) are shown in white, and areas with relatively low pixel values (luminance) are shown with hatched hatching on the upper right, comparing pixel values (luminance).
  • a region that is particularly high for example, a pedicle or spinous process described later
  • cross ray hatching A region that is particularly high (for example, a pedicle or spinous process described later) is illustrated by cross ray hatching.
  • the background region of the medical image (original image) is also shown in white, and the other vertebral body regions are shown by hatching in the upper right diagonal line. 4 to 12, illustration of the pelvis is omitted. 4 to 12, the horizontal direction is the x direction (here, the right direction is the positive direction), and the longitudinal direction extending between the cervical vertebra and the pelvis is the vertical y direction (the direction toward the pelvis is the positive direction). .
  • the following image processing is performed using the X-ray attenuation image acquired by the bone density measuring apparatus or the X-ray image acquired by the X-ray fluoroscopic apparatus.
  • Step S1 Horizontal Contour Extraction
  • the preprocessing unit 11 performs preprocessing of the horizontal contour extraction on the X-ray attenuated image or the X-ray image.
  • the lateral contour extraction is a process of extracting a lateral contour (side line) that forms the contour of the vertebral body, and is not particularly limited as long as it is a known process.
  • sidelines are extracted based on an image that has been thinned using, for example, shrinkage processing (also referred to as “erosion processing”) in morphological operations.
  • a primary differentiation that takes a pixel value difference or a secondary differentiation that takes a further difference in pixel value difference such as a Sobel filter, Roberts filter, or Laplacian filter.
  • Sidelines may be extracted.
  • the extracted side line is referred to as a side line SL in FIG.
  • the locus of the midpoint on the left and right side lines SL can be extracted as a center line (not shown).
  • the extracted center line also represents the longitudinal vertebral body extending between the cervical vertebra and the pelvis.
  • Step S2 ABC3 Classification
  • the pedicle detection unit 12 detects the pedicle region in the vertebral body. Specifically, a pedicle region that is almost always found in the upper part of the vertebral body (cervical vertebra side of the vertebral body) and has a higher pixel value than the periphery is detected.
  • the detected pedicle area is defined as a pedicle R in FIG.
  • the pixels at the actual pedicle R appear whitish as shown in FIG. Appears dark. Therefore, the pixel value at the actual pedicle R is high, and the other pixel values are low.
  • the pedicle R region may be detected based on an image subjected to enhancement processing such as binarization processing or thinning processing.
  • enhancement processing such as binarization processing or thinning processing.
  • enhancement processing such as a primary differentiation that takes a pixel value difference or a secondary differentiation that takes a further difference in pixel value difference, such as a Sobel filter, Roberts filter, or Laplacian filter.
  • the region of the pedicle R may be detected.
  • the enhancement process is not necessarily performed. In the following description, it is assumed that the attention line AL (see FIG. 5) extends in the left-right direction (horizontal direction).
  • the region classification unit 13 classifies each vertebral body into an A region, a B region, and a C region.
  • the region of the pedicle R is the A region
  • the region of the vertebral body excluding the A region is the B region
  • the intervertebral region is the C region.
  • the A area is A region R A, the area B and area B R B, to the C region and the C region R C.
  • a region R A when classifying the B region R B and C region R C, 3 divided horizontally in the target line AL, a central magnitude relationship, and the attention line AL of the divided respective average pixel values Classification is performed using the magnitude relationship between the moving average pixel value to be calculated and the average pixel value of the entire target line AL.
  • the target line AL is divided into three equal parts, and the average pixel values of the target line AL divided into three equal parts are determined in order from the left side, the left average pixel value l_ave, the center average pixel value c_ave, and the right average. Each pixel value is obtained as r_ave.
  • the spinous process indicated by the symbol SP in FIG.
  • the moving average pixel value centered on the line of interest AL be ma_ave.
  • a pixel value obtained by adding and averaging several pixels in the vertical direction (longitudinal direction extending between the cervical vertebra and the pelvis) with the target line AL as a reference is obtained as a moving average pixel value ma_ave.
  • the reason why the moving average pixel value ma_ave is obtained is that the intervertebral space is not known at this time, so that the averaging is uniformly performed.
  • the above-mentioned fixed pixel number at the center is excluded and averaged.
  • the average pixel value of the entire attention line AL is obtained as line_ave.
  • a pixel value obtained by averaging the entire pixels on the attention line AL extending in the horizontal direction is obtained as an average pixel value line_ave of the entire attention line AL.
  • Step T1 l_ave ⁇ r_ave> ma_ave * A_TH ⁇ c_ave
  • the threshold coefficients are A_TH and C_TH, respectively.
  • the threshold coefficients A_TH and C_TH are predetermined appropriate values. It is determined whether or not the condition of step T1 is satisfied for each attention line AL. In the case conditions are satisfied in step T1 (FIG. 3 labeled "Yes"), the line of interest AL to be determined as belonging to the A region R A, it classifies the target line AL and A region R A. Conversely, if the condition of step T1 is not satisfied (indicated as “No” in FIG. 3), the process proceeds to step T2.
  • l_ave ⁇ r_ave> ma_ave * A_TH ⁇ c_ave means that the left average pixel value l_ave is larger than ma_ave * A_TH, the right average pixel value r_ave is larger than ma_ave * A_TH, and the left average pixel value l_ave Is greater than the center average pixel value c_ave, and the right average pixel value r_ave satisfies the condition greater than the center average pixel value c_ave. Therefore, when even one of the above inequality signs is not established, the process proceeds to the next step T2.
  • the left average pixel value l_ave is greater than ma_ave * A_TH
  • the right average pixel value r_ave is less than ma_ave * A_TH
  • the left average pixel value l_ave is less than the center average pixel value c_ave
  • the right average pixel value r_ave is the center average If any of the conditions equal to or less than the pixel value c_ave is satisfied, one of the above inequality signs is not satisfied, and the process proceeds to the next step T2.
  • Step T2 line_ave> ma_ave * C_TH It is determined whether or not the attention line AL that has not been classified as the A region RA in step T2 satisfies the condition of step T2. That is, when conditions are satisfied in step T2 average pixel value line_ave is greater condition than ma_ave * C_TH (in FIG. 3 labeled "Yes"), the line of interest AL to be determined in the B region R B as belonging to classify the target line AL and B region R B. Conversely, when the average pixel value line_ave is less than or equal to ma_ave * C_TH and does not satisfy the condition of step T2 (indicated as “No” in FIG. 3), the target line AL to be determined belongs to the C region RC. The attention line AL is classified as a C region RC .
  • the target line AL to be determined in steps T1 and T2 may be a plurality of lines or a single line.
  • the boundary line drawing unit 14 draws a boundary line that contacts the vertebral body side of the pedicle R. That is, as shown in FIG.
  • the drawn boundary line is defined as a boundary line BL in FIG.
  • This step S2 including steps T1 and T2 in FIG. 3 corresponds to the pedicle detection step, the region classification step, and the boundary line drawing step in the present invention.
  • Step S3 Result Correction
  • the region / boundary line correction unit 15 (FIG. 1) is obtained from the classification results regarding the A region R A , B region R B and C region R C classified in step S2.
  • the correction of (1) to the correction of (5) below is performed.
  • the B region R cervical from to the pelvis length of B (the length in the y-direction) is shorter than a predetermined threshold, the a region R a, which is classified into the pelvis side, in FIG. 7 (b) It corrects replacing all to the B region R B as shown.
  • Bone density is used for diagnosis of osteoporosis, and the subject is an adult woman who is prone to osteoporosis.
  • the above threshold value is set to 40 pixels.
  • the threshold value is not limited to 40 pixels, and the threshold value may be appropriately set in advance according to the target object and the size per pixel.
  • the correction (2) is performed after the correction (1).
  • the B the region R B performs correction to replace the a region R a, as shown in Figure 8 (b).
  • the correction of (2) is skipped.
  • the correction (3) is performed.
  • the a region R a which is classified into the pelvic side when being lined classified corrects replacing the B region R B as shown in Figure 9 (b).
  • the correction of (3) is skipped.
  • the correction (4) is performed.
  • the longitudinal direction extending between the cervical vertebra and the pelvis is defined as the vertical y direction, and the classification at the time point after the correction of (3) described above, as shown in FIG.
  • a region R A or B region R B (indicated by R A (or R B ) in FIG. 10A) as y Find the total extension of direction.
  • the y-coordinate from the area C R C becomes the A region R A or the B region R B and the upper side L U vertebral body.
  • FIG. 10B is arranged on the pelvis side adjacent to FIG. Therefore, the lower region in FIG. 10 (a) in the case of A region R A is the A region R A belongs the same vertebral body B region R B becomes the upper region of FIG. 10 (b).
  • the lower area in FIG. 10 (a) in the case of B region R B is the B region R B corresponds to the upper side of the B region R B in FIG. 10 (b).
  • B region R B toward the cervical spine to the pelvis the y coordinate for the corresponding region A R A from the area B R B when it is classified in the order of A region R A
  • the upper side L U of the next vertebral body Furthermore one pixel before in cervical side (y-1) coordinates and the lower side L B of the vertebral body from the top of the next vertebral body. In this way, the vertebral body boundaries (L U , L B ) are divided.
  • the process of dividing the provisional vertebral body boundaries (L U , L B ) is repeated for the other vertebral bodies. Repeatedly performed by obtaining the total length in the y direction of the vertebral body portion only from the upper side L U and y coordinates of the lower side L B of divided was vertebral body. That is, the total extension in the y direction of the vertebral body part excluding the intervertebral space is obtained.
  • the value obtained by dividing the total length described above by the known number of vertebral bodies in the vertebral body image is taken as the average vertebral body length.
  • the vertebral body image is a lumbar vertebra image and is a heel classified into five, so the known number is five.
  • the value obtained by dividing the total length by 5 is the average vertebral body length.
  • the known number is not limited to five, and the known number may be set according to the target vertebral body image. Based on the average vertebral body length obtained in this way, the actual vertebral body length is ranked.
  • the vertebral body having the shortest length is the uppermost vertebral body (closest to the cervical vertebra)
  • it is combined with the vertebral body immediately adjacent to the pelvis side.
  • the shortest vertebral body is the lowest vertebral body (closest to the pelvis)
  • it is merged with the previous vertebral body adjacent to the cervical vertebra.
  • the predetermined ratio is set to 70%. Therefore, in this embodiment, when the vertebral bodies other than the uppermost vertebral body and the lowermost vertebral body are less than 70% of the average vertebral body length, Combine with the vertebral body in These processes are repeated until there is no vertebral body having an average vertebral body length of less than 70% or the number of divided vertebral bodies is five.
  • the predetermined ratio is not limited to 70%, and the predetermined ratio may be appropriately set as long as it is less than 100%. However, in order to be as close as possible to the average vertebral body length, the predetermined ratio is preferably 50% or more.
  • the correction (5) is performed.
  • the longitudinal direction extending between the cervical vertebra and the pelvis is defined as the vertical y direction
  • the B region R B and the A region RA are classified in this order from the cervical vertebra to the pelvis. respectively refer to the pixel line adjacent to a certain number of pixels from the area B R B vertically around the boundary line BL in y coordinate to the a region R a when being.
  • This pixel line is parallel along the boundary line BL.
  • the fixed number of pixels described above is set to 30 pixels. Accordingly, y coordinate to the A region R A from the area B R B in the present embodiment (the boundary line BL) of the upper and lower 30 pixels (in FIG.
  • the row unit (the unit of pixel lines) Refer to.
  • the fixed number of pixels is not limited to the number of 30 pixels, and the fixed number of pixels may be appropriately set in advance according to the subject to be examined and the size per pixel.
  • the distance (namely, the number of pixels) between right and left in the side line SL which makes the outline of a vertebral body is calculated
  • the y coordinate in the pixel line with the shortest distance (that is, the pixel line with the smallest number of pixels between the left and right in the side line SL) is obtained.
  • the y-coordinate newly corrected as boundary becomes the A region R A from the B region R B.
  • the newly corrected boundary line is defined as a boundary line BL ′ in FIG. In FIG. 11, the boundary line BL ′ is illustrated by a broken line.
  • This step S3 corresponds to the region correction step and the boundary line correction step in the present invention.
  • Step S4 Boundary Line Determination
  • the classification result correction in which the boundary line is determined in this way is as shown in FIG.
  • the right side of FIG. 12 is a medical image (original image), and the left side of FIG. 12 is a classification correction result.
  • the left end of the left side of FIG. 12 is the classification result (initial classification result) first classified by the ABC classification in step S2, and is the second from the left end of the left side of FIG. 12 (indicated by a circled number 1 in FIG. 12). ) Is after the correction of (1) above, and the third from the left end of the left side of FIG. 12 (indicated by a circled number 2 in FIG. 12) is after the correction of (2) above, and among the left side of FIG.
  • the fourth from the left end (represented by the circled number 3 in FIG. 12) is after the correction of (3) above, and the fifth from the left end of the left side of FIG. After the correction of 4), the sixth from the left end (that is, the right end) of the left side of FIG. 12 (indicated by the circled number 5 in FIG. 12) is after the correction of (5) above.
  • a portion surrounded by a thick circle is a portion in which correction has been performed. It should be noted that the correction is also performed in a portion other than the portion surrounded by the thick circle.
  • a boundary line is drawn with respect to a medical image (original image) which is an X-ray attenuated image acquired by a bone density measuring apparatus or an X-ray image acquired by an X-ray fluoroscopic apparatus.
  • original image an X-ray attenuated image acquired by a bone density measuring apparatus or an X-ray image acquired by an X-ray fluoroscopic apparatus.
  • the boundary line can be drawn similarly by performing the above-described steps S1 to S4.
  • the attention line AL extends in the left-right direction (horizontal direction)
  • the boundary line is also drawn in the left-right direction (horizontal direction), but actually, the attention line AL extends in the direction in which the attention line AL extends.
  • the boundary line is slightly inclined up and down accordingly. Therefore, the boundary line drawn at the time of classification is actually slightly inclined up and down.
  • the region of the pedicle R that is almost always seen in the upper part of the vertebral body (cervical vertebra side of the vertebral body) and has a higher pixel value than the periphery is classified into ABC3 classification (vertebral arch in step S2). Root detection).
  • the boundary line between the vertebral bodies can be accurately detected. Therefore, the detection performance of the correct boundary line is improved, the frequency of manual correction by the user is reduced, and the throughput is improved.
  • the pedicle R region is defined as A region R A
  • the vertebral body region excluding the A region R A is defined as B region R B
  • the intervertebral region is defined as C region R C. comprising the a region R a, ABC3 classification step S2 of classifying the B region R B and above the region C R C described above (the region classification). Then, if there is C region R C described above draw a boundary line BL between the vertebral body to the C region R C, when there is no C region, B region R B toward the cervical spine to the pelvis, A region R A the portion consisting of the B region R B with the a region R a is a boundary line BL between the vertebral bodies when being classified arranged in order.
  • a region R A , B region R B and C region RC can be accurately classified by ABC3 classification (region classification) in step S2, and when there is no C region (ie, when the intervertebral space is collapsed, or even if it is not possible to detect the intervertebral), by a portion from the area B R B becomes the a region R a and the boundary line BL between the vertebral bodies, the boundary line BL between vertebral bodies It can be detected even more accurately.
  • step S2 when the ABC3 classification (region classification) in step S2 is provided, the following process is performed. That is, in the ABC3 classification in step S2 described above (area classification), the above-mentioned A area R A, when classifying the B region described above was R B and C above region R C, 3 divided horizontally in the target line AL (In this embodiment, it is divided into three equal parts), and the magnitude relationship between each of the divided average pixel values, and the magnitude relationship between the moving average pixel value centered on the target line AL and the average pixel value of the entire target line AL. Classification is performed using.
  • the left pedicle, the central part without the pedicle, and the right pedicle are divided into three parts, and by using the respective magnitude relations, It can be accurately classified into A region R A , B region R B and C region RC .
  • step S3 the correction of the above (1) to the correction of (5) are performed to exclude the boundary line of the vertebral body that is not originally detected, and only the correct boundary line BL Can be detected.
  • the actual vertebral body lengths are ranked based on the average vertebral body length obtained, and the vertebrae in the upper and lower vertebrae are arranged in order from the shortest vertebral body.
  • the present invention is not limited to the above embodiment, and can be modified as follows.
  • the vertebral body image is a lumbar vertebra image, but it can also be applied to a vertebral body in a region other than the lumbar vertebra and a region including the lumbar vertebra.
  • steps S1 to S4 of FIG. 2 are performed.
  • a boundary line BL that contacts the cervical vertebra side of the detected pedicle R is drawn.
  • image processing is performed in which the boundary line BL is a boundary line between adjacent vertebral bodies, other steps are not necessarily performed.
  • the region classification in step S2 is not necessarily performed. Further, it is not always necessary to perform preprocessing such as horizontal contour extraction in step S1.
  • step S3 the result correction (region correction) in step S3 is performed. However, if each region is divided into the number of vertebral bodies and classified with high accuracy, step S3 is performed. It is not always necessary to perform the result correction (region correction).
  • the corrections (1) to (5) of the result correction (region correction) in step S3 are performed, but each region is divided into the number of vertebral bodies.
  • only the correction (5) may be performed. That is, when the intervertebra cannot be detected, when the boundary line in contact with the cervical vertebra side of the pedicle R is the boundary line BL between adjacent vertebral bodies, the cervical vertebra side is centered on the boundary line BL.
  • the distance between the left and right in the side line SL that is adjacent to the pelvis side by a certain number of pixels (30 pixels in the embodiment) and that defines the vertebral body in units of pixel lines along the boundary line BL. Ask for each.
  • the pixel line with the shortest distance may be newly corrected as a boundary line BL ′ between adjacent vertebral bodies. Even in this case, the detection accuracy of the boundary line BL can be improved as in the correction of (5) above.
  • the correction of (1), the correction of (2), the correction of (3), the correction of (4), and the correction of (5) are performed in this order.
  • the order of the correction in (1) to the correction in (5) is not particularly limited except that the correction in (4) is performed after the correction in (3).
  • the correction of (1), the correction of (2), and (3) It is preferable to perform the correction in the order, the correction in the above (4), and the correction in the above (5).
  • the attention line AL is divided into three equal parts, and each of the divided into three equal parts is obtained. Classification is performed using the magnitude relationship between the average pixel values and the magnitude relationship between the moving average pixel value centered on the target line AL and the average pixel value of the entire target line AL, but the classification is not necessarily limited to three equal divisions. .
  • a portion that is in contact with the left pedicle and a portion that is in contact with the right pedicle are divided into three parts, and the magnitude relationship of the respective divided average pixel values and the moving average pixel centered on the attention line AL Classification may be performed using the magnitude relationship between the value and the average pixel value of the entire target line AL.
  • the calculation is performed using the remaining pixels after excluding the fixed number of pixels at the center without including the fixed number of pixels at the center.
  • a certain number of pixels at the center may be included in the calculation.
  • the present invention is suitable for measuring the bone density of a vertebral body (for example, lumbar vertebrae) by the DXA method.
  • a vertebral body for example, lumbar vertebrae
  • R pedicle BL, BL '... Boundary line RA ... A area R B ... B area RC ... C area AL ... Attention line

Abstract

 この発明の画像処理方法は、周辺に比べ画素値の高い椎弓根の領域をステップS2のABC3分類(椎弓根検出)では検出する。そして、椎間が潰れている場合などにより椎間を検出することができない場合に、上述したステップS2のABC3分類(椎弓根検出)で検出された椎弓根の頸椎側に接する境界線をステップS2のABC3分類(境界線描画)では引く。これにより、椎間が潰れている場合、あるいは椎間を検出することができない場合であっても、椎体間の境界線を正確に検出することができる。よって、正しい境界線の検出性能が向上し、ユーザの手動による修正頻度が減少し、スループットが向上するという効果をも奏する。

Description

画像処理方法
 この発明は、画像処理を行う画像処理方法に係り、特に、椎体の領域を自動抽出する技術に関する。
 椎体の領域を自動抽出する画像処理方法では、X線透視撮影装置や骨密度測定装置などで得られた脊柱が映り込んだ医用画像を用いて行われる。以下では、骨密度測定装置を例に採って説明する。
 骨密度測定装置では、例えばDXA(Dual Energy X-Ray Absorptiometry)法という2つの異なるエネルギピークを有するX線ビームを用いた測定を行う。具体的には、被検体(患者)をベッドに寝かせて、膝を曲げた状態で腰椎を撮影し、骨だけが選択的に映った画像(X線減弱画像)を得る。一定量の骨の中に含まれる(カルシウムやリンなどの)ミネラル分の骨の中に含まれる量を示す指標である骨塩定量などの骨密度を求めるために、個々の椎体の面積を正確に求める必要がある。そこで、椎体の領域を自動抽出する技術が提案されている(例えば、特許文献1~3、非特許文献1~3参照)。
 領域の抽出には大別すると2段階があり、(1)横輪郭(サイドライン)を検出し、(2)互いに隣接する椎体間の境界線を検出することで個々の椎体をそれぞれ抽出する。この発明は上記(2)に関する。なお、脊柱は、図13に示すように、頸椎・骨盤間に上下に延びており、椎体Aの他に、互いに隣接する椎体A間に椎間(椎間板)Cがある。椎体A間の境界線は、椎間Cの中心に引かれることで検出される。上記(2)において従来では、腰椎の輪郭(サイドライン)のくびれ位置や、椎間の画素値(モニタに画素値を表示する場合には階調処理により「輝度」になる)が低いこと、または椎体と椎体との間の明暗や椎体上下端のエッジ情報などから椎体間の境界を検出していると考えられる。なお、本明細書では、特に断りがない限り画素値と輝度とを同等に扱うものとする。
 また、椎体上部には「椎弓根」と呼ばれる領域が左右に現れる。この椎弓根は椎体上部にほぼ必ず見られ、周辺に比べて画素値が高い。そこで、特許文献1の特表2004-509722公報では、この椎弓根をランドマークとして抽出している。
特表2004-509722公報 特開2011-131040号公報 米国特許第7010151号明細書
"Prodigy for Bone Health"、 [online] 、GE healthcare社、インターネット< URL : http://www3.gehealthcare.com/en/Products/Categories/Bone_Health/DXA/Prodigy_for_Bone_Health#tabs/tab4EA97F28C16A4A7FBDAF86CC8F673F6B> "Discovery X線骨密度測定装置"、 [online] 、東洋メディック株式会社、インターネット< URL : http://www.toyo-medic.co.jp/seihin/catg01/discovery.html> "Raising the bar in skeletal health imaging"、 [online] 、HOLOGIC社、インターネット< URL : http://www.hologic.com/en/skeletal/osteoporosis-assessment/discovery/>
 しかしながら、椎間が潰れている場合、あるいは椎間を検出することができない場合には、椎体間の境界線を引くことができない、もしくは誤った境界線を引くという問題点がある。
 この発明は、このような事情に鑑みてなされたものであって、椎体間の境界線を正確に検出することができる画像処理方法を提供することを目的とする。
 この発明は、このような目的を達成するために、次のような構成をとる。
 すなわち、この発明の画像処理方法は、画像処理を行う画像処理方法であって、椎体中の椎弓根の領域を検出する椎弓根検出工程と、椎間を検出することができない場合に、前記椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を引く境界線描画工程とを備え、前記境界線描画工程で引かれた当該境界線を、互いに隣接する椎体間の境界線とすることを特徴とするものである。
 この発明の画像処理方法によれば、椎体上部(椎体の頸椎側)にほぼ必ず見られ、周辺に比べ画素値の高い椎弓根の領域を椎弓根検出工程では検出する。そして、椎間が潰れている場合などにより椎間を検出することができない場合に、上述した椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を境界線描画工程では引く。これにより、椎間が潰れている場合、あるいは椎間を検出することができない場合であっても、椎体間の境界線を正確に検出することができる。よって、正しい境界線の検出性能が向上し、ユーザの手動による修正頻度が減少し、スループットが向上するという効果をも奏する。
 上述した発明の画像処理方法において、椎弓根の領域をA領域,当該A領域を除く椎体の領域をB領域,椎間をC領域とし、各々の椎体を、上述したA領域,上述したB領域および上述したC領域に分類する領域分類工程を備える。そして、上述したC領域があれば当該C領域に椎体間の境界線を引き、C領域がない場合においても、頸椎から骨盤に向かってB領域,A領域の順番に並んで分類されているときに当該B領域から当該A領域となる箇所を椎体間の境界線とするのが好ましい。領域分類工程によりA領域,B領域およびC領域を正確に分類することができ、C領域がない場合(すなわち、椎間が潰れている場合、あるいは椎間を検出することができない場合)であっても、当該B領域から当該A領域となる箇所を椎体間の境界線とすることで、椎体間の境界線をより一層正確に検出することができる。
 上述した領域分類工程を備える場合において、下記のように行うのがより好ましい。
 すなわち、上述した領域分類工程では、上述したA領域,上述したB領域および上述したC領域に分類する際に、注目ラインにおいて水平方向に3分割し、分割されたそれぞれの平均画素値の大小関係、および注目ラインを中心とする移動平均画素値と注目ライン全体の平均画素値との大小関係を用いて分類を行うのが好ましい。すなわち、椎弓根が左右に現れるのを利用して、左の椎弓根,椎弓根のない中心部分および右の椎弓根にそれぞれ3分割し、それぞれの大小関係を用いることにより、A領域,B領域およびC領域に正確に分類することができる。
 また、上述した領域分類工程を備える場合において、下記のように行ってもよい。
 すなわち、上述した領域分類工程で分類された上述したA領域,上述したB領域および上述したC領域に関する分類結果から下記(1)の補正~下記(5)の補正を行う領域補正工程を備える。
 (1)の補正では、頸椎から骨盤に向かってA領域,B領域,A領域の順番に並んで分類されているときに当該B領域の頸椎から骨盤への長さが、予め決められた閾値よりも短い場合に、骨盤側に分類された当該A領域をB領域に全て置き換える補正を行う。
 (2)の補正では、頸椎から骨盤に向かってC領域,B領域,A領域の順番に並んで分類されているときに当該B領域をA領域に置き換える補正を行う。
 (3)の補正では、頸椎から骨盤に向かってC領域,A領域,B領域,A領域,C領域の順番に並んで分類されているときに骨盤側に分類された当該A領域をB領域に置き換える補正を行う。
 (4)の補正では、頸椎・骨盤間に延びた長手方向を上下のy方向とし、上述した(3)の補正後の時点の分類で、頸椎から骨盤に向かってC領域,A領域またはB領域の順番に並んで分類されているときに当該C領域から当該A領域または当該B領域となるy座標を椎体の上辺,頸椎から骨盤に向かって当該A領域または当該B領域,C領域の順番に並んで分類されているときに当該A領域または当該B領域から当該C領域となるy座標を椎体の下辺,頸椎から骨盤に向かってB領域,A領域の順番に分類されているときに当該B領域から当該A領域となるy座標を次の椎体の上辺,さらに当該次の椎体の上辺から頸椎側にある1画素手前の(y-1)座標を椎体の下辺とし、仮の椎体の境界として分ける過程を他の椎体においても繰り返し行い、繰り返し行われて分けられた椎体の上辺および下辺のy座標から椎体部分のみのy方向の総延長を求め、椎体画像の椎体の既知個数で上述した総延長を除算して得られた値を平均椎体長さとし、求められた平均椎体長さを基準にして実際における各々の椎体の長さについて順位をつけて、短い長さの椎体から順に、上下にある椎体のいずれかに合体させる処理を、平均椎体長さの所定割合未満の椎体がなくなるまで、または分けられた椎体の個数が上述した既知個数になるまで繰り返す補正を行う。
 (5)の補正では、頸椎・骨盤間に延びた長手方向を上下のy方向とし、頸椎から骨盤に向かってB領域,A領域の順番に分類されているときに当該B領域から当該A領域となるy座標での境界線を中心として上下にそれぞれ一定画素数に隣接し、かつ当該境界線に沿った画素ラインの単位で、椎体の輪郭をなすサイドラインでの左右間の距離をそれぞれ求め、最も距離の短い画素ラインでのy座標を求め、このy座標を当該B領域から当該A領域となる境界線として新たに補正する補正を行う。
 このように、領域補正工程では、上記(1)の補正~上記(5)の補正をそれぞれ行うことで、本来検出されない筈の椎体の境界線を除外して、正しい境界線のみを検出することができる。また、上記(4)の補正で、求められた平均椎体長さを基準にして実際における各々の椎体の長さについて順位をつけて、短い長さの椎体から順に、上下にある椎体のいずれかに合体させる処理を繰り返すことで、長手方向に異様に長い椎体が合体により作成されるのを防止する。また、上記(5)の補正を行うことで、境界線の検出の精度を向上させることができる。なお、上記(3)の補正の後に上記(4)の補正を行う以外については、上記(1)の補正~上記(5)の補正の順序については、特に限定されない。ただし、長手方向に異様に長い椎体が作成されるのを防止する点を考慮すれば、上記(1)の補正,上記(2)の補正,上記(3)の補正,上記(4)の補正,上記(5)の補正の順に行うのが好ましい。
 上述したこれらの発明の画像処理方法において、境界線補正工程を備えるのが好ましい。
 すなわち、椎間を検出することができない場合に、上述した椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を、互いに隣接する椎体間の境界線とする際に、境界線補正工程では、当該境界線を中心として頸椎側・骨盤側にそれぞれ一定画素数に隣接し、かつ当該境界線に沿った画素ラインの単位で、椎体の輪郭をなすサイドラインでの左右間の距離をそれぞれ求め、最も距離の短い画素ラインを、互いに隣接する椎体間の境界線として新たに補正するのが好ましい。上記(5)の補正と同様に、境界線の検出の精度を向上させることができる。
 この発明に係る画像処理方法によれば、周辺に比べ画素値の高い椎弓根の領域を椎弓根検出工程では検出する。そして、椎間が潰れている場合などにより椎間を検出することができない場合に、上述した椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を境界線描画工程では引く。これにより、椎間が潰れている場合、あるいは椎間を検出することができない場合であっても、椎体間の境界線を正確に検出することができる。
実施例に係る画像処理装置のブロック図である。 実施例に係る画像処理方法の流れを示す一連のフローチャートである。 図2のステップS2のABC3分類(領域分類)に関する大小関係の具体的なフローチャートである。 図2のステップS2のABC3分類(椎弓根検出)に関する模式図である。 図2のステップS2のABC3分類(領域分類)に関する模式図である。 C領域がない場合での図2のステップS2のABC3分類(境界線描画)に関する模式図である。 図2のステップS3の結果補正(領域補正の(1)の補正)に関する模式図である。 図2のステップS3の結果補正(領域補正の(2)の補正)に関する模式図である。 図2のステップS3の結果補正(領域補正の(3)の補正)に関する模式図である。 図2のステップS3の結果補正(領域補正の(4)の補正)に関する模式図である。 図2のステップS3の結果補正(領域補正の(5)の補正,境界線補正)に関する模式図である。 図2のステップS4の境界線決定に関する分類結果補正の模式図である。 脊柱における椎体・椎間の模式図である。
 以下、図面を参照してこの発明の実施例を説明する。図1は、実施例に係る画像処理装置のブロック図である。図1では、骨密度測定装置で得られた脊柱が映り込んだX線減弱画像を用いて画像処理を行う場合を例に採って説明する。
 図1に示す画像処理装置1は、GPU(Graphics Processing Unit),中央演算処理装置(CPU)あるいはプログラムデータに応じて内部の使用するハードウェア回路(例えば論理回路)が変更可能なプログラマブルデバイス(例えばFPGA(Field Programmable Gate Array))、およびマウスやキーボードやジョイスティックやトラックボールやタッチパネルなどに代表されるポインティングデバイスで構成された入力部などで構成されている。
 本実施例では、図1に示すように、画像処理装置1は、前処理部11と椎弓根検出部12と領域分類部13と境界線描画部14と領域・境界線補正部15とを備え、各画像を出力表示する表示部16を備えている。図1では、領域・境界線補正部15で補正された領域や(椎体間の)境界線が引かれた画像を表示部16に出力表示しているが、実際には、前処理部11や椎弓根検出部12や領域分類部13や境界線描画部14で得られた各画像も表示部16に出力表示している。前処理部11,椎弓根検出部12,領域分類部13,境界線描画部14および領域・境界線補正部15の具体的な機能については、図2以降で詳述する。
 次に、前処理部11,椎弓根検出部12,領域分類部13,境界線描画部14および領域・境界線補正部15の具体的な機能について、上述した図1と併せて、図2~図12を参照して説明する。図2は、実施例に係る画像処理方法の流れを示す一連のフローチャートであり、図3は、図2のステップS2のABC3分類(領域分類)に関する大小関係の具体的なフローチャートであり、図4は、図2のステップS2のABC3分類(椎弓根検出)に関する模式図であり、図5は、図2のステップS2のABC3分類(領域分類)に関する模式図であり、図6は、C領域がない場合での図2のステップS2のABC3分類(境界線描画)に関する模式図であり、図7は、図2のステップS3の結果補正(領域補正の(1)の補正)に関する模式図であり、図8は、図2のステップS3の結果補正(領域補正の(2)の補正)に関する模式図であり、図9は、図2のステップS3の結果補正(領域補正の(3)の補正)に関する模式図であり、図10は、図2のステップS3の結果補正(領域補正の(4)の補正)に関する模式図であり、図11は、図2のステップS3の結果補正(領域補正の(5)の補正,境界線補正)に関する模式図であり、図12は、図2のステップS4の境界線決定に関する分類結果補正の模式図である。
 なお、椎体の画像であるので、椎体領域では画素値(輝度)は高くなって白っぽく映り、それ以外の背景領域では画素値(輝度)は低くなって黒っぽく映るが、図示の便宜上、図4~図12では、白黒反転させた画像としてハッチングで模式的に表す。よって、画素値(輝度)が低い背景領域については白塗りで図示し、それ以外の画素値(輝度)が比較的に低い領域については右上斜線のハッチングで図示し、画素値(輝度)が比較的に高い領域(例えば後述する椎弓根や棘突起)についてはクロス射線のハッチングで図示する。なお、医用画像(原画像)の背景領域についても白塗りで図示し、それ以外の椎体領域については右上斜線のハッチングで図示する。図4~図12では骨盤については図示を省略する。また、図4~図12では、水平方向をx方向(ここでは右方向を正方向)とし、頸椎・骨盤間に延びた長手方向を上下のy方向(骨盤に向かう方向を正方向)とする。
 骨密度測定装置で撮影を行う場合には、先ず、図1に示すように、被検体(患者)MをベッドBに寝かせて、膝を曲げた状態で2つの異なるエネルギピークを有するX線ビームを腰椎に向けて照射させて、X線減弱画像を取得する。なお、X線透視撮影装置で取得された脊柱が映り込んだX線画像を用いてもよい。骨密度測定装置で取得されたX線減弱画像あるいはX線透視撮影装置で取得されたX線画像を用いて、下記の画像処理を行う。
 (ステップS1)横輪郭抽出
 図2のフローチャートに示すように、X線減弱画像あるいはX線画像に対して、前処理部11(図1を参照)は横輪郭抽出の前処理を行う。横輪郭抽出は、椎体の輪郭をなす横輪郭(サイドライン)を抽出する処理であり、公知の処理であれば特に限定されない。例えば二値化処理した上で、例えばモルフォロジー演算における収縮処理(「エロージョン処理」とも呼ばれる)などを用いて細線化処理した画像に基づいてサイドラインを抽出する。その他にも、例えばSobelフィルタやRobertsフィルタやラプラシアンフィルタのような画素値の差分を取った一次微分あるいは画素値の差分のさらなる差分を取った二次微分などの強調処理を行った画像に基づいてサイドラインを抽出してもよい。抽出されたサイドラインを、後述する図11ではサイドラインSLとする。
 サイドラインSLは左右で2本分抽出されるので、左右のサイドラインSLにおける中点の軌跡を、センターライン(図示省略)として抽出することができる。抽出されたセンターラインは、頸椎・骨盤間に延びた長手方向の椎体をも表す。
 (ステップS2)ABC3分類
 ステップS1で前処理(横輪郭抽出)された画像に対して、椎弓根検出部12(図1を参照)は椎体中の椎弓根の領域を検出する。具体的には、椎体上部(椎体の頸椎側)にほぼ必ず見られ、周辺に比べ画素値の高い椎弓根の領域を検出する。検出された椎弓根の領域を、図4では椎弓根Rとする。図5~図12も含めて図4の画像では、上述したように白黒反転させてハッチングで模式的に図示しているので、実際の椎弓根Rでの画素は白っぽく映り、それ以外の画素は黒っぽく映る。よって、実際の椎弓根Rでの画素値は高くなり、それ以外の画素値は低くなる。
 横輪郭抽出と同様に、二値化処理や細線化処理などの強調処理を行った画像に基づいて椎弓根Rの領域を検出してもよい。その他にも、例えばSobelフィルタやRobertsフィルタやラプラシアンフィルタのような画素値の差分を取った一次微分あるいは画素値の差分のさらなる差分を取った二次微分などの強調処理を行った画像に基づいて椎弓根Rの領域を検出してもよい。もちろん、強調処理を行うことなく椎弓根Rの領域を検出することができるならば、必ずしも強調処理を行う必要はない。以下では、注目ラインAL(図5を参照)が左右方向(水平方向)に延びたとして説明する。
 左右方向(水平方向)に延びた注目ラインALを用いて、図3のフローチャートの処理により、画像の各領域がA領域,B領域またはC領域のいずれに分類されるのかを求める。具体的に、領域分類部13(図1を参照)は各々の椎体をA領域,B領域およびC領域に分類する。ここで、椎弓根Rの領域をA領域,当該A領域を除く椎体の領域をB領域,椎間をC領域とする。図5では、A領域をA領域Rとし、B領域をB領域Rとし、C領域をC領域Rとする。
 A領域R,B領域RおよびC領域Rに分類する際に、注目ラインALにおいて水平方向に3分割し、分割されたそれぞれの平均画素値の大小関係、および注目ラインALを中心とする移動平均画素値と注目ラインAL全体の平均画素値との大小関係を用いて分類を行う。本実施例では、注目ラインALを3等分に分割して、3等分に分割された注目ラインALの平均画素値を、左側から順に左平均画素値l_ave,中心平均画素値c_ave,右平均画素値r_aveとしてそれぞれ求める。なお、これらの分類においては、椎体中央に見られる棘突起(spinous process)(図5では符号SPで表記)が椎弓根Rと同様に周辺に比べて画素値が高いので、棘突起SPの影響を抑制するために、中心の一定画素数分を計算に含めない。よって、中心平均画素値c_aveを求める際には、上述した中心の一定画素数分を除外した上で残りの画素を用いて計算する。
 また、注目ラインALを中心とする移動平均画素値をma_aveとする。注目ラインALを基準として垂直方向(頸椎・骨盤間に延びた長手方向)の数画素分にわたって加算平均して得られた画素値を移動平均画素値ma_aveとして求める。移動平均画素値ma_aveを求める理由は、この時点では椎間が判っていないので一様に加算平均するという理由からである。移動平均画素値ma_aveを求める際にも、棘突起SPの影響を抑制するために、上述した中心の一定画素数分を除外して加算平均する。それとは別に、注目ラインAL全体の平均画素値をline_aveとして求める。水平方向に延びた注目ラインAL上の全画素にわたって加算平均して得られた画素値を注目ラインAL全体の平均画素値line_aveとして求める。
 (ステップT1)l_ave∩r_ave>ma_ave*A_TH∩c_ave
 ここで、閾値係数をそれぞれA_TH,C_THとする。閾値係数A_TH,C_THは予め決められた適切な値である。各々の注目ラインAL毎にステップT1の条件を満たすか否かを判定する。ステップT1の条件を満たす場合(図3では「Yes」で表記)には、判定の対象となる注目ラインALはA領域Rに属するとして、この注目ラインALをA領域Rと分類する。逆に、ステップT1の条件を満たさない場合(図3では「No」で表記)には、ステップT2に移行する。
 ここで、「l_ave∩r_ave>ma_ave*A_TH∩c_ave」とは、左平均画素値l_aveがma_ave*A_THよりも大きく、かつ右平均画素値r_aveがma_ave*A_THよりも大きく、かつ左平均画素値l_aveが中心平均画素値c_aveよりも大きく、かつ右平均画素値r_aveが中心平均画素値c_aveよりも大きい条件を満たす場合を示す。よって、上述の不等号がひとつでも成立しないときには、次のステップT2に移行する。例えば、たとえ左平均画素値l_aveがma_ave*A_THよりも大きくても、右平均画素値r_aveがma_ave*A_TH以下、左平均画素値l_aveが中心平均画素値c_ave以下あるいは右平均画素値r_aveが中心平均画素値c_ave以下のいずれかの条件であれば、上述の不等号がひとつでも成立しないとして、次のステップT2に移行する。
 (ステップT2)line_ave>ma_ave*C_TH
 ステップT2でA領域Rと分類されなかった注目ラインALについては、ステップT2の条件を満たすか否かを判定する。すなわち、平均画素値line_aveがma_ave*C_THよりも大きい条件であるステップT2の条件を満たす場合(図3では「Yes」で表記)には、判定の対象となる注目ラインALはB領域Rに属するとして、この注目ラインALをB領域Rと分類する。逆に、平均画素値line_aveがma_ave*C_TH以下でステップT2の条件を満たさない場合(図3では「No」で表記)には、判定の対象となる注目ラインALはC領域Rに属するとして、この注目ラインALをC領域Rと分類する。
 ここで、ステップT1,T2で判定の対象となる注目ラインALは、複数ラインでも単数ラインでもよい。図3のフローチャートの処理により、各々の椎体をA領域R,B領域RおよびC領域Rに分類したら、図2のフローチャートのステップS3に移行する。この分類の際において、図6に示すように、C領域がない場合(すなわち、椎間が潰れている場合、あるいは椎間を検出することができない場合)には、境界線描画部14(図1を参照)は椎弓根Rの椎体側に接する境界線を引く。すなわち、図6に示すように、頸椎から骨盤に向かってB領域R,A領域Rの順番に並んで分類されているときに当該B領域Rから当該A領域Rとなる箇所を椎体間の境界線とする。引かれた境界線を、図6では境界線BLとする。図3のステップT1,T2を含む、このステップS2は、この発明における椎弓根検出工程,領域分類工程および境界線描画工程に相当する。
 (ステップS3)結果補正
 図2のフローチャートの説明に戻って、ステップS2で分類されたA領域R,B領域RおよびC領域Rに関する分類結果から領域・境界線補正部15(図1を参照)は下記(1)の補正~下記(5)の補正を行う。
 (1)の補正では、図7(a)に示すように、頸椎から骨盤に向かってA領域R,B領域R,A領域Rの順番に並んで分類されているときに当該B領域Rの頸椎から骨盤までの長さ(y方向の長さ)が、予め決められた閾値よりも短い場合に、骨盤側に分類された当該A領域Rを、図7(b)に示すようにB領域Rに全て置き換える補正を行う。骨密度は骨粗鬆症の診断に用いられ、被検体は骨粗鬆症が起こり易い成人女性である。成人女性が被検体のときで、1画素当たりの大きさが0.278mm(0.278mm/pixel)のときには、上述した閾値を40画素とする。したがって、本実施例では当該B領域Rのy方向の長さが40画素(図7(a)では「40 pixels」で表記)未満の場合に、骨盤側に分類された当該A領域RをB領域Rに全て置き換える。もちろん、閾値は40画素に限定されず、対象となる被検体や1画素当たりの大きさに応じて閾値を適切に予め設定すればよい。
 本実施例では上記(1)の補正の後に(2)の補正を行う。(2)の補正では、図8(a)に示すように、頸椎から骨盤に向かってC領域R,B領域R,A領域Rの順番に並んで分類されているときに当該B領域Rを、図8(b)に示すようにA領域Rに置き換える補正を行う。頸椎から骨盤に向かってC領域R,B領域R,A領域Rの順番に並んで分類されていないときには、(2)の補正をスキップする。
 上記(2)の補正の後に(3)の補正を行う。(3)の補正では、図9(a)に示すように、頸椎から骨盤に向かってC領域R,A領域R,B領域R,A領域R,C領域Rの順番に並んで分類されているときに骨盤側に分類された当該A領域Rを、図9(b)に示すようにB領域Rに置き換える補正を行う。頸椎から骨盤に向かってC領域R,A領域R,B領域R,A領域R,C領域Rの順番に並んで分類されていないときには、(3)の補正をスキップする。
 上記(3)の補正の後に(4)の補正を行う。(4)の補正では、頸椎・骨盤間に延びた長手方向を上下のy方向とし、上述した(3)の補正後の時点の分類で、図10(a)に示すように、頸椎から骨盤に向かってC領域R,A領域RまたはB領域R(図10(a)ではR(or R)で表記)の順番に並んで分類されているときに以下のようにy方向の総延長を求める。当該C領域Rから当該A領域Rまたは当該B領域Rとなるy座標を椎体の上辺Lとする。なお、頸椎から骨盤に向かって当該A領域Rまたは当該B領域Rから当該C領域Rとなるy座標を椎体の下辺Lとする(C領域Rについては図10(a)では図示省略)。
 ここで、図10(a)に隣接して図10(b)が骨盤側に並んでいるものとする。したがって、図10(a)の下側の領域がA領域Rの場合には、当該A領域Rが属する同じ椎体のB領域Rが図10(b)の上側の領域となる。一方、図10(a)の下側の領域がB領域Rの場合には、当該B領域Rは図10(b)の上側のB領域Rに一致する。図10(b)に示すように、頸椎から骨盤に向かってB領域R,A領域Rの順番に分類されているときに当該B領域Rから当該A領域Rとなるy座標を次の椎体の上辺Lとする。さらに当該次の椎体の上辺から頸椎側にある1画素手前の(y-1)座標を椎体の下辺Lとする。このようにして仮の椎体の境界(L,L)として分ける。
 仮の椎体の境界(L,L)として分ける過程を他の椎体においても繰り返し行う。繰り返し行われて分けられた椎体の上辺Lおよび下辺Lのy座標から椎体部分のみのy方向の総延長を求める。つまり、椎間を除いた椎体部分のy方向の総延長を求める。椎体画像の椎体の既知個数で上述した総延長を除算して得られた値を平均椎体長さとする。本実施例では椎体画像は腰椎画像であり、5つに分類される筈であるので、既知個数は5つとなる。したがって、本実施例では総延長を5で除算して得られた値を平均椎体長さとする。もちろん、腰椎以外の領域における椎体や、腰椎を含んだ領域の場合には既知個数は5つに限定されず、対象となる椎体画像に応じて既知個数を設定すればよい。このようにして求められた平均椎体長さを基準にして実際における各々の椎体の長さについて順位をつける。
 ここで、短い長さの椎体から順に、上下にある椎体のいずれかに合体させる処理を、平均椎体長さの所定割合未満の椎体がなくなるまで、または分けられた椎体の個数が上述した既知個数(ここでは5つ)になるまで繰り返す補正を行う。なお、一番短い長さの椎体が(最も頸椎に近い)一番上の椎体である場合には、骨盤側に隣接した直後の椎体と合体させる。一番短い長さの椎体が(最も骨盤に近い)一番下の椎体である場合には、頸椎側に隣接した直前の椎体と合体させる。それ以外の椎体が平均椎体長さの所定割合未満の場合に、短い長さの椎体から順に、上下にある椎体のいずれかに合体させることで、平均椎体長さとの差が近くなる方の椎体と合体させる。また、本実施例では、上述した所定割合を7割とする。したがって、本実施例では一番上の椎体や一番下の椎体以外の椎体が平均椎体長さの7割未満の場合に、平均椎体長さとの差が近くなる方の上下にある椎体と合体させる。そして、これらの処理を、平均椎体長さの7割未満の椎体がなくなるまで、または分けられた椎体の個数が5つになるまで繰り返す。もちろん、所定割合は7割に限定されず、10割未満でさえあれば所定割合を適切に予め設定すればよい。ただし、平均椎体長さにできる限り近づけるためには、所定割合は5割以上であるのが好ましい。
 上記(4)の補正の後に(5)の補正を行う。(5)の補正では、図11に示すように、頸椎・骨盤間に延びた長手方向を上下のy方向とし、頸椎から骨盤に向かってB領域R,A領域Rの順番に分類されているときに当該B領域Rから当該A領域Rとなるy座標での境界線BLを中心として上下にそれぞれ一定画素数に隣接する画素ラインを参照する。この画素ラインは当該境界線BLに沿って平行である。本実施例では、上述した一定画素数を30画素数とする。したがって、本実施例では当該B領域Rから当該A領域Rとなるy座標(境界線BL)の上下30画素(図11では「30 pixels」で表記)を行単位(画素ラインの単位)で参照する。もちろん、一定画素数は30画素数に限定されず、対象となる被検体や1画素当たりの大きさに応じて一定画素数を適切に予め設定すればよい。
 そして、上述した当該境界線BLに沿った画素ラインの単位で、椎体の輪郭をなすサイドラインSLでの左右間の距離(すなわち画素数)をそれぞれ求める。最も距離の短い画素ライン(すなわちサイドラインSLでの左右間の画素数が最も少ない画素ライン)でのy座標を求める。このy座標を当該B領域Rから当該A領域Rとなる境界線として新たに補正する。新たに補正された境界線を、図11では境界線BL´とする。図11では境界線BL´を破線で図示する。
 以上のようにして、上記(1)の補正~上記(5)の補正を行う。このステップS3は、この発明における領域補正工程および境界線補正工程に相当する。
 (ステップS4)境界線決定
 このようにして境界線を決定した分類結果補正は、図12に示す通りである。図12の右側は医用画像(原画像)であり、図12の左側は分類補正結果である。図12の左側のうち左端はステップS2でのABC分類で最初に分類された分類結果(初期分類結果)であり、図12の左側のうち左端から二番目(図12では丸付き数字1で表記)は上記(1)の補正後であり、図12の左側のうち左端から三番目(図12では丸付き数字2で表記)は上記(2)の補正後であり、図12の左側のうち左端から四番目(図12では丸付き数字3で表記)は上記(3)の補正後であり、図12の左側のうち左端から五番目(図12では丸付き数字4で表記)は上記(4)の補正後であり、図12の左側のうち左端から六番目(すなわち右端)(図12では丸付き数字5で表記)は上記(5)の補正後である。また、太枠の丸で囲った部分はその部分で補正が行われた部分である。なお、太枠の丸で囲った部分以外でも補正は行われていることに留意されたい。
 このようにして、骨密度測定装置で取得されたX線減弱画像あるいはX線透視撮影装置で取得されたX線画像である医用画像(原画像)に対して境界線を引く。なお、図12では、椎間を検出することができる場合であるが、椎間が潰れている場合などでも同様に上述したステップS1~S4を行うことにより境界線を引くことができる。また、注目ラインALが左右方向(水平方向)に延びたとして説明したので、図12では境界線も左右方向(水平方向)に引いて図示したが、実際には注目ラインALが延びた方向に応じて境界線も上下に多少に傾斜することに留意されたい。よって、分類のときに引かれる境界線も実際には上下に多少に傾斜される。
 本実施例に係る画像処理方法によれば、椎体上部(椎体の頸椎側)にほぼ必ず見られ、周辺に比べ画素値の高い椎弓根Rの領域をステップS2のABC3分類(椎弓根検出)では検出する。そして、椎間が潰れている場合などにより椎間を検出することができない場合に、上述したステップS2のABC3分類(椎弓根検出)で検出された椎弓根Rの頸椎側に接する境界線をステップS2のABC3分類(境界線描画)では引く。これにより、椎間が潰れている場合、あるいは椎間を検出することができない場合であっても、椎体間の境界線を正確に検出することができる。よって、正しい境界線の検出性能が向上し、ユーザの手動による修正頻度が減少し、スループットが向上するという効果をも奏する。
 本実施例では、椎弓根Rの領域をA領域R,当該A領域Rを除く椎体の領域をB領域R,椎間をC領域Rとし、各々の椎体を、上述したA領域R,上述したB領域Rおよび上述したC領域Rに分類するステップS2のABC3分類(領域分類)を備える。そして、上述したC領域Rがあれば当該C領域Rに椎体間の境界線BLを引き、C領域がない場合においても、頸椎から骨盤に向かってB領域R,A領域Rの順番に並んで分類されているときに当該B領域Rから当該A領域Rとなる箇所を椎体間の境界線BLとしている。ステップS2のABC3分類(領域分類)によりA領域R,B領域RおよびC領域Rを正確に分類することができ、C領域がない場合(すなわち、椎間が潰れている場合、あるいは椎間を検出することができない場合)であっても、当該B領域Rから当該A領域Rとなる箇所を椎体間の境界線BLとすることで、椎体間の境界線BLをより一層正確に検出することができる。
 本実施例では、ステップS2のABC3分類(領域分類)を備える場合において、下記のように行っている。
 すなわち、上述したステップS2のABC3分類(領域分類)では、上述したA領域R,上述したB領域Rおよび上述したC領域Rに分類する際に、注目ラインALにおいて水平方向に3分割(本実施例では3等分に分割)し、分割されたそれぞれの平均画素値の大小関係、および注目ラインALを中心とする移動平均画素値と注目ラインAL全体の平均画素値との大小関係を用いて分類を行っている。すなわち、椎弓根Rが左右に現れるのを利用して、左の椎弓根,椎弓根のない中心部分および右の椎弓根にそれぞれ3分割し、それぞれの大小関係を用いることにより、A領域R,B領域RおよびC領域Rに正確に分類することができる。
 ステップS3の結果補正(領域補正)では、上記(1)の補正~上記(5)の補正をそれぞれ行うことで、本来検出されない筈の椎体の境界線を除外して、正しい境界線BLのみを検出することができる。また、上記(4)の補正で、求められた平均椎体長さを基準にして実際における各々の椎体の長さについて順位をつけて、短い長さの椎体から順に、上下にある椎体のいずれかに合体させる処理を繰り返すことで、長手方向に異様に長い椎体が合体により作成されるのを防止する。また、上記(5)の補正を行うことで、境界線BLの検出の精度を向上させることができる。
 この発明は、上記実施形態に限られることはなく、下記のように変形実施することができる。
 (1)上述した実施例では、椎体画像は腰椎画像であったが、腰椎以外の領域における椎体や、腰椎を含んだ領域にも適用することができる。
 (2)上述した実施例では、図2のステップS1~S4を行ったが、椎間を検出することができない場合に、検出された椎弓根Rの頸椎側に接する境界線BLを引いて、当該境界線BLを、互いに隣接する椎体間の境界線とする画像処理を行うのであれば、必ずしも他のステップを行う必要はない。例えば、画素値(輝度)によりA領域R,B領域RおよびC領域Rがある程度分類されている場合には、ステップS2の領域分類を必ずしも行う必要はない。また、ステップS1の横輪郭抽出などの前処理も必ずしも行う必要はない。
 (3)上述した実施例では、ステップS3の結果補正(領域補正)を行ったが、各々の領域が椎体の個数分に区分されて、かつ精度良く分類されている場合には、ステップS3の結果補正(領域補正)を必ずしも行う必要はない。
 (4)上述した実施例では、ステップS3の結果補正(領域補正)の上記(1)の補正~(5)の補正を行ったが、各々の領域が椎体の個数分に区分されている場合には、上記(5)の補正のみを行ってもよい。すなわち、椎間を検出することができない場合に、椎弓根Rの頸椎側に接する境界線を、互いに隣接する椎体間の境界線BLとする際に、当該境界線BLを中心として頸椎側・骨盤側にそれぞれ一定画素数(実施例では30画素数)に隣接し、かつ当該境界線BLに沿った画素ラインの単位で、椎体の輪郭をなすサイドラインSLでの左右間の距離をそれぞれ求める。そして、最も距離の短い画素ラインを、互いに隣接する椎体間の境界線BL´として新たに補正してもよい。この場合においても、上記(5)の補正と同様に、境界線BLの検出の精度を向上させることができる。
 (5)上述した実施例では、上記(1)の補正,上記(2)の補正,上記(3)の補正,上記(4)の補正,上記(5)の補正の順に行ったが、上記(3)の補正の後に上記(4)の補正を行う以外については、上記(1)の補正~上記(5)の補正の順序については、特に限定されない。ただし、長手方向に異様に長い椎体が作成されるのを防止する点を考慮すれば、上述した実施例のように、上記(1)の補正,上記(2)の補正,上記(3)の補正,上記(4)の補正,上記(5)の補正の順に行うのが好ましい。
 (6)上述した実施例では、A領域R,B領域RおよびC領域Rに分類する際に、注目ラインALを3等分に分割して、3等分に分割されたそれぞれの平均画素値の大小関係、および注目ラインALを中心とする移動平均画素値と注目ラインAL全体の平均画素値との大小関係を用いて分類を行ったが、必ずしも3等分の分割に限定されない。例えば、左の椎弓根に接する箇所と、右の椎弓根に接する箇所とで3分割して、分割されたそれぞれの平均画素値の大小関係、および注目ラインALを中心とする移動平均画素値と注目ラインAL全体の平均画素値との大小関係を用いて分類を行ってもよい。
 (7)上述した実施例では、棘突起SPの影響を抑制するために、中心の一定画素数分を計算に含めずに中心の一定画素数分を除外した上で残りの画素を用いて計算したが、棘突起SPの画素値がさほどに高くないとき、あるいは棘突起SPが現れないときには、中心の一定画素数分を計算に含めてもよい。
 以上のように、この発明は、DXA法により椎体(例えば腰椎)の骨密度を測定する場合などに適している。
 R … 椎弓根
 BL,BL´ … 境界線
 R … A領域
 R … B領域
 R … C領域
 AL … 注目ライン

Claims (5)

  1.  画像処理を行う画像処理方法であって、
     椎体中の椎弓根の領域を検出する椎弓根検出工程と、
     椎間を検出することができない場合に、前記椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を引く境界線描画工程と
     を備え、
     前記境界線描画工程で引かれた当該境界線を、互いに隣接する椎体間の境界線とすることを特徴とする画像処理方法。
  2.  請求項1に記載の画像処理方法において、
     椎弓根の領域をA領域,当該A領域を除く椎体の領域をB領域,椎間をC領域とし、各々の椎体を、前記A領域,前記B領域および前記C領域に分類する領域分類工程を備え、
     前記C領域があれば当該C領域に椎体間の境界線を引き、C領域がない場合においても、頸椎から骨盤に向かってB領域,A領域の順番に並んで分類されているときに当該B領域から当該A領域となる箇所を椎体間の境界線とすることを特徴とする画像処理方法。
  3.  請求項2に記載の画像処理方法において、
     前記領域分類工程では、前記A領域,前記B領域および前記C領域に分類する際に、注目ラインにおいて水平方向に3分割し、分割されたそれぞれの平均画素値の大小関係、および注目ラインを中心とする移動平均画素値と注目ライン全体の平均画素値との大小関係を用いて分類を行うことを特徴とする画像処理方法。
  4.  請求項2または請求項3に記載の画像処理方法において、
     前記領域分類工程で分類された前記A領域,前記B領域および前記C領域に関する分類結果から下記(1)の補正~下記(5)の補正を行う領域補正工程を備え、
     (1)の補正では、頸椎から骨盤に向かってA領域,B領域,A領域の順番に並んで分類されているときに当該B領域の頸椎から骨盤への長さが、予め決められた閾値よりも短い場合に、骨盤側に分類された当該A領域をB領域に全て置き換える補正、
     (2)の補正では、頸椎から骨盤に向かってC領域,B領域,A領域の順番に並んで分類されているときに当該B領域をA領域に置き換える補正、
     (3)の補正では、頸椎から骨盤に向かってC領域,A領域,B領域,A領域,C領域の順番に並んで分類されているときに骨盤側に分類された当該A領域をB領域に置き換える補正、
     (4)の補正では、頸椎・骨盤間に延びた長手方向を上下のy方向とし、前記(3)の補正後の時点の分類で、頸椎から骨盤に向かってC領域,A領域またはB領域の順番に並んで分類されているときに当該C領域から当該A領域または当該B領域となるy座標を椎体の上辺,頸椎から骨盤に向かって当該A領域または当該B領域,C領域の順番に並んで分類されているときに当該A領域または当該B領域から当該C領域となるy座標を椎体の下辺,頸椎から骨盤に向かってB領域,A領域の順番に分類されているときに当該B領域から当該A領域となるy座標を次の椎体の上辺,さらに当該次の椎体の上辺から頸椎側にある1画素手前の(y-1)座標を椎体の下辺とし、仮の椎体の境界として分ける過程を他の椎体においても繰り返し行い、繰り返し行われて分けられた椎体の上辺および下辺のy座標から椎体部分のみのy方向の総延長を求め、椎体画像の椎体の既知個数で前記総延長を除算して得られた値を平均椎体長さとし、求められた平均椎体長さを基準にして実際における各々の椎体の長さについて順位をつけて、短い長さの椎体から順に、上下にある椎体のいずれかに合体させる処理を、平均椎体長さの所定割合未満の椎体がなくなるまで、または分けられた椎体の個数が前記既知個数になるまで繰り返す補正、
     (5)の補正では、頸椎・骨盤間に延びた長手方向を上下のy方向とし、頸椎から骨盤に向かってB領域,A領域の順番に分類されているときに当該B領域から当該A領域となるy座標での境界線を中心として上下にそれぞれ一定画素数に隣接し、かつ当該境界線に沿った画素ラインの単位で、椎体の輪郭をなすサイドラインでの左右間の距離をそれぞれ求め、最も距離の短い画素ラインでのy座標を求め、このy座標を当該B領域から当該A領域となる境界線として新たに補正する補正、
     をそれぞれ行うことを特徴とする画像処理方法。
  5.  請求項1から請求項3のいずれかに記載の画像処理方法において、
     椎間を検出することができない場合に、前記椎弓根検出工程で検出された椎弓根の頸椎側に接する境界線を、互いに隣接する椎体間の境界線とする際に、当該境界線を中心として頸椎側・骨盤側にそれぞれ一定画素数に隣接し、かつ当該境界線に沿った画素ラインの単位で、椎体の輪郭をなすサイドラインでの左右間の距離をそれぞれ求め、最も距離の短い画素ラインを、互いに隣接する椎体間の境界線として新たに補正する境界線補正工程を備えることを特徴とする画像処理方法。
PCT/JP2013/072332 2013-08-21 2013-08-21 画像処理方法 WO2015025387A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/911,483 US9922418B2 (en) 2013-08-21 2013-08-21 Image processing device
JP2015532622A JP6115643B2 (ja) 2013-08-21 2013-08-21 画像処理方法
PCT/JP2013/072332 WO2015025387A1 (ja) 2013-08-21 2013-08-21 画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/072332 WO2015025387A1 (ja) 2013-08-21 2013-08-21 画像処理方法

Publications (1)

Publication Number Publication Date
WO2015025387A1 true WO2015025387A1 (ja) 2015-02-26

Family

ID=52483197

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/072332 WO2015025387A1 (ja) 2013-08-21 2013-08-21 画像処理方法

Country Status (3)

Country Link
US (1) US9922418B2 (ja)
JP (1) JP6115643B2 (ja)
WO (1) WO2015025387A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067399A1 (ja) * 2014-10-29 2016-05-06 株式会社島津製作所 画像処理装置
TWI667996B (zh) 2018-03-23 2019-08-11 中國醫藥大學附設醫院 乳房腫瘤輔助檢測模型及乳房腫瘤輔助檢測系統
US11375962B2 (en) * 2019-08-05 2022-07-05 Linev Systems, Inc. Fast foreign object scanner for scanning human bodies

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10509075A (ja) * 1994-11-23 1998-09-08 ルナー コーポレイション 改良した指示特性を有する骨濃度計
JP2004509722A (ja) * 2000-09-29 2004-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 椎骨の椎弓根の位置を含む脊椎の正面幾何学データを抽出する方法及びシステム
JP2009524488A (ja) * 2006-01-24 2009-07-02 ルカディア 6,リミテッド ライアビリティ カンパニー 脊髄手術における椎弓根用のスクリューまたは椎弓根用の内固定器具の設置のための椎弓根周辺、椎弓根峡部、および椎弓根峡部の中心の決定方法
JP2013052121A (ja) * 2011-09-05 2013-03-21 Hitachi Medical Corp 医用画像処理装置及び医用画像処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6904163B1 (en) 1999-03-19 2005-06-07 Nippon Telegraph And Telephone Corporation Tomographic image reading method, automatic alignment method, apparatus and computer readable medium
US6724924B1 (en) * 2000-08-14 2004-04-20 Siemens Corporate Research, Inc. Brightness and contrast invariant detection of vertebra pedicles
US7010151B2 (en) 2001-10-01 2006-03-07 Siemens Corporate Research, Inc. Endplate detection in digital radiography by dynamic programming using both local and global constraints
WO2005088520A1 (en) * 2004-03-11 2005-09-22 University Of Cincinnati Automated spine survey iterative scan technique (assist)
US7561728B2 (en) * 2005-03-23 2009-07-14 Siemens Medical Solutions Usa, Inc. Detection of intervertebral disk orientation in spine images using curve evolution
US8366712B2 (en) * 2005-10-15 2013-02-05 Baxano, Inc. Multiple pathways for spinal nerve root decompression from a single access point
US20120143090A1 (en) * 2009-08-16 2012-06-07 Ori Hay Assessment of Spinal Anatomy
JP4940340B2 (ja) 2009-11-27 2012-05-30 富士フイルム株式会社 椎骨セグメンテーション装置、方法及びプログラム
US8891848B2 (en) * 2011-06-14 2014-11-18 Radnostics, LLC Automated vertebral body image segmentation for medical screening
US8911448B2 (en) * 2011-09-23 2014-12-16 Orthosensor, Inc Device and method for enabling an orthopedic tool for parameter measurement
US8965083B2 (en) * 2012-06-28 2015-02-24 General Electric Company Automatic detection of vertebrae boundaries in spine images
US8983029B2 (en) 2013-02-22 2015-03-17 Shimadzu Corporation Radiographic apparatus and method for the same
US9125619B2 (en) 2013-03-07 2015-09-08 Shimadzu Corporation Radiographic examination apparatus and method for the same
US8908832B2 (en) 2013-03-11 2014-12-09 Shimadzu Corporation Radiographic apparatus and method for the same
US9064307B2 (en) * 2013-06-28 2015-06-23 General Electric Company Methods and apparatus to generate three-dimensional spinal renderings

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10509075A (ja) * 1994-11-23 1998-09-08 ルナー コーポレイション 改良した指示特性を有する骨濃度計
JP2004509722A (ja) * 2000-09-29 2004-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 椎骨の椎弓根の位置を含む脊椎の正面幾何学データを抽出する方法及びシステム
JP2009524488A (ja) * 2006-01-24 2009-07-02 ルカディア 6,リミテッド ライアビリティ カンパニー 脊髄手術における椎弓根用のスクリューまたは椎弓根用の内固定器具の設置のための椎弓根周辺、椎弓根峡部、および椎弓根峡部の中心の決定方法
JP2013052121A (ja) * 2011-09-05 2013-03-21 Hitachi Medical Corp 医用画像処理装置及び医用画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置
KR20190125437A (ko) 2017-04-25 2019-11-06 가부시키가이샤 시마쓰세사쿠쇼 X 선 촬상 장치
JPWO2018198206A1 (ja) * 2017-04-25 2019-12-19 株式会社島津製作所 X線撮像装置

Also Published As

Publication number Publication date
JPWO2015025387A1 (ja) 2017-03-02
US9922418B2 (en) 2018-03-20
US20160203598A1 (en) 2016-07-14
JP6115643B2 (ja) 2017-04-19

Similar Documents

Publication Publication Date Title
US9594975B2 (en) Image processing device and spinal canal evaluation method
JP6152897B2 (ja) 画像処理方法
Labelle et al. Seeing the spine in 3D: how will it change what we do?
Ikhsan et al. An analysis of x-ray image enhancement methods for vertebral bone segmentation
CN110544245B (zh) 图像处理方法、装置、计算机可读存储介质及电子设备
Bae et al. Fully automated 3D segmentation and separation of multiple cervical vertebrae in CT images using a 2D convolutional neural network
AU2009292646B2 (en) Systems and methods for generating an osteoarthritis progression predictor and systems and methods for using the predictor
Duong et al. Three-dimensional classification of spinal deformities using fuzzy clustering
JP2007069007A (ja) 脊柱画像における脊柱彎曲の自動検出および特定の角度の計算方法および装置
JP6115643B2 (ja) 画像処理方法
Chou et al. Vertebral morphometry
JP2004105739A (ja) コンピュータ支援骨密度測定装置
Barbieri et al. Vertebral body segmentation of spine MR images using superpixels
JP2019520954A (ja) 脊柱の弯曲角度を測定する方法及びデバイス
Fechtenbaum et al. Difficulties in the diagnosis of vertebral fracture in men: agreement between doctors
Nguyen et al. Deep learning system for Meyerding classification and segmental motion measurement in diagnosis of lumbar spondylolisthesis
Logithasan et al. Using machine learning to automatically measure axial vertebral rotation on radiographs in adolescents with idiopathic scoliosis
Tariq et al. Opportunistic screening for low bone density using abdominopelvic computed tomography scans
JP2014236912A (ja) 画像処理装置およびその方法
Yao et al. Quantitative vertebral compression fracture evaluation using a height compass
Ryu et al. Automated landmark identification for diagnosis of the deformity using a cascade convolutional neural network (FlatNet) on weight-bearing lateral radiographs of the foot
Fitzgerald et al. Three-dimensional radiographic analysis of two distinct Lenke 1A curve patterns
KR20140104170A (ko) 카메라를 이용한 척추 측만증 판단 방법 및 장치
Scholtz et al. First performance evaluation of software for automatic segmentation, labeling and reformation of anatomical aligned axial images of the thoracolumbar spine at CT
Vacari et al. Comparison between methods of assessing lumbosacral curve obtained by radiographic image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13891641

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015532622

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14911483

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13891641

Country of ref document: EP

Kind code of ref document: A1