WO2010095508A1 - 正中線決定装置およびプログラム - Google Patents

正中線決定装置およびプログラム Download PDF

Info

Publication number
WO2010095508A1
WO2010095508A1 PCT/JP2010/051410 JP2010051410W WO2010095508A1 WO 2010095508 A1 WO2010095508 A1 WO 2010095508A1 JP 2010051410 W JP2010051410 W JP 2010051410W WO 2010095508 A1 WO2010095508 A1 WO 2010095508A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
midline
inspected
unit
median line
Prior art date
Application number
PCT/JP2010/051410
Other languages
English (en)
French (fr)
Inventor
卓也 川野
修 遠山
浩一 藤原
Original Assignee
コニカミノルタエムジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタエムジー株式会社 filed Critical コニカミノルタエムジー株式会社
Priority to JP2011500555A priority Critical patent/JP5626202B2/ja
Publication of WO2010095508A1 publication Critical patent/WO2010095508A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Definitions

  • the present invention relates to a technique for determining a midline of a specimen on an image obtained by photographing a human body or the like as a specimen.
  • CAD computer aided diagnosis
  • Non-Patent Document 1 a technique for determining a median line has been proposed for the purpose of aligning the target image and the similar candidate image in the chest region.
  • a midpoint that bisects the detected edges of the left and right ribcage edges is sequentially obtained in the vertical direction, and an approximate straight line passing through the midpoint sequence is defined as a midline.
  • FIG. 17 is a diagram exemplifying a row of midpoints MP that bisects the edge ED between the right and left ribcage edges when an image in which the subject is tilted too much with respect to the reference position is input.
  • a plurality of midpoints MP that bisect the left and right ribcage edges do not appear on the correct midline 30. That is, even if the approximate straight line 30E passing through the plurality of midpoints MP is obtained, the correct midline 30 cannot be obtained. Therefore, it is necessary to perform a very complicated operation for the diagnostician to determine, for each image, a correct midline as a reference when comparing a plurality of images.
  • FIG. 54 is a diagram illustrating an example of an image in which a foreign object exists in the lung field
  • FIG. 80 is a diagram illustrating an example of a lung field image in which a lesion exists.
  • the midline measurement method using the rib cage edge is correct. Cannot align. Therefore, it is necessary to perform a very complicated operation for the diagnostician to determine, for each image, a correct midline as a reference when comparing at least one image.
  • the present invention has been made in view of the above problems, and provides a technique capable of automatically obtaining a correct midline even when an image in which a subject is tilted too much with respect to a reference position is input.
  • it is suppressed from being affected by the health condition of the inspected person or the inspected animal.
  • an image in which the shape of the lung field is unclear due to the presence of a foreign substance or a medical condition in the lung field of the inspected person is input.
  • a second object is to provide a technique capable of automatically obtaining a correct midline.
  • a median line determination device that determines a median line of an image to be inspected obtained by photographing a human or animal specimen.
  • An acquisition unit that acquires an image to be inspected, and a median line determination unit that determines a median line in the image to be inspected based on the image to be inspected and an image pattern representing a body model of the specimen,
  • the midline determination unit determines a second reference position on the inspection image corresponding to a predetermined first reference position on the image pattern in a relative positional relationship in which the image pattern matches the inspection image.
  • a position acquisition element that obtains position information expressing the second reference position, and a median line position determination element that determines a median line of the image to be inspected based on the position information.
  • a median line determination device is the median line determination device according to the first aspect, wherein the position acquisition element relatively compares the inspected image and the image pattern in a first direction. While moving, an element that compares with each other, an element that determines a plurality of relative positions where the difference between the image to be inspected and the image pattern is a predetermined threshold value or less, and the difference among the plurality of relative positions is An element for determining the second reference position corresponding to the first reference position at the minimum relative position, and the image pattern is moved relative to the inspected image in the second direction, By repeating the determination of two reference positions, an element for determining a plurality of candidate positions of the median line is provided.
  • a median line determination device is the median line determination device according to the first aspect, wherein the position acquisition element relatively compares the inspected image and the image pattern in a first direction. An element that compares with each other while being moved, an element that determines the second reference position corresponding to the first reference position at a relative position where the difference is minimum, and the image pattern with respect to the image to be inspected And determining the plurality of candidate positions for defining the median line by repeating the determination of the second reference position while relatively moving in the second direction.
  • a median line determination device is the median line determination device according to the first aspect, wherein a median line model pattern is added to the image pattern, and the first reference position is The position of the midline model pattern in the image pattern, wherein the second reference position corresponds to the midline model pattern in the relative positional relationship such that the image pattern matches the image to be inspected. It was made to be the position on the inspection image.
  • a median line determination device is the median line determination device according to the second aspect, wherein the position acquisition element changes the angle between the image pattern and the image to be inspected.
  • An element for selecting the optimum point sequence corresponding to the angular relationship and an element for determining the median line based on the optimum point sequence are provided.
  • a median line determination device is the median line determination device according to the fourth aspect, wherein the position acquisition element changes the angle between the image pattern and the image to be inspected, while An element for determining a plurality of candidates for the median line on the basis of a line model pattern, and the median line position determining element includes the image pattern and the image to be inspected from the plurality of candidates for the median line.
  • An element for selecting an optimal midline corresponding to the most suitable angular relationship is provided.
  • a program according to a seventh aspect is executed by a control unit of a computer, so that the computer determines a median line of a test image obtained by imaging the body of a specimen that is a human being or an animal.
  • a midline determination unit that determines a median line in the image to be inspected based on an acquisition unit that acquires the image to be inspected, the image to be inspected, and an image pattern representing a body model of the specimen
  • the median line determination unit has a first position on the inspected image corresponding to a predetermined first reference position on the image pattern in a relative positional relationship in which the image pattern matches the inspected image.
  • a position acquisition element that determines two reference positions and obtains position information representing the second reference position, and a midline position determination that determines a midline of the image to be inspected based on the position information And elements, and so as to operate as a midline determining device comprising a.
  • a median line determination device is a median line determination device that determines a median line of an image to be inspected obtained by imaging the body of a specimen that is a human being or an animal.
  • An acquisition unit that acquires an image to be inspected that expresses a distribution of corresponding information, a setting unit that sets an evaluation region for the image to be inspected, and each pixel column that extends in the first direction in the evaluation region
  • An integrated value calculation unit that integrates pixel values of the inspected image along the reference direction and thereby calculates a plurality of integrated pixel values; and based on the plurality of integrated pixel values, And a determination unit that determines the position of the midline.
  • a median line determination device is the median line determination device according to the eighth aspect, wherein the determination unit recognizes a pixel column that gives a minimum value among the plurality of integrated pixel values, and And a recognition unit that obtains the candidate position of the median line, and a median line determination unit that determines the position of the median line based on the candidate position of the median line.
  • a median line determining device is the median line determining device according to the eighth aspect, wherein the determining unit includes a first region sandwiching a center line along the first direction of the evaluation region, and For the second region, a detection unit that detects a first maximum value and a second maximum value of the integrated pixel value, a first pixel column that provides the first maximum value, and a second pixel that provides the second maximum value
  • a recognition unit that recognizes an intermediate position with respect to a column as a candidate position of the midline, and a midline determination unit that determines the position of the midline based on the candidate position of the midline .
  • a median line determination device is the median line determination device according to the eighth aspect, wherein the determination unit includes a first region sandwiching a center line along the first direction of the evaluation region, and For the second region, a detection unit that detects a first minimum value and a second minimum value of the integrated pixel value, a first pixel column that provides the first minimum value, and a second pixel that provides the second minimum value
  • a recognition unit that recognizes an intermediate position with respect to a column as a candidate position of the midline, and a midline determination unit that determines the position of the midline based on the candidate position of the midline .
  • the midline determination device is the midline determination device according to the eighth aspect, wherein the determination unit includes a first region sandwiching a center line along the first direction of the evaluation region, and For the second region, a detection unit that detects a first maximum change rate and a second maximum change rate of the integrated pixel value in a second direction orthogonal to the first direction, and a second unit that provides the second maximum change rate. Based on the recognition position for recognizing an intermediate position between one pixel column and the second pixel column giving the second maximum change rate as a candidate position of the median line, the median line based on the candidate position of the median line And a median line determination unit for determining the position of.
  • a median line determination device is the median line determination device according to a ninth aspect, wherein the setting unit changes a relative angle of the evaluation region with respect to the inspection image in a stepwise manner.
  • the recognition unit recognizes the candidate position of the median line at each relative angle, thereby acquiring a plurality of candidate positions, and the median line determination unit is configured to calculate the integration among the plurality of candidate positions.
  • the position of the median line is determined based on a specific candidate position having a minimum pixel value.
  • a median line determination device is the median line determination device according to the eighth aspect, wherein the setting unit changes a relative angle of the evaluation region with respect to the inspection image in a stepwise manner.
  • the recognition unit recognizes the candidate position of the median line at each relative angle to obtain a plurality of candidate positions, and the median line determination unit includes the first candidate position among the plurality of candidate positions.
  • the position of the median line is determined based on a specific candidate position where the difference between the 1 maximum value and the second maximum value is minimum.
  • a median line determination device is the median line determination device according to the eighth aspect, wherein the setting unit changes a relative angle of the evaluation region with respect to the inspection image in a stepwise manner.
  • the recognition unit recognizes the candidate position of the median line at each relative angle to obtain a plurality of candidate positions, and the median line determination unit includes the first candidate position among the plurality of candidate positions.
  • the position of the median line is determined based on a specific candidate position where the sum of the 1 maximum change rate and the second maximum change rate is the maximum.
  • the midline determination device is the midline determination device according to the eighth aspect, wherein the evaluation region is a rectangular region, and the first direction is along one side of the evaluation region. To be in the direction.
  • a program according to a seventeenth aspect is executed by a control unit of a computer, so that the computer determines a median line of a test image obtained by imaging the body of a specimen that is a human being or an animal.
  • An integrated value calculation unit that integrates the pixel values of the image to be inspected along the reference direction and thereby calculates a plurality of integrated pixel values, and the plurality of the plurality of the pixel rows extending along the first direction Based on the integrated pixel value, a determination unit that determines a position of a median line in the inspection image is operated as a median line determination device.
  • a median line determination device is a median line determination device that determines a median line of an image to be inspected obtained by imaging the body of a specimen that is a human or an animal.
  • the median line determination device is the median line determination device according to the eighteenth aspect, wherein the determination unit expresses the positions on the left and right sides of the abdominal region of the specimen. I made it.
  • the median line determination device is the median line determination device according to the nineteenth aspect, wherein the determination unit binarizes the image to be inspected and generates binary image data 2 A binarization unit, an edge extraction unit that extracts the left and right body side edges in the binary image data, and a midline determination unit that determines the position of the median line based on the left and right body side edges;
  • the midline determination unit is configured to detect each midpoint of a line segment connecting corresponding points on the body-side edges on both the left and right sides, and based on the position of each midpoint, And an element for determining the position.
  • a median line determination device is the median line determination device according to the nineteenth aspect, wherein the determination unit changes a relative position between two images including the inspection image and a predetermined template image.
  • the determination unit changes a relative position between two images including the inspection image and a predetermined template image.
  • a collation unit that collates the two images
  • a median line determination unit that determines the position of the median line in the inspection image based on the collation result by the collation unit.
  • a midline determination apparatus is the midline determination apparatus according to the twenty-first aspect, wherein the collation unit is configured to apply a first pixel value to which a first pixel value representing the abdominal part of the sample is assigned. While changing the spatial relative relationship between the two images, a template setting unit that sets, as the template image, an image in which a second region to which a second pixel value representing the extracorporeal part of the specimen is provided on both sides is arranged.
  • a collation execution unit that collates the two images and specifies a position on the inspected image that gives the maximum fitness of the two images as a candidate position through which the midline passes, and a change in a spatial relative relationship between the two images
  • a collation control unit that imposes at least one change condition and performs collation by the collation execution unit, and a midline determination unit is based on the candidate position specified for the at least one change condition And to determine the position of the midline in the inspection image.
  • a midline determination apparatus is the midline determination apparatus according to the twenty-second aspect, wherein the change in the spatial relative relationship according to the at least one change condition is centered on a predetermined position. The relative angular relationship between the two images was changed.
  • a median line determination device is the median line determination device according to the 19th aspect, wherein the determination unit sets a two-dimensional evaluation region for the image to be inspected.
  • a median line determination unit that determines the median line based on the image to be inspected in the evaluation region, and the median line determination unit includes a two-dimensional pixel value distribution in the evaluation region in the evaluation region.
  • a compression element that compresses into a one-dimensional pixel value distribution by cumulatively projecting in a predetermined fixed projection direction, and based on the position of the feature point in the one-dimensional pixel value distribution. And a determinant for determining the midline.
  • a median line determination device is the median line determination device according to the 24th aspect, wherein the setting unit changes a relative angle of the evaluation region with respect to the inspection image in a stepwise manner.
  • An element that obtains the pixel projection values of each of the plurality of sets of feature points, and the midline determination unit compares the pixel projection values of the plurality of sets of feature points with each other to obtain a set of features.
  • An element for selecting a point and an element for determining the median line based on the position of the set of feature points are provided.
  • a program according to a twenty-sixth aspect is executed by a control unit of a computer so that the computer determines a median line of a test image obtained by imaging the body of a specimen that is a human being or an animal.
  • a median line determination device is a median line determination apparatus that determines a median line of an image to be inspected obtained by imaging the body of a specimen that is a human being or an animal, and is a subject that expresses the body of the specimen.
  • a median line determination device is the median line determination device according to the twenty-seventh aspect, wherein the determination unit extracts the edge of the rib in the inspected image, and labels the edge of the rib.
  • a labeling unit to perform an inclination calculation unit for calculating an inclination of an edge of the rib with respect to a predetermined reference direction in the image to be inspected, and a center position calculation for calculating a center position of a spatial distribution of the rib image group in the image to be inspected
  • a median line determining unit that determines the position of the median line in the image to be inspected based on the inclination of the edge of the rib and the center position.
  • a median line determination device is the median line determination device according to the twenty-seventh aspect, wherein the determination unit extracts an edge of the rib in the inspected image and labels the edge of the rib.
  • the ribs are obtained by associating rib points defined as predetermined positions on the edges of the ribs between the labeling unit for performing the left rib edge and the right rib edge of the image to be inspected.
  • a point detection unit, and a midline determination unit that sets a line segment that connects each of the rib pairs and determines the position of the midline based on the position of the midpoint of each of the line segments. did.
  • a median line determination device is the median line determination device according to the 27th aspect, wherein an image pattern in which a median line model pattern is added to the arrangement of ribs is defined in advance, and the determination unit A collation unit that collates the image pattern and the image to be inspected while changing a relative positional relationship between the image pattern and the image to be inspected, and a maximum matching degree between the image to be inspected and the image pattern. And a midline determination unit that determines the position of the midline in the image to be inspected based on the position of the midline model pattern in the mutual positional relationship.
  • a median line determination device is the median line determination device according to the thirtieth aspect, wherein the collation unit determines the degree of conformity between the image to be inspected and the image pattern.
  • the relative angular relationship between the image and the image pattern is respectively changed with respect to a plurality of angular relationships.
  • a program according to a thirty-second aspect is executed by a control unit of a computer, so that the computer determines a median line of an inspected image obtained by imaging the body of a specimen that is a human being or an animal.
  • the midline determination apparatus can automatically determine the correct midline even when an image in which the subject is tilted too much with respect to the reference position is input.
  • the midline determination apparatus even when an image in which the subject is inclined too much with respect to the reference position is input, a correct midline can be obtained efficiently.
  • the midline determination apparatus can automatically obtain the correct midline even when an image in which the subject is inclined too much with respect to the reference position is acquired.
  • the integrated pixel value can be calculated efficiently.
  • the midline determination apparatus according to any of the eighteenth to the twenty-fifth aspects also determines the position of the midline based on information on the left and right sides of the body. You can find the line correctly.
  • the midline determination apparatus also determines the position of the midline based on the information on the body side in the abdominal region. Even when a white unclear region appears on the chest on the image, it is difficult to be affected by the state of the organ of the specimen, so that the midline can be obtained correctly.
  • the midline determination device determines the position of the midline based on the information related to the ribs, so that it is difficult to be affected by the health condition of the specimen, and the midline is correctly obtained. Can do.
  • the position of the median line is determined based on a large number of rib edge information, so that the median line can be obtained accurately.
  • the median line determination device when determining the position of the median line based on the information about the ribs, the left and right ribs are associated with each other, and the median line using the associated rib information Since the position of the line is determined, the midline can be obtained correctly even if the ribs of the specimen are missing due to a fracture or the like.
  • the midline determination apparatus determines the position of the midline using an image pattern prepared in advance, so that the midline can be obtained quickly.
  • FIG. 1 is a block diagram showing a configuration common to the first to fifth embodiments applied to a midline determination apparatus.
  • FIG. 2 is a diagram illustrating the configuration of the spine template.
  • FIG. 3 is a diagram illustrating a state in which matching is performed while the spine template is moved.
  • FIG. 4 is a diagram illustrating a rotated inspection image obtained by rotating the inspection image by ⁇ degrees counterclockwise.
  • FIG. 5 is a flowchart showing an operation flow in which the midline determination unit according to the first embodiment determines a midline.
  • FIG. 6 is a diagram illustrating the configuration of a lung field template.
  • FIG. 7 is a diagram illustrating a state in which matching is performed while the lung field template is moved.
  • FIG. 8 is a diagram illustrating the configuration of the abdominal template.
  • FIG. 1 is a block diagram showing a configuration common to the first to fifth embodiments applied to a midline determination apparatus.
  • FIG. 2 is a diagram illustrating the configuration of the spine template.
  • FIG. 9 is a diagram illustrating a state in which matching is performed while the abdominal template 14 is moved.
  • FIG. 10 is a flowchart showing an operation flow in which the midline determination unit according to the third embodiment determines a midline.
  • FIG. 11 is a diagram illustrating the configuration of the lung field model.
  • FIG. 12 is a diagram illustrating a state where the image to be examined and the lung field model are in a similar positional relationship.
  • FIG. 13 is a flowchart showing an operation flow in which the midline determination device according to the fourth embodiment determines a midline.
  • FIG. 14 is a diagram illustrating the configuration of the rib model.
  • FIG. 15 is a diagram illustrating a state where the image to be inspected and the rib model are in a similar positional relationship.
  • FIG. 16 is a diagram illustrating a state in which the spine template in the first embodiment is rotated ⁇ degrees counterclockwise.
  • FIG. 17 is a diagram illustrating a midpoint sequence between the left and right ribcage edges when an image in which the subject is tilted too much with respect to the reference position is input.
  • FIG. 18 is a block diagram showing a configuration common to the sixth to eleventh embodiments applied to the midline determination apparatus.
  • FIG. 19 is a block diagram illustrating a functional configuration of the determination unit according to the sixth embodiment.
  • FIG. 20 is a diagram for explaining processing for determining a median line in the sixth embodiment.
  • FIG. 21 is a diagram illustrating a rotated inspection image obtained by rotating the inspection image counterclockwise by ⁇ degrees.
  • FIG. 22 is a flowchart illustrating an operation flow in which the determination unit according to the sixth embodiment determines a midline.
  • FIG. 23 is a block diagram illustrating a functional configuration of the determination unit according to the seventh embodiment.
  • FIG. 24 is a diagram for explaining processing for determining a median line in the seventh embodiment.
  • FIG. 25 is a diagram for explaining processing for determining a median line in the eighth embodiment.
  • FIG. 26 is a diagram for explaining processing for determining a median line in the ninth embodiment.
  • FIG. 27 is a block diagram illustrating a functional configuration of the determination unit according to the tenth embodiment.
  • FIG. 28 is a block diagram showing a functional configuration of the determination unit in the eleventh embodiment.
  • FIG. 29 is a diagram illustrating a state in which the evaluation region is rotated counterclockwise by ⁇ degrees in the modification.
  • FIG. 30 is a block diagram showing a configuration common to the twelfth to seventeenth embodiments applied to the midline determination apparatus.
  • FIG. 31 is a block diagram illustrating a functional configuration of the determination unit according to the twelfth embodiment.
  • FIG. 32 is a diagram illustrating an example of an image to be inspected.
  • FIG. 33 is a diagram showing an example of binary image data.
  • FIG. 34 is a diagram showing an example of an evaluation area according to the twelfth embodiment.
  • FIG. 35 is a diagram showing body-side edges on the left and right sides of the extracted abdominal region.
  • FIG. 36 is a diagram illustrating an example of a corresponding line in the evaluation region.
  • FIG. 37 is a diagram showing a median line obtained from the midpoint group.
  • FIG. 38 is a diagram illustrating an inspected image in which a median line is set.
  • FIG. 39 is a flowchart showing an operation flow in which the determination unit according to the twelfth embodiment determines the midline of the sample.
  • FIG. 40 is a block diagram illustrating a functional configuration of the determination unit according to the thirteenth embodiment.
  • FIG. 41 is a diagram illustrating the configuration of the template image 3014.
  • FIG. 42 is a diagram illustrating a state in which matching is performed.
  • FIG. 43 is a diagram showing an example in which the template image 3014 is collated by rotating it ⁇ degrees counterclockwise.
  • FIG. 44 is a diagram illustrating an enlarged template image 3015.
  • FIG. 45 is a diagram for explaining the process of determining the position of the midline by the midline determination unit.
  • FIG. 46 is a flowchart showing an operation flow in which the determination unit according to the thirteenth embodiment determines the midline of the specimen.
  • FIG. 47 is a block diagram illustrating a functional configuration of the determination unit according to the fourteenth embodiment.
  • FIG. 48 is a diagram showing an example of the evaluation area according to the fourteenth embodiment.
  • FIG. 49 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation area.
  • FIG. 50 is a diagram illustrating a rotated inspection image obtained by rotating the inspection image counterclockwise by ⁇ degrees.
  • FIG. 51 is a flowchart showing an operation flow in which the midline determination apparatus according to the fourteenth embodiment determines the midline of the specimen.
  • FIG. 52 is a diagram illustrating a state in which the inspection image 20 is rotated ⁇ degrees counterclockwise in the modification.
  • FIG. 53 is a diagram illustrating a state in which the evaluation region 51 is rotated counterclockwise by ⁇ degrees in the modification.
  • FIG. 54 is a diagram showing an example of an image in which a foreign object exists in the lung field.
  • FIG. 55 is a block diagram showing a functional configuration of the determination unit according to the fifteenth embodiment.
  • FIG. 56 is a diagram showing an example in which only the lower edge of each rib is extracted from the inspected image.
  • FIG. 57 is a diagram conceptually showing labeling of each rib edge.
  • FIG. 58 is a diagram showing the right lung field reference line set on the image coordinate system of the image to be inspected.
  • FIG. 59 is a diagram showing the left lung field reference line set on the image coordinate system of the image to be inspected.
  • FIG. 60 is a diagram showing the minimum and maximum values of the X and Y coordinates detected on the image coordinate system of the image to be inspected.
  • FIG. 61 is a diagram illustrating an example in which the midline is determined based on the midline passing point and the slope of the midline.
  • FIG. 62 is a diagram illustrating an inspected image in which a median line is set.
  • FIG. 63 is a flowchart showing an operation flow in which the determination unit according to the fifteenth embodiment determines the midline of the sample.
  • FIG. 63 is a flowchart showing an operation flow in which the determination unit according to the fifteenth embodiment determines the midline of the sample.
  • FIG. 64 is a block diagram showing a functional configuration of the determination unit according to the sixteenth embodiment.
  • FIG. 65 is a diagram showing rib points on each rib edge.
  • FIG. 66 is a diagram showing the right lung field side radial point.
  • FIG. 67 is a diagram for explaining processing for obtaining the radius point on the left radius edge corresponding to the radius point (1).
  • FIG. 68 is a diagram illustrating an example in which the radius point does not exist on the left lung field side candidate region.
  • FIG. 69 shows the corresponding lines.
  • FIG. 70 shows the corresponding lines.
  • FIG. 71 is a diagram showing a median line.
  • FIG. 72 is a flowchart showing an operation flow in which the determination unit according to the sixteenth embodiment determines the midline of the specimen.
  • FIG. 72 is a flowchart showing an operation flow in which the determination unit according to the sixteenth embodiment determines the midline of the specimen.
  • FIG. 73 is a diagram for explaining the inclination angle of the orthogonal straight line.
  • FIG. 74 is a block diagram showing a functional configuration of the determination unit according to the seventeenth embodiment.
  • FIG. 75 is a diagram showing an example of the configuration of the rib model.
  • FIG. 76 is a diagram illustrating a state in which matching is performed while the rib model is moved.
  • FIG. 77 is a diagram illustrating a rotating inspection image.
  • FIG. 78 is a flowchart showing an operation flow in which the midline determination apparatus according to the seventeenth embodiment determines the midline of the sample.
  • FIG. 79 is a diagram illustrating a state in which the rib model according to the seventeenth embodiment is rotated counterclockwise.
  • FIG. 80 is a diagram illustrating an example of a lung field image in which a lesion exists.
  • FIG. 1 is a block diagram showing a configuration common to each embodiment applied to a midline determination device 1.
  • the midline determination device 1 has a general computer configuration in which a control unit 2, an operation unit 4, an acquisition unit 5, a storage unit 6, and a display unit 7 are connected to a bus line 10. ing.
  • the control unit 2 is configured by, for example, a CPU, and determines the operation of the entire midline determination device 1 by executing a program stored in the storage unit 6, gives a command to the entire midline determination device 1, and A display instruction is issued to the display unit 7 to be described later. Moreover, the control part 2 also implement
  • the midline determination unit 3 determines the position of the midline of the subject to be captured captured in the image related to the input image data.
  • the median line indicates the line of intersection between the median plane and the body surface, which is a plane that equally divides the human body left and right among the arrow planes that are vertical planes including the direction of the horizontal line that penetrates the body forward and backward. ing.
  • the operation unit 4 includes a keyboard, a touch panel, a mouse, or the like, and transmits various command signals to the control unit 2 in accordance with various user operations.
  • the acquisition unit 5 acquires image data obtained from a specimen (human or animal body to be examined).
  • image data of an image to be inspected (objective bag image) including the ribs of the specimen is acquired.
  • the acquisition unit 5 may be configured, for example, to be connected to a medical image capturing apparatus and receive image data online. Further, the acquisition unit 5 may read image data from a portable storage medium such as a DVD or a scanner. The image data may be acquired by reading the image to be inspected.
  • the acquisition unit 5 stores data (image data) of an image to be inspected in which a sample to be imaged is captured in a file server or the like connected by a network line, and at least one stored image data
  • the image data of a desired specimen may be searched for and acquired from among them.
  • the image data acquired by the acquisition unit 5 (hereinafter, appropriately referred to as “inspected image”) is stored in the storage unit 6 described later.
  • Such storage of image data may be performed via an external storage device.
  • the storage unit 6 is configured by a storage device such as a semiconductor memory or a hard disk, for example, and a program executed by the control unit 2, information necessary for executing the program, and an image to be inspected acquired by the acquisition unit 5 Etc. are stored.
  • the display unit 7 is composed of, for example, a liquid crystal display, and visually outputs moving image data and the like generated by the control unit 2.
  • the medical image photographing apparatus is constituted by, for example, an X-ray photographing apparatus or the like, and photographs a predetermined part included in a built-in specimen or the like.
  • imaging is performed by exposing X-rays to an object from an X-ray generation source.
  • the X-rays exposed to the specimen pass through, for example, the chest including the ribs of the specimen, and the two-dimensional X-ray is detected by a predetermined X-ray image detector.
  • the intensity distribution is detected.
  • the X-ray intensity distribution obtained by the X-ray image detector is converted into an analog electric signal, and further, the analog electric signal is converted into a digital signal by so-called A / D conversion in a predetermined circuit.
  • This digital signal is stored in the storage unit 6 of the midline determination device as image data relating to the intensity distribution of the X-rays transmitted through the subject.
  • an inspected image acquired by the acquisition unit 5 is an X image obtained by simply capturing a square chest with a vertical side of 512 pixels and a horizontal side of 512 pixels, for example.
  • the image is a line image (chest simple X-ray image).
  • each pixel value of the image to be inspected is represented by a gradation value related to a monochrome gray scale (hereinafter referred to as “monochrome gradation value”).
  • monochrome gradation value a monochrome gray scale
  • the horizontal line of the image to be inspected is referred to as a “horizontal line”.
  • the position of the median line in the image to be inspected is determined by collating the image to be inspected with the image pattern relating to the configuration of the spine. First, after describing the method of determining the position of the midline in the midline determination unit 3, the operation flow will be described.
  • the spine template corresponds to “an image pattern representing a body model of a specimen”.
  • the spine template imitates a typical density pattern that appears on the image due to the X-ray density distribution when the lung field and the spine region are imaged using X-rays.
  • the thing of one size may be prepared, the thing of various sizes is prepared, and the spine template of one size may be selected according to an operator's operation or a to-be-photographed object. . The same applies to image patterns in other embodiments described later.
  • FIG. 2 is a diagram illustrating the configuration of the spine template 11.
  • the outer edge of the spine template 11 has, for example, a rectangular shape.
  • the spine template 11 includes an image region 11a corresponding to each of the left and right lung field regions, and an image region 11b corresponding to a region between the left lung field and the right lung field. That is, the spine template 11 is configured by arranging the image region 11a, the image region 11b, and the image region 11a in this order from the left.
  • the predetermined position of the image region 11b in the spine template 11 is referred to as P1.
  • the “predetermined position P1” mentioned here includes, for example, the intersection of diagonal lines of the spine template 11, the center of gravity of the spine template 11, the intersection of diagonals of the image area 11b, and the center of gravity of the image area 11b. .
  • the spine template 11 has a size of 240 pixels in the horizontal direction and a size of 60 pixels in the vertical direction, for example.
  • the image areas 11a and 11b each have a size of 80 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • each pixel value of the spine template 11 is represented by a gradation value (monochrome gradation value) related to a monochrome gray scale, like the image to be inspected.
  • a gradation value (monochrome gradation value) related to a monochrome gray scale, like the image to be inspected.
  • the monochrome gradation value of the image area 11a is set to 0, which is the minimum value that can be taken by the monochrome gradation value in the inspected image
  • the monochrome gradation value of the image area 11b is set to the monochrome gradation value in the inspected image. It is set to 4095, which is the maximum value of the range that the tone value can take.
  • ⁇ (B) Detection of candidate point sequences along the spine in the image to be inspected The operation of detecting a point sequence candidate (spine point sequence candidate) along the spine for the image to be inspected (spine point sequence candidate detection operation) sequentially changes the relative angular relationship between the image to be inspected and the spine template 11. While being done, this is done for each angular relationship. Therefore, first, the spine point sequence candidate detection operation in the case where the relative angular relationship between the image to be inspected and the spine template 11 is one angular relationship will be described, and then the spine points in each angular relationship will be described. The column candidate detection operation will be described.
  • the spine point sequence candidate detection operation first, the image to be inspected and the spine template 11 are collated.
  • the spine template 11 is sequentially set to a position where a predetermined pixel (for example, one pixel) is moved with respect to the image to be inspected along one direction (specifically, each horizontal line of the image to be inspected). Is done.
  • each horizontal line is a pixel line (hereinafter referred to as “movement reference line”) used as a reference for movement when the spine template 11 is sequentially moved with respect to the image to be inspected. ").
  • a horizontal line in which the upper side of the spine template 11 is aligned is set as a movement reference line. It shall be.
  • a difference value (hereinafter referred to as “degree of mismatch”) of the entire region where the spine template 11 and the image to be inspected overlap is obtained.
  • degree of mismatch a difference value of the entire region where the spine template 11 and the image to be inspected overlap
  • FIG. 3 is a diagram illustrating a state in which matching is performed while the spine template 11 is moved along each horizontal line of the image to be inspected.
  • an arrow F indicating an image in a direction in which an image pattern such as the spine template 11 is moved is appropriately attached.
  • the inspected image 20 and the spine template 11 are in a positional relationship in which the degree of mismatch is equal to or less than a predetermined threshold. In some cases, it is required that the image to be inspected 20 and the spine template 11 are most similar. Specifically, in the inspected image 20, the position where the difference between the black and white gradation value of the inspected image 20 and the black and white gradation value of the spine template 11 is the minimum is the position of the spine point candidate (hereinafter “ This is detected as “spine point candidate position” 12.
  • the spine point candidate position 12 is a position corresponding to the predetermined position P1 when the spine template 11 is aligned with the image 20 to be examined.
  • the predetermined threshold value may be set for each photographing or for each subject, and is set to 1000, for example.
  • the difference between the black and white gradation value of the image to be inspected 20 and the black and white gradation value of the spine template 11 is obtained for each pixel, and the position where the difference is minimized is The spine point candidate position 12 is detected.
  • the difference between the monochrome gradation value of the inspected image 20 and the monochrome gradation value of the spine template 11 is obtained for each area composed of a predetermined number of pixels (for example, an image area composed of four adjacent pixels).
  • a position (specifically, an image region) that minimizes the difference may be obtained as the spine point candidate position 12.
  • collation is performed while the spine template 11 is moved in the horizontal direction with respect to the inspected image 20, and the difference between the inspected image 20 and the spine template 11 is equal to or less than a predetermined threshold value. Then, the spine point candidate position 12 at which the difference between the image to be inspected 20 and the spine template 11 is minimized is obtained.
  • this “spine point candidate position 12” corresponds to the “minimum difference position” of the present invention.
  • the operation of detecting the spine point candidate position 12 while collating while moving the spine template 11 in the horizontal direction with respect to the image to be inspected along one horizontal line is the “candidate” of the present invention. This corresponds to “position detection operation”.
  • the spine point candidate position 12 obtained here is a candidate for a position through which the median line passes when the median line is detected on the inspection image 20 capturing the subject.
  • the operation of detecting the spine point candidate position 12 is performed on a predetermined image region (hereinafter also referred to as “evaluation target region”) in the inspected image 20 where it is estimated that the lung field and the spine are captured.
  • the predetermined evaluation target area is set to be an image area on the 102nd to 204th horizontal lines from the top of the inspected image 20.
  • the predetermined target area is (N / 5) from the top (N ⁇ 5) horizontal line (2 ⁇ N / 5). It is set so as to be an image area that reaches the main horizontal line.
  • the uppermost horizontal line in the predetermined evaluation target area is set as a movement reference line, and the spine template 11 is moved in the horizontal direction with respect to the image to be inspected 20 along the movement reference line. While collating, the operation of detecting the spine point candidate position 12 is performed. Next, the spine point candidate position 12 is collated while the spine template 11 is moved in the horizontal direction with respect to the image 20 to be inspected along a horizontal line below a predetermined pixel (for example, one pixel). An operation for detecting is performed. By repeating such an operation for the entire evaluation target region, the spine point candidate position 12 is detected for each horizontal line. That is, a sequence of points (spine point sequence candidates) consisting of a plurality of spine point candidate positions 12 is detected.
  • the spine point sequence candidate corresponds to a candidate indicating a sequence of points passing through the center line of the spine.
  • ⁇ degree is set to 1 degree and ⁇ degree is set to 30 degrees.
  • FIG. 4 is a diagram exemplifying a rotated inspection image obtained by rotating the inspection image 20 by ⁇ degrees counterclockwise.
  • the image to be inspected 20 is rotated to obtain each rotated image to be inspected, the monochrome gradation value of each pixel constituting the rotated image to be inspected is obtained by interpolation processing.
  • the spine point sequence candidate recognition operation for the rotated image to be inspected is similar to the above-described spine point sequence candidate recognition operation in one angular relationship described above, for example, the rotation inspected configuration including N horizontal lines. This is performed for the image region from the top (N / 5) horizontal line to the (2 ⁇ N / 5) horizontal line from the top of the image.
  • spine point sequence candidates that are candidates for the position of the midline are recognized for a plurality of angular relationships in which the relative angular relationship between the image to be inspected 20 and the spine template 11 is changed stepwise.
  • the spine point sequence candidate recognition operation is performed for each of the ⁇ / ⁇ rotated images to be inspected that are respectively obtained by rotating the image to each other. That is, only (2 ⁇ ( ⁇ / ⁇ ) +1) pairs of spine point sequence candidates and cumulative difference values are obtained.
  • a spine point sequence candidate having a smaller cumulative difference value can be said to be a spine point sequence candidate obtained in a state where the similarity between the image to be examined 20 and the spine template 11 is high. Therefore, here, the spine point sequence candidate combined with the minimum cumulative difference value is extracted as a candidate position related to the midline on the inspected image 20.
  • a straight line obtained by the least square method is detected as a median line of the inspected image 20 from the spine point sequence corresponding to the extracted minimum cumulative difference value.
  • FIG. 5 is a flowchart showing an operation flow in which the midline determination unit 3 according to the first embodiment determines a midline.
  • step S1 the to-be-inspected image 20 which acquired the lung field area
  • step S2 the spine template 11 is read from the storage unit 6.
  • step S3 the angle of the inspected image 20 is set to an initial value.
  • the angle of the image 20 to be inspected is based on the image 20 to be inspected, and the angle obtained by rotating the image 20 to be inspected counterclockwise around the center point 19 is rotated clockwise by a negative value.
  • the angle shall be expressed as a positive value.
  • the spine point sequence candidates are detected while the angle of the image to be inspected 20 is changed in increments of ⁇ degrees from ⁇ degrees to + ⁇ degrees, so in step S3, the initial image of the image to be inspected 20 is detected.
  • - ⁇ degree is adopted. Accordingly, in this step S3, a rotated inspection image is generated by rotating the inspection image 20 by - ⁇ degrees around the center point 19.
  • step S4 a horizontal line in which the upper side of the spine template 11 is matched when the collation is performed while moving the spine template 11 is set as the movement reference line.
  • step S4 the uppermost horizontal line in the evaluation target area of the rotated inspection image is set as the initial movement reference line.
  • step S5 the inspection image 20 and the spine template 11 are collated. Specifically, at each position where the spine template 11 is moved little by little along the movement reference line of the image to be inspected 20, the degree of inconsistency between the image to be inspected 20 and the spine template 11 is obtained.
  • step S6 when the inspected image 20 and the spine template 11 are in a positional relationship in which the degree of mismatch obtained in step S5 is equal to or less than a threshold value, the black and white gradation value of the inspected image 20 and the black and white of the spine template 11 are determined. The position where the difference from the gradation value is minimized is detected as the spine point candidate position 12.
  • step S7 it is determined whether the spine point candidate position 12 has been detected for the entire evaluation target region. If the spine point candidate position 12 is detected for the entire evaluation target region, the process proceeds to step S9, and if not detected, the process proceeds to step S8.
  • step S8 the movement reference line in the inspected image 20 is shifted downward by, for example, one horizontal line, and the process returns to step S5. That is, the processes in steps S5 to S8 are repeated until the spine point candidate position 12 is detected for the entire evaluation target region.
  • step S9 the total sum (cumulative difference value) of the difference between the black and white gradation value of the spine point sequence candidate composed of the plurality of spine point candidate positions 12 detected in step S6 and the black and white gradation value of the image area 11b is calculated.
  • step S10 it is determined whether or not the angle of the inspected image 20 has reached + ⁇ degrees. If the angle of the image to be inspected 20 has reached + ⁇ degrees, the process proceeds to step S12, and if not, the process proceeds to step S11.
  • step S11 the angle of the inspected image 20 is increased by + ⁇ degrees, and the process returns to step S4.
  • step S11 a rotated inspection image corresponding to the angle increased by + ⁇ degrees is generated.
  • Step S4 is performed until the angle of the image to be inspected 20 is changed from ⁇ degrees to + ⁇ degrees, and a set of (2 ⁇ ( ⁇ / ⁇ ) +1) spine point sequence candidates and accumulated difference values is obtained. The processes of S11 are repeated.
  • step S12 a combination with the minimum cumulative difference value (minimum cumulative difference value) is selected from the set of (2 ⁇ ( ⁇ / ⁇ ) +1) spine point sequence candidates and cumulative difference values obtained in step S9.
  • the selected spine point sequence candidates are extracted as the spine point sequence.
  • step S13 a straight line obtained by the method of least squares is determined from the spine point sequence corresponding to the minimum cumulative difference value extracted in step S12, and the operation flow ends.
  • the correct midline of the subject on the image is automatically obtained. Further, by using the spine template 11, a correct midline can be obtained efficiently.
  • the position of the median line in the image to be inspected is determined by collating the image to be inspected with the image pattern relating to the configuration of the lung field.
  • the median line determination unit 3 In the median line determination unit 3 according to the second embodiment, mainly (D) readout of a lung field template simulating the configuration of the spine, lung field, and body side, and (E) points along the spine in the image to be examined Processing is performed in the order of detection of column candidates and (F) determination of the position of the midline.
  • the midline position determination process according to the second embodiment is similar to the midline position determination process according to the first embodiment except that a lung field template is used. It has been adopted.
  • the midline determination unit 3 reads a lung field template prepared and stored in advance in the storage unit in order to detect a spine point sequence in the image to be inspected.
  • the lung field template corresponds to “an image pattern representing a body model of a specimen”.
  • the lung field template imitates a typical density pattern that appears on the image due to the X-ray density distribution when the lung field, spine region, and both left and right body sides are imaged.
  • FIG. 6 is a diagram illustrating the configuration of the lung field template 13.
  • the outer edge of the lung field template 13 has, for example, a rectangular shape.
  • the lung field template 13 corresponds to an area between the left lung field and the left body side, an image area 13a corresponding to an area between the right lung field and the right body side, and left and right lung field areas.
  • An image region 13b and an image region 13c corresponding to a region between the left lung field and the right lung field are configured. That is, the lung field template 13 includes the image region 13a, the image region 13b, the image region 13c, the image region 13b, and the image region 13a arranged in this order from the left.
  • the predetermined position of the image region 13c in the lung field template 13 is referred to as P2.
  • the “predetermined position P2” mentioned here includes, for example, the intersection of the diagonal lines of the lung field template 13, the center of gravity of the lung field template 13, the intersection of the diagonal lines of the image area 13c, and the center of gravity of the image area 13c. Can be mentioned.
  • the lung field template 13 has, for example, a size of 360 pixels in the horizontal direction and a size of 60 pixels in the vertical direction. Specifically, each image region 13a has a size of 40 pixels in the horizontal direction and a size of 60 pixels in the vertical direction. Each image region 13b has a size of 100 pixels in the horizontal direction and a size of 60 pixels in the vertical direction. The image region 13c has a size of 80 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • each pixel value of the lung field template 13 is represented by a black and white gradation value as in the inspected image.
  • the monochrome gradation value of the image area 13b is set to 0, which is the minimum value that can be taken by the monochrome gradation value in the inspection image 20
  • the monochrome gradation values of the image areas 13a and 13c are set to the inspection image.
  • 20 is set to 4095, which is the maximum value of the range that the monochrome gradation value can take.
  • the image to be examined and the lung field template 13 are collated.
  • the lung field template 13 is sequentially moved to a position where a predetermined pixel (for example, one pixel) is moved with respect to the inspected image along one direction (specifically, each horizontal line of the inspected image). Is set. Then, for each position where the lung field template 13 is set on the image to be examined, a degree of inconsistency between the image to be examined and the lung field template 13 is obtained.
  • FIG. 7 is a diagram illustrating a state in which matching is performed while the lung field template 13 is moved along each horizontal line of the image to be inspected.
  • the spine point candidate position 12a is detected for each horizontal line in the same manner as in the first embodiment with respect to a predetermined evaluation target region. That is, the spine point candidate position 12a is a position corresponding to the predetermined position P2 when the lung field template 13 is aligned with the image 20 to be examined. That is, a sequence of points (spine point sequence candidates) consisting of a plurality of spine point candidate positions 12a is detected. At this time, the total sum (cumulative difference value) of the difference between the monochrome tone value of the spine point sequence candidate and the image region 13c is calculated.
  • the operation flow in which the midline determination device 1 according to the second embodiment determines the midline is the same as the operation flow according to the first embodiment, and thus the description thereof is omitted here.
  • the correct midpoint of the subject on the image is automatically set.
  • a line is required. Further, by using the lung field template 13 that reflects a finer body structure than the spine template 11, the midline can be obtained more accurately.
  • the position of the median line in a to-be-inspected image is determined by collating with the to-be-inspected image and the image pattern which concerns on the structure of an abdominal part. First, after describing the method of determining the position of the midline in the midline determination unit 3, the operation flow will be described.
  • the midline determination unit 3 In order for the midline determination unit 3 to detect a sequence of points on the center line of the abdomen (hereinafter referred to as “abdomen midpoint sequence”) in the image to be inspected, an abdominal template prepared and stored in advance in the storage unit 6 is stored. Read out.
  • the abdomen template corresponds to “an image pattern representing a body model of a specimen”.
  • the abdominal template imitates a typical density pattern that appears on the image due to the X-ray density distribution when the abdomen is imaged using X-rays.
  • FIG. 8 is a diagram illustrating the configuration of the abdominal template 14.
  • the outer edge of the abdominal template 14 has, for example, a rectangular shape.
  • the abdomen template 14 includes an image region 14a corresponding to an outer region on the left body side and an outer region on the right body side, and an image region 14b corresponding to the abdomen region. That is, the abdominal template 14 is configured by arranging the image region 14a, the image region 14b, and the image region 14a in this order from the left.
  • the predetermined position of the image region 14b in the abdominal template 14 is referred to as P3.
  • the abdomen template 14 has a size of 340 pixels in the horizontal direction and a size of 60 pixels in the vertical direction, for example.
  • Each image area 14a has a size of 50 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • the image area 14b has a size of 240 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • each pixel value of the abdominal template 14 is represented by a black and white gradation value similarly to the inspected image.
  • the monochrome gradation value of the image area 14a is set to 0, which is the minimum value that can be taken by the monochrome gradation value in the inspection image
  • the monochrome gradation value of the image area 14b is set to the monochrome gradation value in the inspection image. It is set to 4095, which is the maximum value that can be taken.
  • the operation (abdominal midpoint sequence candidate detection operation) for detecting point sequence candidates on the center line of the abdomen (hereinafter referred to as “abdomen midpoint sequence candidate”) for the image to be inspected is performed by comparing the image to be inspected with the abdominal template 14. This is performed for each angular relationship while the specific angular relationship is sequentially changed. Therefore, here, the abdominal midpoint sequence candidate detection operation in the case where the relative angular relationship between the image to be inspected and the abdominal template 14 has a certain angular relationship will be described, and then the abdominal midpoint in each angular relationship will be described.
  • the column candidate detection operation will be described.
  • the abdominal midpoint sequence candidate detection operation In the abdominal midpoint sequence candidate detection operation, first, the image to be inspected is compared with the abdominal template 14. In this collation, the abdominal template 14 is sequentially moved to a position where a predetermined pixel (for example, one pixel) is moved with respect to the inspected image along one direction (specifically, each horizontal line of the inspected image). Is set.
  • a predetermined pixel for example, one pixel
  • each horizontal line of the image to be inspected corresponds to the “movement reference line” of the present invention, as in the first and second embodiments. Also in the present embodiment, when the abdominal template 14 is collated with the image to be inspected, a horizontal line in which the upper side of the abdominal template 14 is aligned is set as a movement reference line. Shall.
  • FIG. 9 is a diagram illustrating a state in which matching is performed while the abdominal template 14 is moved along each horizontal line of the image to be inspected.
  • the collation is performed while moving the abdominal template 14 along each horizontal line, and as a result, the positional relationship between the inspected image 20 and the abdominal template 14 that minimizes the degree of mismatch is detected. . That is, a positional relationship in which the image to be inspected 20 and the abdominal template 14 are most similar is detected.
  • the position corresponding to the predetermined position P3 of the abdominal template 14 in the inspected image 20 is the abdominal midpoint candidate.
  • the position 15 is detected.
  • the “predetermined position P3” mentioned here includes, for example, the intersection of diagonal lines of the abdominal template 14, the center of gravity of the abdominal template 14, the intersection of diagonal lines of the image area 14b, and the center of gravity of the image area 14b. .
  • an abdominal midpoint candidate position 15 corresponding to a predetermined position P3 of the abdominal template 14 is detected in the inspected image 20.
  • the abdominal midpoint candidate position 15 is a position corresponding to the predetermined position P3 when the abdominal template 14 is aligned with the image 20 to be examined.
  • the abdominal midpoint candidate position 15 is detected while the abdominal template 14 is collated with respect to the image to be examined while being moved in the horizontal direction along one horizontal line. This corresponds to the “candidate position detection operation” of the present invention.
  • the abdominal midpoint candidate position 15 obtained here is a candidate for the position where the midline passes when the midline is detected on the inspected image 20 capturing the subject.
  • the operation for detecting the abdominal midpoint candidate position 15 is performed in predetermined image regions (hereinafter referred to as “evaluation”) in the inspected image 20 where the left body side outside, the right body side outside, and the abdomen are captured. This is performed on a target area.
  • the predetermined evaluation target area is set to be an image area applied to the 1st to 128th horizontal lines from the bottom of the inspected image 20.
  • the predetermined target area is from the top (3 ⁇ N / 4) horizontal line to the Nth horizontal line. It is set to be an image area leading to
  • the uppermost horizontal line in the predetermined evaluation target area is set as a movement reference line, and the abdominal template 14 is moved in the horizontal direction along the movement reference line with respect to the inspected image 20.
  • the operation of detecting the abdominal midpoint candidate position 15 is performed while collating.
  • the abdomen midpoint candidate position is checked while the abdomen template 14 is moved in the horizontal direction with respect to the image 20 to be inspected along a horizontal line that is lower than a predetermined pixel (for example, one pixel).
  • the operation in which 15 is detected is performed.
  • the abdominal midpoint candidate position 15 is detected for each horizontal line. That is, a sequence of points (abdomen midpoint sequence candidates) including a plurality of abdominal midpoint candidate positions 15 is detected.
  • the abdominal midpoint sequence candidate corresponds to a candidate indicating a sequence of points passing through the center line of the abdomen.
  • each image obtained by rotating the inspection image 20 clockwise by ⁇ degrees up to ⁇ degrees around the center point 19 of the inspection image 20 ( Rotation-inspected image), and images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees (rotation-inspected images) about the center point 19,
  • Each column candidate recognition operation is performed.
  • the abdominal midpoint sequence candidate recognition operation for the rotated image to be inspected is similar to the above-described abdominal midpoint sequence candidate recognition operation in one angular relationship described above, for example, the rotation inspected composed of N horizontal lines This is performed on the image area from the top (3 ⁇ N / 4) horizontal line to the Nth horizontal line in the image.
  • abdominal midpoint sequence candidates that are candidates for the position of the midline are recognized with respect to a plurality of angular relationships in which the relative angular relationship between the image to be inspected 20 and the abdominal template 14 is changed stepwise.
  • the reference image 20 to be inspected, ⁇ / ⁇ rotated images to be inspected obtained by rotating the image 20 to be rotated clockwise, and the image 20 to be inspected counterclockwise.
  • An abdominal midpoint sequence candidate recognition operation is performed for each of the ⁇ / ⁇ rotated images to be inspected that are respectively obtained by rotating the images to each other. That is, only (2 ⁇ ( ⁇ / ⁇ ) +1) pairs of abdominal midpoint sequence candidates and cumulative difference values are obtained.
  • the minimum cumulative difference value (minimum cumulative difference value) ) are extracted as abdominal midpoint sequences.
  • An abdominal midpoint sequence candidate combined with a smaller cumulative difference value can be said to be an abdominal midpoint sequence candidate obtained in a state where the similarity between the image to be inspected 20 and the abdominal template 14 is high. Therefore, here, the abdominal midpoint sequence candidate combined with the minimum cumulative difference value is extracted as a candidate position related to the median line on the inspected image 20.
  • FIG. 10 is a flowchart illustrating an operation flow in which the midline determination unit 3 according to the third embodiment determines a midline.
  • step T1 the to-be-inspected image 20 which image
  • step T2 the abdominal template 14 is read from the storage unit 6.
  • step T3 the angle of the inspected image 20 is set to an initial value.
  • the angle of the image 20 to be inspected is based on the image 20 to be inspected, and the angle obtained by rotating the image 20 to be inspected counterclockwise around the center point 19 is rotated clockwise by a negative value.
  • the angle shall be expressed as a positive value.
  • the initial of the image 20 to be inspected is detected.
  • - ⁇ degree is adopted. Accordingly, in step T3, a rotated inspection image is generated by rotating the inspection image 20 by - ⁇ degrees around the center point 19.
  • step T4 a horizontal line in which the upper side of the abdominal template 14 is aligned when the collation is performed while moving the abdominal template 14 is set as a movement reference line in the rotated image to be inspected.
  • the uppermost horizontal line of the evaluation target area of the rotated inspection image is set as the initial movement reference line.
  • step T5 the inspection image 20 and the abdominal template 14 are collated. Specifically, the degree of inconsistency between the image to be inspected 20 and the abdominal template 14 is determined at each position where the abdominal template 14 is moved little by little along the movement reference line of the image to be inspected 20.
  • step T6 when the inspected image 20 and the abdominal template 14 are in a positional relationship that minimizes the degree of mismatch obtained in step T5, a predetermined position P3 (for example, the abdominal template 14 in the inspected image 20) , A position corresponding to the intersection of diagonal lines) is determined as the abdominal midpoint candidate position 15.
  • step T7 it is determined whether or not the abdominal midpoint candidate position 15 has been detected for the entire evaluation target region. If the abdominal midpoint candidate position 15 is obtained for the entire evaluation target region, the process proceeds to step T9, and if not, the process proceeds to step T8.
  • step T8 the movement reference line in the inspected image 20 is shifted downward by, for example, one horizontal line, and the process returns to step T5. That is, the processes of steps T5 to T8 are repeated until the abdominal midpoint candidate position 15 is obtained for the entire evaluation target region.
  • step T9 the sum total (cumulative difference value) of the difference between the black-and-white gradation value of the abdominal midpoint sequence candidate composed of the plurality of abdominal midpoint candidate positions 15 detected in step T7 and the black-and-white gradation value of the image area 14b is obtained. Calculated.
  • step T10 it is determined whether or not the angle of the inspected image 20 has reached + ⁇ degrees.
  • the process proceeds to step T12, and if not, the process proceeds to step T11.
  • step T11 the angle of the inspected image 20 is increased by + ⁇ degrees, and the process returns to step T4.
  • step T11 a rotated inspection image corresponding to the angle increased by + ⁇ degrees is generated. Until the angle of the image to be inspected 20 is changed from ⁇ degrees to + ⁇ degrees, and a set of (2 ⁇ ( ⁇ / ⁇ ) +1) abdominal midpoint sequence candidates and accumulated difference values is obtained. The processes from T4 to T11 are repeated.
  • step T12 the minimum accumulated difference value (minimum accumulated difference value) is selected from the set of (2 ⁇ ( ⁇ / ⁇ ) +1) abdominal midpoint sequence candidates and accumulated difference values obtained in step T9.
  • the combined abdominal midpoint sequence candidate is extracted as an abdominal midpoint sequence.
  • step T13 a straight line obtained by the least square method is determined as a median line of the inspected image 20 from the spine point sequence corresponding to the minimum cumulative difference value extracted in step T12, and this operation flow ends.
  • the subject on the image is automatically set.
  • the correct midline is required.
  • the midline is determined using the image area of the lung field, there is a possibility that the accuracy of obtaining the midline may be reduced when a lesion or abnormality exists in the lung. Even in such a situation, in the third embodiment in which the midline is determined using the abdominal image area, it is possible to correctly obtain the midline.
  • the position of the median line in the image to be inspected is determined by collating the image to be inspected with the image pattern relating to the configuration of the lung field. First, after describing the method of determining the position of the midline in the midline determination unit 3, the operation flow will be described.
  • the midline determination unit 3 reads a lung field model that is prepared and stored in the storage unit 6 in advance.
  • the lung field model corresponds to “an image pattern representing a body model of a specimen”.
  • the lung field model is a template related to the structure of the lung and is a template imitating a typical shape of the lung field.
  • a pattern indicating a typical midline model (hereinafter referred to as a “midline model pattern”) is added to the lung field model. That is, a midline model pattern is added at a predetermined position of the lung field model.
  • the lung field model is created by, for example, extracting a lung field outline (lung field outline) from image data of a subject photographed in the past.
  • a method for extracting the contour of the lung field region various known methods can be adopted.
  • a method for obtaining the contour of the lung field from the characteristic of density change in the X-ray image for example, Japanese Patent Laid-Open Publication No. 63-240832 etc.
  • other methods for example, see JP-A-2-250180 etc.
  • FIG. 11 is a diagram illustrating the configuration of the lung field model 16.
  • the lung field model 16 is configured by adding a midline model pattern 18 to an image including an image region (hereinafter also referred to as “lung field image region”) 17 surrounded by a lung field outline extracted by the above method.
  • the pixel value of the lung field model 16 is represented by a monochrome gradation value, as in the inspected image.
  • the black and white gradation value of the lung field image area 17 is set to 0, which is the minimum value that can be taken by the black and white gradation value in the image to be inspected. Not set at all.
  • ⁇ (K) Verification of image to be inspected and lung model The collation between the image to be examined and the lung field model 16 is performed for each angular relationship while the relative angular relationship between the image to be examined and the lung field model 16 is sequentially changed.
  • the lung field model 16 is a predetermined pixel (for example, one pixel) with respect to the image to be examined along one direction (specifically, each horizontal line of the image to be examined). ) Are sequentially set to the moved positions.
  • the similarity of the entire region where the lung field model 16 and the examination image overlap is obtained.
  • Specific methods for obtaining the similarity include, for example, a difference method (SAD), a least square sum method (SSD), a normalized cross correlation method (NCC), and the like. This collation is performed on the entire region of the inspection image 20.
  • FIG. 12 is a diagram illustrating a state where the image to be examined 20 and the lung field model 16 are in a similar positional relationship.
  • FIG. 13 is a flowchart showing an operation flow in which the midline determination apparatus 1 according to the fourth embodiment determines a midline.
  • the midline determination apparatus 1 when an instruction to determine a midline is transmitted from the operation unit 4 to the control unit 2, the process proceeds to step U1.
  • Step U1 the inspected image 20 obtained by photographing the lung field region of the subject is obtained by the obtaining unit 5, and the process proceeds to Step U2.
  • step U2 the lung field model 16 is read from the storage unit 6.
  • step U3 the angle of the inspected image 20 is set to an initial value.
  • the angle of the image 20 to be inspected is a negative value obtained by rotating the image 20 to be inspected counterclockwise around the center point with respect to the image 20 to be inspected. Is expressed as a positive value.
  • the initial value of the image 20 to be inspected is detected. , - ⁇ degrees are employed. Accordingly, in this step U3, a rotated inspection image is generated by rotating the inspection image 20 by - ⁇ degrees around the center point.
  • step U4 the image to be examined 20 and the lung field model 16 are collated. Specifically, the similarity between the image to be inspected 20 and the lung field model 16 is obtained at each position where the lung field model 16 is moved little by little along each horizontal line of the image to be inspected 20.
  • step U5 it is determined whether or not the angle of the inspected image 20 has reached + ⁇ degrees. If the angle of the image to be inspected 20 has reached + ⁇ degrees, the process proceeds to step U7, and if not, the process proceeds to step U6.
  • step U6 the angle of the inspected image 20 is increased by + ⁇ degrees, and the process returns to step U4.
  • step U6 a rotated inspection image corresponding to the angle increased by + ⁇ degrees is generated. Then, the processes in steps U4 to U6 are repeated until the angle of the image to be inspected 20 reaches + ⁇ degrees.
  • step U7 the inspected image 20 and the lung field model 16 are most similar in the positional relationship associated with the maximum similarity among the similarities obtained for each angular relationship in step U4. It is detected as a positional relationship (similar positional relationship).
  • step U8 when the inspected image 20 and the lung field model 16 are in a similar positional relationship, the position corresponding to the midline model pattern 18 of the lung field model 16 in the inspected image 20 (specifically, a straight line) Is determined as the midline of the image 20 to be inspected, and this operation flow ends.
  • the correct midpoint of the subject on the image is automatically set.
  • a line is required.
  • the median line is correctly set regardless of the image sharpness. Desired.
  • the position of the median line in the image to be inspected is determined by collating the image to be inspected with the image pattern relating to the configuration of the ribs.
  • the rib model stored in the storage unit 6 in advance is stored by the median line determination unit 3.
  • the rib model corresponds to “an image pattern representing the body model of the specimen”.
  • the rib model is a template related to the structure of the rib, and is a template imitating the typical shape of the rib. Further, a pattern (median line model pattern) indicating a model of the midline of a typical specimen is added to the rib model. That is, the midline model pattern of the specimen is added to a predetermined position of the rib model.
  • the rib model is created, for example, by extracting an image region (rib image region) that captures the rib from the image data of the image of the subject to be inspected in the past. If there is no image of the subject himself / herself taken in the past, a rib image of another person having a similar body size may be used as a rib model.
  • Various known methods can be adopted as a method for extracting such a rib image region. For example, first, an image (edge image) obtained by extracting an edge from an inspected image (chest image) obtained by photographing the chest using X-rays is generated, and the outer edge of the rib is extracted from the edge image. By detecting it, it is possible to extract a rib image area that captures the rib. It should be noted that a more accurate rib image region can be estimated by removing the influence of soft tissue other than bone (see, for example, JP-A-2007-105196).
  • FIG. 14 is a diagram illustrating the configuration of the rib model 22.
  • the rib model 22 is configured by adding a midline model pattern 24 to an image including the rib image area 23 extracted by the above method. Further, the pixel value of the rib model 22 is represented by a black and white gradation value as in the inspected image. For example, the black-and-white gradation value of the rib image area 23 is set to 4095, which is the maximum value that can be taken by the black-and-white gradation value in the image to be inspected. Not set. For the midline model pattern 24, only position information for the rib model 22 is set.
  • the rib model 22 has a predetermined pixel (for example, one pixel) for the image to be inspected along one direction (specifically, each horizontal line of the image to be inspected). Sequentially set to the moved positions.
  • each image is obtained by rotating the image to be inspected clockwise by ⁇ degrees up to ⁇ degrees around the center point of the image to be inspected.
  • the inspection is performed on each of the images (rotation inspected images) obtained by rotating the inspection image in steps of ⁇ degrees up to ⁇ degrees counterclockwise around the inspection point).
  • FIG. 15 is a diagram illustrating a state in which the image to be inspected 20 and the rib model 22 are in a similar positional relationship.
  • the operation flow in which the midline determination device 1 according to the fifth embodiment determines the midline is the same as the operation flow according to the fourth embodiment, and thus the description thereof is omitted here.
  • the correct midpoint of the subject on the image is automatically set.
  • a line is required.
  • the effect of the image sharpness on the accuracy of determining the median line is smaller, so the midline is correctly obtained regardless of the image sharpness. It is done.
  • the accuracy of obtaining the midline is reduced when a lesion or abnormality exists in the lung. Even in such a situation, in the fifth embodiment in which the midline is determined using the shape of the rib, it is possible to correctly obtain the midline.
  • FIG. 18 is a block diagram showing a configuration common to the embodiments applied to the median line determination device 2001.
  • the midline determination apparatus 2001 has a general computer configuration in which the control unit 2, the operation unit 4, the acquisition unit 5, the storage unit 6, and the display unit 7 are connected to the bus line 10. ing.
  • the control unit 2 is configured by, for example, a CPU, and determines the operation of the entire midline determination device 2001 by executing a program stored in the storage unit 6, gives a command to the entire midline determination device 2001, and further A display instruction is issued to the display unit 7 to be described later.
  • the control unit 2 also realizes functions of a setting unit 2020, an integrated value calculation unit 2030, and a determination unit 2040, which will be described later. With these functions, the control unit 2 determines the position of the midline of the subject to be captured captured in the image related to the acquired image data.
  • the functions of the determination unit 2040 are different from each other in the sixth to eleventh embodiments to be described later. Therefore, the functions according to the sixth to eleventh embodiments will be described as determination units 2040A to 2040F.
  • the inspected image acquired by the acquisition unit 5 is, for example, a square chest that is configured with 512 pixels in the vertical direction and 512 pixels in the horizontal direction. Will be described as an X-ray transmission image (chest simple X-ray image).
  • FIG. 19 is a block diagram illustrating a functional configuration of the determination unit 2040A. As illustrated in FIG. 19, the determination unit 2040A includes a recognition unit 2041A and a median line determination unit 2042A.
  • the setting unit 2020 sets an evaluation region for the image to be inspected, and the integrated value calculating unit 2030 calculates an integrated pixel value related to each vertical line included in the evaluation region. Then, the recognition unit 2041A recognizes the candidate position of the median line by obtaining the horizontal coordinate corresponding to the minimum value of the obtained integrated pixel values.
  • the operation of recognizing the midline candidate position for the inspected image is performed for each angular relationship while the relative angular relationship between the inspected image and the evaluation area is sequentially changed. Then, the median line determination unit 2042A determines the position of the median line from the median line candidate positions recognized for each angular relationship.
  • FIG. 20 is a diagram for explaining processing for determining a median line in the sixth embodiment.
  • the evaluation area 51A has, for example, a square shape in which the length of each side is half the length of each side of the image to be inspected 20 (here, 256 pixels).
  • each side of the image to be inspected 20 and each side of the evaluation region 51A are parallel to each other, and the center point 19 of the image to be inspected 20 matches the center point of the evaluation region 51A.
  • the length of each side of the evaluation region 51A is not limited to the half length of each side of the above-described inspected image 20, and can be set to an arbitrary length. The same applies to evaluation areas in other embodiments described later.
  • the integrated value calculation unit 2030 of the control unit 2 sets a pixel value corresponding to the amount (transmission amount) of X-rays transmitted through the subject as information indicating the internal structure of the body for the evaluation region 51A as a predetermined value.
  • the integrated pixel value integrated by the rule is calculated. The same applies to later-described embodiments.
  • the integrated pixel value is calculated by the integrated value calculation unit 2030 by integrating the pixel value for each pixel column along one direction of the evaluation region 51A.
  • the one direction is a direction along one side in the vertical direction of the evaluation region 51A.
  • the graph shown in FIG. 20 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation region 51A.
  • the vertical axis of the graph represents the integrated pixel value of each pixel column calculated by the integrated value calculation unit 2030.
  • the horizontal axis of the graph represents horizontal coordinates in the evaluation area 51A.
  • each pixel value of the image to be inspected 20 corresponds to the amount of X-ray transmitted through the subject (transmission amount), and is represented by a monochrome gradation value.
  • FIG. 20 of the present embodiment shows an example in which the pixel value increases as the amount of X-ray transmission increases. The same applies to other embodiments described later.
  • the shape of the evaluation region 51A can be an arbitrary shape, but by having a rectangular shape, the integrated pixel value can be calculated efficiently.
  • the recognizing unit 2041A obtains the horizontal coordinate corresponding to the minimum value of the obtained integrated pixel values. Specifically, the horizontal coordinate of the pixel row that minimizes the integrated pixel value is obtained. Then, a line that passes through the position related to the horizontal coordinate corresponding to the minimum value and extends along the vertical direction of the image 20 to be inspected is recognized as a candidate position (midline candidate position) 54 of the midline.
  • FIG. 21 is a diagram illustrating a rotated inspection image 60 obtained by rotating the inspection image 20 counterclockwise by ⁇ degrees.
  • ⁇ degree represents an angle deviated from the original image 20 to be inspected.
  • the setting unit 2020 rotates the image to be inspected 60 around the center point 19 of the image to be inspected 20 by rotating the image to be inspected 20 in increments of ⁇ degrees clockwise to ⁇ degrees, and An evaluation area 51A is set for each of the rotated inspected images 60 obtained by rotating the inspected image 20 counterclockwise in steps of ⁇ degrees around the center point 19. Therefore, the angular relationship between the image to be inspected 20 and the evaluation region 51A is changed by rotating the image to be inspected while the position where the evaluation region 51A is set is fixed.
  • ⁇ degree is set to 1 degree and ⁇ degree is set to 30 degrees. The same applies to other embodiments described later.
  • the integrated value calculation unit 2030 calculates the integrated pixel value for each pixel column for the evaluation region 51A, and the recognition unit 2041A recognizes the midline candidate position 54. Each is done. At this time, the corresponding integrated pixel values are stored in combination with respect to the respective midline candidate positions 54.
  • the median line determination unit 2042A determines, as the midline position, the median line candidate position 54 having the corresponding integrated pixel value that is the smallest among the median line candidate positions 54 recognized for each angular relationship by the recognition unit 2041A.
  • the minimum integrated pixel value (hereinafter referred to as the “total accumulated pixel value”).
  • the midline candidate position 54 combined with “minimum integrated pixel value”) is extracted and determined as the position of the midline.
  • FIG. 22 is a flowchart illustrating an operation flow in which the control unit 2 according to the sixth embodiment determines a median line.
  • step S2001 an image obtained by imaging the lung field region of the subject is acquired by the acquisition unit 5, and the process proceeds to step S2002.
  • step S2002 the angle of the inspected image 20 is set to an initial value.
  • the angle of the image 20 to be inspected is based on the image to be inspected 20 (0 degree), and the angle obtained by rotating the image 20 to be inspected counterclockwise around the center point 19 is a negative value and clockwise.
  • the rotated angle is expressed as a positive value.
  • the midline candidate position 54 is detected while the angle of the inspected image 20 is changed in increments of ⁇ degrees from ⁇ degrees to + ⁇ degrees, and therefore in step S2002, the inspected image 20 is inspected.
  • - ⁇ degree is adopted. Accordingly, in step S2002, a rotated inspection image 60 is generated in which the inspection image 20 is rotated by - ⁇ degrees around the center point 19.
  • step S2003 the evaluation area 51A is set on the rotated image 60 (rotation angle is - ⁇ degrees to + ⁇ degrees, excluding 0 degrees) or the inspection image 20 (rotation angle is 0 degrees).
  • step S2004 an integrated pixel value is calculated for each vertical pixel line in the evaluation area 51A.
  • step S2005 the midline candidate position 54 is recognized. Specifically, the position corresponding to the minimum value of the obtained integrated pixel values is obtained, passes through the position related to the horizontal coordinate corresponding to the minimum value, and the rotation inspected image 60 or the inspected image 20 A line along the vertical direction (specifically, a pixel line) is recognized as the midline candidate position 54.
  • step S2006 it is determined whether or not the angle of the inspected image 20 has reached + ⁇ degrees. If the angle of the image 20 to be inspected has reached + ⁇ degrees, the process proceeds to step S2008, and if not, the process proceeds to step S2007.
  • step S2007 the angle of the inspected image 20 is increased by + ⁇ degrees, and the process returns to step S2003.
  • step S2007 a rotated inspection image 60 corresponding to the angle increased by + ⁇ degrees is generated.
  • the angle of the inspected image 20 is 0 degree, the inspected image 20 is used as it is.
  • a set of (2 ⁇ ( ⁇ / ⁇ ) +1) midline candidate positions 54 and integrated pixel values is obtained. The processes of S2003 to S2007 are repeated.
  • step S2008 the minimum integrated pixel value (minimum integrated pixel value) is selected from the set of (2 ⁇ ( ⁇ / ⁇ ) +1) midline candidate positions 54 and integrated pixel values sequentially obtained in step S2005. ) Is extracted and determined as the position of the midline, and this operation flow ends.
  • the horizontal direction in which the accumulated pixel value is maximum in one direction of the evaluation areas set in the inspected image specifically, one area and the other area sandwiching the center line along the vertical direction. are obtained, and the position of the midline of the image to be inspected is determined based on the position corresponding to the middle of the obtained two coordinate positions.
  • FIG. 23 is a block diagram illustrating a functional configuration of the determination unit 2040B according to the seventh embodiment.
  • the determination unit 2040B includes a recognition unit 2041B and a median line determination unit 2042B, and further includes a detection unit 2043B.
  • the setting unit 2020 sets an evaluation region for the image to be inspected, and the integrated value calculating unit 2030 calculates an integrated pixel value related to each vertical line included in the evaluation region.
  • the detection unit 2043B detects the maximum value of the integrated pixel value for one and the other regions sandwiching the center line along the vertical direction of the inspection image in the evaluation region.
  • the recognition unit 2041B recognizes the candidate position of the median line by obtaining the horizontal coordinate corresponding to the two maximum values of the obtained integrated pixel values.
  • the operation of recognizing the midline candidate position for the image to be inspected is performed for each angle relationship while the relative angle relationship between the image to be inspected and the evaluation area is sequentially changed, as in the sixth embodiment. Then, the median line determination unit 2042B determines the position of the median line from the median line candidate positions recognized for each angular relationship.
  • FIG. 24 is a diagram for explaining processing for determining a median line in the seventh embodiment.
  • the evaluation area 51A has, for example, a square shape in which the length of each side is half the length of each side of the image to be inspected 20 (256 pixels).
  • the integrated value calculation unit 2030 of the control unit 2 integrates pixel values for each pixel column along one direction of the evaluation region 51A for the evaluation region 51A, as in the sixth embodiment. Each integrated pixel value is calculated.
  • the graph shown in FIG. 24 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation region 51A.
  • the vertical axis of the graph represents the integrated pixel value of each pixel column calculated by the integrated value calculation unit 2030.
  • the horizontal axis of the graph represents the horizontal coordinate in the evaluation region 51A of each pixel column corresponding to the integrated pixel value.
  • the detection unit 2043B obtains the maximum accumulated pixel values W2001 and W2002 for one and the other region sandwiching the center line 53 along the vertical direction of the inspection image 20 in the evaluation region 51A. To detect.
  • the center line 53 as a boundary line, the left area obtained by dividing the evaluation area 51A into two is defined as one area, and the right area is defined as the other area. Then, the maximum value W2001 is obtained for one area, and the maximum value W2002 is detected in the other area.
  • the recognition unit 2041B obtains horizontal coordinates corresponding to the two maximum values W2001 and W2002 of the obtained integrated pixel values.
  • a line (pixel line) along the vertical direction of the inspected image 20 corresponding to the middle between the horizontal coordinate corresponding to the maximum value W2001 and the horizontal coordinate corresponding to the maximum value W2002 is a midline candidate position. Recognized as 54.
  • the setting unit 2020 rotates the image to be inspected about the center point 19 of the image to be inspected 20 by rotating the image to be inspected 20 in increments of ⁇ degrees clockwise to ⁇ degrees, and the center.
  • An evaluation area 51A is set for each of the rotated inspection images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees around the point 19.
  • the integrated value calculation unit 2030 calculates the integrated pixel value related to each pixel column for the evaluation region 51A, and the detection unit 2043B detects the maximum integrated pixel value for each of the left and right regions.
  • a series of operations for detecting W2001 and W2002 and recognizing the midline candidate position 54 by the recognition unit 2041B are performed.
  • the corresponding integrated pixel values are stored in combination with the midline candidate position 54.
  • the median line determination unit 2042B determines, as the median line position, the median line candidate position 54 having the minimum corresponding accumulated pixel value among the median line candidate positions 54 recognized for each angular relationship by the recognition unit 2041B.
  • the midline candidate position 54 is extracted and determined as the position of the midline.
  • the integrated pixel value is minimum in one direction of the evaluation areas set in the image to be inspected, specifically, in the vicinity of one end and the vicinity of the other end that sandwich the center line along the vertical direction. Are obtained, and the position of the midline of the image to be inspected is determined based on the position corresponding to the middle of the obtained two coordinate positions.
  • the determination of the position of the median line is performed by each function of the setting unit 2020, the integrated value calculation unit 2030, and the determination unit 2040C of the control unit 2. As illustrated in FIG. 23, the determination unit 2040C includes a recognition unit 2041C, a median line determination unit 2042C, and a detection unit 2043C.
  • the setting unit 2020 sets an evaluation region for the image to be inspected, and the integrated value calculating unit 2030 calculates an integrated pixel value related to each vertical line included in the evaluation region.
  • the detection unit 2043C detects the minimum value of the integrated pixel value for one and the other regions sandwiching the center line along the vertical direction of the inspection image in the evaluation region.
  • the recognizing unit 2041C recognizes the candidate position of the median line by obtaining the horizontal coordinate corresponding to the two minimum values of the obtained integrated pixel values.
  • the operation of recognizing the midline candidate position for the image to be inspected is performed for each angle relationship while the relative angle relationship between the image to be inspected and the evaluation area is sequentially changed, as in the sixth embodiment. Then, the median line determination unit 2042C determines the position of the median line from the median line candidate positions recognized for each angular relationship.
  • the setting unit 2020 sets an evaluation region for the image to be inspected.
  • FIG. 25 is a diagram for explaining processing for determining a median line in the eighth embodiment.
  • the evaluation region 51 ⁇ / b> B is configured by 512 pixels having a long side direction that is the same length as each side of the image to be inspected 20, and a short side direction is 1 / length of each side of the image to be inspected 20. 4 has a rectangular shape composed of 128 pixels.
  • each side of the inspection image 20 and each side of the evaluation area 51B are parallel to each other, and the center point 19 of the inspection image 20 and the center point of the evaluation area 51B coincide with each other.
  • the shape of the evaluation region 51B can be set to an arbitrary shape as long as the lung field region and the region between both body sides and both arms are included.
  • the integrated value calculation unit 2030 of the control unit 2 performs pixel processing for each pixel column along one direction of the evaluation region 51B, specifically, the vertical direction of the image 20 to be inspected, as in the sixth embodiment. By integrating the values along the vertical direction of the evaluation area 51B, the integrated pixel values are respectively calculated.
  • the graph shown in FIG. 25 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation region 51B.
  • the vertical axis of the graph represents the integrated pixel value of each pixel column calculated by the integrated value calculation unit 2030.
  • the horizontal axis of the graph represents horizontal coordinates in the evaluation region 51B.
  • the detection unit 2043 ⁇ / b> C calculates the accumulated pixel value for the one-end vicinity region and the other-end vicinity region that sandwich the center line 53 along the direction along the vertical direction of the inspection image 20 in the evaluation region 51 ⁇ / b> B.
  • Minimum values T2001 and T2002 are detected.
  • the center line 53 as a boundary line, for example, a region around 1/4 of the length of the long side in the horizontal direction from the left end of the evaluation region 51B is set as a one-end vicinity region, and the region from the right end of the evaluation region 51B A region around 1/4 of the length of the long side in the direction is set as a region near the other end.
  • the minimum value T2001 is obtained for the region near one end, and the minimum value T2002 is detected in the region near the other end.
  • the recognition unit 2041C obtains horizontal coordinates corresponding to the two minimum values T2001 and T2002 of the obtained integrated pixel values. Then, in the inspected image 20, a line (pixel line) along the vertical direction of the inspected image 20 corresponding to the middle between the horizontal coordinate having the minimum value T2001 and the horizontal coordinate having the minimum value T2002. Is recognized as the midline candidate position 54.
  • the setting unit 2020 rotates the image to be inspected 60 around the center point 19 of the image to be inspected 20 by rotating the image to be inspected 20 in increments of ⁇ degrees clockwise to ⁇ degrees, and An evaluation area 51B is set for each of the rotated inspection images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees around the center point 19.
  • the integrated value calculation unit 2030 calculates the integrated pixel value related to each pixel column for the evaluation region 51B, and the detection unit 2043C detects the minimum integrated pixel value for each of the left and right regions.
  • a series of operations in which T2001 and T2002 are detected and the recognition unit 2041C recognizes the midline candidate position 54 are performed. At this time, the corresponding integrated pixel values are stored in combination with the midline candidate position 54.
  • the median line determination unit 2042C determines, as the midline position, the median line candidate position 54 having the minimum corresponding integrated pixel value among the median line candidate positions 54 recognized for each angular relationship by the recognition unit 2041C.
  • the midline candidate position 54 is extracted and determined as the position of the midline.
  • one direction of the evaluation regions set in the image to be inspected specifically, one region and the other region sandwiching the center line along the vertical direction are in the horizontal direction orthogonal to the vertical direction.
  • the determination of the position of the median line is performed by each function of the setting unit 2020, the integrated value calculation unit 2030, and the determination unit 2040D of the control unit 2. As illustrated in FIG. 23, the determination unit 2040D includes a recognition unit 2041D, a median line determination unit 2042D, and a detection unit 2043D.
  • the setting unit 2020 sets an evaluation region for the image to be inspected, and the integrated value calculating unit 2030 calculates an integrated pixel value related to each vertical line included in the evaluation region.
  • the detection unit 2043D has a direction orthogonal to the vertical direction of the image 20 to be inspected (specifically, one of the other regions sandwiching the center line along the vertical direction of the image to be inspected in the evaluation region). The rate of change of the integrated pixel value with respect to the change in coordinates along the horizontal axis) is obtained, and the maximum rate of change among these rates of change is detected.
  • the recognizing unit 2041C obtains the position of the horizontal coordinate corresponding to the two obtained maximum change rates, and recognizes the candidate position of the median line based on these.
  • the operation of recognizing the midline candidate position for the image to be inspected is performed for each angle relationship while the relative angle relationship between the image to be inspected and the evaluation area is sequentially changed, as in the sixth embodiment. Then, the median line determination unit 2042D determines the position of the median line from the median line candidate positions recognized for each angular relationship.
  • the setting unit 2020 sets an evaluation region for the image to be inspected.
  • FIG. 26 is a diagram for explaining processing for determining a median line in the ninth embodiment.
  • the evaluation region 51 ⁇ / b> C is configured by 512 pixels having a long side direction that is the same length as each side of the image to be inspected 20, and a short side direction is 1 / of the length of each side of the image to be inspected 20. 4 has a rectangular shape composed of 128 pixels.
  • each side of the image to be inspected 20 and each side of the evaluation area 51C are parallel to each other, and one side of the lower end of the image to be inspected 20 matches one side of the lower end of the evaluation area 51C.
  • the shape of the evaluation region 51C can be set to any shape as long as the lung field region is not included and the region between both body sides and both arms is included.
  • the integrated value calculation unit 2030 of the control unit 2 performs pixel processing for each pixel column along one direction of the evaluation region 51C, specifically, the vertical direction of the inspection image 20, as in the sixth embodiment. By integrating the values along the vertical direction of the evaluation area 51C, the integrated pixel values are respectively calculated.
  • the graph shown in FIG. 26 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation region 51C.
  • the vertical axis of the graph represents the integrated pixel value of each pixel column calculated by the integrated value calculation unit 2030.
  • the horizontal axis of the graph represents the horizontal coordinate in the evaluation area 51C of each pixel column corresponding to the integrated pixel value.
  • the detection unit 2043D determines the coordinates of the gradient along the accumulated pixel value, specifically, the direction orthogonal to the vertical direction of the image 20 to be inspected (specifically, the horizontal axis of the graph).
  • the rate of change of the integrated pixel value with respect to the change is obtained, and the maximum rate of change (maximum rate of change) U2001, U2002 is detected for both left and right regions. That is, the maximum change rate U2001 and U2002 of the integrated pixel value is detected for one and the other regions sandwiching the center line 53 along the vertical direction of the image 20 to be inspected in the evaluation region 51C.
  • the recognizing unit 2041D obtains horizontal coordinates corresponding to the two maximum change rates U2001 and U2002 of the obtained integrated pixel value.
  • a line along the vertical direction of the inspected image 20 corresponding to an intermediate point between the horizontal coordinate having the maximum change rate U2001 and the horizontal coordinate having the maximum change rate U2002 (specifically, Pixel line) is recognized as the midline candidate position 54.
  • the setting unit 2020 rotates the image to be inspected about the center point 19 of the image to be inspected 20 by rotating the image to be inspected 20 in increments of ⁇ degrees clockwise to ⁇ degrees, and the center.
  • An evaluation area 51C is set for each of the rotated inspection images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees around the point 19.
  • the integrated value calculation unit 2030 calculates the integrated pixel value related to each pixel column for the evaluation region 51C, and the detection unit 2043D follows the vertical direction in the evaluation region 51C.
  • the maximum change rate of the integrated pixel value with respect to the change in coordinates along the horizontal direction orthogonal to the vertical direction of the image to be inspected 20 is detected, respectively.
  • a series of operations for recognizing the line candidate position 54 is performed. At this time, the corresponding integrated pixel values are stored in combination with the midline candidate position 54.
  • the median line determination unit 2042 determines, as the midline position, the median line candidate position 54 that minimizes the corresponding integrated pixel value among the median line candidate positions recognized by the recognition unit 2041 for each angular relationship.
  • a midline candidate position 54 is extracted and determined as a midline position.
  • FIG. 27 is a block diagram illustrating a functional configuration of the determination unit 2040E according to the tenth embodiment.
  • the determination unit 2040E includes a recognition unit 2041E, a median line determination unit 2042E, and a detection unit 2043E, and further includes a difference calculation unit 2044.
  • the setting unit 2020, the integrated value calculation unit 2030, and the detection unit 2043E as in the seventh embodiment, one and the other regions sandwiching the center line along the vertical direction included in the evaluation region 51A Is processed until each maximum value of the integrated pixel values is detected.
  • the difference calculation unit 2044 calculates the difference between the two maximum values of the integrated pixel values detected by the detection unit 2043E.
  • the operation for calculating the difference between the two maximum values of the integrated pixel values for the inspected image is performed for each angular relationship while the relative angular relationship between the inspected image and the evaluation area is sequentially changed.
  • the recognizing unit 2041E recognizes the rotated inspection image corresponding to the angular relationship in which the difference between the two maximum values of the integrated pixel values is the minimum among the angular relationships. Then, the median line determination unit 2042E determines the position of the median line based on the rotated inspection image recognized by the recognition unit 2041E.
  • the integrated value calculation unit 2030 of the control unit 2 calculates the integrated pixel value of each pixel column in the evaluation region 51A, and as shown in FIG. 24, the detection unit 2043E For one and the other regions sandwiching the center line 53 along the vertical direction, the maximum values W2001 and W2002 of the integrated pixel values are detected.
  • the difference calculation unit 2044 calculates a difference between the maximum values W2001 and W2002 of the integrated pixel values detected by the detection unit 2043E.
  • the setting unit 2020 rotates the image to be inspected about the center point 19 of the image to be inspected 20 and rotates the image to be inspected clockwise by ⁇ degrees in increments of ⁇ degrees, and the center point.
  • An evaluation area 51A is set for each of the rotated inspection images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees centering on 19.
  • the integrated value calculating unit 2030 calculates the integrated pixel value
  • the detecting unit 2043E detects the maximum integrated pixel value W2001, W2002, respectively
  • the difference calculating unit 2044 The difference between the maximum value W2001 and the maximum value W2002 of the integrated pixel value is calculated for each angular relationship.
  • the recognizing unit 2041E has a rotational coverage corresponding to an angular relationship (difference minimum angle relationship) in which a difference (here, the absolute value of the difference) between the maximum value W2001 and the maximum value W2002 of the integrated pixel values is the minimum among the angular relationships. Recognize inspection images.
  • the median line determination unit 2042E calculates the horizontal coordinate and the maximum value W2002, which take the maximum value W2001, in the rotated inspection image (or the inspection image) corresponding to the difference minimum angle relationship recognized by the recognition unit 2041E.
  • a line along the vertical direction of the inspected image 20 corresponding to the middle of the horizontal coordinate is determined as a median line.
  • the minimum difference value among the (2 ⁇ ( ⁇ / ⁇ ) +1) differences obtained by the calculation operation of the difference between the maximum values W2001 and W2002 of the integrated pixel values in each angle relationship described above.
  • the corresponding rotated inspection image are extracted, and the position of the median line is determined.
  • the combination of the minimum accumulated pixel value and the median line candidate position corresponding to the middle between the horizontal coordinate taking the maximum change rate U2001 and the horizontal coordinate taking the maximum change rate U2002 is combined.
  • the midline candidate position is determined based on the sum of the maximum change rate U2001 and the maximum change rate U2002 of the integrated pixel value. .
  • FIG. 28 is a block diagram illustrating a functional configuration of the determination unit 2040F according to the eleventh embodiment.
  • the determination unit 2040F includes a recognition unit 2041F, a median line determination unit 2042F, and a detection unit 2043F, and further includes a total value calculation unit 2045.
  • the setting unit 2020, the integrated value calculation unit 2030, and the detection unit 2043F as in the ninth embodiment, one and the other regions sandwiching the center line along the vertical direction included in the evaluation region 51C are processed until the position at which the rate of change of the integrated pixel value with respect to the change in coordinates along the horizontal direction orthogonal to the vertical direction of the image to be inspected is detected is detected. Then, the total value calculation unit 2045 calculates the total value of the two maximum change rates of the integrated pixel values detected by the detection unit 2043F.
  • the operation of calculating the sum of the two maximum change rates of the integrated pixel values for the inspected image is performed for each angular relationship while the relative angular relationship between the inspected image and the evaluation area is sequentially changed.
  • the recognizing unit 2041F recognizes the rotated inspection image corresponding to the angular relationship in which the sum of the two maximum change rates is the maximum among the angular relationships. Then, the median line determination unit 2042F determines the position of the median line based on the rotated inspection image recognized by the recognition unit 2041F.
  • the setting unit 2020 of the control unit 2 sets an evaluation area 51 ⁇ / b> C on the inspection image 20.
  • the detection unit 2043F includes the evaluation region 51C in the evaluation region 51C as shown in FIG.
  • the maximum change rates U2001 and U2002 of the integrated pixel value are detected for one and the other region sandwiching the center line 53 along the vertical direction.
  • the total value calculation unit 2045 calculates the total value of the maximum change rate U2001 and the maximum change rate U2002 of the integrated pixel value detected by the detection unit 2043F.
  • the setting unit 2020 rotates the image to be inspected about the center point 19 of the image to be inspected 20 and rotates the image to be inspected clockwise by ⁇ degrees in increments of ⁇ degrees, and the center point.
  • An evaluation region 51C is set for each of the rotated inspection images obtained by rotating the inspection image 20 counterclockwise in steps of ⁇ degrees centering on 19.
  • the integrated value calculation unit 2030 calculates the integrated pixel value
  • the detection unit 2043F detects the maximum change rate U2001, U2002 of the integrated pixel value, and further, the total value calculation unit 2045.
  • a sum value with the maximum change rate U2001, U2002 of the integrated pixel value detected by the detection unit 2043F is calculated.
  • the recognizing unit 2041F recognizes an angular relationship (a combined value maximum angular relationship) in which the total value of the maximum change rate U2001 and the maximum change rate U2002 of the integrated pixel value is the maximum among the angular relationships.
  • the median line determination unit 2042F takes the horizontal coordinate and the maximum value of the maximum change rate U2001 in the rotation inspected image (or inspected image) corresponding to the combined value maximum angle relationship recognized by the recognizing unit 2041F.
  • the rotation inspected image corresponding to the maximum sum value is extracted, and the position of the median line is determined.
  • FIG. 30 is a block diagram showing a configuration common to the twelfth to seventeenth embodiments in which the present invention is applied to the midline determination device 3401.
  • This midline determination device 3401 is for X-ray image diagnosis of a human body. It is configured in a form incorporated in the information processing apparatus.
  • the midline determination device 3401 is a general hardware in which the control unit 2, the operation unit 4, the acquisition unit 5, the storage unit 6, and the display unit 7 are connected to the bus line 10 in hardware.
  • a program installed in the control unit 2 causes a function corresponding to the feature of the present invention. It can also be executed by installing a program stored in a recording medium in a computer.
  • the control unit 2 includes a CPU, for example, and determines the operation of the entire midline determination device 3401 by executing a program stored in the storage unit 6 and gives a command to the entire midline determination device 3401 Further, a display instruction is issued to the display unit 7 to be described later.
  • the control unit 2 also realizes the function of a determination unit 3440 described later. With these functions, the control unit 2 determines the position of the midline of the person to be inspected (specimen) that is a person or animal captured in the inspected image in the acquired image data of the inspected image.
  • the functions of the determination unit 3440 are different from each other in the twelfth to seventeenth embodiments to be described later.
  • the functions according to the twelfth to seventeenth embodiments will be described as determination units 3040A to 3040C and 4040A to 4040C.
  • the midline determination device 3401 of this embodiment assumes a case where the specimen is a human body, but even in the case where the specimen is an animal (vertebrate), in an image in which the spine direction of the animal is substantially vertical.
  • the midline is defined similarly.
  • the sample image is a front image or a back image including the chest of the sample.
  • the inspected image acquired by the acquiring unit 5 has, for example, a square shape including 512 pixels in the vertical direction and 512 pixels in the horizontal direction.
  • the X-ray transmission image (chest simple X-ray image) is obtained by simply capturing the chest and abdomen including the ribs on the body side of the specimen.
  • body side edges (abdominal edges) on the left and right sides of the abdominal region in the image data of the image to be inspected are extracted, and the midline of the specimen in the image to be inspected based on the information on the abdominal edge Is determined.
  • FIG. 31 is a block diagram illustrating a functional configuration of the determination unit 3040A.
  • the determination unit 3040A includes a binarization unit 3041, an edge extraction unit 3042, and a median line determination unit 3048A.
  • the determination unit 3040A determines the position of the midline of the specimen in the image to be inspected based on information on the left and right body sides of the abdominal region in the image data using these functions.
  • the binarization unit 3041 binarizes the image data and creates binary image data.
  • the edge extraction unit 3042 extracts body side edges (abdomen edges) on the left and right sides of the abdominal region in the binary image data.
  • the median line determination unit 3048A sets at least one line segment connecting corresponding points on the left and right abdominal edges, and based on the position passing through the pixel column corresponding to each midpoint of the at least one line segment. The position of the median line in the inspection image is determined.
  • processing is mainly performed in the order of binarization processing of image data, processing for extracting left and right abdominal edges, and processing for determining the position of the midline of the specimen.
  • these processing contents will be described in the order of processing steps shown in FIG. 39 as an overall flowchart.
  • Binarization processing of image data> when an instruction to determine the sample midline is transmitted from the operation unit 4 to the control unit 2 by the sample midline determination device 3401, an image 20 to be inspected that captures a region including the body side of the sample is displayed. It is acquired from the X-ray imaging apparatus 100 via the acquisition unit 5 (FIG. 32).
  • the binarization unit 3041 binarizes the image data by threshold processing, and creates binary image data. Specifically, the image data and the preset threshold value data are compared in size to create binary image data 21 (FIG. 33).
  • the threshold value can be set to 450 when, for example, each pixel of the image to be inspected is expressed in gradation by 12 bits. It is preferable that the threshold value is variable. In this case, the threshold value is appropriately changed for each specimen based on the operation input by the operator of the midline determination device 3401.
  • the binarization of the image not only prevents the detection position error by sharpening the edge corresponding to the body side, but also includes the meaning that the boundary of the body tissue is not misidentified as the body side edge. .
  • the edge extraction unit 3042 extracts the left and right body side edges (abdomen edges) in the binary image data 21.
  • the operation of extracting the left and right abdominal edges is performed on a predetermined image area, that is, an evaluation area, in which the abdomen is estimated to be captured in the inspected image 20.
  • the evaluation area 50 shown in FIG. 34 is, for example, an image in the range of the 1st to 128th horizontal lines from the bottom of the inspected image 20 composed of 512 pixels in the vertical direction and 512 pixels in the horizontal direction. It is set to be an area.
  • the evaluation area 50 is the Nth horizontal line from the top (3 ⁇ N / 4) horizontal line. It is set to be an image area leading to
  • the edge extraction unit 3042 applies the Sobel filter to the binary image data in the set evaluation region 50 to extract the left and right body side edges E1 and E2 of the abdominal region (FIG. 35).
  • Edge extraction can use a Prewitte filter, a Laplacian filter, a Roberts filter, or the like in addition to the Sobel filter.
  • the arm area is not included in the evaluation area 50.
  • the evaluation area 50 is operated by the operator of the midline determination apparatus 3401. Based on the input, it is appropriately changed for each specimen.
  • the midline determination unit 3048A sets at least one line segment (specifically, a plurality of horizontal line segments arranged at equal intervals) connecting corresponding points on the left and right abdominal edges E1 and E2, and at least one line segment is determined.
  • the position of the median line in the inspected image is determined based on the position passing through the pixel column corresponding to each midpoint of the line segment.
  • the midline determination unit 3048A has a corresponding point R1 on the right abdominal edge E1, E2 on the same horizontal line and on the left abdominal edge on the sample.
  • a corresponding line 3G1 that is a line segment connecting the corresponding points L1 is set.
  • corresponding points on the left and right abdominal edges existing on the same horizontal line in the evaluation region 50, such as a corresponding line 3G2 which is a line segment connecting the corresponding points R2 and L2.
  • corresponding lines 3G1, 3G2, 3G3... are set.
  • a midpoint group (3Q1, 3Q2,%) Composed of the midpoints 3Q1, 3Q2,... Of each corresponding line 3G1, 3G2,.
  • a straight line obtained by applying the least square method to the midpoint group (3Q1, 3Q2,%) Is taken as the midline of the specimen.
  • FIG. 37 shows a median line 30 obtained from the midpoint group (3Q1, 3Q2,).
  • a method of estimating a straight line using Hough transform or LMedS (Least Median of Squares) clustering may be used in addition to the least square method.
  • Hough transform or LMedS clustering the processing time increases compared to the case of using the least square method, but the straight line can be accurately estimated even when the number of midpoints is small. It becomes possible.
  • the control unit 2 causes the display unit 7 to display the inspection image 20 on which the linear image indicating the midline 30 is superimposed (FIG. 38).
  • the display unit 7 is a color display
  • the straight line image indicating the median line 30 is displayed in a color (for example, red) different from the color (for example, monochrome gray scale) for displaying the inspected image 20 in gradation. Is preferred.
  • the two-dimensional coordinate value of the midpoint group (3Qi) can be determined by calculating the average value of the respective X coordinate values and the average value of the respective Y coordinate values.
  • the position of the midline is determined based on information on the left and right sides of the body, so that it is difficult to be affected by the health condition of the specimen and the midline can be obtained correctly.
  • the position of the midline is determined based on the information on the body side in the abdominal region, for example, even when a foreign object enters the lung field of the sample and a white unclear region appears on the chest on the image to be examined Since it is not easily affected by the state of the organ of the specimen, the midline can be obtained correctly.
  • the position of the midline of the specimen in the image to be inspected is determined by collating two images of the image to be inspected and a predetermined template image.
  • FIG. 40 is a block diagram illustrating a functional configuration of the determination unit 3040B.
  • the determination unit 3040B includes a collation unit 3043 and a median line determination unit 3048B.
  • the collation unit 3043 includes a template setting unit 3044, a collation effective unit 3045, and a collation control unit 3046.
  • the determining unit 3040B determines the position of the midline of the specimen in the image to be inspected based on information on the body sides on the left and right sides of the abdominal region in the image data using these functions.
  • the collation unit 3043 performs collation between the image to be inspected and the predetermined template image while changing the relative position of the two images of the image to be inspected and the predetermined template image.
  • the median line determination unit 3048B determines the position of the median line in the inspected image based on the collation result by the collation unit 3043.
  • the setting process of the template image simulating the configuration of the abdominal region, the collation process between the image to be inspected and the template image, and the process of determining the position of the midline of the specimen are mainly performed. Processing is performed.
  • the collation process between the image to be inspected and the template image is performed by imposing at least one change condition on the relative angular relationship between the image to be inspected 20 and the template image and the size of the template image.
  • Template image setting processing First, when an instruction to determine the sample midline is transmitted from the operation unit 4 to the control unit 2 by the sample midline determination device 3401, an image to be inspected 20 (in which the region including the body side of the sample is imaged) ( 32) is acquired from the X-ray imaging apparatus 100 via the acquisition unit 5.
  • FIG. 41 is a diagram illustrating a configuration of the template image 3014.
  • the outer edge of the template image 3014 has, for example, a rectangular shape that is long in the horizontal direction.
  • the template image 3014 imitates (models) a typical density pattern that appears on the image due to the X-ray density distribution when the abdomen is imaged using X-rays.
  • the template image 3014 is a second image in which a second pixel value representing the extracorporeal part of the specimen is provided on both sides of the first region 3014b to which the first pixel value representing the abdominal part of the specimen is assigned.
  • An area 3014a is arranged and configured.
  • the template image 3014 has, for example, a size of 340 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • the second region 3014a has a size of 50 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • the first region 3014b has a size of 240 pixels in the horizontal direction and a size of 60 pixels in the vertical direction.
  • each pixel value of the template image 3014 is represented by a black and white gradation value similarly to the inspected image.
  • the monochrome gradation value of the second area 3014a is set to 0, which is the minimum value that can be taken by the monochrome gradation value in the inspected image
  • the monochrome gradation value of the first area 3014b is set to black and white in the inspected image.
  • the maximum value that can be taken by the gradation value is set to the maximum value (for example, 4095 when 512 ⁇ 512 pixels are expressed in gradation by 12 bits).
  • a “binary template image” (that is, expressed using only two specific levels in the same dynamic range as the multi-tone signal representing the image to be inspected) with respect to the multi-tone image to be inspected.
  • the reason for using the template image is to detect the body side as a boundary between the body and the outside of the body while representing the body part at a single density so as not to be affected by the shading distribution of the body part slightly different depending on the specimen.
  • the average concentration absolute density of the abdomen of the specimen obtained empirically by pre-imaging of many specimens
  • the density of the two regions 3014a and 3014b can be made variable and changed based on the operation input of the operation unit 4 by the operator.
  • the device 3401 can also be configured to do so.
  • the collation unit 3043 collates the two images while changing the relative positions of the two images of the inspected image 20 and the template image 3014.
  • the collation between the inspected image 20 and the template image 3014 is performed for each angular relationship while the relative angular relationship between the inspected image 20 and the template image 3014 is sequentially changed. Therefore, here, the collation process in the case where the relative angular relationship between the image to be inspected 20 and the template image 3014 is one specific angular relationship will be described, and then the collation processing in each angular relationship will be described.
  • the collation effective unit 3045 changes the spatial relative relationship between the inspected image 20 and the template image 3014.
  • the candidate position (passing point candidate position) of the passing point through which the median line passes is specified by comparing the image to be inspected 20 with the template image 3014.
  • FIG. 42 is a diagram illustrating a state in which matching is performed while the template image 3014 is moved.
  • an arrow F that conceptually integrates the main operation direction (X direction) and the sub operation direction (Y direction) for moving an image pattern such as the template image 3014 is attached.
  • the degree of matching between the image to be inspected 20 and the template image 3014 that is, the degree of similarity of the entire region where the template image 3014 and the image to be inspected 20 overlap each other.
  • the similarity can be expressed, for example, by a difference total value of luminance values (pixel values) for each pixel of the target region on the image to be inspected 20 and the template image 3014 using a difference method (SAD). In this case, when the difference total value is 0, the inspected image 20 and the template image 3014 are most suitable.
  • the evaluation region 50 shown in FIG. 34 is, for example, when the image 20 to be inspected is composed of N (N is a natural number) horizontal lines. Is set to be an image region from the top (3 ⁇ N / 4) horizontal line to the Nth horizontal line from the top.
  • the relative position between the template image 3014 and the image 20 to be inspected in the Y direction is set in one step (for example, one pixel). ) Is changed, and the process of performing movement verification by main scanning along the horizontal line at the new Y coordinate is repeated, and the entire scanning verification of the evaluation region 50 is completed.
  • the difference total value (similarity index) at each scanning position (X, Y) obtained as a result is D (X, Y)
  • the difference total value D (X, Y) having the same Y coordinate value It is determined whether or not any of them includes a threshold value Dth or less.
  • the difference total value D (X, Y) at the Y coordinate value is regarded as a group that does not correspond to the body side and is ignored.
  • the difference total value D (X, Y) includes a value that is equal to or less than the threshold value Dth, it is determined that the group corresponds to the body side part and corresponds to the Y coordinate value.
  • the template center position P (X, Y) that gives the smallest difference among the total difference values D (X, Y) to be registered is registered as a passing point candidate position (passing point candidate position) through which the median line passes.
  • the two points Pt1 and Pt2 illustrated in FIG. 42 are the template center positions at a plurality of positions of the template image 3014. For example, the point Pt1 is registered as one of the passing point candidate positions. Passing point candidate positions are registered.
  • the position where the difference total value D (X, Y) when the X coordinate value is changed is relatively “most” in the Y coordinate value. Even if the position is “adapted”, if the total difference value D (X, Y) is too large, the position may include not only the abdomen but also the chest and waist. Therefore, by using the threshold value Dth, a range that can be estimated as an abdomen in the Y direction is selected, and the passing point candidate position is specified only in the selected Y coordinate value range (basic abdomen range). It is.
  • the threshold value Dth may be a fixed value, or may be set for each photographing or for each subject based on the operation input of the operator of the midline determination device 3401. For example, when 512 ⁇ 512 pixels are expressed in gradation by 12 bits, the threshold value Dth is set to 1000.
  • the difference between the monochrome gradation value of the image to be inspected 20 and the monochrome gradation value of the template image 3014 is obtained for each pixel.
  • a position where the difference is minimum is detected as a passing point candidate position.
  • the difference between the monochrome gradation value of the image to be inspected 20 and the monochrome gradation value of the template image 3014 is obtained for each area composed of a predetermined number of pixels (for example, an image block composed of four adjacent pixels).
  • a position where the difference is minimum (specifically, an image region) may be obtained as a passing point candidate position.
  • collation is performed while the template image 3014 is moved in the horizontal direction with respect to the inspected image 20, and the difference between the inspected image 20 and the template image 3014 is equal to or less than a predetermined threshold value.
  • the passing point candidate position where the difference between the image to be inspected 20 and the template image 3014 is minimized is obtained by limiting to the positional relationship in the Y direction.
  • required here becomes a candidate of the position where a median line passes, when a median line is detected on the to-be-inspected image 20 which caught the subject.
  • the collation control unit 3046 causes the collation executing unit 3045 to perform collation by imposing at least one change condition on the change in the spatial relative relationship between the inspected image 20 and the template image 3014.
  • collation control unit 3046 collates the image 20 to be inspected with the template image 3014 and changes the relative angular relationship between the image 20 to be inspected and the template image 3014. For each angle relationship made.
  • the template image 3014 is rotated with a predetermined position on the inspection image 20 as a rotation center. Matching is performed by rotating the template image 3014 clockwise and counterclockwise in increments of ⁇ degrees up to ⁇ degrees.
  • ⁇ degree is set to 1 degree
  • ⁇ degree is set to 30 degrees.
  • the angles ⁇ and ⁇ are arbitrarily set based on an operation input by the operator.
  • FIG. 43 is a diagram showing an example in which the template image 3014 is collated by rotating it ⁇ degrees counterclockwise at the position Pr.
  • a template image 3014 with each of a plurality of positions (black circle positions in FIG. 43A) distributed along the height direction (Y direction) of the specimen on the image to be inspected 20 as the rotation center. Rotate. Further, the rotation center may be moved in the + X direction from the position Pr to be set as the position Ps, and further rotated in increments of ⁇ degrees clockwise and counterclockwise in increments of ⁇ degrees to perform two-dimensional verification (FIG. 43 (b)).
  • Such rotation collation may be performed using each point (template center position at each translation collation position) for translation collation as shown in FIG. 42 as the center of rotation, and as shown in FIG.
  • a plurality of preset positions may be used alone as the respective rotation centers.
  • the accuracy of determining the midline is higher when the plurality of rotation center positions are distributed two-dimensionally, but may be a one-dimensional distribution as long as they are arranged along the height direction (Y direction) of the specimen.
  • the height direction (Y direction) is preferentially selected because, if the distribution is in the Y direction, any center of rotation is not greatly deviated from the midline to be finally obtained. This is because it functions particularly effectively.
  • the center of rotation is distributed only in the body width direction, a position that is relatively close to the body side is included in the center of rotation, so that even if the template image 3014 is slightly rotated, the template image 3014 cannot be matched with the body side. Because.
  • Each of a plurality of positions (Pr1,..., Pr,..., And Ps1,... Ps,... Distributed along the height direction of the specimen on the image 20 to be inspected is set as the rotation center.
  • the gradation value of each pixel constituting the inspected image 20 is obtained by interpolation processing.
  • the pixel value of the template image 3014 corresponding to each pixel of the template image 3014 can be determined by performing the interpolation process. Note that in this rotation collation, an inclination that is a positive or negative integer multiple of the angle ⁇ is given, but when the integer value is zero, that is, when the longitudinal direction of the template image 3014 matches the horizontal X direction, it is included in the collation target.
  • This rotation collation means that when the specimen (inspected person) is not upright in the inspected image 20, the inclination is taken into consideration to determine the midline. Such an inclination is not only when the inspector's own posture is inclined at the time of imaging, but particularly when a portable X-ray imaging apparatus is used, the X-ray imaging apparatus is inclined with respect to the inspected person. Rotation verification is effective in either case. Also in the rotation collation, a similarity index value similar to that of the translation collation described in FIG. 42 and the like is used, and an angle (fit angle) that gives the minimum similarity index value at each rotation center is determined. It is the fit angle at the center of rotation at that time.
  • the fit angle is determined at each of the rotation centers, but when this rotation verification is performed alone, a straight line that passes through the rotation center position that gives the smallest similarity index value and is tilted by the fit angle at that time is used. Can be defined as a midline.
  • collation control unit 3046 collates at least one template image whose size has been changed with image 20 to be inspected.
  • FIG. 44 is a diagram illustrating a template image 3015 obtained by enlarging the template image 3014 by 1.2 times in the vertical direction and the horizontal direction.
  • each passing point candidate position (for example, the position Pe in FIG. 44) is specified by collating the template images of different sizes with the image 20 to be inspected.
  • the operation of detecting the passing point candidate position is performed for each angular relationship in which the relative angular relationship with the image to be inspected 20 is changed stepwise. It may be broken.
  • the median line determination unit 3048A is identified by the matching process performed under at least one change condition among the relative angular relationship between the image to be inspected 20 and the template image, the size of the template image, and the like. Based on the passing point candidate position, the position of the median line in the inspected image 20 is determined.
  • the similarity index value is a four-dimensional distribution having four arguments of X, Y, ⁇ , e as D (X, Y, ⁇ , e). Then, a combination (Xm, Ym, ⁇ m, em) that gives the minimum value is specified.
  • one of the plurality of passing point candidate positions is determined as the passing point P (Xm, Ym).
  • a straight line passing through the passing point P (Xm, Ym) and inclined at the angle ⁇ m is determined as a median line.
  • a straight line parallel to the Y direction is determined only by translation collation and scaling collation, and its slope is on the straight line.
  • the processing amount can be reduced and the processing speed can be increased.
  • FIG. 45 is a diagram for explaining the combination processing as described above for determining the position of the midline by the midline determination unit 3048A.
  • the monochrome gradation value of the image 20 to be inspected and the monochrome gradation value of the template image The position where the difference is minimum is detected as the passing point P.
  • the inclination angle ⁇ degree of the template image from which the passing point candidate position detected as the passing point P is obtained and the vertical straight line K along the height direction of the specimen on the image 20 to be inspected is the result of the rotation verification. As required. Then, based on the passing point P and the inclination angle ⁇ degrees, the position of the midline 30 of the specimen in the inspection image is determined.
  • a two-dimensional pixel value distribution in a predetermined region of an image to be inspected is compressed into a one-dimensional pixel value distribution by cumulatively projecting in a predetermined projection direction, thereby generating a one-dimensional pixel value. Based on the position of the feature point in the distribution, the position of the midline of the specimen in the image to be examined is determined.
  • FIG. 47 is a block diagram illustrating a functional configuration of the determination unit 3040C.
  • the determination unit 3040C includes a setting unit 3047 and a median line determination unit 3048C.
  • the determination unit 3040C determines the position of the midline of the specimen in the image to be inspected based on the information on the left and right body sides of the abdominal region in the image data, using these functions.
  • the setting unit 3047 sets a two-dimensional evaluation area for the image to be inspected.
  • the midline determination unit 3048C recognizes at least one candidate position of the midline of the sample based on the two-dimensional pixel value distribution in the evaluation region, and determines the midline of the sample from these candidate positions.
  • processing is mainly performed in the order of the process of recognizing the candidate position of the sample midline and the process of determining the position of the sample midline.
  • the setting unit 3047 sets a two-dimensional evaluation region 51 for the region of the inspected image 20 where the abdomen is estimated to be captured (FIG. 48).
  • the process of recognizing the candidate position of the sample midline is performed on the evaluation area 51.
  • the evaluation region 51 is configured by 512 pixels whose long side direction is the same length as each side of the image 20 to be inspected, and whose short side direction is to be inspected.
  • the image 20 has a rectangular shape composed of 128 pixels corresponding to 1/4 of the length of each side.
  • each side of the image to be inspected 20 and each side of the evaluation area 51 are parallel to each other, and one side of the lower end of the image to be inspected 20 matches one side of the lower end of the evaluation area 51.
  • the shape of the evaluation region 51 any shape can be used based on the operator's operation input as long as the lung field region is not included and the region between both body sides and both arms is included. Can be set.
  • the operation of recognizing the midline candidate position for the inspected image 20 is performed for each angular relationship while the relative angular relationship between the inspected image 20 and the evaluation area 51 is sequentially changed. Then, the median line determination unit 3048C determines the position of the median line from the median line candidate positions recognized for each angular relationship.
  • FIG. 49 is a diagram for explaining processing for determining a median line in the fourteenth embodiment.
  • the median line determination unit 3048C cumulatively projects the two-dimensional pixel value distribution in the evaluation region 51 in a predetermined projection direction that is relatively fixed with respect to the evaluation region 51, thereby converting the two-dimensional pixel value distribution into the one-dimensional pixel value distribution. And the candidate position of the median line is recognized based on the position of the feature point in the one-dimensional pixel value distribution.
  • the midline determination unit 3048C creates a histogram by cumulatively projecting the two-dimensional pixel value distribution with the vertical direction of the evaluation area 51 as the projection direction. Specifically, for each pixel column (for example, a pixel column on the line La) along the vertical direction of the image 20 to be inspected, the pixel values are cumulatively integrated along the vertical direction of the evaluation region 51 to obtain 1 An integrated pixel value (Na for the line La) that is a dimensional pixel value distribution is calculated.
  • the graph shown in FIG. 49 is a graph showing the relationship between the accumulated pixel value and the horizontal coordinate of the evaluation area 51.
  • the vertical axis of the graph represents the integrated pixel value of each pixel column calculated by the midline determination unit 3048C.
  • the horizontal axis of the graph represents the horizontal coordinate in the evaluation region 51 of each pixel column corresponding to the integrated pixel value.
  • the median line determination unit 3048C is along the gradient value of the integrated pixel value, specifically, the direction orthogonal to the vertical direction of the image 20 to be inspected (specifically, the horizontal axis of the graph).
  • the rate of change of the integrated pixel value with respect to the change of coordinates is obtained, and the maximum rate of change (maximum rate of change) U3001, U3002 is detected for both the left and right regions. That is, the maximum change rate U3001 and U3002 of the integrated pixel value are detected for one and the other regions of the evaluation region 51 that sandwich the center line 53 along the vertical direction of the image 20 to be inspected.
  • the midline determination unit 3048C obtains horizontal coordinates corresponding to the two maximum change rates U3001 and U3002, which are feature points of the obtained integrated pixel value. Then, in the inspected image 20, a line along the vertical direction of the inspected image 20 corresponding to the middle between the horizontal coordinate taking the maximum change rate U3001 and the horizontal coordinate taking the maximum change rate U3002 (specifically Pixel line) is recognized as the midline candidate position 54.
  • the operation of recognizing the midline candidate position 54 as described above is performed for each angular relationship in which the angular relationship between the image to be inspected 20 and the evaluation region 51 is changed.
  • FIG. 50 is a diagram illustrating a rotated inspection image 60 obtained by rotating the inspection image 20 counterclockwise by ⁇ degrees.
  • ⁇ degree represents an angle deviated from the original image 20 to be inspected.
  • the setting unit 3047 rotates the image to be inspected 60 around the center point 19 of the image to be inspected 20 by rotating the image to be inspected 20 in increments of ⁇ degrees clockwise to ⁇ degrees, and An evaluation area 51 is set for each of the rotated inspected images 60 obtained by rotating the inspected image 20 counterclockwise in steps of ⁇ degrees around the center point 19.
  • the median line determination unit 3048C calculates the integrated pixel value for each pixel column for the evaluation region 51, and sandwiches the center line 53 along the vertical direction in the evaluation region 51.
  • a series of operations for detecting the maximum change rate of the integrated pixel value with respect to a change in coordinates along the horizontal direction orthogonal to the vertical direction of the image to be inspected for one and the other region, and further recognizing the midline candidate position 54 Each is done. At this time, corresponding accumulated pixel values are combined and stored in the storage unit 6 for the midline candidate position 54.
  • the midline determination unit 3048C determines, as the midline position, the midline candidate position 54 having the minimum corresponding integrated pixel value among the midline candidate positions 54 recognized for each angular relationship.
  • the midline of the specimen on the image to be inspected can be accurately obtained in the fourteenth embodiment as in the twelfth embodiment.
  • a rib edge (rib edge) is extracted from image data, and the inclination of the rib edge and a rib image group with respect to a predetermined reference direction (typically, the coordinate axis direction of a rectangular image) in the image to be inspected.
  • the position of the midline of the specimen in the image to be inspected is determined based on the position of the representative point of the spatial distribution.
  • FIG. 55 is a block diagram illustrating a functional configuration of the determination unit 4040A.
  • the determination unit 4040A includes a labeling unit 4041A, an inclination calculation unit 4042, a center position calculation unit 4043, and a median line determination unit 4044A.
  • the determination unit 4040A determines the position of the midline of the specimen in the image to be inspected based on information related to the ribs in the image data by using these functions.
  • the labeling unit 4041A performs extraction of the rib edge and labeling of the rib edge from the image data.
  • the inclination calculation unit 4042 calculates the inclination of the rib edge with respect to a predetermined reference direction in the inspected image.
  • the center position calculation unit 4043 calculates the center position of the spatial distribution of the rib image group in the inspected image.
  • the median line determination unit 4044A determines the position of the median line in the image to be inspected based on the inclination and size of the rib edge.
  • the determination unit 4040A mainly the rib edge extraction and labeling process in the image data, the process of calculating the inclination of the rib edge, the process of calculating the size of the rib in the inspected image in the predetermined direction, the specimen
  • the processing is performed in the order of the processing for determining the position of the median line.
  • these processing contents will be described in the order of processing steps shown in FIG. 63 as an overall flowchart.
  • the labeling unit 4041A performs extraction of the rib edge and labeling of the rib edge from the image data of the image to be inspected.
  • the labeling unit 4041A applies a Sobel filter to the processed image data and extracts only the lower edge of each rib (FIG. 56).
  • Edge extraction can use a Prewitte filter, a Laplacian filter, a Roberts filter, or the like in addition to the Sobel filter. Further, only the upper edge of each rib may be extracted.
  • the labeling unit 4041A labels the lower edge of each extracted rib.
  • FIG. 57 is a diagram conceptually showing labeling of each rib edge.
  • an odd label number (1), (3), (5)
  • An even label number ((2), (4), (6))
  • the right first rib has a label number (1)
  • the left first rib has a label number (2)
  • the right second rib has a label number (3)
  • the left second rib has a label number (3).
  • the label number (4) is added.
  • the midline has not been detected yet, so the “right side of the specimen” and “left side of the specimen” here are determined from the relative left-right relationship of the detected rib edges.
  • necessary label identifiers can be added as appropriate.
  • the inclination calculation unit 4042 calculates the inclination for each rib edge that has been labeled.
  • the left and right reference lines are set from the rib edge.
  • a right lung field reference line CR (FIG. 58) as a reference line on the right rib side
  • a left lung field reference line CL (FIG. 59) which is a reference line on the left rib side are set.
  • FIG. 58A is a diagram showing the right lung field reference line CR set on the image coordinate system of the image to be inspected 20.
  • the image coordinate system of the image to be inspected 20 has the upper left corner as the origin (0, 0), and the horizontal direction (X direction) and the lower direction (Y direction) are respectively positive directions ( +). The same applies to the drawings after FIG.
  • the right first rib which is the rib located at the upper right of the specimen, passes through the coordinate value x1 in the X direction and is parallel to the Y axis direction. Draw a line. This line is taken as the right lung field reference line CR.
  • the right rib edge (curve) as shown in FIG. 58B is approximated by using the least square method.
  • Straight lines BR1, BR2, BR3,... Are obtained, and inclination angles R ⁇ 1, R ⁇ 2, R ⁇ 3,... Of the straight lines BR1, BR2, BR3,.
  • FIG. 59A is a diagram showing the left lung field reference line CL set on the image coordinate system of the image 20 to be inspected.
  • the left first rib label number (2) which is the rib located at the upper left of the specimen passes through the coordinate minimum value x2 in the X direction and is parallel to the Y axis direction.
  • Draw a line This line is defined as a left lung field reference line CL.
  • each left rib edge located on the + X direction side from the left lung field reference line CL a straight line approximating each left rib edge (curve) as shown in FIG. 59B using the least square method.
  • BL1, BL2, BL3, the inclination angles L ⁇ 1, L ⁇ 2, L ⁇ 3,... Of these approximate straight lines BL1, BL2, BL3,.
  • an average value ⁇ 2 of the inclination angles L ⁇ 1, L ⁇ 2, L ⁇ 3,... Of each left rib edge is obtained and set as the left rib inclination.
  • rib image group center position x of the center position in the spatial distribution of the rib image group in the x direction and the y direction (hereinafter referred to as “rib image group center position”). Calculate the coordinates. Specifically, the minimum value x3 and the maximum value x4 of the X coordinate as shown in FIG. 60 are detected from all labeled rib edge regions, and the average value of the minimum value x3 and the maximum value x4 is detected. Let x5 be the X coordinate of the center position of the rib image group.
  • the minimum value y3 and the maximum value y4 of the Y coordinate are detected from all the labeled rib edge regions, and the average value y5 of the minimum value y3 and the maximum value y4 is calculated, and this is calculated.
  • the Y coordinate of the image group center position is used.
  • the midline determination unit 4044A determines the position of the midline of the specimen in the image to be inspected based on the calculated inclination angles ⁇ 1 and ⁇ 2 of the rib edges and the coordinate values x5 and y5 of the rib image group center position. . First, the midline determination unit 4044A sets a midline passing point Pc (x5, y5) that is one point through which the midline passes from the average values x5 and y5 calculated by the center position calculation unit 4043.
  • the midline determination unit 4044A calculates the midline inclination angle ⁇ 3 from the average value ⁇ 1 of the inclination angles of the right rib edges and the average value ⁇ 2 of the inclination angles of the left rib edges calculated by the center position calculation unit 4043. Set as the following formula (1).
  • FIG. 61 is a diagram illustrating an example in which the median line 30 is determined based on the median line passing point Pc (x5, y5) and the midline inclination angle ⁇ 3.
  • the control unit 2 causes the display unit 7 to display the inspection image 20 on which the linear image indicating the midline 30 is superimposed (FIG. 62).
  • the display unit 7 is a color display
  • the straight line image indicating the median line 30 is displayed in a color (for example, red) different from the color (for example, monochrome gray scale) for displaying the inspected image 20 in gradation. Is preferred.
  • the position of the midline is determined based on the information related to the ribs, so that it is difficult to be affected by the health condition of the examinee and the midline can be obtained correctly.
  • the position of the midline is determined based on information on a large number of rib edges, the error is statistically canceled out, and the midline can be obtained particularly accurately.
  • the rib edges are extracted from the image data of the image to be inspected, the midpoints of the left rib edge and right rib edge pairs corresponding to each other are obtained for each pair, and the pixels corresponding to those midpoint groups Based on the line passing through the row, the position of the midline of the specimen in the image to be examined is determined. The following description will be centered on the differences from the fifteenth embodiment.
  • the determination of the position of the median line in the sixteenth embodiment is performed by the determination unit 4040B (FIG. 64) of the control unit 2.
  • the determination unit 4040B includes a labeling unit 4041B, a radius point detection unit 4045, and a median line determination unit 4044B.
  • the radial point detection unit 4045 sets “radial point” as a representative point for each labeled radial edge, and between the corresponding left radial edge and right radial edge, Perform the association.
  • the radius point detection unit 4045 obtains a position having the maximum Y coordinate value on each labeled rib edge and sets these points as radius points.
  • the radius point (1) represents the radius point with label number (1)
  • the radius point (2) represents the radius point with label number (2).
  • a criterion for distinguishing the existence area of each right rib edge existing on the right side of the specimen in the image to be inspected from the existence area of the left rib edge existing on the left side of the specimen As the lines, a right lung field reference line CR and a left lung field reference line CL similar to those in FIGS. 58 and 59 are set.
  • a rib point (right lung field side rib point) having an X coordinate value smaller than the X coordinate value x1 of the right lung field reference line CR is obtained (FIG. 66).
  • the rib point on the left rib edge corresponding to the calculated right lung field side rib point is obtained.
  • a region (left lung field side candidate region) existing in a region having a large coordinate value is set.
  • FIG. 67 is a diagram for explaining processing for obtaining the radius point on the left radius edge corresponding to the radius point (1).
  • the left lung field side candidate region FL1 is a rectangular region having a short side parallel to the Y axis and a long side parallel to the X axis, and is indicated by a hatched portion in FIG.
  • the left lung field candidate region FL1 has a short side size of 10 pixels when the value of ⁇ is 5 pixels.
  • the value of ⁇ is preferably variable. In this case, the value of ⁇ is appropriately changed for each specimen based on the operation input of the operator of the midline determination device 3401.
  • the rib point (2) existing on the left lung field side candidate region FL1 is obtained, and the rib point (2) corresponds to the rib point (1).
  • a point By performing this operation at all the right lung field side rib points, it is possible to associate the rib points between the left rib edge and the right rib edge.
  • FIG. 68 is a diagram illustrating an example in which the radius point does not exist on the left lung field side candidate region FL1. Since there are a large number of ribs on the left and right (12 in the case of a human body), other pairs of left and right rib points can be detected even if the rib points cannot be partially associated. For this reason, even if the corresponding rib points cannot be detected for some ribs, there is no problem in the midline specifying process as described later.
  • rib points (right rib points) existing on the right rib edge are first specified, and rib points (left rib points) on the left rib edge corresponding to them are obtained.
  • the left rib points may be specified first, and the right rib points corresponding to them may be obtained.
  • the midline determination unit 4044B selects “ Set the corresponding line. Then, the position passing through the pixel column corresponding to the midpoint of each corresponding line segment is determined as the position of the median line.
  • FIG. 69 is a diagram showing the corresponding line 4G1 obtained between the label number (1) and the label number (2).
  • the midpoint of the corresponding line 4G1 is 4Q1.
  • the X coordinates of the two end points of the corresponding line 4G1 shown in FIG. 69 are the same as the X coordinates of the radius point (1) and the radius point (2).
  • the range of the X coordinates of the two end points of the corresponding line 4G1 is from x6 to x7.
  • the processing for obtaining the corresponding line 4G1 is performed between each left rib edge and right rib edge on which all the corresponding corresponding rib point pairs are on.
  • a corresponding line is not calculated
  • the corresponding line may be obtained by directly connecting the two points of the corresponding rib point pair with a straight line without using the line segment approximating the left and right rib edges.
  • FIG. 70 shows the corresponding rib points. It is a figure which shows the corresponding line G1a calculated
  • a midpoint group (4Q1, 4Q2,%) Consisting of the midpoints 4Q1, 4Q2,... Of each corresponding line 4G1, 4G2,. ,...) Is a straight line obtained by applying the least square method to the sample midline.
  • FIG. 71 shows the midline 30 obtained from the midpoint group 4029 (4Q1, 4Q2,).
  • FIG. 73 there is a method in which an orthogonal straight line orthogonal to each corresponding line segment is obtained, and an inclination angle ⁇ of each orthogonal straight line is obtained.
  • it passes through any one point (for example, the midpoint of the uppermost line segment) as the midpoint of each corresponding line segment, and the average of the inclination angles of each orthogonal line is set as the gradient, and the sample midline is You may ask for it.
  • the midline is hardly affected by the health condition of the specimen. Can be obtained correctly. Further, when determining the position of the median line based on the information related to the ribs, the right and left ribs are associated and the position of the median line is determined using the associated rib information. Even in a state of being lost due to a fracture or the like, the median line can be obtained correctly.
  • the position of the midline of the specimen in the image to be inspected is determined by comparing the image to be inspected with the contrast image pattern relating to the configuration of the ribs.
  • the determination of the position of the midline is performed by the determination unit 4040C (FIG. 74) of the control unit 2.
  • the determination unit 4040C includes a collation unit 4046 and a median line determination unit 4044C.
  • the determining unit 4040C determines the position of the midline of the specimen in the image to be inspected based on information related to the ribs in the image data by using these functions.
  • the collation unit 4046 collates the image to be inspected with a contrast image pattern to which a midline model pattern indicating a midline model is added, which is an image pattern related to a rib configuration prepared in advance. I do. Then, the collation unit 4046 detects position information indicating a position on the inspection image corresponding to a predetermined position of the comparison image pattern with a mutual positional relationship in which the matching degree between the inspection image and the comparison image pattern is the highest. The median line determination unit 4044C determines the position of the median line in the inspected image based on the position information.
  • processing is mainly performed in the order of reading out a rib model simulating a configuration focusing on the ribs, matching the image to be inspected with the rib model, and determining the position of the midline of the specimen. Done.
  • these processing contents will be described sequentially.
  • the collation unit 4046 reads the rib model prepared and stored in the storage unit 6 in advance.
  • the rib model corresponds to “an image pattern representing the body model of the specimen”.
  • FIG. 75 is a diagram showing an example of the configuration of the rib model 22.
  • the rib model 22 is configured by adding a specimen midline model pattern 24 to an image including the rib image region 23 extracted by the above method. For the midline model pattern 24, only the position information of the midline with respect to the rib model 22 is set.
  • FIG. 76 is a diagram illustrating a state in which matching is performed while the rib model 22 is moved. 76 and FIG. 76 and subsequent figures are appropriately provided with an arrow F indicating an image in a direction in which an image pattern such as the rib model 22 is moved.
  • the similarity can be expressed, for example, by a difference sum value of luminance values (pixel values) for each pixel of the target region on the image to be inspected 20 and the rib model 22 using a difference method (SAD). In this case, when the difference total value is 0, the inspected image 20 and the rib model 22 are most suitable.
  • the difference value of the difference total value is determined in advance, and the position relationship in which the smallest difference total value is obtained among the position relationships in which the difference difference value equal to or less than the threshold is obtained. May be detected.
  • Other specific methods for obtaining this similarity include the least square sum method (SSD), the normalized cross correlation method (NCC), and the like. This collation is performed on the entire region of the inspection image 20 while moving the rib model 22 along each horizontal line.
  • the images (rotated images to be inspected) obtained by rotating the inspected image 20 counterclockwise in steps of ⁇ degrees centering on, respectively, are collated.
  • ⁇ degree is set to 1 degree and ⁇ degree is set to 30 degrees.
  • FIG. 77 is a diagram exemplifying a rotated inspection image 60 obtained by rotating the inspection image 20 by ⁇ degrees counterclockwise.
  • the rotated image 60 is obtained by rotating the image 20 to be inspected about the center point 19
  • the gradation value of each pixel constituting the rotated image 60 is obtained by interpolation processing.
  • Such a positional relationship is detected.
  • the collating operation is performed for each of the ⁇ / ⁇ rotated inspected images that are obtained and the positional relationship having the highest degree of matching is adopted.
  • the position of the midline is determined based on the information related to the ribs, so that it is difficult to be affected by the health condition of the examinee and the midline can be obtained correctly. Further, since the position of the median line is determined using an image pattern prepared in advance, the median line can be obtained quickly. Further, since the collation between the image to be examined 20 and the rib model 22 is performed for each angle relationship in which the angle relationship between the image to be examined 20 and the rib model 22 is changed, the sample to be examined in which the specimen is inclined too much with respect to the reference position. Even when the image 20 is input, the correct sample midline of the sample on the image to be inspected is automatically obtained.
  • the rotation angle is generated by the rotation of the image to be inspected 20, thereby changing the relative angular relationship between the image to be inspected 20 and the template or model.
  • the relative angular relationship between the image 20 to be inspected and the template or model may be changed by rotating the template or model instead of rotating the image 20 to be inspected.
  • FIG. 16 is a diagram illustrating a state in which the spine template 11 according to the first embodiment is rotated ⁇ degrees counterclockwise.
  • the amount of X-rays transmitted through the subject is used as information indicating the internal structure of the body, and each pixel has a square shape with 512 pixels on each side and 512 pixels on each side.
  • the median line in the chest simple X-ray image is determined, the present invention is not limited to this, and the median line may be determined for an image obtained by another modality.
  • an image including an image region that captures the lung field may be created by CT (Computer Tomography), MRI (Nuclear Magnetic Resonance Image), or scintigraphy, and the midline may be determined for the image.
  • CT Computer Tomography
  • MRI Nuclear Magnetic Resonance Image
  • scintigraphy the midline may be determined for the image.
  • the size of the inspection image can be set arbitrarily.
  • the pixel values of the template or model are represented by monochrome gradation values, but the color tone may be arbitrarily set according to the image of the subject.
  • the midline is determined for the chest image, but the present invention is not limited to this.
  • the method for determining the midline listed in the first to eleventh embodiments is the pelvis, You may apply to the scene which determines a midline for the picked-up image which caught other parts, such as a lumbar vertebra.
  • each unit of the midline determination apparatus is realized by a computer provided in the X-ray imaging apparatus itself. It may be configured to do so.
  • a rotation inspection image is generated by the rotation of the inspection image 20, so that the relative angular relationship between the inspection image 20 and the evaluation areas 51A, 51B, 51C is obtained.
  • the relative angular relationship between the inspection image 20 and the evaluation region may be changed by rotating the evaluation region.
  • FIG. 29 is a diagram illustrating a state in which the evaluation region 51A is rotated by ⁇ degrees counterclockwise in the modification.
  • the pixel value in gray scale, is converted and expressed so that the inspected image becomes black, but conversely, the inspected image becomes black.
  • the pixel value may be converted and expressed so as to be low.
  • the relative angular relationship between the image to be inspected 20 and the template image 3014 is changed by the rotation of the template image 3014.
  • the present invention is not limited to this. Instead of rotating the template image 3014, the relative angular relationship between the image 20 to be inspected and the template image 3014 may be changed by rotating the image 20 to be inspected.
  • FIG. 52 is a diagram illustrating a state in which the inspection image 20 is rotated ⁇ degrees counterclockwise in the modification.
  • the relative angular relationship between the image to be inspected 20 and the evaluation area 51 is changed by generating the rotation image to be inspected 60 by the rotation of the image to be inspected 20.
  • FIG. 53 is a diagram illustrating a state in which the evaluation region 51 is rotated counterclockwise by ⁇ degrees in the modification.
  • the pixel value of the template image 3014 is represented by a monochrome gradation value, but the color tone may be arbitrarily set according to the image of the subject.
  • the rib image group center position may be obtained by approximating the existence range of the rib image group with a rectangle, or by averaging pixel positions of each part of the rib image or rib edge.
  • the rib model 22 when the relative angular relationship between the image to be inspected 20 and the rib model 22 is changed, the rib model 22 may be rotated as illustrated as an angle ⁇ in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 正中線決定装置は、被検査画像と予め準備された画像パターンとを、それらの相対的位置関係を所定方向に沿って変化させつつ、照合する。照合が繰り返されることによって、被検査画像と画像パターンとの最大適合度を与えるような相対的位置関係が特定される。その相対的位置関係において、画像パターンの第1基準位置P1に対応する被検査画像上の第2基準位置12を特定する。第2基準位置12は、被検査画像における正中線の位置を決定するために使用される。被検査画像が傾いていても、自動的に正しい正中線を求めることができる。

Description

正中線決定装置およびプログラム
 本発明は、人体などを検体として撮影した画像上において、当該検体の正中線を決定する技術に関する。
 医療現場では、X線等を用いて内蔵や骨格等に含まれる患部を撮影することにより、各種検査や診断が行われている。そして、近年では、デジタル技術の適用により、さまざまな画像処理が臨床で利用されるようになっている。
 そして、画像診断において、コンピュータによって得られた画像情報の定量化および分析の結果を参考にしながら医師が診断を行う医用画像支援診断(CAD:computer aided diagnosis)の研究も活発に行われている。
 患部の動きを解析する技術としては、時系列的に連続してX線を用いて撮影された複数の画像(X線画像)を利用して、時間的に隣り合うX線画像の差分(差分画像)を取得する技術が提案されている。
 しかし、胸部をとらえたX線画像について、過去の撮影画像と現在の撮影画像との経時的な差分(経時差分画像)を求める処理(経時差分処理)を単純に行った場合、いわゆるアーチファクトが現れてしまう可能性がある。このため、経時差分処理においては、いわゆる正中線を基準として複数の画像の位置合わせを行う必要がある。また、心胸郭比を計測する際においても、正中線を用いて位置合わせを行う必要がある。したがって、医用画像診断における多くの場面で正中線を正確に決定することが求められる。
 このような要求に対して、対象画像と類似候補画像との胸部領域における位置合わせを目的として、正中線を決定する技術が提案されている(例えば、非特許文献1)。この非特許文献の技術では、検出した左右の胸郭辺縁のエッジ間を二等分する中点を上下方向に順次に求め、その中点列を通る近似直線を正中線としている。
「胸部単純X線写真における他人による類似差分画像のための類似画像検索システムの開発」、小田、青木、岡崎、掛田、興椙、矢原、庄野、生体医工学,44(3),435-444,2006.
 しかしながら、上記非特許文献の技術では、被写体の病状、骨格、姿勢等によって、被写体が基準位置に対して傾きすぎた画像が入力された場合、左右の胸郭辺縁のエッジ間を二等分する中点列を通る近似直線が実際の正中線から大きくずれ、複数の画像の正しい位置合わせをすることができない。
 図17は、被写体が基準位置に対して傾きすぎた画像が入力された場合に左右の胸郭辺縁のエッジEDの間を二等分する中点MPの列を例示する図である。図17で示されるように、被写体が傾きすぎた画像が入力された場合、左右の胸郭辺縁のエッジ間を二等分する複数の中点MPは、正しい正中線30上に表れない。すなわち、複数の中点MPを通る近似直線30Eを求めても、正しい正中線30を得ることができない。したがって、複数の画像を比較する際の基準となる正しい正中線を診断者が画像毎に決定する非常に煩雑な作業が必要となる。
 また、被検査者の肺野内に異物あるいは病変が存在する場合には、異物あるいは病変が存在する部位の胸郭は不鮮明となる。図54は、肺野内に異物が存在する画像の例を示す図であり、図80は、病変が存在する肺野画像の例を示す図である。上記非特許文献1の技術では、図54および図80に示すように、被検査者の肺野の状態あるいは病状により肺野の形状が不鮮明な場合、胸郭エッジを用いた正中線計測手法では正しい位置合わせができない。したがって、少なくとも1つの画像を比較する際の基準となる正しい正中線を診断者が画像毎に決定する非常に煩雑な作業が必要となる。
 本発明は、上記課題に鑑みてなされたものであり、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に正しい正中線を求めることができる技術を提供することを第1の目的とする。また、被検査者または被検査動物の体内の健康状態の影響を受けることが抑制され、例えば、被検査者の肺野内に異物あるいは病状が存在することによって肺野の形状が不鮮明な画像が入力された場合においても、自動的に正しい正中線を求めることができる技術を提供することを第2の目的とする。
 上記課題を解決するため、第1の態様に係る正中線決定装置は、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、被検査画像を取得する取得部と、前記被検査画像と、前記検体の身体モデルを表現した画像パターンとに基づいて、前記被検査画像における正中線を決定する正中線決定部と、を備え、前記正中線決定部が、前記画像パターンが前記被検査画像と適合する相対的位置関係において、前記画像パターン上の所定の第1基準位置に対応する前記被検査画像上の第2基準位置を決定し、前記第2基準位置を表現した位置情報を得る位置取得要素と、前記位置情報に基づいて、前記被検査画像の正中線を決定する正中線位置決定要素と、を備えるようにした。
 第2の態様に係る正中線決定装置は、第1の態様に係る正中線決定装置であって、前記位置取得要素が、前記被検査画像と前記画像パターンとを、第1方向に相対的に移動させながら、相互に比較する要素と、前記被検査画像と前記画像パターンとの差分が所定の閾値以下となる複数の相対位置を決定する要素と、前記複数の相対位置のうちで前記差分が最小となる相対位置において、前記第1基準位置に対応する前記第2基準位置を決定する要素と、前記被検査画像に対して前記画像パターンを第2方向に相対的に移動させながら、前記第2基準位置の決定を繰り返すことによって、前記正中線の複数の候補位置を決定する要素と、を備えるようにした。
 第3の態様に係る正中線決定装置は、第1の態様に係る正中線決定装置であって、前記位置取得要素が、前記被検査画像と前記画像パターンとを、第1方向に相対的に移動させながら、相互に比較する要素と、前記差分が最小となる相対位置において、前記第1基準位置に対応する前記第2基準位置を決定する要素と、前記被検査画像に対して前記画像パターンを第2方向に相対的に移動させながら、前記第2基準位置の決定を繰り返すことによって、前記正中線を規定するための複数の候補位置を決定する要素と、を備えるようにした。
 第4の態様に係る正中線決定装置は、第1の態様に係る正中線決定装置であって、前記画像パターンには、正中線モデルパターンが付加されており、前記第1基準位置は、前記画像パターンにおける前記正中線モデルパターンの位置であって、前記第2基準位置は、前記画像パターンが前記被検査画像と適合するような前記相対的位置関係において、前記正中線モデルパターンに対応する前記被検査画像上の位置であるようにした。
 第5の態様に係る正中線決定装置は、第2の態様に係る正中線決定装置であって、前記位置取得要素が、前記画像パターンと前記被検査画像との角度を変化させつつ、前記第1基準位置に対応する複数の点列を決定する要素、を備え、前記正中線位置決定要素が、前記正中線の前記複数の点列から、前記画像パターンと前記被検査画像とが最も適合する角度関係に対応した最適点列を選択する要素と、前記最適点列に基づいて、前記正中線を決定する要素と、を備えるようにした。
 第6の態様に係る正中線決定装置は、第4の態様に係る正中線決定装置であって、前記位置取得要素が、前記画像パターンと前記被検査画像との角度を変化させつつ、前記正中線モデルパターンに基づいて、前記正中線の複数の候補を決定する要素、を備え、前記正中線位置決定要素が、前記正中線の前記複数の候補から、前記画像パターンと前記被検査画像とが最も適合する角度関係に対応した最適正中線を選択する要素、を備えるようにした。
 第7の態様に係るプログラムは、コンピュータの制御部により実行されることによって、前記コンピュータを、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、被検査画像を取得する取得部と、前記被検査画像と、前記検体の身体モデルを表現した画像パターンとに基づいて、前記被検査画像における正中線を決定する正中線決定部と、を備え、前記正中線決定部が、前記画像パターンが前記被検査画像と適合する相対的位置関係において、前記画像パターン上の所定の第1基準位置に対応する前記被検査画像上の第2基準位置を決定し、前記第2基準位置を表現した位置情報を得る位置取得要素と、前記位置情報に基づいて、前記被検査画像の正中線を決定する正中線位置決定要素と、を備える正中線決定装置として動作させるようにした。
 第8の態様に係る正中線決定装置は、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体の内部構造に対応する情報の分布を表現した被検査画像を取得する取得部と、前記被検査画像に対して評価領域を設定する設定部と、前記評価領域内において第1方向に沿って伸びる各画素列について、前記被検査画像の画素値を前記基準方向に沿って積算し、それによって複数の積算画素値を算出する積算値算出部と、前記複数の前記積算画素値に基づいて、前記被検査画像における正中線の位置を決定する決定部と、を備えるようにした。
 第9の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記決定部が、前記複数の積算画素値のうち最小値を与える画素列を認識し、それによって前記正中線の候補位置を得る認識部と、前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、を備えるようにした。
 第10の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記決定部が、前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記積算画素値の第1最大値および第2最大値をそれぞれ検出する検出部と、前記第1最大値を与える第1画素列と、前記第2最大値を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、を備えるようにした。
 第11の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記決定部が、前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記積算画素値の第1最小値および第2最小値をそれぞれ検出する検出部と、前記第1最小値を与える第1画素列と、前記第2最小値を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、を備えるようにした。
 第12の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記決定部が、前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記第1方向に直交する第2方向についての前記積算画素値の第1最大変化率および第2最大変化率をそれぞれ検出する検出部と、前記第2最大変化率を与える第1画素列と、前記第2最大変化率を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、を備えるようにした。
 第13の態様に係る正中線決定装置は、第9の態様に係る正中線決定装置であって、前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、前記正中線決定部が、前記複数の候補位置のうち、前記積算画素値が最小となっている特定の候補位置に基づいて、前記正中線の位置を決定するようにした。
 第14の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、前記正中線決定部が、前記複数の候補位置のうち、前記第1最大値と前記第2最大値との差が最小となっている特定の候補位置に基づいて、前記正中線の位置を決定するようにした。
 第15の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、前記正中線決定部が、前記複数の候補位置のうち、前記第1最大変化率と前記第2最大変化率との和が最大となっている特定の候補位置に基づいて、前記正中線の位置を決定するようにした。
 第16の態様に係る正中線決定装置は、第8の態様に係る正中線決定装置であって、前記評価領域が、矩形領域であり、前記第1方向が、前記評価領域の一辺に沿った方向であるようにした。
 第17の態様に係るプログラムは、コンピュータの制御部により実行されることによって、前記コンピュータを、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体の内部構造に対応する情報の分布を表現した被検査画像を取得する取得部と、前記被検査画像に対して評価領域を設定する設定部と、前記評価領域内において第1方向に沿って伸びる各画素列について、前記被検査画像の画素値を前記基準方向に沿って積算し、それによって複数の積算画素値を算出する積算値算出部と、前記複数の前記積算画素値に基づいて、前記被検査画像における正中線の位置を決定する決定部と、を備える正中線決定装置として動作させるようにした。
 第18の態様に係る正中線決定装置は、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体を表現した被検査画像を取得する取得部と、前記被検査画像から前記検体の左右両側の体側を検出し、前記両側の体側を表現する体側情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、を備えるようにした。
 第19の態様に係る正中線決定装置は、第18の態様に係る正中線決定装置であって、前記決定部が、前記体側情報は、前記検体の腹部領域の左右両側の位置を表現するようにした。
 第20の態様に係る正中線決定装置は、第19の態様に係る正中線決定装置であって、前記決定部が、前記被検査画像の2値化を行い、2値画像データを作成する2値化部と、前記2値画像データにおける左右両側の体側のエッジの抽出を行うエッジ抽出部と、前記左右両側の体側のエッジに基づいて前記正中線の位置を決定する正中線決定部と、を備え、前記正中線決定部が、前記左右両側の体側のエッジ上の対応点同士を結ぶ線分の各中点を検出する要素と、前記各中点の位置に基づいて、前記正中線の位置を決定する要素と、を備えるようにした。
 第21の態様に係る正中線決定装置は、第19の態様に係る正中線決定装置であって、前記決定部が、前記被検査画像と所定のテンプレート画像からなる2画像の相対位置を変化させつつ、前記2画像の照合を行う照合部と、前記照合部による照合結果に基づいて前記被検査画像における正中線の位置を決定する正中線決定部と、を備えるようにした。
 第22の態様に係る正中線決定装置は、第21の態様に係る正中線決定装置であって、前記照合部が、検体の腹部部分を表現した第1画素値が付与された第1領域の両側に、検体の体外部分を表現した第2画素値が付与された第2領域が配置された画像を前記テンプレート画像として設定するテンプレート設定部と、前記2画像の空間的相対関係を変化させつつ前記2画像を照合して、前記2画像の最大適合度を与える前記被検査画像上の位置を前記正中線が通る候補位置として特定する照合実行部と、前記2画像の空間的相対関係の変化について、少なくとも1つの変化条件を課して前記照合実行部による照合を行わせる照合制御部と、を備え、正中線決定部が、前記少なくとも1つの変化条件について特定された前記候補位置に基づいて、前記被検査画像における正中線の位置を決定するようにした。
 第23の態様に係る正中線決定装置は、第22の態様に係る正中線決定装置であって、前記少なくとも1つの変化条件に従った前記空間的相対関係の変化が、所定の位置を回転中心とした前記2画像の相対的角度関係の変化であるようにした。
 第24の態様に係る正中線決定装置は、第19の態様に係る正中線決定装置であって、前記決定部が、前記被検査画像に対して2次元的な評価領域を設定する設定部と、前記評価領域における前記被検査画像に基づいて前記正中線を決定する正中線決定部と、を備え、前記正中線決定部は、前記評価領域における2次元的画素値分布を、前記評価領域に対して相対的に固定された所定の射影方向へ累積的に射影することによって1次元的画素値分布へと圧縮する圧縮要素と、前記1次元的画素値分布における特徴点の位置に基づいて前記正中線を決定する決定要素と、を備えるようにした。
 第25の態様に係る正中線決定装置は、第24の態様に係る正中線決定装置であって、前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更して、複数組の特徴点のそれぞれの画素射影値を得る要素、を備え、前記正中線決定部が、前記複数組の特徴点の前記それぞれ画素射影値を相互に比較して、一組の特徴点を選択する要素と、前記一組の特徴点の位置に基づいて前記正中線を決定する要素と、を備えるようにした。
 第26の態様に係るプログラムは、コンピュータの制御部により実行されることによって、前記コンピュータを、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体を表現した被検査画像を取得する取得部と、前記被検査画像から前記検体の左右両側の体側を検出し、前記両側の体側を表現する体側情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、を備える正中線決定装置として動作させるようにした。
 第27の態様に係る正中線決定装置は、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体を表現した被検査画像を取得する取得部と、前記被検査画像から前記検体の肋骨を検出し、前記肋骨を表現する肋骨情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、を備えるようにした。
 第28の態様に係る正中線決定装置は、第27の態様に係る正中線決定装置であって、前記決定部が、前記被検査画像における肋骨のエッジを抽出し、前記肋骨のエッジのラベリングを行うラベリング部と、前記被検査画像における所定の基準方向に対する前記肋骨のエッジの傾きを算出する傾き算出部と、前記被検査画像における肋骨画像群の空間的分布の中心位置を算出する中心位置算出部と、前記肋骨のエッジの傾きおよび前記中心位置に基づいて、前記被検査画像における正中線の位置を決定する正中線決定部と、を有するようにした。
 第29の態様に係る正中線決定装置は、第27の態様に係る正中線決定装置であって、前記決定部が、前記被検査画像における肋骨のエッジを抽出し、前記肋骨の前記エッジのラベリングを行うラベリング部と、前記被検査画像の左肋骨のエッジおよび右肋骨のエッジ間において、前記肋骨のエッジ上の所定の位置として定義される肋骨点の対応付けを行い、肋骨点ペアを得る肋骨点検出部と、前記肋骨ペアのそれぞれを結ぶ線分を設定し、前記線分のそれぞれの中点の位置に基づいて、前記正中線の位置を決定する正中線決定部と、を備えるようにした。
 第30の態様に係る正中線決定装置は、第27の態様に係る正中線決定装置であって、肋骨の配置に正中線モデルパターンが付加された画像パターンがあらかじめ定義されており、前記決定部が、前記画像パターンと前記被検査画像との相対的位置関係を変化させつつ、前記画像パターンと前記被検査画像とを照合する照合部と、前記被検査画像と前記画像パターンとの最大適合度を与える相互位置関係における前記正中線モデルパターンの位置に基づいて、前記被検査画像における正中線の位置を決定する正中線決定部と、を備えるようにした。
 第31の態様に係る正中線決定装置は、第30の態様に係る正中線決定装置であって、前記照合部が、前記被検査画像と前記画像パターンとの適合度の判定を、前記被検査画像と前記画像パターンとの相対的な角度関係を段階的に変更させた複数の角度関係に対してそれぞれ行うようにした。
 第32の態様に係るプログラムは、コンピュータの制御部により実行されることによって、前記コンピュータを、人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、検体の身体を表現した被検査画像を取得する取得部と、前記被検査画像から前記検体の肋骨を検出し、前記肋骨を表現する肋骨情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、を備える正中線決定装置として動作させるようにした。
 第1から第6の何れの態様に係る正中線決定装置によっても、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に正しい正中線を求めることができる。
 第4の態様に係る正中線決定装置によれば、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、効率良く、正しい正中線を求めることができる。
 第7の態様に係るプログラムによれば、第1から第6の態様に係る正中線決定装置と同様の効果を得ることができる。
 第8から第16の何れの態様に係る正中線決定装置によっても、被写体が基準位置に対して傾きすぎた画像が取得された場合においても、自動的に正しい正中線を求めることができる。
 第16の態様に係る正中線決定装置によれば、積算画素値を効率よく計算することができる。
 第17の態様に係るプログラムによれば、第8から第16の態様に係る正中線決定装置と同様の効果を得ることができる。
 第18から第25の何れの態様に係る正中線決定装置によっても、左右両側の体側に係る情報に基づいて正中線の位置を決定するので、検体の体内の健康状態の影響を受けにくく、正中線を正しく求めることができる。
 第19から第25の何れの態様に係る正中線決定装置によっても、腹部領域における体側に係る情報に基づいて正中線の位置を決定するので、例えば、検体の肺野に異物が入り、被検査画像上の胸部に白い不鮮明な領域が表れる場合であっても、検体の臓器の状態の影響を受けにくいので、正中線を正しく求めることができる。
 第26の態様に係るプログラムによれば、第18から第25の何れか1つの態様に係る正中線決定装置と同様の効果を得ることができる。
 第27から第31の何れの態様に係る正中線決定装置によっても、肋骨に係る情報に基づいて正中線の位置を決定するので、検体の健康状態の影響を受けにくく、正中線を正しく求めることができる。
 第28の態様に係る正中線決定装置によれば、数多く存在する肋骨エッジの情報に基づいて正中線の位置を決定するので、正中線を正確に求めることができる。
 第29の態様に係る正中線決定装置によれば、肋骨に係る情報に基づいて正中線の位置を決定する場合において、左右肋骨の対応付けを行い、対応付けされた肋骨の情報を用いて正中線の位置を決定するので、検体の肋骨が、骨折などによって欠損した状態であっても、正中線を正しく求めることができる。
 第30または第31の何れの態様に係る正中線決定装置によっても、予め準備された画像パターンを用いて正中線の位置を決定するので、正中線を速く求めることができる。
 第32の態様に係るプログラムによれば、第27から第31のいずれかの態様に係る正中線決定装置と同様の効果を得ることができる。
図1は正中線決定装置に適用した第1~5実施形態に共通の構成を示すブロック図である。 図2は背骨テンプレートの構成を例示する図である。 図3は背骨テンプレートが移動させられながら照合が行われる様子を例示する図である。 図4は被検査画像を反時計回りにα度回転させることで得られる回転被検査画像を例示する図である。 図5は第1実施形態に係る正中線決定部が正中線を決定する動作フローを示すフローチャートである。 図6は肺野テンプレートの構成を例示する図である。 図7は肺野テンプレートが移動させられながら照合が行われる様子を例示する図である。 図8は腹部テンプレートの構成を例示する図である。 図9は腹部テンプレート14が移動させられながら照合が行われる様子を例示する図である。 図10は第3実施形態に係る正中線決定部が正中線を決定する動作フローを示すフローチャートである。 図11は肺野モデルの構成を例示する図である。 図12は被検査画像と肺野モデルとが類似位置関係にある状態を例示する図である。 図13は第4実施形態に係る正中線決定装置が正中線を決定する動作フローを示すフローチャートである。 図14は肋骨モデルの構成を例示する図である。 図15は被検査画像と肋骨モデルとが類似位置関係にある状態を例示する図である。 図16は第1実施形態における背骨テンプレートを反時計回りにα度回転させた状態を例示する図である。 図17は被写体が基準位置に対して傾きすぎた画像が入力された場合における左右の胸郭辺縁のエッジ間の中点列を例示する図である。 図18は正中線決定装置に適用した第6~11実施形態に共通の構成を示すブロック図である。 図19は第6実施形態における決定部の機能構成を示すブロック図である。 図20は第6実施形態における正中線を決定する処理を説明するための図である。 図21は被検査画像を反時計回りにθ度回転させることで得られる回転被検査画像を例示する図である。 図22は第6実施形態に係る決定部が正中線を決定する動作フローを示すフローチャートである。 図23は第7実施形態における決定部の機能構成を示すブロック図である。 図24は第7実施形態における正中線を決定する処理を説明するための図である。 図25は第8実施形態における正中線を決定する処理を説明するための図である。 図26は第9実施形態における正中線を決定する処理を説明するための図である。 図27は第10実施形態における決定部の機能構成を示すブロック図である。 図28は第11実施形態における決定部の機能構成を示すブロック図である。 図29は変形例において評価領域を反時計回りにθ度回転させた状態を例示する図である。 図30は正中線決定装置に適用した第12~17実施形態に共通の構成を示すブロック図である。 図31は第12実施形態に係る決定部の機能構成を示すブロック図である。 図32は被検査画像の例を示す図である。 図33は2値画像データの例を示す図である。 図34は第12実施形態に係る評価領域の例を示す図である。 図35は抽出された腹部領域の左右両側の体側のエッジを示す図である。 図36は評価領域における対応線の例を示す図である。 図37は中点群から求められた正中線を示す図である。 図38は正中線が設定された被検査画像を例示する図である。 図39は第12実施形態に係る決定部が検体の正中線を決定する動作フローを示すフローチャートである。 図40は第13実施形態に係る決定部の機能構成を示すブロック図である。 図41はテンプレート画像3014の構成を例示する図である。 図42は照合が行われる様子を例示する図である。 図43はテンプレート画像3014を反時計回りにα度回転させて照合させる例を示す図である。 図44は拡大したテンプレート画像3015を例示する図である。 図45は正中線決定部によって、正中線の位置を決定する処理を説明するための図である。 図46は第13実施形態に係る決定部が検体の正中線を決定する動作フローを示すフローチャートである。 図47は第14実施形態に係る決定部の機能構成を示すブロック図である。 図48は第14実施形態に係る評価領域の例を示す図である。 図49は積算画素値と評価領域の横方向の座標との関係を示すグラフである。 図50は被検査画像を反時計回りにθ度回転させることで得られる回転被検査画像を例示する図である。 図51は第14実施形態に係る正中線決定装置が検体の正中線を決定する動作フローを示すフローチャートである。 図52は変形例において、被検査画像20を反時計回りにα度回転させた状態を例示する図である。 図53は変形例において、評価領域51を反時計回りにθ度回転させた状態を例示する図である。 図54は肺野内に異物が存在する画像の例を示す図である。 図55は第15実施形態に係る決定部の機能構成を示すブロック図である。 図56は被検査画像において各肋骨の下側のエッジのみを抽出した例を示す図である。 図57は各肋骨エッジのラベル付けを概念的に示す図である。 図58は被検査画像の画像座標系上で設定された右肺野基準線を示す図である。 図59は被検査画像の画像座標系上で設定された左肺野基準線を示す図である。 図60は被検査画像の画像座標系上で検出されたX,Y座標の最小値および最大値を示す図である。 図61は正中線通過点および正中線の傾きに基づいて、正中線を決定する例を示す図である。 図62は正中線が設定された被検査画像を例示する図である。 図63は第15実施形態に係る決定部が検体の正中線を決定する動作フローを示すフローチャートである。 図64は第16実施形態に係る決定部の機能構成を示すブロック図である。 図65は各肋骨エッジ上における肋骨点を示す図である。 図66は右肺野側肋骨点を示す図である。 図67は肋骨点(1)と対応する左肋骨エッジ上の肋骨点を求める処理を説明するための図である。 図68は肋骨点が左肺野側候補領域上に存在しない例を示す図である。 図69は対応線を示す図である。 図70は対応線を示す図である。 図71は正中線を示す図である。 図72は第16実施形態に係る決定部が検体の正中線を決定する動作フローを示すフローチャートである。 図73は直交直線の傾き角度を説明するための図である。 図74は第17実施形態に係る決定部の機能構成を示すブロック図である。 図75は肋骨モデルの構成の例を示す図である。 図76は肋骨モデルが移動させられながら照合が行われる様子を例示する図である。 図77は回転被検査画像を例示する図である。 図78は第17実施形態に係る正中線決定装置が検体の正中線を決定する動作フローを示すフローチャートである。 図79は第17実施形態に係る肋骨モデルを反時計回りに回転させた状態を例示する図である。 図80は病変が存在する肺野画像の例を示す図である。
 以下、本発明の実施形態を図面に基づいて説明する。
 <1.正中線決定装置の全体構成>
 図1は、正中線(midline)決定装置1に適用した各実施形態に共通の構成を示すブロック図である。
 図1で示されるように、正中線決定装置1は、制御部2、操作部4、取得部5、記憶部6、および表示部7をバスライン10に接続した一般的なコンピュータの構成となっている。
 制御部2は、例えば、CPUによって構成され、記憶部6に記憶されるプログラムを実行することによって、正中線決定装置1全体の動作を決定し、正中線決定装置1全体に指令を与え、さらに後述する表示部7に表示の指示を出す。また、制御部2は、後述する正中線決定部3の機能も実現する。
 正中線決定部3は、入力された画像データに係る画像において、該画像でとらえられた撮影対象者の正中線の位置を決定する。ここで、正中線とは、身体を前後に貫く水平線の方向を含む垂直面である矢上面のうちの人体を左右に等分割する面である正中面と体表面との交線のことを示している。
 操作部4は、キーボード、タッチパネル、またはマウス等を備えて構成され、ユーザの各種操作にしたがって各種指令信号を制御部2に送信する。
 取得部5は、検体(検査対象となる人間または動物の身体)から得られた画像データを取得する。本発明においては、検体の肋骨を含む被検査画像(objective image)の画像データを取得する。取得部5は、例えば、医療用画像撮影装置が接続され、画像データをオンラインで受信するように構成されても良く、さらに、DVD等の可搬型の記憶媒体からの画像データの読み取りや、スキャナによる被検査画像の読み取りによって画像データを取得するように構成されても良い。
 なお、取得部5は、ネットワーク回線によって接続されたファイルサーバ等に撮影の対象である検体を撮影した被検査画像のデータ(画像データ)を記憶しておき、記憶されている少なくとも1つの画像データの中から所望の検体の画像データを検索して取得するように構成されても良い。また、取得部5によって取得された画像データ(以下、適宜「被検査画像」と称する)は、後述する記憶部6に記憶される。このような画像データの記憶は、外部に設けた記憶装置に対してネットワークを介して行ってもよい。
 記憶部6は、例えば、半導体メモリ、ハードディスク等の記憶装置によって構成され、制御部2で実行されるプログラム、該プログラムを実行する際に必要な情報、および取得部5によって取得される被検査画像等の各種情報を記憶する。
 表示部7は、例えば、液晶表示ディスプレイ等によって構成され、制御部2で生成される動画像データ等を可視的に出力する。
 医療用画像撮影装置は、例えば、X線撮影装置等によって構成され、検体の内蔵等に含まれる所定部位を撮影する。X線撮影装置では、X線発生源から検体にX線が曝射されることで撮影が行われる。
 具体的には、X線撮影装置では、検体に対して曝射されたX線は、例えば、検体の肋骨を含む胸部を透過し、所定のX線画像検出器によって、該X線の2次元の強度分布が検出される。このとき、X線画像検出器で得られたX線の強度分布は、アナログ電気信号に変換され、更に、所定の回路でアナログ電気信号が、いわゆるA/D変換によってデジタル信号に変換される。このデジタル信号は被写体を透過したX線の強度分布に係る画像データとして正中線決定装置の記憶部6に記憶される。
 以下に述べる第1~5実施形態においては、取得部5によって取得される被検査画像が、例えば、縦の一辺が512ピクセル、横の一辺が512ピクセルの正方形状の胸部を単純にとらえたX線画像(胸部単純X線画像)であるものとして説明する。また、被検査画像の各画素値は、白黒のグレースケールに係る階調値(以下「白黒階調値」と称する)で表される。例えば、被検査画像が12ビット(すなわち4096段階)の白黒階調値で表現される場合には、白黒階調値の最小値が0となり、白黒階調値の最大値が4095となる。また、以下では、被検査画像の水平方向のラインを「水平ライン」と称する。
 <1-1.第1実施形態>
 第1実施形態では、被検査画像と背骨の構成に係る画像パターンとの照合を行うことによって、被検査画像における正中線の位置を決定する。まず、正中線決定部3において正中線の位置を決定する方法について説明した後に、その動作フローについて説明する。
  <1-1-1.正中線の位置の決定方法>
 第1実施形態に係る正中線決定部3では、主に、(A)背骨と肺野とからなる構成を模した背骨テンプレートの読み出し、(B)被検査画像における背骨に沿った点の列(点列)の候補の検出、(C)正中線の位置の決定、の順に処理が行われる。以下、これらの処理内容について順次に説明する。
   <(A)背骨テンプレートの読み出し>
 正中線決定部3によって、被検査画像において背骨の中心線を通る点の列(以下「背骨点列」と称する)を検出するために、記憶部6に予め準備されて記憶されている背骨テンプレートが読み出される。なお、本実施形態では、背骨テンプレートが、「検体の身体モデルを表現した画像パターン」に相当する。
 背骨テンプレートは、肺野および背骨領域に対しX線を用いて撮影したときに、X線の濃度の分布に起因して画像上に表れる典型的な濃度のパターンを模したものである。なお、背骨テンプレートとしては、一つのサイズのものが準備されていても良いし、種々のサイズのものが準備され、オペレータの操作または被写体に応じて1つのサイズの背骨テンプレートが選択されても良い。後述する他の実施形態における画像パターンについても同様である。
 図2は、背骨テンプレート11の構成を例示する図である。背骨テンプレート11の外縁は、例えば、矩形の形状を有する。具体的には、背骨テンプレート11は、左右の肺野領域にそれぞれ対応する画像領域11aと、左肺野と右肺野との間の領域に対応する画像領域11bとを備えて構成される。つまり、背骨テンプレート11は、左から、画像領域11a、画像領域11b、および画像領域11aが、この順番で並べられて構成される。また、背骨テンプレート11における画像領域11bの所定の位置をP1と称する。なお、ここで言う「所定の位置P1」としては、例えば、背骨テンプレート11の対角線の交点、背骨テンプレート11の重心点、画像領域11bの対角線の交点、および画像領域11bの重心点などが挙げられる。
 また、この背骨テンプレート11は、例えば、横方向に240ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。そして、画像領域11a,11bは、それぞれ横方向に80ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。
 また、背骨テンプレート11の各画素値は、被検査画像と同様に、白黒のグレースケールに係る階調値(白黒階調値)で表される。例えば、画像領域11aの白黒階調値は、被検査画像において白黒階調値が採り得る範囲の最小値である0に設定され、画像領域11bの白黒階調値は、被検査画像において白黒階調値が採り得る範囲の最大値である4095に設定される。
   <(B)被検査画像における背骨に沿った点列の候補の検出>
 被検査画像について背骨に沿った点列の候補(背骨点列候補)を検出する動作(背骨点列候補検出動作)は、被検査画像と背骨テンプレート11との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。したがって、ここでは、まず、被検査画像と背骨テンプレート11との相対的な角度関係が、ある1つの角度関係にある場合における背骨点列候補検出動作について説明し、その後、各角度関係における背骨点列候補検出動作について説明する。
    <(B-1)1つの角度関係における背骨点列候補の検出>
 背骨点列候補検出動作では、まず、被検査画像と背骨テンプレート11との照合が行なわれる。この照合では、一方向(具体的には、被検査画像の各水平ライン)に沿って、被検査画像に対して背骨テンプレート11が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。
 なお、本実施形態では、この各水平ラインが、照合を行う際に被検査画像に対して背骨テンプレート11を順次に移動させていくときの移動の基準となる画素のライン(以下「移動基準ライン」とも称する)に相当する。具体的には、本実施形態では、被検査画像に対して背骨テンプレート11が照合される際に、該被検査画像のうち、背骨テンプレート11の上辺が合わされる水平ラインが、移動基準ラインとされているものとする。
 そして、被検査画像上において背骨テンプレート11が設定される位置ごとに、背骨テンプレート11と被検査画像とが重なり合う領域全体の差分の値(以下「不一致度」と称する)が求められる。なお、不一致度が最小(例えば、0)となる位置関係に被検査画像と背骨テンプレート11とが設定されている場合が、被検査画像と背骨テンプレート11とが最も類似していることになる。
 図3は、被検査画像の各水平ラインに沿って、背骨テンプレート11が移動させられながら照合が行われる様子を例示する図である。図3および図3以降の図には、背骨テンプレート11などの画像パターンを移動させる方向のイメージを示す矢印Fが適宜付されている。
 次に、上述したように各水平ラインに沿って背骨テンプレート11を移動させながら照合が行われた結果、被検査画像20と背骨テンプレート11とが、不一致度が所定の閾値以下となる位置関係にある場合について、被検査画像20と背骨テンプレート11とが最も類似している点が求められる。具体的には、被検査画像20のうち、該被検査画像20の白黒階調値と背骨テンプレート11の白黒階調値との差分が最小となる位置が、背骨点の候補の位置(以下「背骨点候補位置」と称する)12として検出される。すなわち、背骨点候補位置12は、背骨テンプレート11を被検査画像20に整合させたときに所定の位置P1に対応する位置である。なお、所定の閥値は、撮影毎、あるいは被写体毎に設定されれば良く、例えば、1000に設定される。
 この背骨点候補位置が検出される際には、画素毎に被検査画像20の白黒階調値と背骨テンプレート11の白黒階調値との差分が求められ、その差分が最小となる位置が、背骨点候補位置12として検出される。なお、例えば、所定数の画素からなる領域(例えば、隣接する4画素からなる画像領域)ごとに被検査画像20の白黒階調値と背骨テンプレート11の白黒階調値との差分が求められ、その差分が最小となる位置(具体的には画像領域)が背骨点候補位置12として求められても良い。
 上述したように、本実施形態では、被検査画像20に対して背骨テンプレート11が水平方向に移動させられながら照合が行われて、被検査画像20と背骨テンプレート11との差が所定の閾値以下となる際に、被検査画像20と背骨テンプレート11との差が最小となる背骨点候補位置12が求められる。そして、本実施形態では、この「背骨点候補位置12」が、本発明の「差分最小位置」に相当する。また、1つの水平ラインに沿って、被検査画像に対して背骨テンプレート11が水平方向に移動させられながら照合が行われつつ、背骨点候補位置12が検出される動作が、本発明の「候補位置検出動作」に相当する。そして、ここで求められる背骨点候補位置12は、被検体をとらえた被検査画像20上において正中線が検出される際に、正中線が通る位置の候補となる。
 また、背骨点候補位置12を検出する動作は、被検査画像20のうち、肺野および背骨がとらえられていると推定される所定の画像領域(以下「評価対象領域」とも称する)を対象として行われる。ここでは、図3で示されるように、所定の評価対象領域が、被検査画像20のうちの上から102~204番目の水平ラインにかけた画像領域となるように設定される。換言すれば、被検査画像がN本(Nは自然数)の水平ラインで構成される場合に、所定の対象領域は、上から(N/5)本目の水平ラインから(2×N/5)本目の水平ラインに至る画像領域となるように設定される。
 そして、例えば、初めに、所定の評価対象領域中の最も上方の水平ラインを移動基準ラインとし、該移動基準ラインに沿って、被検査画像20に対して背骨テンプレート11が水平方向に移動させられながら照合が行われつつ、背骨点候補位置12が検出される動作が行われる。次に、所定の画素(例えば、1画素)分下の水平ラインに沿って、被検査画像20に対して背骨テンプレート11が水平方向に移動させられながら照合が行われつつ、背骨点候補位置12が検出される動作が行われる。このような動作が、評価対象領域の全域について繰り返して行われることで、各水平ラインに対して、背骨点候補位置12が検出される。つまり、複数の背骨点候補位置12からなる点の列(背骨点列候補)が検出される。そして、このとき、背骨点列候補の白黒階調値と画像領域11bの白黒階調値との差分の総和(以下「累積差分値」とも称する)が算出される。なお、背骨点列候補は、背骨の中心線を通る点の列を示す候補に相当する。
    <(B-2)各角度関係における背骨点列候補の検出>
 上述した背骨点列候補の検出と、その背骨点列候補に係る累積差分値の算出とが行われる動作(以下「背骨点列候補認識動作」とも称する)が、被検査画像20と背骨テンプレート11との角度関係が変更されたそれぞれの角度関係について行われる。
 具体的には、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、背骨点列候補認識動作がそれぞれ行われる。ここでは、例えば、α度は1度、β度は30度に設定される。
 図4は、被検査画像20を反時計回りにα度回転させることで得られる回転被検査画像を例示する図である。被検査画像20が回転させられて各回転被検査画像が得られる際には、回転被検査画像を構成する各画素の白黒階調値が補間処理によって求められる。
 なお、回転被検査画像を対象とした背骨点列候補認識動作は、上述したある1つの角度関係における背骨点列候補認識動作と同様に、例えば、N本の水平ラインで構成される回転被検査画像のうちの上から(N/5)本目の水平ラインから(2×N/5)本目の水平ラインに至る画像領域を対象として行われる。
 このようにして、被検査画像20と背骨テンプレート11との相対的な角度関係を段階的に変更させた複数の角度関係に対して、正中線の位置の候補となる背骨点列候補が認識される。具体的には、基準となる被検査画像20と、該被検査画像20が時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、該被検査画像20が反時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、をそれぞれ対象として、背骨点列候補認識動作が行われる。つまり、背骨点列候補と累積差分値との組が、(2×(β/α)+1)個だけ得られる。
   <(C)正中線の位置の決定>
 上述した背骨点列候補認識動作によって得られた(2×(β/α)+1)個の背骨点列候補と累積差分値との組のうち、最小の累積差分値(以下「最小累積差分値」と称する)と組み合わされた背骨点列候補(以下「背骨点列」と称する)が抽出される。なお、累積差分値が小さい背骨点列候補ほど、被検査画像20と背骨テンプレート11との類似性が高い状態で得られた背骨点列候補と言える。したがって、ここでは、最小累積差分値と組み合わされた背骨点列候補が、被検査画像20上の正中線に係る候補位置として抽出される。
 そして、最後に、抽出された最小累積差分値に対応する背骨点列から、最小二乗法によって得られる直線が、被検査画像20の正中線として検出される。
  <1-1-2.正中線の位置の決定動作フロー>
 図5は、第1実施形態に係る正中線決定部3が正中線を決定する動作フローを示すフローチャートである。最初に、正中線決定装置1で、操作部4から正中線を決定する旨の指示が制御部2に伝達されると、ステップS1に移る。
 ステップS1では、取得部5によって撮影対象者の肺野領域を撮影した被検査画像20が取得されて、ステップS2に移る。
 ステップS2では、記憶部6から背骨テンプレート11が読み出される。
 ステップS3では、被検査画像20の角度が初期値に設定される。ここでは、被検査画像20の角度は、被検査画像20を基準とし、中心点19を中心として該被検査画像20を反時計回りに回転させた角度をマイナスの値、時計回りに回転させた角度をプラスの値として表されるものとする。そして、本実施形態では、被検査画像20の角度が-β度から+β度までα度刻みで変更されつつ、背骨点列候補がそれぞれ検出されるため、ステップS3では、被検査画像20の初期値として、-β度が採用される。したがって、このステップS3では、被検査画像20が中心点19を中心として-β度回転された回転被検査画像が生成される。
 ステップS4では、回転被検査画像のうち、背骨テンプレート11を移動させつつ照合を行う際に該背骨テンプレート11の上辺が合わされる水平ラインが移動基準ラインとして設定される。ステップS4では、回転被検査画像の評価対象領域の最も上の水平ラインが初期の移動基準ラインとして設定される。
 ステップS5では、被検査画像20と背骨テンプレート11との照合が行なわれる。具体的には、被検査画像20の移動基準ラインに沿って背骨テンプレート11が少しずつ移動された各位置において、被検査画像20と背骨テンプレート11とに係る不一致度がそれぞれ求められる。
 ステップS6では、被検査画像20と背骨テンプレート11とが、ステップS5において求められた不一致度が閾値以下となる位置関係にある場合に、被検査画像20の白黒階調値と背骨テンプレート11の白黒階調値との差分が最小となる位置が、背骨点候補位置12として検出される。
 ステップS7では、評価対象領域の全域について背骨点候補位置12が検出されているか否か判別される。ここで評価対象領域の全域について背骨点候補位置12が検出されていればステップS9に移り、検出されていなければ、ステップS8に移る。
 ステップS8では、被検査画像20のうち、移動基準ラインを、例えば、一水平ライン分下へずらしてステップS5に戻る。すなわち、評価対象領域の全域について背骨点候補位置12が検出されるまで、ステップS5~S8の処理が繰り返される。
 ステップS9では、ステップS6において検出された複数の背骨点候補位置12からなる背骨点列候補の白黒階調値と画像領域11bの白黒階調値との差分の総和(累積差分値)が算出される。
 ステップS10では、被検査画像20の角度が+β度に到達したか否かが判別される。ここで、被検査画像20の角度が+β度に到達していれば、ステップS12に移り、到達していなければ、ステップS11に移る。
 ステップS11では、被検査画像20の角度が+α度だけ増加されて、ステップS4に戻る。なお、ステップS11では、+α度だけ増加された角度に応じた回転被検査画像が生成される。そして、被検査画像20の角度が-β度から+β度まで変更されて、(2×(β/α)+1)個の背骨点列候補と累積差分値との組が求められるまで、ステップS4~S11の処理が繰り返される。
 ステップS12では、ステップS9において求められた(2×(β/α)+1)個の背骨点列候補と累積差分値との組の中から、最小の累積差分値(最小累積差分値)と組み合わされた背骨点列候補が、背骨点列として抽出される。
 ステップS13では、ステップS12で抽出された最小累積差分値に対応する背骨点列から、最小二乗法によって得られる直線が、被検査画像20の正中線として決定されて、本動作フローが終了する。
 以上のような処理により、第1実施形態では、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。また、背骨テンプレート11を用いることによって、効率良く正しい正中線が求められる。
 <1-2.第2実施形態> 
 第2実施形態では、被検査画像と肺野の構成に係る画像パターンとの照合を行うことによって、被検査画像における正中線の位置を決定する。
 第2実施形態に係る正中線決定部3では、主に、(D)背骨、肺野、および体側からなる構成を模した肺野テンプレートの読み出し、(E)被検査画像における背骨に沿った点列の候補の検出、(F)正中線の位置の決定、の順に処理が行われる。この第2実施形態に係る正中線の位置の決定処理については、上記第1実施形態に係る正中線の位置の決定処理と比較して、肺野テンプレートが用いられている以外は同様な処理が採用されている。
   <(D)肺野テンプレートの読み出し>
 正中線決定部3によって、被検査画像において背骨点列を検出するために、記憶部に予め準備されて記憶されている肺野テンプレートが読み出される。なお、第2実施形態では、肺野テンプレートが、「検体の身体モデルを表現した画像パターン」に相当する。
 肺野テンプレートは、肺野、背骨領域および左右両体側を撮影したときに、X線の濃度の分布に起因して画像上に表れる典型的な濃度のパターンを模したものである。
 図6は、肺野テンプレート13の構成を例示する図である。肺野テンプレート13の外縁は、例えば、矩形の形状を有する。具体的には、肺野テンプレート13は、左肺野と左体側との間の領域および右肺野と右体側との間の領域に対応する画像領域13aと、左右の肺野領域に対応する画像領域13bと、左肺野と右肺野との間の領域に対応する画像領域13cとを備えて構成される。つまり、肺野テンプレート13は、左から、画像領域13a、画像領域13b、画像領域13c、画像領域13b、および画像領域13aが、この順番で並べられて構成される。また、肺野テンプレート13における画像領域13cの所定の位置をP2と称する。なお、ここで言う「所定の位置P2」としては、例えば、肺野テンプレート13の対角線の交点、肺野テンプレート13の重心点、画像領域13cの対角線の交点、および画像領域13cの重心点などが挙げられる。
 また、肺野テンプレート13は、例えば、水平方向に360ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。具体的には、各画像領域13aが、横方向に40ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。各画像領域13bが、横方向に100ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。また、画像領域13cが、横方向に80ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。
 また、肺野テンプレート13の各画素値は、被検査画像と同様に、白黒階調値で表される。例えば、画像領域13bの白黒階調値が、被検査画像20において白黒階調値が採り得る範囲の最小値である0に設定され、画像領域13a,13cの白黒階調値が、被検査画像20において白黒階調値が採り得る範囲の最大値である4095に設定される。
   <(E)被検査画像における背骨に沿った点列の候補の検出>
 次に、被検査画像について背骨に沿った点列の候補を検出する動作(背骨点列候補検出動作)は、被検査画像と肺野テンプレート13との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。したがって、ここでは、まず、被検査画像と肺野テンプレート13との相対的な角度関係が、ある1つの角度関係にある場合における背骨点列候補検出動作について説明し、その後、各角度関係における背骨点列候補検出動作について説明する。
    <(E-1)1つの角度関係における背骨点列候補の検出>
 背骨点列候補検出動作では、まず、被検査画像と肺野テンプレート13との照合が行なわれる。この照合では、一方向(具体的には、被検査画像の各水平ライン)に沿って、被検査画像に対して肺野テンプレート13が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。そして、被検査画像上において肺野テンプレート13が設定される位置ごとに、被検査画像と肺野テンプレート13とに係る不一致度が求められる。
 図7は、被検査画像の各水平ラインに沿って、肺野テンプレート13が移動させられながら照合が行われる様子を例示する図である。第2実施形態においても、第1実施形態と同様な方法で、所定の評価対象領域を対象として、各水平ラインについて背骨点候補位置12aが検出される。すなわち、背骨点候補位置12aは、肺野テンプレート13を被検査画像20に整合させたときに所定の位置P2に対応する位置である。つまり、複数の背骨点候補位置12aからなる点の列(背骨点列候補)が検出される。そして、このとき、背骨点列候補の白黒階調値と画像領域13cとの差分の総和(累積差分値)が算出される。
    <(E-2)各角度関係における背骨点列候補の検出>
 上述した背骨点列候補の検出と、その背骨点列候補に係る累積差分値の算出とが行われる動作(背骨点列候補認識動作)が、被検査画像20と肺野テンプレート13との角度関係が変更されたそれぞれの角度関係について行われる。
 具体的には、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、背骨点列候補認識動作がそれぞれ行われる。
 つまり、被検査画像20と肺野テンプレート13との相対的な角度関係を段階的に変更させた複数の角度関係に対して、正中線の位置の候補となる背骨点列候補の検出と、その背骨点列候補に係る累積差分値の算出とが行われる。
   <(F)正中線の位置の決定>
 背骨点列候補認識動作によって得られた(2×(β/α)+1)個の背骨点列候補と累積差分値との組のうち、最小の累積差分値(最小累積差分値)と組み合わされた背骨点列候補が、背骨点列として抽出される。そして、抽出された背骨点列から、最小二乗法によって得られる直線が、被検査画像20の正中線として検出される。
 なお、第2実施形態に係る正中線決定装置1が正中線を決定する動作フローについては、上記第1実施形態に係る動作フローと同様なものとなるため、ここでは説明を省略する。
 以上のような処理により、第2実施形態では、第1実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。また、背骨テンプレート11よりも、さらに細かい身体の構成を反映させた肺野テンプレート13を用いることによって、より正確に正中線を求めることが可能となる。
 <1-3.第3実施形態> 
 第3実施形態では、被検査画像と腹部の構成に係る画像パターンとの照合を行うことによって、被検査画像における正中線の位置を決定する。まず、正中線決定部3において正中線の位置を決定する方法について説明した後に、その動作フローについて説明する。
  <1-3-1.正中線の位置の決定方法>
 第3実施形態に係る正中線決定部3では、主に、(G)腹部周辺の構成を模した腹部テンプレートの読み出し、(H)被検査画像における腹部の中心線上の点の列(点列)の候補の検出、(I)正中線の位置の決定、の順に処理が行われる。以下、これらの処理内容について順次に説明する。
   <(G)腹部テンプレートの読み出し>
 正中線決定部3によって、被検査画像において腹部の中心線上の点列(以下「腹部中点列」と称する)を検出するために、記憶部6に予め準備されて記憶されている腹部テンプレートが読み出される。なお、本実施形態では、腹部テンプレートが、「検体の身体モデルを表現した画像パターン」に相当する。
 腹部テンプレートは、腹部に対しX線を利用して撮影したときに、X線の濃度の分布に起因して画像上に表れる典型的な濃度のパターンを模したものである。
 図8は、腹部テンプレート14の構成を例示する図である。腹部テンプレート14の外縁は、例えば、矩形の形状を有する。具体的には、腹部テンプレート14は、左体側の外側の領域および右体側の外側の領域に対応する画像領域14aと、腹部領域に対応する画像領域14bとを備えて構成される。つまり、腹部テンプレート14は、左から、画像領域14a、画像領域14b、および画像領域14aが、この順番で並べられて構成される。また、腹部テンプレート14における画像領域14bの所定の位置をP3と称する。
 また、この腹部テンプレート14は、例えば、横方向に340ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。各画像領域14aは、横方向に50ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。画像領域14bは、横方向に240ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。
 また、腹部テンプレート14の各画素値は、被検査画像と同様に、白黒階調値で表される。例えば、画像領域14aの白黒階調値が被検査画像において白黒階調値が採り得る範囲の最小値である0に設定され、画像領域14bの白黒階調値が、被検査画像において白黒階調値が採り得る範囲の最大値である4095に設定される。
   <(H)被検査画像における腹部の中心線上の点列の候補の検出>
 被検査画像について腹部の中心線上の点列の候補(以下「腹部中点列候補」と称する)を検出する動作(腹部中点列候補検出動作)は、被検査画像と腹部テンプレート14との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。したがって、ここでは、被検査画像と腹部テンプレート14との相対的な角度関係が、ある1つの角度関係にある場合における腹部中点列候補検出動作について説明し、その後、各角度関係における腹部中点列候補検出動作について説明する。
    <(H-1)1つの角度関係における腹部中点列候補検出動作>
 腹部中点列候補検出動作では、まず、被検査画像と腹部テンプレート14との照合が行なわれる。この照合では、一方向(具体的には、被検査画像の各水平ライン)に沿って、被検査画像に対して腹部テンプレート14が所定画素(例えば、一画素)ずつ移動された位置に順次に設定される。
 なお、本実施形態においても、上記第1および第2実施形態と同様に、被検査画像の各水平ラインが、本発明の「移動基準ライン」に相当する。また、本実施形態においても、被検査画像に対して腹部テンプレート14が照合される際に、該被検査画像のうち、腹部テンプレート14の上辺が合わされる水平ラインが、移動基準ラインとされているものとする。
 そして、被検査画像上において腹部テンプレート14が設定される位置ごとに、腹部テンプレート14と被検査画像とが重なり合う領域全体の差分の値(不一致度)が求められる。
 図9は、被検査画像の各水平ラインに沿って、腹部テンプレート14が移動させられながら照合が行われる様子を例示する図である。
 次に、上述したように各水平ラインに沿って腹部テンプレート14を移動させながら照合が行われた結果、被検査画像20と腹部テンプレート14とが、不一致度が最小となる位置関係が検出される。つまり、被検査画像20と腹部テンプレート14とが最も類似している位置関係が検出される。
 そして、被検査画像20と腹部テンプレート14とが、不一致度が最小となる位置関係にある際に、被検査画像20のうち、腹部テンプレート14の所定の位置P3に対応する位置が腹部中点候補位置15として検出される。なお、ここで言う「所定の位置P3」としては、例えば、腹部テンプレート14の対角線の交点、腹部テンプレート14の重心点、画像領域14bの対角線の交点、および画像領域14bの重心点などが挙げられる。
 上述したように、本実施形態では、被検査画像20に対して腹部テンプレート14が水平方向に移動させられながら照合が行われて、被検査画像20と腹部テンプレート14との差が最小となる際に、該被検査画像20のうち、腹部テンプレート14の所定の位置P3に対応する腹部中点候補位置15が検出される。換言すると、腹部中点候補位置15は、腹部テンプレート14を被検査画像20に整合させたときに所定の位置P3に対応する位置である。そして、本実施形態では、1つの水平ラインに沿って、被検査画像に対して腹部テンプレート14が水平方向に移動させられながら照合を行われつつ、腹部中点候補位置15が検出される動作が、本発明の「候補位置検出動作」に相当する。そして、ここで求められる腹部中点候補位置15は、被検者をとらえた被検査画像20上において正中線が検出される際に、正中線が通る位置の候補となる。
 また、腹部中点候補位置15を検出する動作は、被検査画像20のうち、左体側の外側、右体側の外側および、腹部がとらえられていると推定される所定の画像領域(以下「評価対象領域」とも称する)を対象として行われる。ここでは、図9で示されるように、所定の評価対象領域が、被検査画像20のうちの下から1~128番目の水平ラインにかけた画像領域となるように設定される。換言すれば、被検査画像がN本(Nは自然数)の水平ラインで構成される場合に、所定の対象領域は、上から(3×N/4)本目の水平ラインからN本目の水平ラインに至る画像領域となるように設定される。
 そして、例えば、初めに、所定の評価対象領域中の最も上方の水平ラインを移動基準ラインとして、該移動基準ラインに沿って、被検査画像20に対して腹部テンプレート14が水平方向に移動させられながら照合が行われつつ、腹部中点候補位置15が検出される動作が行われる。次に、所定の画素(例えば、1画素)分下の水平ラインに沿って、被検査画像20に対して腹部テンプレート14が水平方向に移動させられながら照合が行われつつ、腹部中点候補位置15が検出される動作が行われる。このような動作が、評価対象領域の全域について繰り返して行われることで、各水平ラインに対して、腹部中点候補位置15が検出される。つまり、複数の腹部中点候補位置15からなる点の列(腹部中点列候補)が検出される。そして、このとき、腹部中点列候補の白黒階調値と画像領域14bの白黒階調値との差分の総和(以下「累積差分値」とも称する)が算出される。なお、腹部中点列候補は、腹部の中心線を通る点の列を示す候補に相当する。
    <(H-2)各角度関係における腹部中点列候補の検出>
 上述した腹部中点列候補の検出と、その腹部中点列候補に係る累積差分値の算出とが行われる動作(以下「腹部中点列候補認識動作」とも称する)が、被検査画像20と腹部テンプレート14との角度関係が変更されたそれぞれの角度関係について行われる。
 具体的には、第1実施形態と同様に、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、腹部中点列候補認識動作がそれぞれ行われる。
 回転被検査画像を対象とした腹部中点列候補認識動作は、上述したある1つの角度関係における腹部中点列候補認識動作と同様に、例えば、N本の水平ラインで構成される回転被検査画像のうちの上から(3×N/4)本目の水平ラインからN本目の水平ラインに至る画像領域を対象として行われる。
 このようにして、被検査画像20と腹部テンプレート14との相対的な角度関係を段階的に変更させた複数の角度関係に対して、正中線の位置の候補となる腹部中点列候補が認識される。具体的には、基準となる被検査画像20と、該被検査画像20が時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、該被検査画像20が反時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、をそれぞれ対象として、腹部中点列候補認識動作が行われる。つまり、腹部中点列候補と累積差分値との組が、(2×(β/α)+1)個だけ得られる。
   <(I)正中線の位置の決定>
 上述した腹部中点列候補認識動作によって得られた(2×(β/α)+1)個の腹部中点列候補と累積差分値との組のうち、最小の累積差分値(最小累積差分値)と組み合わされた腹部中点列候補が腹部中点列として抽出される。なお、より小さな累積差分値と組み合わされた腹部中点列候補ほど、被検査画像20と腹部テンプレート14との類似性が高い状態で得られた腹部中点列候補と言える。したがって、ここでは、最小累積差分値と組み合わされた腹部中点列候補が、被検査画像20上の正中線に係る候補位置として抽出される。
 そして、最後に、抽出された最小累積差分値に対応する腹部中点列から、最小二乗法によって得られる直線が、被検査画像20の正中線として検出される。
  <1-3-2.正中線の位置の決定動作フロー>
 図10は、第3実施形態に係る正中線決定部3が正中線を決定する動作フローを示すフローチャートである。最初に、正中線決定装置1で、操作部4から正中線を決定する旨の指示が制御部2に伝達されると、ステップT1に移る。
 ステップT1では、取得部5によって撮影対象者の腹部の領域を撮影した被検査画像20が取得されて、ステップT2に移る。
 ステップT2では、記憶部6から腹部テンプレート14が読み出される。
 ステップT3では、被検査画像20の角度が初期値に設定される。ここでは、被検査画像20の角度は、被検査画像20を基準とし、中心点19を中心として該被検査画像20を反時計回りに回転させた角度をマイナスの値、時計回りに回転させた角度をプラスの値として表されるものとする。そして、本実施形態では、被検査画像20の角度が-β度から+β度までα度刻みで変更されつつ、背骨点列候補がそれぞれ検出されるため、ステップT3では、被検査画像20の初期値として、-β度が採用される。したがって、このステップT3では、被検査画像20が中心点19を中心として-β度回転された回転被検査画像が生成される。
 ステップT4では、回転被検査画像のうち、該腹部テンプレート14を移動させつつ照合を行う際に腹部テンプレート14の上辺が合わされる水平ラインが移動基準ラインとして設定される。ステップT4では、回転被検査画像の評価対象領域の最も上の水平ラインが初期の移動基準ラインとして設定される。
 ステップT5では、被検査画像20と腹部テンプレート14との照合が行なわれる。具体的には、被検査画像20の移動基準ラインに沿って腹部テンプレート14が少しずつ移動された各位置において、被検査画像20と腹部テンプレート14とに係る不一致度がそれぞれ求められる。
 ステップT6では、被検査画像20と腹部テンプレート14とが、ステップT5において求められた不一致度が最小となる位置関係にある場合に、該被検査画像20において腹部テンプレート14の所定の位置P3(例えば、対角線の交点)に対応する位置が腹部中点候補位置15として決定される。
 ステップT7では、評価対象領域の全域について腹部中点候補位置15が検出されているか否か判別される。ここで評価対象領域の全域について腹部中点候補位置15が求められていればステップT9に移り、求められていなければ、ステップT8に移る。
 ステップT8では、被検査画像20のうち、移動基準ラインを、例えば、一水平ライン分下へずらしてステップT5に戻る。すなわち、評価対象領域の全域について腹部中点候補位置15が求められるまで、ステップT5~T8の処理が繰り返される。
 ステップT9では、ステップT7において検出された複数の腹部中点候補位置15からなる腹部中点列候補の白黒階調値と画像領域14bの白黒階調値との差分の総和(累積差分値)が算出される。
 ステップT10では、被検査画像20の角度が+β度に到達したか否かが判別される。ここで、被検査画像20の角度が+β度に到達していれば、ステップT12に移り、到達していなければ、ステップT11に移る。
 ステップT11では、被検査画像20の角度が+α度だけ増加されて、ステップT4に戻る。なお、ステップT11では、+α度だけ増加された角度に応じた回転被検査画像が生成される。そして、被検査画像20の角度が-β度から+β度まで変更されて、(2×(β/α)+1)個の腹部中点列候補と累積差分値との組が求められるまで、ステップT4~T11の処理が繰り返される。
 ステップT12では、ステップT9において求められた(2×(β/α)+1)個の腹部中点列候補と累積差分値との組の中から、最小の累積差分値(最小累積差分値)と組み合わされた腹部中点列候補が、腹部中点列として抽出される。
 ステップT13では、ステップT12で抽出された最小累積差分値に対応する背骨点列から、最小二乗法によって得られる直線が、被検査画像20の正中線として決定されて、本動作フローが終了する。
 以上のような処理により、第3実施形態では、第1および第2実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。また、肺野の画像領域を利用して正中線を決定する第1および第2実施形態では、肺に病変または異常が存在する場合には、正中線を求める精度が低下する可能性があるが、このような状況でも腹部の画像領域を利用して正中線を決定する第3実施形態では、正しく正中線を求めることが可能となる。
 <1-4.第4実施形態>
 第4実施形態では、被検査画像と肺野の構成に係る画像パターンとの照合を行うことによって、被検査画像における正中線の位置を決定する。まず、正中線決定部3において正中線の位置を決定する方法について説明した後に、その動作フローについて説明する。
  <1-4-1.正中線の位置の決定方法>
 第4実施形態に係る正中線決定部3では、主に、(J)肺野に着目した構成を模した肺野モデルの読み出し、(K)被検査画像と肺野モデルとの照合、(L)正中線の位置の決定、の順に処理が行われる。以下、これらの処理内容について順次に説明する。
   <(J)肺野モデルの読み出し>
 正中線決定部3によって、記憶部6に予め準備されて記憶されている肺野モデルが読み出される。なお、本実施形態では、肺野モデルが、「検体の身体モデルを表現した画像パターン」に相当する。
 肺野モデルは、肺の構成に係るテンプレートであって、肺野の典型的な形状を模したテンプレートである。また、肺野モデルには、典型的な正中線のモデルを示すパターン(以下「正中線モデルパターン」と称する)が付加されている。つまり、肺野モデルの所定位置に正中線モデルパターンが付加されていることになる。
 肺野モデルは、例えば、過去に撮影した被写体の画像データ等から肺野の輪郭(肺野輪郭)を抽出することによって作成される。肺野領域の輪郭を抽出する手法としては、種々の公知の手法を採用することができ、例えば、X線画像における濃度の変化の特徴から肺野部の輪郭を求める手法(例えば、特開昭63-240832号公報等参照)や、その他の手法(例えば、特開平2-250180号公報等参照)等を採用することができる。
 図11は、肺野モデル16の構成を例示する図である。肺野モデル16は、上記手法によって抽出された肺野輪郭によって囲まれる画像領域(以下「肺野画像領域」とも称する)17を含む画像に正中線モデルパターン18が付加されて構成されている。また、肺野モデル16の画素値は、被検査画像と同様に、白黒階調値で表される。例えば、肺野画像領域17の白黒階調値が、被検査画像において白黒階調値が採り得る範囲の最小値である0に設定され、その他の周辺の画像領域の白黒階調値については、全く設定されていない。正中線モデルパターン18については、肺野モデル16に対する位置情報が設定されているのみである。
   <(K)被検査画像と肺野モデルとの照合>
 被検査画像と肺野モデル16との照合は、被検査画像と肺野モデル16との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。
 被検査画像と肺野モデル16との照合では、一方向(具体的には、被検査画像の各水平ライン)に沿って、被検査画像に対して肺野モデル16が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。
 そして、被検査画像上において肺野モデル16が設定される位置ごとに、肺野モデル16と被検査画像とが重なり合う領域全体の類似度が求められる。この類似度を求める具体的手法としては、例えば、差分法(SAD)、最小二乗和法(SSD)、正規化相互相関法(NCC)等がある。この照合は、被検査画像20の全領域に対して行われる。
 そして、上述した被検査画像と肺野モデル16との照合が、被検査画像20と肺野モデル16の角度関係が変更された各角度関係について行われる。
 具体的には、第1実施形態と同様に、被検査画像の中心点を中心として、該被検査画像を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点を中心として、該被検査画像を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、照合がそれぞれ行われる。
 そして、被検査画像と肺野モデル16との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像と肺野モデル16とに係る位置関係が検出される。
    <(L)正中線の位置の決定>
 上述したように、被検査画像と肺野モデル16との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像と肺野モデル16とに係る位置関係を、被検査画像と肺野モデル16とが最も類似している位置関係(以下「類似位置関係」と称する)として検出する。そして、最後に、被検査画像と肺野モデル16とが類似位置関係にある際に、被検査画像において肺野モデル16の正中線モデルパターン18に対応する位置(具体的には直線)が、被検査画像の正中線として決定される。図12は、被検査画像20と肺野モデル16とが類似位置関係にある状態を例示する図である。
  <1-4-2.正中線の位置の決定動作フロー>
 図13は、第4実施形態に係る正中線決定装置1が正中線を決定する動作フローを示すフローチャートである。最初に、正中線決定装置1では、操作部4から正中線を決定する旨の指示が制御部2に伝達されると、ステップU1に移る。
 ステップU1では、取得部5によって撮影対象者の肺野領域を撮影した被検査画像20が取得されて、ステップU2に移る。
 ステップU2では、記憶部6から肺野モデル16が読み出される。
 ステップU3では、被検査画像20の角度が初期値に設定される。ここでは、被検査画像20の角度は、被検査画像20を基準とし、中心点を中心として該被検査画像20を反時計回りに回転させた角度をマイナスの値、時計回りに回転させた角度をプラスの値として表されるものとする。そして、本実施形態では、被検査画像20の角度が-β度から+β度までα度刻みで変更されつつ、類似度がそれぞれ検出されるため、ステップU3では、被検査画像20の初期値として、-β度が採用される。したがって、このステップU3では、被検査画像20が中心点を中心として-β度回転された回転被検査画像が生成される。
 ステップU4では、被検査画像20と肺野モデル16との照合が行なわれる。具体的には、被検査画像20の各水平ラインに沿って肺野モデル16が少しずつ移動された各位置において、被検査画像20と肺野モデル16とに係る類似度がそれぞれ求められる。
 ステップU5では、被検査画像20の角度が+β度に到達したか否かが判別される。ここで、被検査画像20の角度が+β度に到達していれば、ステップU7に移り、到達していなければ、ステップU6に移る。
 ステップU6では、被検査画像20の角度が+α度だけ増加されて、ステップU4に戻る。なお、ステップU6では、+α度だけ増加された角度に応じた回転被検査画像が生成される。そして、被検査画像20の角度が+β度に到達するまで、ステップU4~U6の処理が繰り返される。
 ステップU7では、ステップU4において各角度関係に対して求められた類似度のうち、最大の類似度と関連付けられている位置関係が、被検査画像20と肺野モデル16とが最も類似している位置関係(類似位置関係)として検出される。
 ステップU8では、被検査画像20と肺野モデル16とが類似位置関係にある際に、被検査画像20において肺野モデル16の正中線モデルパターン18に対応する位置(具体的には、直線)が、被検査画像20の正中線として決定されて、本動作フローが終了する。
 以上のような処理により、第4実施形態では、第1実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上の被写体の正しい正中線が求められる。また、肺野の輪郭を利用した肺野モデルを利用した第4実施形態では、画像の鮮明度が正中線の決定精度に与える影響が小さいため、画像の鮮明度によらず、正しく正中線が求められる。
 <1-5.第5実施形態> 
 第5実施形態では、被検査画像と肋骨の構成に係る画像パターンとの照合を行うことによって、被検査画像における正中線の位置を決定する。
  <1-5-1.正中線の位置の決定方法>
 第5実施形態に係る正中線決定部3では、主に、(M)肋骨に着目した構成を模した肋骨モデルの読み出し、(N)被検査画像と肋骨モデルとの照合、(O)正中線の位置の決定、の順に処理が行われる。以下、これらの処理内容について順次に説明する。
   <(M)肋骨モデルの読み出し>
 正中線決定部3によって、記憶部6に予め準備されて記憶されている肋骨モデルが読み出される。なお、本実施形態では、肋骨モデルが、「検体の身体モデルを表現した画像パターン」に相当する。
 肋骨モデルは、肋骨の構成に係るテンプレートであって、肋骨の典型的な形状を模したテンプレートである。また、肋骨モデルには、典型的な検体の正中線のモデルを示すパターン(正中線モデルパターン)が付加されている。つまり、肋骨モデルの所定位置に検体の正中線モデルパターンが付加されていることになる。
 肋骨モデルは、例えば、今回の被検査者自身について過去に撮影した被検査画像データ等から肋骨をとらえた画像領域(肋骨画像領域)を抽出することで作成される。被検査者自身について過去に撮影した画像がない場合は、類似の身体サイズを持つ他人の肋骨画像を肋骨モデルとして使用してもよい。このような肋骨画像領域を抽出する手法としては、種々の公知の手法を採用することができる。例えば、まず、X線を用いて胸部を撮影して得られた被検査画像(胸部撮影画像)からエッジを抽出して得られる画像(エッジ画像)を生成し、このエッジ画像から肋骨の外縁を検出することで肋骨をとらえた肋骨画像領域を抽出することができる。なお、骨以外の軟部組織の影響を除いて、より正確な肋骨画像領域を推定することができる(例えば、特開昭2007-105196号公報等参照)。
 図14は、肋骨モデル22の構成を例示する図である。肋骨モデル22は、上記手法によって抽出された肋骨画像領域23を含む画像に正中線モデルパターン24が付加されて構成されている。また、肋骨モデル22の画素値は、被検査画像と同様に、白黒階調値で表される。例えば、肋骨画像領域23の白黒階調値が、被検査画像において白黒階調値がとり得る範囲の最大値である4095に設定され、その他の周辺の画像領域の白黒階調値については、全く設定されていない。正中線モデルパターン24については、肋骨モデル22に対する位置情報が設定されているのみである。
   <(N)被検査画像と肋骨モデルとの照合>
 被検査画像と肋骨モデル22との照合は、被検査画像と肋骨モデル22との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。
 被検査画像と肋骨モデル22との照合では、一方向(具体的には、被検査画像の各水平ライン)に沿って、被検査画像に対して肋骨モデル22が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。
 そして、被検査画像上において肋骨モデル22が設定される位置ごとに、肋骨モデル22と被検査画像とが重なり合う領域全体の類似度が求められる。この照合は、被検査画像20の全領域を対象として行われる。
 次に、上述した被検査画像と肋骨モデル22との照合が、被検査画像20と肋骨モデル22の角度関係が変更された各角度関係について行われる。
 具体的には、第1実施形態等と同様に、被検査画像の中心点を中心として、該被検査画像を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点を中心として、該被検査画像を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、照合がそれぞれ行われる。
 そして、被検査画像と肋骨モデル22との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像と肋骨モデル22とに係る位置関係が検出される。
   <(O)正中線の位置の決定>
 上述したように、被検査画像と肋骨モデル22との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像と肋骨モデル22とに係る位置関係を、被検査画像と肋骨モデル22とが最も類似している位置関係(類似位置関係)として検出する。そして、最後に、被検査画像と肋骨モデル22とが類似位置関係にある際に、被検査画像において肋骨モデル22の正中線モデルパターン24に対応する位置(具体的には、直線)が、被検査画像の正中線として決定される。図15は、被検査画像20と肋骨モデル22とが類似位置関係にある状態を例示する図である。
 なお、第5実施形態に係る正中線決定装置1が正中線を決定する動作フローについては、上記第4実施形態に係る動作フローと同様なものとなるため、ここでは説明を省略する。
 以上のような処理により、第5実施形態では、第4実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上の被写体の正しい正中線が求められる。また、肋骨の形状を利用した肋骨モデルを用いた第5実施形態では、画像の鮮明度が正中線の決定精度に与える影響がより小さいため、画像の鮮明度によらず、正しく正中線を求められる。更に、肺野の画像領域および形状を利用して正中線を決定する第1、第2、および第4実施形態では、肺に病変または異常が存在する場合には、正中線を求める精度が低下する可能性があるが、このような状況でも、肋骨の形状を利用して正中線を決定する第5実施形態では、正しく正中線を求めることが可能となる。
 <2.正中線決定装置2001の全体構成>
 図18は、正中線決定装置2001に適用した各実施形態に共通の構成を示すブロック図である。
 図18で示されるように、正中線決定装置2001は、制御部2、操作部4、取得部5、記憶部6、および表示部7をバスライン10に接続した一般的なコンピュータの構成となっている。
 制御部2は、例えば、CPUによって構成され、記憶部6に記憶されるプログラムを実行することによって、正中線決定装置2001全体の動作を決定し、正中線決定装置2001全体に指令を与え、さらに後述する表示部7に表示の指示を出す。また、制御部2は、後述する設定部2020、積算値算出部2030、決定部2040の機能も実現する。これらの機能によって、制御部2は、取得された画像データに係る画像において、該画像でとらえられた撮影対象者の正中線の位置を決定する。なお、決定部2040の機能については、後述する第6~11実施形態で相互に異なるため、以下、これらの第6~11実施形態に係る機能を決定部2040A~2040Fとして説明する。
 以下に述べる第6~11実施形態においても、取得部5によって取得される被検査画像が、例えば、縦方向が512ピクセルで構成されるとともに、横方向が512ピクセルで構成された正方形状の胸部を単純にとらえたX線透過像(胸部単純X線画像)であるものとして説明する。
 <2-1.第6実施形態>
 第6実施形態では、被検査画像に設定される所定の評価領域において、縦方向の画素のラインごとに画素値を積算させた値(積算画素値)が最小となる位置に基づいて、被検査画像における正中線の位置を決定する。
 正中線の位置の決定は、制御部2の設定部2020、積算値算出部2030、決定部2040Aの各機能によって行われる。図19は、決定部2040Aの機能構成を示すブロック図である。図19に示すように、決定部2040Aは、認識部2041Aおよび正中線決定部2042Aを有する。
 制御部2においては、設定部2020が被検査画像に対して評価領域を設定し、積算値算出部2030が、評価領域内に含まれる各縦ラインに係る積算画素値を算出する。そして、認識部2041Aが、得られた積算画素値の最小値に対応する横方向の座標を求めることで、正中線の候補位置を認識する。
 この被検査画像について正中線候補位置を認識する動作は、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。そして、正中線決定部2042Aが、各角度関係についてそれぞれ認識された正中線候補位置の中から正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において正中線候補位置を認識する処理について説明し、その後、各角度関係における正中線候補位置を認識する処理について説明する。そして、最後に、複数の正中線候補位置の中から正中線の位置を決定する処理について説明する。
  <2-1(A).1つの角度関係において正中線候補位置を認識する処理>
 まず、設定部2020が、被検査画像に対して評価領域を設定する。図20は、第6実施形態における正中線を決定する処理を説明するための図である。評価領域51Aは、例えば、各辺の長さが、被検査画像20の各辺の半分の長さ(ここでは256ピクセル)である正方形の形状を有する。ここでは、被検査画像20の各辺と評価領域51Aの各辺とがそれぞれ平行で、かつ被検査画像20の中心点19と評価領域51Aの中心点とが一致するような例が示されている。なお、評価領域51Aの各辺の長さは、上述の被検査画像20の各辺の半分の長さに限らず、任意の長さに設定することが可能である。後述する他の実施形態における評価領域についても同様である。
 次に、制御部2の積算値算出部2030が、評価領域51Aを対象として、身体の内部構造を示す情報である被写体を透過したX線の量(透過量)に対応する画素値を所定のルールで積算した積算画素値を算出する。後述する実施形態についても同様である。
 積算画素値は、積算値算出部2030によって、評価領域51Aの一方向に沿った各画素列について、画素値が積算されることによって、それぞれ算出される。ここで言う一方向とは、評価領域51Aの縦方向の一辺に沿った方向である。図20に示すグラフは、積算画素値と評価領域51Aの横方向の座標との関係を示すグラフである。グラフの縦軸は、積算値算出部2030によって算出された各画素列の積算画素値を表す。また、グラフの横軸は、評価領域51Aにおける横方向の座標を表す。
 なお、被検査画像20の各画素値は、X線が被写体を透過する量(透過量)に対応しており、白黒階調値で表される。そして、本実施形態の図20においては、X線の透過量が多くなればなるほど、画素値が大きくなる例が示されている。後述する他の実施形態においても同様である。
 なお、評価領域51Aの形状については、任意の形状とすることができるが、矩形の形状を有することによって、積算画素値を効率よく計算することができる。
 次に、認識部2041Aが、得られた積算画素値の最小値に対応する横方向の座標を求める。具体的には、積算画素値が最小となる画素列の横方向の座標が求められる。そして、該最小値に対応する横方向の座標に係る位置を通り、かつ被検査画像20の縦方向に沿った線が正中線の候補位置(正中線候補位置)54として認識される。
  <2-1(B).各角度関係における正中線候補位置の認識>
 上述したような積算画素値の最小値に対応する位置を求めて正中線候補位置が認識される動作が、被検査画像20と評価領域51Aとの角度関係が変更されたそれぞれの角度関係について行われる。
 図21は、被検査画像20を反時計回りにθ度回転させることで得られる回転被検査画像60を例示する図である。θ度はもとの被検査画像20からずれた角度を表す。被検査画像20が回転させられて各回転被検査画像60が得られる際には、回転被検査画像60を構成する各画素の白黒階調値が補間処理によって求められる。
 ここでは、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像60、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像60について、評価領域51Aをそれぞれ設定する。したがって、評価領域51Aが設定される位置は固定されたままで被検査画像が回転されることで、被検査画像20と評価領域51Aとの角度関係が変更される。なお、ここでは、例えば、α度は1度、β度は30度に設定される。後述する他の実施形態においても同様である。
 そして、各角度関係について、積算値算出部2030が、評価領域51Aを対象として、各画素列に係る積算画素値を算出するとともに、認識部2041Aが、正中線候補位置54を認識する一連の動作がそれぞれ行われる。なお、このとき、各正中線候補位置54に対して対応する積算画素値が組み合わされて記憶される。
  <2-1(C).正中線の位置の決定>
 正中線決定部2042Aが、認識部2041Aによって各角度関係について認識された正中線候補位置54のうち、対応する積算画素値が最小となる正中線候補位置54を、正中線の位置として決定する。
 具体的には、上述した各角度関係における正中線候補位置54の認識動作によって得られた(2×(β/α)+1)個の正中線候補位置54のうち、最小の積算画素値(以下「最小積算画素値」と称する)と組み合わされている正中線候補位置54が抽出され、正中線の位置として決定される。
 次に、正中線の位置を決定する動作フローについて説明する。
  <2-1-1.正中線の位置の決定動作フロー>
 図22は、第6実施形態に係る制御部2が正中線を決定する動作フローを示すフローチャートである。最初に、正中線決定装置2001で、操作部4から正中線を決定する旨の指示が制御部2に伝達されると、ステップS2001に移る。
 ステップS2001では、取得部5によって撮影対象者の肺野領域を撮影した画像が取得されて、ステップS2002に移る。
 ステップS2002では、被検査画像20の角度が初期値に設定される。ここでは、被検査画像20の角度は、被検査画像20を基準(0度)とし、中心点19を中心として被検査画像20を反時計回りに回転させた角度をマイナスの値、時計回りに回転させた角度をプラスの値として表されるものとする。そして、本実施形態では、被検査画像20の角度が-β度から+β度までα度刻みで変更されつつ、正中線候補位置54がそれぞれ検出されるため、ステップS2002では、被検査画像20の初期値として、-β度が採用される。したがって、このステップS2002では、被検査画像20が中心点19を中心として-β度回転された回転被検査画像60が生成される。
 ステップS2003では、回転被検査画像60(回転角度が-β度から+β度、但し0度を除く)または被検査画像20(回転角度が0度)上に、評価領域51Aが設定される。
 ステップS2004では、評価領域51A内において、縦方向の画素のラインごとに積算画素値が算出される。
 ステップS2005では、正中線候補位置54が認識される。具体的には、得られた積算画素値の最小値に対応する位置が求められ、該最小値に対応する横方向の座標に係る位置を通り、かつ回転被検査画像60または被検査画像20の縦方向に沿った線(具体的には画素のライン)が正中線候補位置54として認識される。
 ステップS2006では、被検査画像20の角度が+β度に到達したか否かが判別される。ここで、被検査画像20の角度が+β度に到達していれば、ステップS2008に移り、到達していなければ、ステップS2007に移る。
 ステップS2007では、被検査画像20の角度が+α度だけ増加されて、ステップS2003に戻る。なお、ステップS2007では、+α度だけ増加された角度に応じた回転被検査画像60が生成される。但し、被検査画像20の角度が0度の場合は、被検査画像20がそのまま援用される。そして、被検査画像20の角度が-β度から+β度まで変更されて、(2×(β/α)+1)個の正中線候補位置54と積算画素値との組が求められるまで、ステップS2003~S2007の処理が繰り返される。
 ステップS2008では、ステップS2005において順次に求められた(2×(β/α)+1)個の正中線候補位置54と積算画素値との組の中から、最小の積算画素値(最小積算画素値)と組み合わされている正中線候補位置54が抽出され、正中線の位置として決定されて、本動作フローが終了する。
 以上のような処理により、第6実施形態では、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <2-2.第7実施形態>
 第7実施形態では、被検査画像に設定される評価領域のうちの一方向、具体的には、縦方向に沿った中心線を挟む一方領域および他方領域について積算画素値が最大となる横方向の座標の位置がそれぞれ求められ、この求められた2つの座標の位置の中間に対応する位置に基づいて被検査画像の正中線の位置が決定される。
 正中線の位置の決定は、制御部2の設定部2020、積算値算出部2030、決定部2040Bの各機能によって行われる。図23は、第7実施形態における決定部2040Bの機能構成を示すブロック図である。決定部2040Bは、認識部2041Bと正中線決定部2042Bを有する他、さらに検出部2043Bを有する。
 制御部2においては、設定部2020が被検査画像に対して評価領域を設定し、積算値算出部2030が、評価領域内に含まれる各縦ラインに係る積算画素値を算出する。また、検出部2043Bが、評価領域のうちの被検査画像の縦方向に沿った中心線を挟む一方および他方領域について、積算画素値の最大値をそれぞれ検出する。更に、認識部2041Bが、得られた積算画素値の2つの最大値に対応する横方向の座標を求めることで、正中線の候補位置を認識する。
 この被検査画像について正中線候補位置を認識する動作は、第6実施形態と同様に、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。そして、正中線決定部2042Bが、各角度関係についてそれぞれ認識された正中線候補位置の中から正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において正中線候補位置を認識する処理について説明し、その後、各角度関係における正中線候補位置を認識する処理について説明する。そして、最後に複数の正中線候補位置の中から正中線の位置を決定する処理について説明する。
  <2-2(D).1つの角度関係において正中線候補位置を認識する処理>
 第6実施形態と同様に、まず、設定部2020が、被検査画像上に評価領域を設定する。図24は、第7実施形態における正中線を決定する処理を説明するための図である。評価領域51Aは、第6実施形態と同様に、例えば、各辺の長さが、被検査画像20の各辺の半分の長さ(256ピクセル)である正方形の形状を有する。
 次に、制御部2の積算値算出部2030が、第6実施形態と同様に、評価領域51Aを対象として、評価領域51Aの一方向に沿った各画素列について画素値を積算することによって、積算画素値をそれぞれ算出する。図24に示すグラフは、積算画素値と評価領域51Aの横方向の座標との関係を示すグラフである。グラフの縦軸は、積算値算出部2030によって算出された各画素列の積算画素値を表す。また、グラフの横軸は、積算画素値に対応する各画素列の評価領域51Aにおける横方向の座標を表す。
 検出部2043Bは、図24に示すように、評価領域51Aのうちの被検査画像20の縦方向に沿った中心線53を挟む一方および他方領域について、積算画素値の最大値W2001,W2002をそれぞれ検出する。なお、ここでは、中心線53を境界線として、評価領域51Aを2分割した左方の領域を一方領域とし、右方の領域を他方領域とする。そして、一方領域について、最大値W2001を求めるとともに、他方領域において、最大値W2002が検出される。
 次に、認識部2041Bが、得られた積算画素値の2つの最大値W2001,W2002に対応する横方向の座標を求める。そして、最大値W2001に対応する横方向の座標と最大値W2002に対応する横方向の座標との中間に対応する被検査画像20の縦方向に沿った線(画素のライン)が正中線候補位置54として認識される。
  <2-2(E).各角度関係における正中線候補位置の認識>
 上述したような正中線候補位置54が認識される動作が、第6実施形態と同様に、被検査画像20と評価領域51Aとの角度関係が変更されたそれぞれの角度関係について行われる。
 ここでは、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像について、評価領域51Aをそれぞれ設定する。
 そして、各角度関係について、積算値算出部2030が、評価領域51Aを対象として、各画素列に係る積算画素値を算出するとともに、検出部2043Bが、左右の各領域について積算画素値の最大値W2001,W2002をそれぞれ検出し、更に、認識部2041Bが、正中線候補位置54を認識する一連の動作がそれぞれ行なわれる。このとき、正中線候補位置54に対して、対応する積算画素値が組み合わされて記憶される。
  <2-2(F).正中線の位置の決定>
 正中線決定部2042Bが、認識部2041Bによって各角度関係について認識された正中線候補位置54のうち、対応する積算画素値が最小となる正中線候補位置54を、正中線の位置として決定する。
 具体的には、上述した各角度関係における正中線候補位置54の認識動作によって得られた(2×(β/α)+1)個の正中線候補位置54のうち、最小積算画素値と組み合わされている正中線候補位置54が抽出され、正中線の位置として決定される。
 以上のような処理により、第7実施形態においても、第6実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <2-3.第8実施形態>
 第8実施形態では、被検査画像に設定される評価領域のうちの一方向、具体的には、縦方向に沿った中心線を挟む一端近傍領域および他端近傍領域について、積算画素値が最小となる横方向の座標の位置がそれぞれ求められ、この求められた2つの座標の位置の中間に対応する位置に基づいて被検査画像の正中線の位置が決定される。
 正中線の位置の決定は、制御部2の設定部2020、積算値算出部2030、決定部2040Cの各機能によって行われる。図23に示すように、決定部2040Cは、認識部2041Cと正中線決定部2042C、および検出部2043Cを有する。
 制御部2においては、設定部2020が被検査画像に対して評価領域を設定し、積算値算出部2030が、評価領域内に含まれる各縦ラインに係る積算画素値を算出する。また、検出部2043Cが、評価領域のうちの被検査画像の縦方向に沿った中心線を挟む一方および他方領域について、積算画素値の最小値をそれぞれ検出する。更に、認識部2041Cが、得られた積算画素値の2つの最小値に対応する横方向の座標を求めることで、正中線の候補位置を認識する。
 この被検査画像について正中線候補位置を認識する動作は、第6実施形態と同様に、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。そして、正中線決定部2042Cが、各角度関係についてそれぞれ認識された正中線候補位置の中から正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において正中線候補位置を認識する処理について説明し、その後、各角度関係における正中線候補位置を認識する処理について説明する。そして、最後に複数の正中線候補位置の中から正中線の位置を決定する処理について説明する。
  <2-3(G).1つの角度関係において正中線候補位置を認識する処理>
 第6実施形態と同様に、まず、設定部2020が、被検査画像に対して評価領域を設定する。図25は、第8実施形態における正中線を決定する処理を説明するための図である。評価領域51Bは、例えば、長辺方向が、被検査画像20の各辺と同じ長さの512ピクセルで構成されるとともに、短辺方向が、被検査画像20の各辺の長さの1/4に相当する128ピクセルで構成された矩形の形状を有する。図25では、被検査画像20の各辺と評価領域51Bの各辺とがそれぞれ平行で、かつ被検査画像20の中心点19と評価領域51Bの中心点とが一致するような例が示されている。なお、評価領域51Bの形状については、肺野領域および両体側と両腕との間の領域が含まれていれば、任意の形状に設定することが可能である。
 次に、制御部2の積算値算出部2030が、第6実施形態と同様に、評価領域51Bの一方向、具体的には、被検査画像20の縦方向に沿った各画素列について、画素値を評価領域51Bの縦方向に沿って積算することによって、積算画素値がそれぞれ算出される。図25に示すグラフは、積算画素値と評価領域51Bの横方向の座標との関係を示すグラフである。グラフの縦軸は、積算値算出部2030によって算出された各画素列の積算画素値を表す。また、グラフの横軸は、評価領域51Bにおける横方向の座標を表す。
 図25に示すように、検出部2043Cが、評価領域51Bのうちの被検査画像20の縦方向に沿った方向に沿った中心線53を挟む一端近傍領域および他端近傍領域について、積算画素値の最小値T2001,T2002をそれぞれ検出する。なお、ここでは、中心線53を境界線として、例えば、評価領域51Bの左端から横方向に長辺の長さの1/4の周辺の領域を一端近傍領域とし、評価領域51Bの右端から横方向に長辺の長さの1/4の周辺の領域を他端近傍領域とする。そして、一端近傍領域について、最小値T2001を求めるとともに、他端近傍領域において、最小値T2002が検出される。
 次に、認識部2041Cが、得られた積算画素値の2つの最小値T2001,T2002に対応する横方向の座標を求める。そして、被検査画像20のうち、最小値T2001をとる横方向の座標と最小値T2002をとる横方向の座標との中間に対応する被検査画像20の縦方向に沿った線(画素のライン)が正中線候補位置54として認識される。
  <2-3(H).各角度関係における正中線候補位置の認識>
 上述したような正中線候補位置54が認識される動作が、第6実施形態と同様に、被検査画像20と評価領域51Bとの角度関係が変更されたそれぞれの角度関係について行われる。
 ここでは、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像60、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像について、評価領域51Bをそれぞれ設定する。
 そして、各角度関係について、積算値算出部2030が、評価領域51Bを対象として、各画素列に係る積算画素値を算出するとともに、検出部2043Cが、左右の各領域について積算画素値の最小値T2001,T2002をそれぞれ検出し、更に、認識部2041Cが、正中線候補位置54を認識する一連の動作がそれぞれ行なわれる。このとき、正中線候補位置54に対して、対応する積算画素値が組み合わされて記憶される。
  <2-3(I).正中線の位置の決定>
 正中線決定部2042Cが、認識部2041Cによって各角度関係について認識された正中線候補位置54のうち、対応する積算画素値が最小となる正中線候補位置54を、正中線の位置として決定する。
 具体的には、上述した各角度関係における正中線候補位置54の認識動作によって得られた(2×(β/α)+1)個の正中線候補位置54のうち、最小積算画素値と組み合わされている正中線候補位置54が抽出され、正中線の位置として決定される。
 以上のような処理により、第8実施形態においても、第6実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <2-4.第9実施形態>
 第9実施形態では、被検査画像に設定される評価領域のうちの一方向、具体的には、縦方向に沿った中心線を挟む一方領域および他方領域について、縦方向と直交する横方向に沿った座標の変化に対する積算画素値の変化率が最大となる位置がそれぞれ求められ、この求められた2つの位置の中間に対応する位置に基づいて被検査画像の正中線の位置を決定する。
 正中線の位置の決定は、制御部2の設定部2020、積算値算出部2030、決定部2040Dの各機能によって行われる。図23に示すように、決定部2040Dは、認識部2041D、正中線決定部2042D、および検出部2043Dを有する。
 制御部2においては、設定部2020が被検査画像に対して評価領域を設定し、積算値算出部2030が、評価領域内に含まれる各縦ラインに係る積算画素値を算出する。また、検出部2043Dが、評価領域のうちの被検査画像の縦方向に沿った中心線を挟む一方および他方領域について、被検査画像20の縦方向と直交する方向(具体的には、グラフの横軸)に沿った座標の変化に対する積算画素値の変化率を求め、これらの変化率の中で、最大となる最大変化率を検出する。更に、認識部2041Cは、得られた2つの最大変化率に対応する横方向の座標の位置を求めて、これらに基づいて正中線の候補位置を認識する。
 この被検査画像について正中線候補位置を認識する動作は、第6実施形態と同様に、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。そして、正中線決定部2042Dが、各角度関係についてそれぞれ認識された正中線候補位置の中から正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において正中線候補位置を認識する処理について説明し、その後、各角度関係における正中線候補位置を認識する処理について説明する。そして、最後に複数の正中線候補位置の中から正中線の位置を決定する処理について説明する。
  <2-4(J).1つの角度関係において正中線候補位置を認識する処理>
 第6実施形態と同様に、まず、設定部2020が、被検査画像に対して評価領域を設定する。図26は、第9実施形態における正中線を決定する処理を説明するための図である。評価領域51Cは、例えば、長辺方向が、被検査画像20の各辺と同じ長さの512ピクセルで構成されるとともに、短辺方向が、被検査画像20の各辺の長さの1/4に相当する128ピクセルで構成された矩形の形状を有する。図26では、被検査画像20の各辺と評価領域51Cの各辺とがそれぞれ平行で、かつ被検査画像20の下端の一辺と評価領域51Cの下端の一辺とが一致するような例が示されている。なお、評価領域51Cの形状については、肺野領域が含まれておらず、かつ両体側と両腕との間の領域が含まれていれば、任意の形状に設定することが可能である。
 次に、制御部2の積算値算出部2030が、第6実施形態と同様に、評価領域51Cの一方向、具体的には、被検査画像20の縦方向に沿った各画素列について、画素値を評価領域51Cの縦方向に沿って積算することによって、積算画素値がそれぞれ算出される。図26に示すグラフは、積算画素値と評価領域51Cの横方向の座標との関係を示すグラフである。グラフの縦軸は、積算値算出部2030によって算出された各画素列の積算画素値を表す。また、グラフの横軸は、積算画素値に対応する各画素列の評価領域51Cにおける横方向の座標を表す。
 図26に示すように、検出部2043Dが、積算画素値の勾配値、具体的には被検査画像20の縦方向と直交する方向(具体的には、グラフの横軸)に沿った座標の変化に対する積算画素値の変化率を求めて、左右の両領域について最大の変化率(最大変化率)U2001,U2002を検出する。すなわち、積算画素値の最大変化率U2001,U2002は、評価領域51Cのうちの被検査画像20の縦方向に沿った中心線53を挟む一方および他方領域について、それぞれ検出される。
 次に、認識部2041Dが、得られた積算画素値の2つの最大変化率U2001,U2002に対応する横方向の座標を求める。そして、被検査画像20のうち、最大変化率U2001をとる横方向の座標と最大変化率U2002をとる横方向の座標との中間に対応する被検査画像20の縦方向に沿った線(具体的には画素のライン)が正中線候補位置54として認識される。
  <2-4(K).各角度関係における正中線候補位置の認識>
 上述したような正中線候補位置54が認識される動作が、第6実施形態と同様に、被検査画像20と評価領域51Cとの角度関係が変更されたそれぞれの角度関係について行われる。
 ここでは、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像について、評価領域51Cをそれぞれ設定する。
 そして、各角度関係について、積算値算出部2030が、評価領域51Cを対象として、各画素列に係る積算画素値を算出するとともに、検出部2043Dが、評価領域51Cのうちの縦方向に沿った中心線53を挟む一方および他方領域について、被検査画像20の縦方向と直交する横方向に沿った座標の変化に対する積算画素値の最大変化率をそれぞれ検出し、更に、認識部2041Dが、正中線候補位置54を認識する一連の動作がそれぞれ行なわれる。このとき、正中線候補位置54に対して、対応する積算画素値が組み合わされて記憶される。
  <2-4(L).正中線の位置の決定>
 正中線決定部2042が、認識部2041によって各角度関係について認識された正中線の候補位置のうち、対応する積算画素値が最小となる正中線候補位置54を、正中線の位置として決定する。
 具体的には、上述した各角度関係における正中線候補位置の認識動作によって得られた(2×(β/α)+1)個の正中線候補位置のうち、最小積算画素値と組み合わされている正中線候補位置54が抽出され、正中線の位置として決定される。
 以上のような処理により、第9実施形態においても、第6実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <2-5.第10実施形態>
 第7実施形態では、積算画素値の最大値W2001をとる横方向の座標と最大値W2002をとる横方向の座標との中間に対応する複数の正中線候補位置のうち、最小積算画素値と組み合わされている正中線候補位置が正中線の位置として決定されたが、第10実施形態においては、積算画素値の最大値W2001と最大値W2002との差分に基づいて正中線が決定される。
 正中線の位置の決定は、図18に示すように、制御部2の設定部2020、積算値算出部2030、決定部2040Eの各機能によって行われる。図27は、第10実施形態における決定部2040Eの機能構成を示すブロック図である。決定部2040Eは、認識部2041Eと正中線決定部2042E、検出部2043Eを有する他、さらに差分算出部2044を有する。
 第10実施形態においては、設定部2020、積算値算出部2030、検出部2043Eによって、第7実施形態と同様に、評価領域51A内に含まれる縦方向に沿った中心線を挟む一方および他方領域について、積算画素値の最大値をそれぞれ検出するまでの処理が行われる。
 差分算出部2044は、検出部2043Eによって検出された積算画素値の2つの最大値の差分を算出する。
 被検査画像について積算画素値の2つの最大値の差分を算出する動作は、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。
 認識部2041Eは、各角度関係のうち、積算画素値の2つの最大値の差分が最小となる角度関係に相当する回転被検査画像を認識する。そして、正中線決定部2042Eが、認識部2041Eによって認識された回転被検査画像に基づいて正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において積算画素値の2つの最大値の差分を算出する処理について説明し、その後、各角度関係において積算画素値の2つの最大値の差分を算出する処理について説明する。そして、最後に各角度関係における最大値の差分に基づいて正中線の位置を決定する処理について説明する。
  <2-5(M).1つの角度関係において積算画素値の2つの最大値の差分を算出する処理>
 第7実施形態と同様に、図24に示すように、制御部2の設定部2020が、被検査画像20上に評価領域51Aを設定する。
 次に、制御部2の積算値算出部2030が、評価領域51A内において、各画素列の積算画素値を算出するとともに、図24に示すように、検出部2043Eが、評価領域51Aのうちの縦方向に沿った中心線53を挟む一方および他方領域について、積算画素値の最大値W2001,W2002をそれぞれ検出する。
 そして、差分算出部2044が、検出部2043Eによって検出された積算画素値の最大値W2001,W2002の差分を算出する。
  <2-5(N).各角度関係における積算画素値の2つの最大値の差分の算出>
 上述した最大値W2001と最大値W2002との差分を算出する動作が、被検査画像20と評価領域51Aとの角度関係が変更されたそれぞれの角度関係について行われる。
 まず、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像について、評価領域51Aをそれぞれ設定する。
 そして、各角度関係について、積算値算出部2030が、積算画素値をそれぞれ算出するとともに、検出部2043Eが、積算画素値の最大値W2001,W2002をそれぞれ検出し、更に、差分算出部2044が、各角度関係について積算画素値の最大値W2001と最大値W2002との差分をそれぞれ算出する。
  <2-5(O).正中線の位置の決定>
 認識部2041Eが、各角度関係のうち、積算画素値の最大値W2001と最大値W2002との差分(ここでは差分の絶対値)が最小となる角度関係(差分最小角度関係)に相当する回転被検査画像を認識する。
 次に、正中線決定部2042Eが、認識部2041Eによって認識された差分最小角度関係に相当する回転被検査画像(または被検査画像)において、最大値W2001をとる横方向の座標と最大値W2002をとる横方向の座標との中間に対応する被検査画像20の縦方向に沿った線を正中線として決定する。具体的には、上述した各角度関係における積算画素値の最大値W2001,W2002の差分の算出動作によって得られた(2×(β/α)+1)個の差分のうち、最小となる差分値と対応する回転被検査画像が抽出され、正中線の位置が決定される。
 以上のような処理により、第10実施形態においても第6実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <2-6.第11実施形態>
 第9実施形態では、積算画素値の最大変化率U2001をとる横方向の座標と最大変化率U2002をとる横方向の座標との中間に対応する正中線候補位置のうち、最小積算画素値と組み合わされている正中線候補位置が正中線の位置として決定されたが、第11実施形態においては、積算画素値の最大変化率U2001と最大変化率U2002との合算値に基づいて正中線を決定する。
 正中線の位置の決定は、図18に示すように、制御部2の設定部2020、積算値算出部2030、決定部2040Fの各機能によって行われる。図28は、第11実施形態における決定部2040Fの機能構成を示すブロック図である。決定部2040Fは、認識部2041Fと正中線決定部2042F、検出部2043Fを有する他、さらに合算値算出部2045を有する。
 第11実施形態においては、設定部2020、積算値算出部2030、検出部2043Fによって、第9実施形態と同様に、評価領域51C内に含まれる縦方向に沿った中心線を挟む一方および他方領域について、被検査画像の縦方向と直交する横方向に沿った座標の変化に対する積算画素値の変化率が最大となる位置をそれぞれ検出するまでの処理が行われる。そして、合算値算出部2045が、検出部2043Fによって検出された積算画素値の2つの最大変化率の合算値を算出する。
 被検査画像について積算画素値の2つの最大変化率の合算値を算出する動作は、被検査画像と評価領域との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。
 認識部2041Fは、各角度関係のうち、2つの最大変化率の合算値が最大となる角度関係に相当する回転被検査画像を認識する。そして、正中線決定部2042Fが、認識部2041Fによって認識された回転被検査画像に基づいて正中線の位置を決定する。
 以下では、まず、被検査画像と評価領域との相対的な角度関係が、ある1つの角度関係にある場合において2つの最大変化率の合算値を算出する処理について説明し、その後、各角度関係において2つの最大変化率の合算値を算出する処理について説明する。そして、最後に各角度関係における最大変化率の合算値に基づいて正中線の位置を決定する処理について説明する。
  <2-6(P).1つの角度関係において2つの最大変化率の合算値を算出する処理>
 第9実施形態と同様に、図26に示すように、制御部2の設定部2020が被検査画像20上に評価領域51Cを設定する。
 次に、制御部2の積算値算出部2030が、評価領域51C内において、各画素列に係る積算画素値を算出した後、図26に示すように、検出部2043Fが、評価領域51Cのうちの縦方向に沿った中心線53を挟む一方および他方領域について、積算画素値の最大変化率U2001,U2002をそれぞれ検出する。
 そして、合算値算出部2045が、検出部2043Fによって検出された積算画素値の最大変化率U2001と最大変化率U2002との合算値を算出する。
  <2-6(Q).各角度関係における2つの最大変化率の合算値の算出>
 上述した積算画素値の2つの最大変化率U2001と最大変化率U2002の合算値を算出する動作が、被検査画像20と評価領域51Cとの角度関係が変更されたそれぞれの角度関係について行われる。
 まず、設定部2020が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像について、評価領域51Cをそれぞれ設定する。
 そして、各角度関係について、積算値算出部2030が、積算画素値をそれぞれ算出するとともに、検出部2043Fが、積算画素値の最大変化率U2001,U2002をそれぞれ検出し、更に、合算値算出部2045が、各角度関係について、検出部2043Fによって検出された積算画素値の最大変化率U2001,U2002との合算値を算出する。
  <2-6(R).正中線の位置の決定>
 認識部2041Fが、各角度関係のうち、積算画素値の最大変化率U2001と最大変化率U2002との合算値が最大となる角度関係(合算値最大角度関係)を認識する。
 次に、正中線決定部2042Fが、認識部2041Fによって認識された合算値最大角度関係に相当する回転被検査画像(または、被検査画像)において、最大変化率U2001をとる横方向の座標と最大変化率U2002をとる横方向の座標との中間の位置にあたる被検査画像20の縦方向に沿った線が正中線として決定される。具体的には、上述した各角度関係における積算画素値の最大変化率U2001と最大変化率U2002との合算値の算出動作によって得られた(2×(β/α)+1)個の合算値のうち、最大となる合算値と対応する回転被検査画像が抽出され、正中線の位置が決定される。
 以上のような処理により、第11実施形態においても第6実施形態と同様に、被写体が基準位置に対して傾きすぎた画像が入力された場合においても、自動的に画像上における被写体の正しい正中線が求められる。
 <3.正中線決定装置3401の全体構成>
 図30は、正中線決定装置3401にこの発明を適用した第12から第17の各実施形態に共通の構成を示すブロック図であり、この正中線決定装置3401は、人体のX線画像診断用の情報処理装置に組み込まれた形で構成される。図30で示されるように、正中線決定装置3401は、ハードウエア上では、制御部2、操作部4、取得部5、記憶部6、および表示部7をバスライン10に接続した一般的なコンピュータの構成となっているが、制御部2にインストールされているプログラムが、この発明の特徴に応じた機能を生じさせる。また、記録媒体に記憶させたプログラムをコンピュータにインストールすることによっても実行可能である。
 制御部2は、例えば、CPUを含んで構成され、記憶部6に記憶されるプログラムを実行することによって、正中線決定装置3401全体の動作を決定し、正中線決定装置3401全体に指令を与え、さらに後述する表示部7に表示の指示を出す。また、制御部2は、後述する決定部3440の機能も実現する。これらの機能によって、制御部2は、取得された被検査画像の画像データにおいて、被検査画像でとらえられた人間または動物を対象とする被検査者(検体)の正中線の位置を決定する。なお、決定部3440の機能については、後述する第12~17実施形態で相互に異なるため、以下、これらの第12~17実施形態に係る機能を決定部3040A~3040C、4040A~4040Cとして説明する。また、この実施形態の正中線決定装置3401は検体が人体である場合を想定しているが、検体が動物(脊椎動物)の場合にも、当該動物の脊椎方向を略上下方向とした画像において、正中線が同様に定義される。いずれの場合も、検体の画像は、検体の胸部を含む正面像または背面像である。
 以下に述べる第12~17実施形態においても、取得部5によって取得される被検査画像が、例えば、縦方向が512ピクセルで構成されるとともに、横方向が512ピクセルで構成された正方形状であって、検体の体側であり、肋骨を含む胸部および腹部を単純にとらえたX線透過像(胸部単純X線画像)であるものとして説明する。
 <3-1.第12実施形態>
 第12実施形態では、被検査画像の画像データにおける腹部領域の左右両側の体側のエッジ(腹部エッジ)の抽出が行われ、腹部エッジの情報に基づいて、被検査画像中での検体の正中線の位置が決定される。
 正中線の位置の決定は、制御部2の決定部3040Aによって行われる。図31は、決定部3040Aの機能構成を示すブロック図である。図31に示すように、決定部3040Aは、2値化部3041、エッジ抽出部3042、および正中線決定部3048Aを有する。決定部3040Aは、これらの各機能によって、画像データにおける腹部領域の左右両側の体側に係る情報に基づいて、被検査画像中での検体の正中線の位置を決定する。
 具体的には、2値化部3041は、画像データの2値化を行い、2値画像データを作成する。エッジ抽出部3042は、2値画像データにおける腹部領域の左右両側の体側のエッジ(腹部エッジ)の抽出を行う。正中線決定部3048Aは、左右両側の腹部エッジ上の対応点同士を結ぶ少なくとも1つの線分を設定し、少なくとも1つの線分の各中点に相当する画素列を通る位置に基づいて、被検査画像における正中線の位置を決定する。
 第12実施形態に係る決定部3040Aでは、主に、画像データの2値化処理、左右両側の腹部エッジを抽出する処理、検体の正中線の位置を決定する処理の順に処理が行われる。以下、これらの処理内容について、全体フローチャートとしての図39に示す処理ステップ順に説明する。
  <3-1-1.画像データの2値化処理>
 最初に、検体の正中線決定装置3401で、操作部4から検体の正中線を決定する旨の指示が制御部2に伝達されると、検体の体側を含む領域を撮影した被検査画像20がX線撮影装置100から取得部5を介して取得される(図32)。
 次に、2値化部3041が閥値処理によって画像データの2値化を行い、2値画像データを作成する。具体的には、画像データと予め設定された閾値データとの大小比較を行い、2値画像データ21を作成する(図33)。閥値は、例えば、被検査画像の各画素が12ビットで階調表現されている場合、450とすることができる。閾値は可変とされていることが好ましく、その場合には、この正中線決定装置3401の操作者の操作入力に基づいて、検体ごとに適宜に変更される。
 一般に、体内部分を透過したX線の検出強度と体外部分のX線検出強度とで大きな差があり、この差は、体内部分での生体組織差による検出強度差(例えば内臓と骨との検出強度差)よりも大きい。特に、腹部では肺のような空気部分を持たないため、その違いは顕著である。このため、検出X線強度のダイナミックレンジのうち、比較的大きな値を閾値として画像を2値化したときには、体外部分と体内部分とに2分された画像となり、体表面に相当する白黒境界が現れる。したがって、以後のステップで体側エッジを検出するにあたって、体内の臓器境界などを誤って体側エッジとして検出することが防止される。画像の2値化は、体側に相当するエッジを尖鋭化させて検出位置の誤差を防止するだけでなく、このような体内組織の境界を体側エッジと誤認させないようにするという意味も含んでいる。
  <3-1-2.左右両側の腹部エッジを抽出する処理>
 ここでは、エッジ抽出部3042が、2値画像データ21における左右両側の体側のエッジ(腹部エッジ)の抽出を行う。まず、左右両側の腹部エッジを抽出する動作は、被検査画像20のうち、腹部がとらえられていると推定される所定の画像領域、すなわち、評価領域を対象として行われる。ここでは、図34で示される評価領域50は、例えば、縦方向が512ピクセル、横方向が512ピクセルで構成された被検査画像20のうちの下から1~128番目の水平ラインの範囲における画像領域となるように設定される。換言すれば、被検査画像20がN本(Nは自然数)の水平ラインで構成される場合に、評価領域50は、上から(3×N/4)本目の水平ラインからN本目の水平ラインに至る画像領域となるように設定される。
 次に、エッジ抽出部3042が、設定された評価領域50内において、2値画像データにSobelフィルタを適用して腹部領域の左右両側の体側のエッジE1,E2を抽出する(図35)。エッジの抽出は、Sobelフィルタ以外に、Prewitteフィルタ、Laplacianフィルタ、Robertsフィルタ等を用いることができる。
 なお、迅速かつ正確に正中線の位置を決定するためには、評価領域50に腕領域が含まれないようにすることが好ましく、評価領域50は、この正中線決定装置3401の操作者の操作入力に基づいて、検体ごとに適宜に変更される。
  <3-1-3.検体の正中線の位置を決定する処理>
 正中線決定部3048Aが、左右両側の腹部エッジE1,E2上の対応点同士を結ぶ少なくとも1つの線分(具体的には等間隔で配列させた複数の水平線分)を設定し、少なくとも1つの線分の各中点に相当する画素列を通る位置に基づいて、被検査画像における正中線の位置を決定する。まず、図36に示すように、正中線決定部3048Aが、評価領域50において、同一の水平ライン上に存在する検体右側の腹部エッジE1,E2上の対応点R1および検体左側の腹部エッジ上の対応点L1同士を結ぶ線分である対応線3G1を設定する。同様に、対応点R2およびL2同士を結ぶ線分である対応線3G2というように、評価領域50において、同一の水平ライン上に存在する左右両側の腹部エッジ上の対応点同士を結ぶ少なくとも1つの対応線3G1,3G2,3G3…を設定する。
 次に、すべての対応点ペアについての各対応線3G1,3G2,…の中点3Q1,3Q2,…からなる中点群(3Q1,3Q2,…)を求める。そして、この中点群(3Q1,3Q2,…)に最小二乗法を適用して得られた直線を検体の正中線とする。図37に、中点群(3Q1,3Q2,…)から求められた正中線30を示す。
 中点群(3Q1,3Q2,…)から直線を求める方法は、最小二乗法以外に、Hough変換、もしくはLMedS(Least Median of Squares)クラスタリングを使用して直線を推定する手法を用いてもよい。Hough変換、もしくはLMedSクラスタリングを使用して直線を推定した場合は、最小二乗法を使用した場合と比較して処理時間が増加するが、中点群が少ない場合でも直線を精度よく推定することが可能となる。
 検体の正中線30の位置が決定されると、制御部2は、正中線30を示す直線像が重畳された被検査画像20を表示部7に表示させる(図38)。表示部7がカラーディスプレイである場合には、正中線30を示す直線像は、被検査画像20を階調表示する色(例えばモノクロのグレースケール)とは異なる色(例えば赤)で表示することが好ましい。
 以上の処理が、図39のフローチャートのステップS3001~S3006として示されている。
 なお、既述した対応線(線分)3G1,3G2,…は、中点群(3Q1,3Q2,…)を定める演算の途中段階で必要になるだけであるから、必ずしも、これらの線分を数式として特定して表示部7上に表示させる必要はない。すなわち、ここで「線分」と称しているものは、中点群(3Q1,3Q2,…)を導出するための概念であって、実際には、対応点Ri,Li(i=1,2,…)のそれぞれのX座標値の平均値と、それぞれのY座標値の平均値とを求める演算によって、中点群(3Qi)の2次元座標値を定めることができる。したがって、「線分を設定してその中点を求める」ということは、これと幾何学的に等価であれば、「対応点Ri,Liの1:1の内分点を求める」、「対応点Ri,Liの中間点を求める」などのような、他の表現で規定される構成をも包含する概念である。
 以上のような処理により、第12実施形態では、左右両側の体側に係る情報に基づいて正中線の位置を決定するので、検体の健康状態の影響を受けにくく、正中線を正しく求めることができる。また、腹部領域における体側に係る情報に基づいて正中線の位置を決定するので、例えば、検体の肺野に異物が入り、被検査画像上の胸部に白い不鮮明な領域が表れる場合であっても、検体の臓器の状態の影響を受けにくいので、正中線を正しく求めることができる。
 <3-2.第13実施形態>
 第13実施形態では、被検査画像と所定のテンプレート画像との2画像の照合を行うことによって、被検査画像中での検体の正中線の位置が決定される。
 図40は、決定部3040Bの機能構成を示すブロック図である。図40に示すように、決定部3040Bは、照合部3043および正中線決定部3048Bを有する。さらに、照合部3043は、テンプレート設定部3044、照合実効部3045、照合制御部3046を有する。決定部3040Bは、これらの各機能によって、画像データにおける腹部領域の左右両側の体側に係る情報に基づいて、被検査画像中での検体の正中線の位置を決定する。
 具体的には、照合部3043は、被検査画像と所定のテンプレート画像との2画像の相対位置を変化させつつ、被検査画像と所定のテンプレート画像との照合を行う。正中線決定部3048Bは、照合部3043による照合結果に基づいて被検査画像における正中線の位置を決定する。
 第13実施形態に係る決定部3040Bでは、主に、腹部領域の構成を模したテンプレート画像の設定処理、被検査画像とテンプレート画像との照合処理、検体の正中線の位置を決定する処理の順に処理が行われる。また、被検査画像とテンプレート画像との照合処理は、被検査画像20とテンプレート画像との相対的な角度関係およびテンプレート画像のサイズについて、少なくとも1つの変化条件を課して行われる。
 以下、これらの処理内容について、全体フローチャートとしての図46に示す処理ステップ順に説明する。
  <3-2-1.テンプレート画像の設定処理>
 最初に、検体の正中線決定装置3401で、操作部4から検体の正中線を決定する旨の指示が制御部2に伝達されると、検体の体側を含む領域を撮影した被検査画像20(図32)がX線撮影装置100から取得部5を介して取得される。
 次に、テンプレート設定部3044によって、記憶部6に予め準備されて記憶されているテンプレート画像が読み出されて設定される。図41は、テンプレート画像3014の構成を例示する図である。テンプレート画像3014の外縁は、例えば、水平方向に長尺の矩形の形状を有する。テンプレート画像3014は、腹部に対しX線を利用して撮影したときに、X線の濃度の分布に起因して画像上に表れる典型的な濃度のパターンを模した(モデル化した)ものである。具体的には、テンプレート画像3014は、検体の腹部部分を表現した第1画素値が付与された第1領域3014bの両側に、検体の体外部分を表現した第2画素値が付与された第2領域3014aが配置されて構成される。
 また、このテンプレート画像3014は、例えば、横方向に340ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。第2領域3014aは、横方向に50ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。第1領域3014bは、横方向に240ピクセルのサイズを有し、縦方向に60ピクセルのサイズを有する。
 また、テンプレート画像3014の各画素値は、被検査画像と同様に、白黒階調値で表される。例えば、第2領域3014aの白黒階調値が被検査画像において白黒階調値が採り得る範囲の最小値である0に設定され、第1領域3014bの白黒階調値が、被検査画像において白黒階調値が採り得る範囲の最大値(例えば、512×512個の各画素が12ビットで階調表現されている場合、4095)に設定される。
 このように、多階調の被検査画像に対して「2値的なテンプレート画像」(つまり被検査画像を表現する多階調信号と同じダイナミックレンジのうち特定の2レベルだけを用いて表現したテンプレート画像)を用いるのは、検体によって微妙に異なる体内部分の濃淡分布に影響されないように体内部分はひとつの濃度で代表させつつ、体内と体外との境界としての体側を検出するためである。したがって、第1領域3014bの階調値としては、多階調信号のダイナミックレンジの最大値を用いるほかに、多数の検体の事前撮影によって経験的に得られている検体の腹部の平均濃度(完全な「白」よりも少しグレー味を帯びた濃度)を用いることもできるし、2種類の領域3014a,3014bのそれぞれの濃度を可変としておき、操作者による操作部4の操作入力に基づいて変更できるように装置3401を構成することもできる。
  <3-2-2.被検査画像とテンプレート画像との照合処理>
 照合部3043は、被検査画像20とテンプレート画像3014との2画像の相対位置を変化させつつ、2画像の照合を行う。
 被検査画像20とテンプレート画像3014との照合は、被検査画像20とテンプレート画像3014との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。したがって、ここでは、被検査画像20とテンプレート画像3014との相対的な角度関係が、特定の1つの角度関係にある場合における照合処理について説明し、その後、各角度関係における照合処理について説明する。
 (1)特定の1つの角度関係にある場合における照合処理
 被検査画像20とテンプレート画像3014との照合は、照合実効部3045が、被検査画像20とテンプレート画像3014との空間的相対関係を変化させつつ、被検査画像20とテンプレート画像3014とを照合することによって、正中線が通る通過点の候補位置(通過点候補位置)を特定する。
 上下Y方向のひとつの位置で見た場合における被検査画像20とテンプレート画像3014との水平X方向の照合では、水平ラインに沿って、被検査画像20に対してテンプレート画像3014が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。図42は、テンプレート画像3014が移動させられながら照合が行われる様子を例示する図である。図42には、テンプレート画像3014などの画像パターンを移動させる主操作方向(X方向)と副操作方向(Y方向)とを概念的に統合して示す矢印Fが付されている。
 そして、被検査画像20上においてテンプレート画像3014が設定される位置ごとに、被検査画像20とテンプレート画像3014との適合度、すなわち、テンプレート画像3014と被検査画像20とが重なり合う領域全体の類似度が求められる。類似度は、例えば、差分法(SAD)を用いて、被検査画像20上の対象領域とテンプレート画像3014との画素ごとの輝度値(画素値)の差分合計値で表すことができる。この場合、差分合計値が0の場合に被検査画像20とテンプレート画像3014とが最も適合していることになる。
 すなわち、被検査画像20を図33のように2値化して得られる2値画像データ21を被検査画像20の代替として使用した場合には、
 (1) 左右の体側が互いに平行な直線であって、かつ、
 (2) 腹部の横幅がテンプレート画像3014の第1領域3014bの幅と完全一致する、
という2条件が満たされると、特定の位置関係でテンプレート画像3014と被検査画像20(を2値化した画像)とは完全一致し、類似指標値としての差分合計値はゼロになる。その一方で、実際の被検査画像20を対象としてテンプレート画像3014との照合を行う場合には、類似指標値がゼロにはならないが、最も適合度が高い相対位置で類似指標値が最小値をとるから、それによって体側の位置をテンプレート画像3014で検出することができる。
 このような類似度を求める具体的手法としては、その他に、最小二乗和法(SSD)、正規化相互相関法(NCC)等がある。この照合は、各水平ラインに沿ってテンプレート画像3014を移動させながら、被検査画像20の評価領域50の全体に対して行われる。第13実施形態においても第12実施形態と同様、図34で示される評価領域50が、例えば、被検査画像20がN本(Nは自然数)の水平ラインで構成される場合に、評価領域50は、上から(3×N/4)本目の水平ラインからN本目の水平ラインに至る画像領域となるように設定される。
 そして、ひとつの水平ラインに沿った主走査によってテンプレート画像3014を移動させながら照合が行われた後、Y方向でのテンプレート画像3014と被検査画像20との相対位置を1段階(例えば1画素分)だけ変化させて、その新たなY座標での水平ラインに沿った主走査による移動照合を行う…という処理を繰り返して、評価領域50の全体の走査照合が完了する。
 その結果として得られる各走査位置(X,Y)での差分合計値(類似度指標)をD(X,Y)とすると、まず、同じY座標値を持つ差分合計値D(X,Y)の中に所定の閾値Dth以下となるものが含まれているかどうかを判定する。
 もし、含まれていなければそのY座標値での差分合計値D(X,Y)は体側部に対応していない群であると見なして無視する。これに対して、差分合計値D(X,Y)の中に閾値Dth以下となるものが含まれていれば、それらは体側部に対応する群であると判断し、そのY座標値に対応する差分合計値D(X,Y)の中で最小のものを与えるようなテンプレート中心位置P(X,Y)を、正中線が通る通過点の候補位置(通過点候補位置)として登録する。図42に例示されている2点Pt1,Pt2は、テンプレート画像3014の複数の位置でのそれぞれのテンプレート中心位置であり、例えば点Pt1が通過点候補位置のひとつとして登録され、全体としては複数の通過点候補位置が登録されることになる。
 すなわち、Y座標値を固定して見たときに、X座標値を変化させたときの差分合計値D(X,Y)が最小となる位置が、そのY座標値においては相対的に「最も適合している」位置ではあっても、差分合計値D(X,Y)があまりに大きい場合には、腹部だけではなく胸部や腰部を含んだ位置である可能性がある。そこで、閾値Dthを用いることによって、Y方向について「腹部と推定できる」範囲を選択した上で、選択されたY座標値の範囲(基本腹部範囲)だけに限定して通過点候補位置を特定するのである。
 閥値Dthは固定値であってもよく、またこの正中線決定装置3401の操作者の操作入力に基づいて、撮影毎、あるいは被写体毎に設定されても良い。例えば、512×512個の各画素が12ビットで階調表現されている場合、閥値Dthは1000に設定される。
 基本腹部範囲の各Y座標値について、通過点候補位置が検出される際には、画素毎に被検査画像20の白黒階調値とテンプレート画像3014の白黒階調値との差分が求められ、その差分が最小となる位置が、通過点候補位置として検出される。なお、例えば、所定数の画素からなる領域(例えば、隣接する4画素からなる画像ブロック)ごとに被検査画像20の白黒階調値とテンプレート画像3014の白黒階調値との差分が求められ、その差分が最小となる位置(具体的には画像領域)が通過点候補位置として求められても良い。
 上述したように、本実施形態では、被検査画像20に対してテンプレート画像3014が水平方向に移動させられながら照合が行われて、被検査画像20とテンプレート画像3014との差が所定の閾値以下となるY方向位置関係に限定して、被検査画像20とテンプレート画像3014との差が最小となる通過点候補位置が求められる。そして、ここで求められる通過点候補位置は、被検者をとらえた被検査画像20上において正中線が検出される際に、正中線が通る位置の候補となる。
 次に、照合制御部3046が、被検査画像20とテンプレート画像3014との空間的相対関係の変化について、少なくとも1つの変化条件を課して照合実行部3045による照合を行わせる。
 (2)各角度関係における照合処理
 この照合処理では、照合制御部3046によって、被検査画像20とテンプレート画像3014との照合が、被検査画像20とテンプレート画像3014との相対的な角度関係が変更された各角度関係について行われる。
 具体的には、被検査画像20上の所定の位置を回転中心としてテンプレート画像3014を回転させる。テンプレート画像3014を時計回りおよび反時計回りにそれぞれβ度までα度刻みで回転させて、照合がそれぞれ行われる。ここでは、例えば、α度は1度、β度は30度に設定される。なお、角度αおよびβは、操作者の操作入力に基づいて、任意に設定される。
 図43は、テンプレート画像3014を位置Prにおいて、反時計回りにα度回転させて照合させる例を示す図である。図43(a)では、被検査画像20上の検体の身長方向(Y方向)に沿って分布させた複数の位置(図43(a)中の黒丸位置)のそれぞれを回転中心としてテンプレート画像3014を回転させる。また、回転中心を位置Prから+X方向に移動させて位置Psとして、さらに時計回りおよび反時計回りにそれぞれβ度までα度刻みで回転させて、2次元的に照合を行ってもよい(図43(b))。
 このような回転照合は、図42で示したような並進照合を行う各点(それぞれの並進照合位置でのテンプレート中心位置)を各回転中心として行ってもよく、また、図43に示すように、あらかじめ設定されている複数の位置を各回転中心として単独で行ってもよい。複数の回転中心位置は2次元的に分布させる方が正中線の決定精度が高いが、検体の身長方向(Y方向)に沿った配置であれば1次元的な分布であってもよい。身長方向(Y方向)が優先的に選択されるのは、Y方向の分布であればいずれの回転中心も、最終的に求めるべき正中線から大きくずれてはいないため、テンプレート画像3014によるパターンマッチングが特に有効に機能するからである。回転中心を体幅方向だけに分布させると体側に比較的近い位置が回転中心になるものがそれらに含まれるため、テンプレート画像3014を多少回転させても体側と一致させることができないものが発生するからである。
 被検査画像20上の検体の身長方向(に沿って分布させた複数の位置(Pr1,・・・,Pr,・・・およびPs1,・・・Ps,・・・)のそれぞれを回転中心としてテンプレート画像3014を回転させて照合が行われる際には、被検査画像20を構成する各画素の階調値が補間処理によって求められる。
 すなわち、テンプレート画像3014を傾けると、被検査画像20の画素のマトリクス配置の行列方向と、テンプレート画像3014の画素のマトリクス配置の行列方向とが一致しなくなるため、画素が1対1に対応しなくなるが、補間処理を行うことによってテンプレート画像3014の各画素に相当するテンプレート画像3014の画素値を決定することができる。なお、この回転照合においては角度αの正負の整数倍の傾きを与えるが、その整数値がゼロの場合、すなわちテンプレート画像3014の長手方向が水平X方向に一致する場合も照合対象に含める。
 このようにして、被検査画像20とテンプレート画像3014との相対的な角度関係を段階的に変更させた各角度関係に対して、照合が行われつつ、通過点候補位置が検出される動作が行われる。
 この回転照合は、被検査画像20において検体(被検査者)が正立してない場合に、その傾きを考慮して正中線の決定要素にするという意味を持つ。そのような傾きは、撮影時に被検査者自身の姿勢に傾きがある場合のほか、特にポータブルX線撮影装置を使用したような場合に、X線撮影装置が被検査者に対して傾いていたというような場合があり、いずれの場合でも回転照合は効果がある。回転照合においても、図42などで説明した並進照合と同様の類似度指標値が使用され、各回転中心で最小の類似度指標値を与える角度(適合角)が決定される。それはそのときの回転中心での適合角である。複数の回転中心のそれぞれで適合角が定まるが、この回転照合を単独で行うときには、それらのうちで最小の類似度指標値を与える回転中心位置を通り、そのときの適合角だけ傾いた直線を正中線として定めることができる。
 図42の並進照合と組み合わせるときには、例えば並進照合のそれぞれの点で回転照合も行い、最小の類似度指標値を与えるような中心位置と適合角を用いて正中線を定めることができる。また、並進照合だけを単独で行ってY方向に並行な仮正中線を定め、その仮正中線上に分布させた複数の点を回転中心として適合角を求めるということもできる。
 (3)各サイズにおけるテンプレート画像との照合処理
 この照合処理では、照合制御部3046によって、サイズが変更された少なくとも1つのテンプレート画像と被検査画像20との照合が行われる。
 テンプレート画像のサイズは、この正中線決定装置3401の操作者の操作入力に基づいて、縦方向および横方向に任意の倍率に拡大または縮小されて記憶部6に記憶される。図44は、テンプレート画像3014を、縦方向および横方向にそれぞれ1.2倍に拡大したテンプレート画像3015を例示する図である。
 そして、上述したように、異なるサイズのテンプレート画像と被検査画像20とを照合することによって、各々の通過点候補位置(例えば図44の位置Peなど)が特定される。
 なお、任意のサイズに設定されたテンプレート画像についても、被検査画像20との相対的な角度関係を段階的に変更させた各角度関係に対して、通過点候補位置が検出される動作が行われてもよい。
  <3-2-3.検体の正中線の位置を決定する処理>
 次に、正中線決定部3048Aは、被検査画像20とテンプレート画像との相対的な角度関係、およびテンプレート画像のサイズ等のうち、少なくとも1つの変化条件で行われた照合処理によってそれぞれ特定された通過点候補位置に基づいて、被検査画像20における正中線の位置を決定する。
 上記の並進照合・回転照合・変倍(拡大/縮小)照合の3種類は次のような形態で実施可能である。
 1) いずれかを単独で行わせて複数の通過点候補位置を特定する。並進照合の場合は、画角中における検体の並進的位置ずれが生じたときに正しい正中線を決めることに有効であり、回転照合は画角と検体の相対的な姿勢の傾きが生じたときに正しい正中線を決めることに有効であり、変倍照合は、検体の体形の大小を考慮して正しい正中線を決めることに有効である。
 2) 少なくとも2種類を組み合わせる。並進総合と回転照合との組合せ例は既述したが、変倍照合は、並進照合での各テンプレート中心で拡大縮小の変倍も行い、回転照合の各角度で拡大縮小の変倍も行うという利用法ができる。
 上記3種類全部の併用も可能であり、その場合はたとえば次のような原理で実行できる。
 (a) 並進照合の各点において変倍照合と回転照合もあわせて行うことにより、並進の各点での類似指標値を、各変倍率・各回転角まで考慮してそれぞれ算出する。
 したがって、回転角をθ、変倍率をeとすると、類似指標値はD(X,Y,θ,e)のように、X,Y,θ,eの4引数を持つ4次元分布となる。そして、これらの中で最小値を与えるような組合せ(Xm,Ym,θm,em)を特定する。
 これによって、複数の通過点候補位置のうちひとつが通過点P(Xm,Ym)として定まる。そして、この通過点P(Xm,Ym)を通り、かつ、角度θmで傾いた直線を、正中線として決定する。
 もっとも、4次元分布の各変数値で類似指標値を計算すると計算量が多くなるため、たとえば、並進照合と変倍照合だけでY方向に平行な1つの直線を定め、その傾きは当該直線上にある1または複数の点を回転中心とした回転照合で定めるというように、逐次的に正中線の位置と方向とを定めていくことにより、計算量を減少させて処理を高速化できる。
 図45は、正中線決定部3048Aによって、正中線の位置を決定する以上のような組合せ処理を説明するための図である。正中線決定部3048Aによって、少なくとも1つの変化条件で行われた照合処理によってそれぞれ特定された通過点候補位置の中で、被検査画像20の白黒階調値とテンプレート画像の白黒階調値との差分が最小となる位置が、通過点Pとして検出される。
 次に、通過点Pとして検出された通過点候補位置が得られたテンプレート画像の、被検査画像20上の検体の身長方向に沿った垂直な直線Kとの傾き角度γ度が回転照合の結果として求められる。そして、通過点Pおよび傾き角度γ度に基づいて、被検査画像中での検体の正中線30の位置が決定される。
 このような正中線決定フローの一例が、図46のステップT3001~T3013に示されている。
 以上のような処理により、第13実施形態においても、第12実施形態と同様に、被検査画像上における検体の正中線を正確に求めることが可能となる。
 <3-3.第14実施形態>
 第14実施形態では、被検査画像の所定の領域における2次元的画素値分布を、所定の射影方向へ累積的に射影することによって1次元的画素値分布へと圧縮し、1次元的画素値分布における特徴点の位置に基づいて被検査画像中での検体の正中線の位置が決定される。
 図47は、決定部3040Cの機能構成を示すブロック図である。図47に示すように、決定部3040Cは、設定部3047および正中線決定部3048Cを有する。決定部3040Cは、これらの各機能によって、画像データにおける腹部領域の左右両側の体側に係る情報に基づいて、被検査画像中での検体の正中線の位置を決定する。
 具体的には、設定部3047は、被検査画像に対して2次元的な評価領域を設定する。正中線決定部3048Cは、評価領域における2次元的画素値分布に基づいて、検体の正中線の少なくとも1つの候補位置を認識し、これらの候補位置の中から検体の正中線を決定する。
 第14実施形態に係る決定部3040Cでは、主に、検体の正中線の候補位置の認識処理、検体の正中線の位置を決定する処理の順に処理が行われる。
 以下、これらの処理内容について、全体フローチャートとしての図51に示す処理ステップ順に説明する。
  <3-3-1.検体の正中線の候補位置の認識処理>
 最初に、検体の正中線決定装置3401で、操作部4から検体の正中線を決定する旨の指示が制御部2に伝達されると、検体の体側を含む領域を撮影した被検査画像20(図32)がX線撮影装置100から取得部5を介して取得される。
 次に、設定部3047が、被検査画像20のうち、腹部がとらえられていると推定される領域に対して2次元的な評価領域51を設定する(図48)。検体の正中線の候補位置を認識する処理は、評価領域51を対象として行われる。ここでは、図48で示されるように、評価領域51は、例えば、長辺方向が、被検査画像20の各辺と同じ長さの512ピクセルで構成されるとともに、短辺方向が、被検査画像20の各辺の長さの1/4に相当する128ピクセルで構成された矩形の形状を有する。図48では、被検査画像20の各辺と評価領域51の各辺とがそれぞれ平行で、かつ被検査画像20の下端の一辺と評価領域51の下端の一辺とが一致するような例が示されている。なお、評価領域51の形状については、肺野領域が含まれておらず、かつ両体側と両腕との間の領域が含まれていれば、操作者の操作入力に基づいて、任意の形状に設定することが可能である。
 この被検査画像20について正中線候補位置を認識する動作は、被検査画像20と評価領域51との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。そして、正中線決定部3048Cが、各角度関係についてそれぞれ認識された正中線候補位置の中から正中線の位置を決定する。
 従って、まず、被検査画像20と評価領域51との相対的な角度関係が、特定の1つの角度関係にある場合において正中線候補位置を認識する処理について説明し、その後、各角度関係における正中線候補位置を認識する処理について説明する。そして、最後に少なくとも1つの正中線候補位置の中から正中線の位置を決定する処理について説明する。
 図49は、第14実施形態における正中線を決定する処理を説明するための図である。
 正中線決定部3048Cは、評価領域51における2次元的画素値分布を、評価領域51に対して相対的に固定された所定の射影方向へ累積的に射影することによって1次元的画素値分布へと圧縮し、1次元的画素値分布における特徴点の位置に基づいて正中線の候補位置を認識する。
 まず、正中線決定部3048Cが、2次元的画素値分布について、評価領域51の縦方向を射影方向として累積的に射影してヒストグラムを作成する。具体的には、被検査画像20の縦方向に沿った各画素列(例えばラインLa上の画素列)について、画素値を評価領域51の縦方向に沿って累積的に積算することによって、1次元的画素値分布である積算画素値(ラインLaに対しては、Na)がそれぞれ算出される。図49に示すグラフは、積算画素値と評価領域51の横方向の座標との関係を示すグラフである。グラフの縦軸は、正中線決定部3048Cよって算出された各画素列の積算画素値を表す。また、グラフの横軸は、積算画素値に対応する各画素列の評価領域51における横方向の座標を表す。
 図49に示すように、正中線決定部3048Cが、積算画素値の勾配値、具体的には被検査画像20の縦方向と直交する方向(具体的には、グラフの横軸)に沿った座標の変化に対する積算画素値の変化率を求めて、左右の両領域について最大の変化率(最大変化率)U3001,U3002を検出する。すなわち、積算画素値の最大変化率U3001,U3002は、評価領域51のうちの被検査画像20の縦方向に沿った中心線53を挟む一方および他方領域について、それぞれ検出される。
 次に、正中線決定部3048Cが、得られた積算画素値の特徴点である2つの最大変化率U3001,U3002に対応する横方向の座標を求める。そして、被検査画像20のうち、最大変化率U3001をとる横方向の座標と最大変化率U3002をとる横方向の座標との中間に対応する被検査画像20の縦方向に沿った線(具体的には画素のライン)が正中線候補位置54として認識される。
 上述したような正中線候補位置54が認識される動作が、被検査画像20と評価領域51との角度関係が変更されたそれぞれの角度関係について行われる。
 図50は、被検査画像20を反時計回りにθ度回転させることで得られる回転被検査画像60を例示する図である。θ度はもとの被検査画像20からずれた角度を表す。被検査画像20が回転させられて各回転被検査画像60が得られる際には、回転被検査画像60を構成する各画素の白黒階調値が補間処理によって求められる。
 ここでは、設定部3047が、被検査画像20の中心点19を中心として、該被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像60、および中心点19を中心として、該被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる回転被検査画像60について、評価領域51をそれぞれ設定する。
 そして、各角度関係について、正中線決定部3048Cが、評価領域51を対象として、各画素列に係る積算画素値を算出するとともに、評価領域51のうちの縦方向に沿った中心線53を挟む一方および他方領域について、被検査画像20の縦方向と直交する横方向に沿った座標の変化に対する積算画素値の最大変化率をそれぞれ検出し、更に、正中線候補位置54を認識する一連の動作がそれぞれ行なわれる。このとき、正中線候補位置54に対して、対応する積算画素値が組み合わされて記憶部6に記憶される。
  <3-3-2.正中線の位置の決定>
 正中線決定部3048Cが、各角度関係について認識された正中線候補位置54のうち、対応する積算画素値が最小となる正中線候補位置54を、正中線の位置として決定する。
 このような正中線決定フローは、図51のステップW3001~W3009として示されている。
 以上のような処理により、第14実施形態においても、第12実施形態と同様に、被検査画像上における検体の正中線を正確に求めることが可能となる。
 <3-4.第15実施形態>
 第15実施形態では、画像データにおける肋骨のエッジ(肋骨エッジ)の抽出が行われ、被検査画像における所定の基準方向(典型的には矩形画像の座標軸方向)に対する肋骨エッジの傾きおよび肋骨画像群の空間的分布の代表点の位置とに基づいて、被検査画像中での検体の正中線の位置が決定される。
 正中線の位置の決定は、制御部2の決定部4040Aによって行われる。図55は、決定部4040Aの機能構成を示すブロック図である。図55に示すように、決定部4040Aは、ラベリング部4041A、傾き算出部4042、中心位置算出部4043、および正中線決定部4044Aを有する。決定部4040Aは、これらの各機能によって、画像データにおける肋骨に係る情報に基づいて、被検査画像中での検体の正中線の位置を決定する。
 具体的には、ラベリング部4041Aは、画像データにおける肋骨エッジの抽出および肋骨エッジのラベリングを行う。傾き算出部4042は、被検査画像における所定の基準方向に対する肋骨エッジの傾きを算出する。中心位置算出部4043は、被検査画像における肋骨画像群の空間分布の中心位置を算出する。正中線決定部4044Aは、肋骨エッジの傾きおよびサイズに基づいて、被検査画像における正中線の位置を決定する。
 第15実施形態に係る決定部4040Aでは、主に、画像データにおける肋骨エッジ抽出およびラベリング処理、肋骨エッジの傾きを算出する処理、被検査画像中の肋骨における所定方向のサイズを算出する処理、検体の正中線の位置を決定する処理の順に処理が行われる。以下、これらの処理内容について、全体フローチャートとしての図63に示す処理ステップ順に説明する。
  <3-4-1.肋骨エッジ抽出およびラベリング処理>
 最初に、検体の正中線決定装置3401で、操作部4から検体の正中線を決定する旨の指示が制御部2に伝達されると、検体の肋骨を含む領域を撮影した被検査画像20がX線撮影装置100から取得部5を介して取得される。
 次に、ラベリング部4041Aが、被検査画像の画像データにおける肋骨エッジの抽出および肋骨エッジのラベリングを行う。
 次に、ラベリング部4041Aが被処理画像データにSobelフィルタを適用して各肋骨の下側のエッジのみを抽出する(図56)。エッジの抽出は、Sobelフィルタ以外に、Prewitteフィルタ、Laplacianフィルタ、Robertsフィルタ等を用いることができる。また、各肋骨の上側のエッジのみを抽出してもよい。
 次に、ラベリング部4041Aが、抽出された各肋骨の下側のエッジのラベル付けを行う。
 図57は、各肋骨エッジのラベル付けを概念的に示す図である。ラベル付けは、例えば、被検査画像20中での検体の右側に存在する右肋骨に対しては、上側から奇数のラベル番号((1),(3),(5)・・・)を、検体の左側に存在する左肋骨に対しては、上側から偶数のラベル番号((2),(4),(6)・・・)を付加することにする。具体的には、右第1肋骨には、ラベル番号(1)、左第1肋骨には、ラベル番号(2)、右第2肋骨には、ラベル番号(3)、左第2肋骨には、ラベル番号(4)というように付加する。この段階では正中線はまだ検出されていないため、ここでの「検体の右側」および「検体の左側」は、検出された肋骨エッジの相対的な左右関係から判断される。なお、ラベル付けについては、適宜必要なラベル識別子を付加することが可能である。
  <3-4-2.肋骨エッジの傾きを算出する処理>
 傾き算出部4042が、ラベル付けが行われた各肋骨エッジについて、傾きを算出する。
 まず、被検査画像中での検体の右側に存在する各右肋骨エッジと、検体の左側に存在する左肋骨エッジとの存在領域を相互に区分するために、肋骨エッジから左右の基準線を設定する。基準線としては、右肋骨側の基準線としての右肺野基準線CR(図58)と、左肋骨側の基準線である左肺野基準線CL(図59)とが設定される。
 図58(a)は、被検査画像20の画像座標系上で設定された右肺野基準線CRを示す図である。図58(a)では、被検査画像20の画像座標系は、左上の角を原点(0、0)とし、横方向(X方向)と下方向(Y方向)とをそれぞれの正の方向(+)とする。図58以降の図においても同様である。
 ラベル番号が付加された肋骨の中で、検体の最も右上に存在する肋骨である右第1肋骨(ラベル番号(1))において、X方向の座標最大値x1を通り、Y軸方向に平行な線を引く。この線を右肺野基準線CRとする。
 さらに、右肺野基準線CRより-X方向側に位置する各右肋骨エッジにおいて、最小二乗法を使用して、図58(b)に示すような、各右肋骨エッジ(曲線)を近似する直線BR1,BR2,BR3,…を求め、右肺野基準線CRに対するそれらの直線BR1,BR2,BR3,…の傾き角Rθ1,Rθ2,Rθ3,…を算出する。そして、それらの直線BR1,BR2,BR3…の傾き角Rθ1,Rθ2,Rθ3,…の平均値α1を求めて、右肋骨傾きとする。
 次に、左肺野基準線CLが設定される。図59(a)は、被検査画像20の画像座標系上で設定された左肺野基準線CLを示す図である。ラベル番号が付加された肋骨の中で、検体の最も左上に存在する肋骨である左第1肋骨(ラベル番号(2))において、X方向の座標最小値x2を通り、Y軸方向に平行な線を引く。この線を左肺野基準線CLとする。
 さらに、左肺野基準線CLより+X方向側に位置する各左肋骨エッジにおいて、最小二乗法を使用して、図59(b)に示すような、各左肋骨エッジ(曲線)を近似する直線BL1,BL2,BL3,…を求める。そして、左肺野基準線CLに対するそれらの近似直線BL1,BL2,BL3,…の傾き角Lθ1,Lθ2,Lθ3,…を算出する。そして、各左肋骨エッジの傾き角Lθ1,Lθ2,Lθ3,…の平均値α2を求めて、左肋骨傾きとする。
  <3-4-3.肋骨画像群の空間分布の中心位置を算出する処理>
 まず、中心位置算出部4043は、被検査画像20中の肋骨画像群全体について、x方向とy方向とについての肋骨画像群の空間分布における中心位置(以下「肋骨画像群中心位置」)のx座標を算出する。具体的には、ラベル付けされた全ての肋骨エッジの領域の中から、図60に示すようなX座標の最小値x3と最大値x4を検出し、最小値x3と最大値x4との平均値x5を肋骨画像群中心位置のX座標とする。次に、ラベル付けされた全ての肋骨エッジの領域の中から、Y座標の最小値y3と最大値y4を検出し、最小値y3と最大値y4との平均値y5を算出してそれを肋骨画像群中心位置のY座標とする。
  <3-4-4.検体の正中線の位置を決定する処理>
 正中線決定部4044Aが、算出された肋骨エッジの傾き角α1,α2および肋骨画像群中心位置の各座標値x5、y5に基づいて、被検査画像中での検体の正中線の位置を決定する。まず、正中線決定部4044Aが、中心位置算出部4043によって算出された平均値x5およびy5から、正中線が通る1点となる正中線通過点Pc(x5,y5)を設定する。また、正中線決定部4044Aは、中心位置算出部4043によって算出された各右肋骨エッジの傾き角の平均値α1および各左肋骨エッジの傾き角の平均値α2から、正中線の傾き角α3を下式(1)として設定する。
 α3=(α1-α2)/2 ・・・(1)
 上記(1)式で傾き角α2に負号がついているのは、角度を計る方向が傾き角α1の場合と異なるためである。
 図61は、正中線通過点Pc(x5,y5)および正中線の傾き角α3に基づいて、正中線30を決定する例を示す図である。
 検体の正中線30の位置が決定されると、制御部2は、正中線30を示す直線像が重畳された被検査画像20を表示部7に表示させる(図62)。表示部7がカラーディスプレイである場合には、正中線30を示す直線像は、被検査画像20を階調表示する色(たとえばモノクロのグレースケール)とは異なる色(たとえば赤)で表示することが好ましい。
 以上の処理が、図63のフローチャートのステップS4001~S4009として示されている。
 以上のような処理により、第15実施形態では、肋骨に係る情報に基づいて正中線の位置を決定するので、被検査者の健康状態の影響を受けにくく、正中線を正しく求めることができる。また、数多く存在する肋骨エッジの情報に基づいて正中線の位置を決定するので、誤差が統計的に相殺され、正中線を特に正確に求めることができる。
 <3-5.第16実施形態>
 第16実施形態では、被検査画像の画像データにおける肋骨エッジの抽出を行い、互いに対応する左肋骨エッジおよび右肋骨エッジのペアの中点を各ペアについて求め、それらの中点群に相当する画素列を通る線に基づいて、被検査画像中での検体の正中線の位置が決定される。以下では、上記第15実施形態と異なる部分を中心にして説明する。
 この第16実施形態での正中線の位置の決定は、制御部2の決定部4040B(図64)によって行われる。決定部4040Bは、ラベリング部4041B、肋骨点検出部4045、および正中線決定部4044Bを有する。
  <3-5-1.肋骨エッジ抽出およびラベリング処理>
 まず、正中線決定装置3401で、操作部4から検体の正中線を決定する旨の指示が制御部2に伝達されると、取得部5から検体の肋骨を含む領域を撮影した被検査画像20が取得されて、ラベリング部4041Bが、第15実施形態と同様、被検査画像の画像データにおける肋骨エッジの抽出および肋骨エッジのラベリングを行う。
  <3-5-2.左肋骨エッジおよび右肋骨エッジ間の対応付けを行う処理>
 次に、肋骨点検出部4045が、ラベル付けが行われた各肋骨エッジについてそれらの代表点としての「肋骨点」を設定し、互いに対応する左肋骨エッジおよび右肋骨エッジ間において、肋骨点の対応付けを行う。
 具体的には、肋骨点検出部4045は、ラベル付けが行われた各肋骨エッジ上において、最大のY座標値をとる位置を求め、それらの点を肋骨点とする。図65の例では、肋骨点(1)が、ラベル番号(1)の肋骨点を表し、肋骨点(2)が、ラベル番号(2)の肋骨点を表す。
 次に、第15実施形態と同様、被検査画像中での検体の右側に存在する各右肋骨エッジの存在領域と、検体の左側に存在する左肋骨エッジの存在領域とを区分するための基準線として、図58、図59と同様の右肺野基準線CRと左肺野基準線CLとを設定する。
 次に、右肋骨エッジ上の肋骨点のうち、右肺野基準線CRのX座標値x1よりもX座標値が小さい肋骨点(右肺野側肋骨点)を求める(図66)。
 次に、求められた右肺野側肋骨点と対応する左肋骨エッジ上の肋骨点を求める。まず、右肺野側肋骨点から上下方向に±ζピクセル(本実施形態においては、例えば、ζ=5とする。)の領域で、かつ、左肺野基準線CLのX座標値x2よりX座標値が大きい領域に存在する領域(左肺野側候補領域)を設定する。
 図67は、肋骨点(1)と対応する左肋骨エッジ上の肋骨点を求める処理を説明するための図である。左肺野側候補領域FL1は、短辺がY軸に平行かつ、長辺がX軸に平行な矩形領域であり、図67では斜線部で示されている。左肺野側候補領域FL1は、ζの値が5ピクセルの場合、短辺の大きさは10ピクセルとなる。ζの値は可変とされていることが好ましく、その場合には、この正中線決定装置3401の操作者の操作入力に基づいて、検体ごとに適宜に変更される。
 左肺野側候補領域FL1が設定されると、左肺野側候補領域FL1上に存在する肋骨点(2)が求められて、該肋骨点(2)が肋骨点(1)と対応する肋骨点とされる。この操作を全ての右肺野側肋骨点において行うことによって、左肋骨エッジおよび右肋骨エッジ間において、肋骨点の対応付けを行うことが可能となる。
 また、左肺野基準線CLのX座標値x2よりX座標値が大きい領域において、検体の病気、けがによる肋骨の欠損等によって肋骨エッジが抽出できない場合には、左肋骨エッジおよび右肋骨エッジ間において、肋骨点の対応付けが行われない。図68は、肋骨点が左肺野側候補領域FL1上に存在しない例を示す図である。肋骨は左右それぞれに多数(人体の場合は12本ずつ)あるため、部分的に肋骨点の対応づけができなくても、他の左右肋骨点のペアを検出することができる。このため、一部の肋骨について対応肋骨点が検出できなくても、後述するような正中線の特定処理に支障はない。
 なお、上述の処理手順においては、右肋骨エッジ上に存在する肋骨点(右肋骨点)を先に指定してそれらに対応する左肋骨エッジ上の肋骨点(左肋骨点)を求めていたが、逆に、左肋骨点を先に指定してそれらと対応する右肋骨点を求めてもよい。
  <3-5-3.正中線の位置を決定する処理>
 肋骨点検出部4045によって、互いに対応する左肋骨点と右肋骨点との各ペア(以下「対応肋骨点ペア」)を特定した後、正中線決定部4044Bがそれら対応肋骨点ペアに基づいて「対応線分」を設定する。そして、それら対応線分のそれぞれの中点に相当する画素列を通る位置を、正中線の位置として決定する。
 まず、対応付けされた左右肋骨点が得られた各々の左肋骨エッジおよび右肋骨エッジの組み合わせに対して最小二乗法を用いて、互いに対応する左右の肋骨エッジの曲線を左右にわたって近似する線分(対応線)を求める。図69は、ラベル番号(1)とラベル番号(2)との間で求められた対応線4G1を示す図である。また、対応線4G1の中点を4Q1とする。図69で示された対応線4G1の2つの端点のX座標は、肋骨点(1)および肋骨点(2)のX座標と同じとする。具体的には、肋骨点(1)のX座標がx6で、肋骨点(2)のX座標がx7の場合、対応線4G1の2つの端点のX座標の範囲はx6からx7までとなる。この対応線4G1を求める処理は、対応付けされた全ての対応肋骨点ペアが乗っているそれぞれの左肋骨エッジおよび右肋骨エッジ間に対して行われる。なお、対応付けされた肋骨点が得られなかった肋骨点については、対応線は求めない。
 また、左右の肋骨エッジを近似する線分を用いずに、対応肋骨点ペアの2点を直接に直線で結ぶことによって対応線を求めても良い、図70は、対応付けされた肋骨点どうしを直線で結ぶことによって求められた対応線G1aを示す図である。また、対応線G1aの中点をQ1aとする。
 次に、すべての対応肋骨点ペアについての各対応線4G1,4G2,…の中点4Q1,4Q2,…からなる中点群(4Q1,4Q2,…)を求め、この中点群(4Q1,4Q2,…)に最小二乗法を適用して得られた直線を検体の正中線とする。図70の場合も同様である。図71に、中点群4029(4Q1,4Q2,…)から求められた正中線30を示す。
 このような正中線決定フローは、図72のステップT4001~T4010として示されている。
 他の方法としては、図73に示すように、各対応線分に直交する直交直線を求め、各直交直線の傾き角度γを求めるという方法もある。この場合、各対応線分の中点の代表点としてのいずれか1点(たとえば最も上の線分の中点)を通り、各直交直線の傾き角の平均を傾きとして、検体の正中線を求めてもよい。
 以上のような処理により、第16実施形態においても、第15実施形態と同様に、肋骨に係る情報に基づいて正中線の位置を決定するので、検体の健康状態の影響を受けにくく、正中線を正しく求めることができる。また、肋骨に係る情報に基づいて正中線の位置を決定する場合において、左右肋骨の対応付けを行い、対応付けされた肋骨の情報を用いて正中線の位置を決定するので、検体の肋骨が、骨折などによって欠損した状態であっても、正中線を正しく求めることができる。
 <3-6.第17実施形態>
 第17実施形態では、被検査画像と肋骨の構成に係る対比画像パターンとの照合を行うことによって、被検査画像における検体の正中線の位置を決定する。
 正中線の位置の決定は、制御部2の決定部4040C(図74)によって行われる。決定部4040Cは、照合部4046および正中線決定部4044Cを有する。決定部4040Cは、これらの各機能によって、画像データにおける肋骨に係る情報に基づいて、被検査画像中での検体の正中線の位置を決定する。
 具体的には、照合部4046が、被検査画像と、予め準備された肋骨の構成に係る画像パターンであって、正中線のモデルを示す正中線モデルパターンが付加された対比画像パターンとの照合を行う。そして、照合部4046が、被検査画像と対比画像パターンとの適合度が最も高い相互位置関係で、対比画像パターンの所定位置に対応する被検査画像上の位置を示す位置情報を検出する。正中線決定部4044Cは、該位置情報に基づいて、被検査画像における正中線の位置を決定する。
 第17実施形態に係る決定部4040Cでは、主に、肋骨に着目した構成を模した肋骨モデルの読み出し、被検査画像と肋骨モデルとの照合、検体の正中線の位置の決定、の順に処理が行われる。以下、これらの処理内容について順次に説明する。
  <3-6-1.肋骨モデルの読み出し>
 照合部4046によって、記憶部6に予め準備されて記憶されている肋骨モデルが読み出される。なお、本実施形態では、肋骨モデルが、「検体の身体モデルを表現した画像パターン」に相当する。
 図75は、肋骨モデル22の構成の例を示す図である。肋骨モデル22は、上記手法によって抽出された肋骨画像領域23を含む画像に検体の正中線モデルパターン24が付加されて構成されている。正中線モデルパターン24については、肋骨モデル22に対する正中線の位置情報が設定されているのみである。
  <3-6-2.被検査画像と肋骨モデルとの照合>
 被検査画像と肋骨モデル22との照合は、照合部4046によって、被検査画像と肋骨モデル22との相対的な角度関係が順次に変更されつつ、各角度関係について行われる。したがって、ここでは、まず、被検査画像と肋骨モデル22との相対的な角度関係が、特定の1つの角度関係にある場合における照合処理について説明し、その後、各角度関係における照合処理について説明する。
 被検査画像と肋骨モデル22との照合では、水平ラインに沿って、被検査画像に対して肋骨モデル22が所定画素(例えば一画素)ずつ移動された位置に順次に設定される。図76は、肋骨モデル22が移動させられながら照合が行われる様子を例示する図である。図76および図76以降の図には、肋骨モデル22などの画像パターンを移動させる方向のイメージを示す矢印Fが適宜付されている。
 そして、被検査画像20上において肋骨モデル22が設定される位置ごとに、被検査画像20と肋骨モデル22との適合度、すなわち、肋骨モデル22と被検査画像20とが重なり合う領域全体の類似度が求められる。類似度は、例えば、差分法(SAD)を用いて、被検査画像20上の対象領域と肋骨モデル22との画素ごとの輝度値(画素値)の差分合計値で表すことができる。この場合、差分合計値が0の場合に被検査画像20と肋骨モデル22とが最も適合していることになる。被検査画像と肋骨モデル22との照合においては、予め差分合計値の閥値を定め、閾値以下の差分合計値が得られた位置関係の中で、最も小さい差分合計値が求められた位置関係を検出するようにしてもよい。この類似度を求める具体的手法としては、その他に、最小二乗和法(SSD)、正規化相互相関法(NCC)等がある。この照合は、各水平ラインに沿って肋骨モデル22を移動させながら、被検査画像20の全領域に対して行われる。
 そして、上述した被検査画像と肋骨モデル22との照合が、被検査画像20と肋骨モデル22の角度関係が変更された各角度関係について行われる。
 具体的には、被検査画像20の中心点を回転中心として、被検査画像20を時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)、および中心点を中心として、被検査画像20を反時計回りにβ度までα度刻みで回転させることでそれぞれ得られる画像(回転被検査画像)について、照合がそれぞれ行われる。ここでは、例えば、α度は1度、β度は30度に設定される。
 図77は、被検査画像20を反時計回りにα度回転させることで得られる回転被検査画像60を例示する図である。被検査画像20が中心点19を中心として回転させられて各回転被検査画像60が得られる際には、回転被検査画像60を構成する各画素の階調値が補間処理によって求められる。
 このようにして、被検査画像20と肋骨モデル22との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像20と肋骨モデル22とに係る位置関係が検出される。具体的には、基準となる被検査画像20と、被検査画像20が時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、被検査画像20が反時計回りに回転させられてそれぞれ得られるβ/α枚の回転被検査画像と、をそれぞれ対象として、照合動作が行われ、最も高い適合度を有する位置関係を採用する。
  <3-6-3.検体の正中線の位置の決定>
 上述したように、被検査画像20と肋骨モデル22との相対的な角度関係を段階的に変更させた各角度関係に対して、類似度が最も大きくなる被検査画像20と肋骨モデル22とに係る位置関係を、被検査画像20と肋骨モデル22とが最も類似している類似位置関係として検出する。そして、最後に、正中線決定部4044Cによって、被検査画像20と肋骨モデル22とが類似位置関係にある際に、被検査画像20において肋骨モデル22の検体の正中線モデルパターン24に対応する位置(具体的には直線)が、被検査画像の検体の正中線として決定される。
 以上の処理フローは、図78のステップU4001~U4008に示されている。
 このような処理により、第17実施形態では、肋骨に係る情報に基づいて正中線の位置を決定するので、被検査者の健康状態の影響を受けにくく、正中線を正しく求めることができる。また、予め準備された画像パターンを用いて正中線の位置を決定するので、正中線を速く求めることができる。さらに、被検査画像20と肋骨モデル22との照合が、被検査画像20と肋骨モデル22の角度関係が変更された各角度関係について行われるので、検体が基準位置に対して傾きすぎた被検査画像20が入力された場合においても、自動的に被検査画像上の検体の正しい検体の正中線が求められる。
 <4.変形例>
 以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
 例えば、第1~5実施形態においては、被検査画像20の回転によって回転画像が生成されることで、被検査画像20とテンプレートまたはモデルとの相対的な角度関係が変更されたが、これに限られない。例えば、被検査画像20が回転される代わりに、テンプレートまたはモデルが回転されることで、被検査画像20とテンプレートまたはモデルとの相対的な角度関係が変更されても良い。図16は、第1実施形態に係る背骨テンプレート11を反時計回りにα度回転させた状態を例示する図である。
 また、第1から第17実施形態においては、被写体を透過したX線の量を身体の内部構造を示す情報としており、縦の各辺が512ピクセル、横の各辺が512ピクセルの正方形状の胸部単純X線画像における正中線が決定されたが、これに限らず、他のモダリティによって得られる画像に対して正中線が決定されても良い。例えば、CT(コンピュータ断層撮影)、MRI(核磁気共鳴画像)、シンチグラフィーによって肺野をとらえた画像領域が含まれている画像を作成し、該画像について正中線が決定されても良い。また、被検査画像のサイズは、任意に設定することができる。
 また、第1から第5実施形態においては、テンプレートまたはモデルの画素値が、白黒階調値で表されていたが、被写体の画像に応じて色調が任意に設定されても良い。
 また、第1から第11実施形態においては、胸部撮影画像を対象として正中線が決定されたがこれに限られず、第1から第11実施形態で列挙した正中線を決定する手法を、骨盤、腰椎等、他の部位をとらえた撮影画像を対象として正中線を決定する場面に適用しても良い。
 また、第1から第17実施形態では、正中線決定装置がX線撮影装置から独立した構成である場合について説明したが、X線撮影装置そのものに設けたコンピュータによって正中線決定装置の各部を実現する構成であっても良い。
 また、第6から第11実施形態においては、被検査画像20の回転によって回転被検査画像が生成されることで、被検査画像20と評価領域51A,51B,51Cとの相対的な角度関係が変更されたが、これに限られない。例えば、被検査画像20が回転される代わりに、評価領域が回転されることで、被検査画像20と評価領域との相対的な角度関係が変更されても良い。図29は、変形例において評価領域51Aを反時計回りにθ度回転させた状態を例示する図である。
 また、第6から第11および第14実施形態では、グレースケールにおいて、被検査画像が黒くなるほど画素値が高くなるように換算されて表されていたが、逆にして、被検査画像が黒くなるほど画素値が低くなるように換算して表わしてもよい。
 また、第13実施形態においては、テンプレート画像3014の回転によって、被検査画像20とテンプレート画像3014との相対的な角度関係が変更されたが、これに限られない。テンプレート画像3014が回転される代わりに、被検査画像20が回転されることで、被検査画像20とテンプレート画像3014との相対的な角度関係が変更されても良い。図52は、変形例において、被検査画像20を反時計回りにα度回転させた状態を例示する図である。また、第14実施形態においては、被検査画像20の回転によって回転被検査画像60が生成されることで、被検査画像20と評価領域51との相対的な角度関係が変更されたが、被検査画像20が回転される代わりに、評価領域51が回転されることで、被検査画像20と評価領域51との相対的な角度関係が変更されても良い。図53は、変形例において、評価領域51を反時計回りにθ度回転させた状態を例示する図である。
 また、第13実施形態においては、テンプレート画像3014の画素値が、白黒階調値で表されていたが、被写体の画像に応じて色調が任意に設定されても良い。
 また、第15実施形態において、肋骨画像群中心位置は、肋骨画像群の存在範囲を矩形で近似するほか、肋骨画像または肋骨エッジの各部の画素位置を平均することによって求めてもよい。
 また、第17実施形態において、被検査画像20と肋骨モデル22との相対的な角度関係を変更させるにあたっては、図79に角度αとして例示するように肋骨モデル22を回転させてもよい。
 1,2001,3401 正中線決定装置
 2 制御部
 4 操作部
 5 取得部
 20 被検査画像
 3,2042A~2042F,3048A~3048C,4044A~4044C 正中線決定部
 11 背骨テンプレート
 13 肺野テンプレート
 14 腹部テンプレート
 16 肺野モデル
 22 肋骨モデル
 2040,2040A~2040F,3040A~3040C,4040A~4040C 決定部
 2030 積算値算出部
 2041A~2040F 認識部
 2043B~2043F 検出部
 2044 差分算出部
 2045 合算値算出部
 54  正中線候補位置
 51A~51C  評価領域
 60 回転被検査画像
 3014 テンプレート画像
 30 正中線
 3041 2値化部
 3042 エッジ抽出部
 3044 テンプレート設定部
 3045 照合実効部
 3046 照合制御部
 3043,4046 照合部
 4041A,4041B ラベリング部
 4042 傾き算出部 
 4043 中心位置算出部
 4045 肋骨点検出部

Claims (32)

  1.  人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     被検査画像を取得する取得部と、
     前記被検査画像と、前記検体の身体モデルを表現した画像パターンとに基づいて、前記被検査画像における正中線を決定する正中線決定部と、
    を備え、
     前記正中線決定部が、
      前記画像パターンが前記被検査画像と適合する相対的位置関係において、前記画像パターン上の所定の第1基準位置に対応する前記被検査画像上の第2基準位置を決定し、前記第2基準位置を表現した位置情報を得る位置取得要素と、
       前記位置情報に基づいて、前記被検査画像の正中線を決定する正中線位置決定要素と、
    を備える正中線決定装置。
  2.  請求項1に記載の正中線決定装置であって、
     前記位置取得要素が、
      前記被検査画像と前記画像パターンとを、第1方向に相対的に移動させながら、相互に比較する要素と、
      前記被検査画像と前記画像パターンとの差分が所定の閾値以下となる複数の相対位置を決定する要素と、
      前記複数の相対位置のうちで前記差分が最小となる相対位置において、前記第1基準位置に対応する前記第2基準位置を決定する要素と、
      前記被検査画像に対して前記画像パターンを第2方向に相対的に移動させながら、前記第2基準位置の決定を繰り返すことによって、前記正中線の複数の候補位置を決定する要素と、
    を備える正中線決定装置。
  3.  請求項1に記載の正中線決定装置であって、
     前記位置取得要素が、
      前記被検査画像と前記画像パターンとを、第1方向に相対的に移動させながら、相互に比較する要素と、
      前記差分が最小となる相対位置において、前記第1基準位置に対応する前記第2基準位置を決定する要素と、
      前記被検査画像に対して前記画像パターンを第2方向に相対的に移動させながら、前記第2基準位置の決定を繰り返すことによって、前記正中線を規定するための複数の候補位置を決定する要素と、
    を備える正中線決定装置。
  4.  請求項1に記載の正中線決定装置であって、
     前記画像パターンには、正中線モデルパターンが付加されており、
     前記第1基準位置は、前記画像パターンにおける前記正中線モデルパターンの位置であって、
     前記第2基準位置は、前記画像パターンが前記被検査画像と適合するような前記相対的位置関係において、前記正中線モデルパターンに対応する前記被検査画像上の位置である正中線決定装置。
  5.  請求項2に記載の正中線決定装置であって、
     前記位置取得要素が、
      前記画像パターンと前記被検査画像との角度を変化させつつ、前記第1基準位置に対応する複数の点列を決定する要素、
    を備え、
      前記正中線位置決定要素が、
      前記正中線の前記複数の点列から、前記画像パターンと前記被検査画像とが最も適合する角度関係に対応した最適点列を選択する要素と、
      前記最適点列に基づいて、前記正中線を決定する要素と、
    を備える正中線決定装置。
  6.  請求項4に記載の正中線決定装置であって、
     前記位置取得要素が、
      前記画像パターンと前記被検査画像との角度を変化させつつ、前記正中線モデルパターンに基づいて、前記正中線の複数の候補を決定する要素、
    を備え、
      前記正中線位置決定要素が、
      前記正中線の前記複数の候補から、前記画像パターンと前記被検査画像とが最も適合する角度関係に対応した最適正中線を選択する要素、
    を備える正中線決定装置。
  7.  コンピュータの制御部により実行されることによって、前記コンピュータを、
     人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     被検査画像を取得する取得部と、
     前記被検査画像と、前記検体の身体モデルを表現した画像パターンとに基づいて、前記被検査画像における正中線を決定する正中線決定部と、
    を備え、
      前記正中線決定部が、
      前記画像パターンが前記被検査画像と適合する相対的位置関係において、前記画像パターン上の所定の第1基準位置に対応する前記被検査画像上の第2基準位置を決定し、前記第2基準位置を表現した位置情報を得る位置取得要素と、
       前記位置情報に基づいて、前記被検査画像の正中線を決定する正中線位置決定要素と、
    を備える正中線決定装置として動作させるプログラム。
  8.  人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体の内部構造に対応する情報の分布を表現した被検査画像を取得する取得部と、
     前記被検査画像に対して評価領域を設定する設定部と、
     前記評価領域内において第1方向に沿って伸びる各画素列について、前記被検査画像の画素値を前記基準方向に沿って積算し、それによって複数の積算画素値を算出する積算値算出部と、
     前記複数の前記積算画素値に基づいて、前記被検査画像における正中線の位置を決定する決定部と、
    を備える正中線決定装置。
  9.  請求項8に記載の正中線決定装置であって、
     前記決定部が、
     前記複数の積算画素値のうち最小値を与える画素列を認識し、それによって前記正中線の候補位置を得る認識部と、
     前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、
    を備える正中線決定装置。
  10.  請求項8に記載の正中線決定装置であって、
     前記決定部が、
     前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記積算画素値の第1最大値および第2最大値をそれぞれ検出する検出部と、
     前記第1最大値を与える第1画素列と、前記第2最大値を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、
     前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、
    を備える正中線決定装置。
  11.  請求項8に記載の正中線決定装置であって、
     前記決定部が、
     前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記積算画素値の第1最小値および第2最小値をそれぞれ検出する検出部と、
     前記第1最小値を与える第1画素列と、前記第2最小値を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、
     前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、
    を備える正中線決定装置。
  12.  請求項8に記載の正中線決定装置であって、
     前記決定部が、
     前記評価領域の前記第1方向に沿った中心線を挟む第1領域および第2領域について、前記第1方向に直交する第2方向についての前記積算画素値の第1最大変化率および第2最大変化率をそれぞれ検出する検出部と、
     前記第2最大変化率を与える第1画素列と、前記第2最大変化率を与える第2画素列との中間位置を、前記正中線の候補位置として認識する認識部と、
     前記正中線の前記候補位置に基づいて、前記正中線の位置を決定する正中線決定部と、
    を備えることを特徴とする正中線決定装置。
  13.  請求項9に記載の正中線決定装置であって、
     前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、
     前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、
     前記正中線決定部が、前記複数の候補位置のうち、前記積算画素値が最小となっている特定の候補位置に基づいて、前記正中線の位置を決定する正中線決定装置。
  14.  請求項8に記載の正中線決定装置であって、
     前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、
     前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、
     前記正中線決定部が、前記複数の候補位置のうち、前記第1最大値と前記第2最大値との差が最小となっている特定の候補位置に基づいて、前記正中線の位置を決定する正中線決定装置。
  15.  請求項8に記載の正中線決定装置であって、
     前記設定部が、前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更し、
     前記認識部が、各相対的な角度において前記正中線の前記候補位置を認識することによって、複数の候補位置を取得し、
     前記正中線決定部が、前記複数の候補位置のうち、前記第1最大変化率と前記第2最大変化率との和が最大となっている特定の候補位置に基づいて、前記正中線の位置を決定する正中線決定装置。
  16.  請求項8に記載の正中線決定装置であって、
     前記評価領域が、矩形領域であり、
     前記第1方向が、前記評価領域の一辺に沿った方向である正中線決定装置。
  17.  コンピュータの制御部により実行されることによって、前記コンピュータを、
     人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体の内部構造に対応する情報の分布を表現した被検査画像を取得する取得部と、
     前記被検査画像に対して評価領域を設定する設定部と、
     前記評価領域内において第1方向に沿って伸びる各画素列について、前記被検査画像の画素値を前記基準方向に沿って積算し、それによって複数の積算画素値を算出する積算値算出部と、
     前記複数の前記積算画素値に基づいて、前記被検査画像における正中線の位置を決定する決定部と、
    を備える正中線決定装置として動作させるプログラム。
  18.  人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体を表現した被検査画像を取得する取得部と、
     前記被検査画像から前記検体の左右両側の体側を検出し、前記両側の体側を表現する体側情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、
    を備える正中線決定装置。
  19.  請求項18に記載の正中線決定装置であって、
     前記決定部が、
     前記体側情報は、前記検体の腹部領域の左右両側の位置を表現する正中線決定装置。
  20.  請求項19に記載の正中線決定装置であって、
     前記決定部が、
     前記被検査画像の2値化を行い、2値画像データを作成する2値化部と、
     前記2値画像データにおける左右両側の体側のエッジの抽出を行うエッジ抽出部と、
     前記左右両側の体側のエッジに基づいて前記正中線の位置を決定する正中線決定部と、
    を備え、
     前記正中線決定部が、
     前記左右両側の体側のエッジ上の対応点同士を結ぶ線分の各中点を検出する要素と、
     前記各中点の位置に基づいて、前記正中線の位置を決定する要素と、
    を備える正中線決定装置。
  21.  請求項19に記載の正中線決定装置であって、
     前記決定部が、
     前記被検査画像と所定のテンプレート画像からなる2画像の相対位置を変化させつつ、前記2画像の照合を行う照合部と、
     前記照合部による照合結果に基づいて前記被検査画像における正中線の位置を決定する正中線決定部と、
    を備えることを特徴とする正中線決定装置。
  22.  請求項21に記載の正中線決定装置であって、
     前記照合部が、
     検体の腹部部分を表現した第1画素値が付与された第1領域の両側に、検体の体外部分を表現した第2画素値が付与された第2領域が配置された画像を前記テンプレート画像として設定するテンプレート設定部と、
     前記2画像の空間的相対関係を変化させつつ前記2画像を照合して、前記2画像の最大適合度を与える前記被検査画像上の位置を前記正中線が通る候補位置として特定する照合実行部と、
     前記2画像の空間的相対関係の変化について、少なくとも1つの変化条件を課して前記照合実行部による照合を行わせる照合制御部と、
    を備え、
     正中線決定部が、前記少なくとも1つの変化条件について特定された前記候補位置に基づいて、前記被検査画像における正中線の位置を決定する正中線決定装置。
  23.  請求項22に記載の正中線決定装置であって、
     前記少なくとも1つの変化条件に従った前記空間的相対関係の変化が、所定の位置を回転中心とした前記2画像の相対的角度関係の変化である正中線決定装置。
  24.  請求項19に記載の正中線決定装置であって、
     前記決定部が、
     前記被検査画像に対して2次元的な評価領域を設定する設定部と、
     前記評価領域における前記被検査画像に基づいて前記正中線を決定する正中線決定部と、
    を備え、
     前記正中線決定部は、
     前記評価領域における2次元的画素値分布を、前記評価領域に対して相対的に固定された所定の射影方向へ累積的に射影することによって1次元的画素値分布へと圧縮する圧縮要素と、
     前記1次元的画素値分布における特徴点の位置に基づいて前記正中線を決定する決定要素と、
    を備える正中線決定装置。
  25.  請求項24に記載の正中線決定装置であって、
     前記設定部が、
      前記被検査画像に対する前記評価領域の相対的な角度を段階的に変更して、複数組の特徴点のそれぞれの画素射影値を得る要素、
    を備え、
     前記正中線決定部が、
     前記複数組の特徴点の前記それぞれ画素射影値を相互に比較して、一組の特徴点を選択する要素と、
     前記一組の特徴点の位置に基づいて前記正中線を決定する要素と、
    を備える正中線決定装置。
  26.  コンピュータの制御部により実行されることによって、前記コンピュータを、
     人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体を表現した被検査画像を取得する取得部と、
     前記被検査画像から前記検体の左右両側の体側を検出し、前記両側の体側を表現する体側情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、
    を備える正中線決定装置として動作させるプログラム。
  27.  人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体を表現した被検査画像を取得する取得部と、
     前記被検査画像から前記検体の肋骨を検出し、前記肋骨を表現する肋骨情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、
    を備える正中線決定装置。
  28.  請求項27に記載の正中線決定装置であって、
     前記決定部が、
     前記被検査画像における肋骨のエッジを抽出し、前記肋骨のエッジのラベリングを行うラベリング部と、
     前記被検査画像における所定の基準方向に対する前記肋骨のエッジの傾きを算出する傾き算出部と、
     前記被検査画像における肋骨画像群の空間的分布の中心位置を算出する中心位置算出部と、
     前記肋骨のエッジの傾きおよび前記中心位置に基づいて、前記被検査画像における正中線の位置を決定する正中線決定部と、
    を有することを特徴とする正中線決定装置。
  29.  請求項27に記載の正中線決定装置であって、
     前記決定部が、
     前記被検査画像における肋骨のエッジを抽出し、前記肋骨の前記エッジのラベリングを行うラベリング部と、
     前記被検査画像の左肋骨のエッジおよび右肋骨のエッジ間において、前記肋骨のエッジ上の所定の位置として定義される肋骨点の対応付けを行い、肋骨点ペアを得る肋骨点検出部と、
     前記肋骨ペアのそれぞれを結ぶ線分を設定し、前記線分のそれぞれの中点の位置に基づいて、前記正中線の位置を決定する正中線決定部と、
    を備える正中線決定装置。
  30.  請求項27に記載の正中線決定装置であって、
     肋骨の配置に正中線モデルパターンが付加された画像パターンがあらかじめ定義されており、
     前記決定部が、
     前記画像パターンと前記被検査画像との相対的位置関係を変化させつつ、前記画像パターンと前記被検査画像とを照合する照合部と、
     前記被検査画像と前記画像パターンとの最大適合度を与える相互位置関係における前記正中線モデルパターンの位置に基づいて、前記被検査画像における正中線の位置を決定する正中線決定部と、
    を備える正中線決定装置。
  31.  請求項30に記載の正中線決定装置であって、
     前記照合部が、前記被検査画像と前記画像パターンとの適合度の判定を、前記被検査画像と前記画像パターンとの相対的な角度関係を段階的に変更させた複数の角度関係に対してそれぞれ行う正中線決定装置。
  32.  コンピュータの制御部により実行されることによって、前記コンピュータを、
     人間または動物である検体の身体を撮影して得られる被検査画像の正中線を決定する正中線決定装置であって、
     検体の身体を表現した被検査画像を取得する取得部と、
     前記被検査画像から前記検体の肋骨を検出し、前記肋骨を表現する肋骨情報に基づいて、前記被検査画像中での前記検体の正中線の位置を決定する決定部と、
    を備える正中線決定装置として動作させるプログラム。
PCT/JP2010/051410 2009-02-23 2010-02-02 正中線決定装置およびプログラム WO2010095508A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011500555A JP5626202B2 (ja) 2009-02-23 2010-02-02 正中線決定装置およびプログラム

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2009039361 2009-02-23
JP2009-039361 2009-02-23
JP2009048054 2009-03-02
JP2009-048054 2009-03-02
JP2009098975 2009-04-15
JP2009-098975 2009-04-15
JP2009101985 2009-04-20
JP2009-101985 2009-04-20

Publications (1)

Publication Number Publication Date
WO2010095508A1 true WO2010095508A1 (ja) 2010-08-26

Family

ID=42633793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/051410 WO2010095508A1 (ja) 2009-02-23 2010-02-02 正中線決定装置およびプログラム

Country Status (2)

Country Link
JP (1) JP5626202B2 (ja)
WO (1) WO2010095508A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078088A (ja) * 2010-09-30 2012-04-19 Fujifilm Ri Pharma Co Ltd 画像処理装置、方法及びコンピュータプログラム
JP2014502176A (ja) * 2010-11-02 2014-01-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 幾何学的特徴の自動算出方法、非一時的なコンピュータ可読媒体および画像解釈システム
JP2016097311A (ja) * 2014-11-26 2016-05-30 株式会社東芝 医用画像処理装置、医用イメージング装置及び医用画像処理方法
WO2016088805A1 (ja) * 2014-12-03 2016-06-09 日立アロカメディカル株式会社 医療用x線測定装置
JP2017113439A (ja) * 2015-12-25 2017-06-29 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 中心線決定装置、医用装置、およびプログラム
CN108888284A (zh) * 2018-05-18 2018-11-27 沈阳东软医疗系统有限公司 图像调整方法、装置及设备、存储介质
JP2020124570A (ja) * 2020-04-28 2020-08-20 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
US11941825B2 (en) 2021-10-28 2024-03-26 Canon Medical Systems Corporation Method and apparatus for registering image volumes
US12094136B2 (en) 2021-10-28 2024-09-17 Canon Medical Systems Corporation Image processing method and apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06243220A (ja) * 1993-02-18 1994-09-02 Sumitomo Heavy Ind Ltd 不定形物体の内部構造推定方法
JPH0723928A (ja) * 1993-07-13 1995-01-27 Hitachi Medical Corp 医用画像診断装置
JPH0966045A (ja) * 1995-08-31 1997-03-11 Shimadzu Corp 医用画像処理装置
JP2004188202A (ja) * 2002-12-10 2004-07-08 Eastman Kodak Co デジタル胸部放射線写真の自動分析方法
JP2006346465A (ja) * 2005-06-15 2006-12-28 Canon Inc 心臓境界、胸郭境界及び横隔膜境界を検出する方法、装置及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06243220A (ja) * 1993-02-18 1994-09-02 Sumitomo Heavy Ind Ltd 不定形物体の内部構造推定方法
JPH0723928A (ja) * 1993-07-13 1995-01-27 Hitachi Medical Corp 医用画像診断装置
JPH0966045A (ja) * 1995-08-31 1997-03-11 Shimadzu Corp 医用画像処理装置
JP2004188202A (ja) * 2002-12-10 2004-07-08 Eastman Kodak Co デジタル胸部放射線写真の自動分析方法
JP2006346465A (ja) * 2005-06-15 2006-12-28 Canon Inc 心臓境界、胸郭境界及び横隔膜境界を検出する方法、装置及び記憶媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078088A (ja) * 2010-09-30 2012-04-19 Fujifilm Ri Pharma Co Ltd 画像処理装置、方法及びコンピュータプログラム
JP2014502176A (ja) * 2010-11-02 2014-01-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 幾何学的特徴の自動算出方法、非一時的なコンピュータ可読媒体および画像解釈システム
JP2016097311A (ja) * 2014-11-26 2016-05-30 株式会社東芝 医用画像処理装置、医用イメージング装置及び医用画像処理方法
WO2016088805A1 (ja) * 2014-12-03 2016-06-09 日立アロカメディカル株式会社 医療用x線測定装置
JP2016106720A (ja) * 2014-12-03 2016-06-20 日立アロカメディカル株式会社 医療用x線測定装置
JP2017113439A (ja) * 2015-12-25 2017-06-29 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 中心線決定装置、医用装置、およびプログラム
CN108888284A (zh) * 2018-05-18 2018-11-27 沈阳东软医疗系统有限公司 图像调整方法、装置及设备、存储介质
JP2020124570A (ja) * 2020-04-28 2020-08-20 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
US11941825B2 (en) 2021-10-28 2024-03-26 Canon Medical Systems Corporation Method and apparatus for registering image volumes
US12094136B2 (en) 2021-10-28 2024-09-17 Canon Medical Systems Corporation Image processing method and apparatus

Also Published As

Publication number Publication date
JP5626202B2 (ja) 2014-11-19
JPWO2010095508A1 (ja) 2012-08-23

Similar Documents

Publication Publication Date Title
JP5626202B2 (ja) 正中線決定装置およびプログラム
US8958614B2 (en) Image-based detection using hierarchical learning
JP5643304B2 (ja) 胸部トモシンセシスイメージングにおけるコンピュータ支援肺結節検出システムおよび方法並びに肺画像セグメント化システムおよび方法
CN104637024B (zh) 医用图像处理装置以及医用图像处理方法
CN107886508B (zh) 差分减影方法和医学图像处理方法及系统
US8724865B2 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
JP4640845B2 (ja) 画像処理装置およびそのプログラム
JP6170284B2 (ja) 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法
JP6013042B2 (ja) 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法
EP3355273A1 (en) Coarse orientation detection in image data
CN102802534B (zh) 医用图像转换设备、方法和程序
CN111932492B (zh) 一种医学图像处理方法、装置及计算机可读存储介质
Lenga et al. Deep learning based rib centerline extraction and labeling
CN115861656A (zh) 用于自动处理医学图像以输出警报的方法、设备和系统
Šajn et al. Computerized segmentation of whole-body bone scintigrams and its use in automated diagnostics
Piętka et al. Role of radiologists in CAD life-cycle
JP2017198697A (ja) 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法
CN112734740B (zh) 训练目标检测模型的方法、目标检测的方法及其装置
Dhalia Sweetlin et al. Patient-Specific Model Based Segmentation of Lung Computed Tomographic Images.
US20170079604A1 (en) System and method for digital breast tomosynthesis
WO2008024359A2 (en) Method for detection and visional enhancement of blood vessels and pulmonary emboli
Dovganich et al. Automatic quality control in lung X-ray imaging with deep learning
Jamil et al. Image registration of medical images
Šajn et al. Computerized segmentation and diagnostics of whole-body bone scintigrams
Lu et al. Prior active shape model for detecting pelvic landmarks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10743637

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011500555

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10743637

Country of ref document: EP

Kind code of ref document: A1