WO2020246124A1 - 関節投影面設定装置、方法およびプログラム - Google Patents

関節投影面設定装置、方法およびプログラム Download PDF

Info

Publication number
WO2020246124A1
WO2020246124A1 PCT/JP2020/015145 JP2020015145W WO2020246124A1 WO 2020246124 A1 WO2020246124 A1 WO 2020246124A1 JP 2020015145 W JP2020015145 W JP 2020015145W WO 2020246124 A1 WO2020246124 A1 WO 2020246124A1
Authority
WO
WIPO (PCT)
Prior art keywords
joint
projection
image
region
cartilage
Prior art date
Application number
PCT/JP2020/015145
Other languages
English (en)
French (fr)
Inventor
鈴木 健司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021524681A priority Critical patent/JP7242852B2/ja
Publication of WO2020246124A1 publication Critical patent/WO2020246124A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]

Definitions

  • the present disclosure relates to a joint projection plane setting device, a method, and a program for setting a projection plane when a joint projection image is generated from a three-dimensional image including a joint.
  • a method such as a maximum value projection method (MIP (Maximum Intensity Projection) method) and a minimum value projection method (MinIP (Minimum Intensity Projection) method is performed from a three-dimensional image including the organ of interest by recognizing the organ of interest.
  • MIP Maximum Intensity Projection
  • MinIP Minimum Intensity Projection
  • volume rendering VR (Volume Rendering)
  • osteoarthritis is a disease that often occurs in the elderly. Osteoarthritis of the knee, in particular, causes pain in the knee joint and reduced range of motion, which can lead to inability to walk as the condition progresses. In order to diagnose such osteoarthritis, it is necessary to qualitatively evaluate the cartilage of the knee joint. Therefore, various methods for quantifying joint cartilage using three-dimensional images have been proposed. For example, in Patent Document 1, the projection direction of the cartilage region extracted from the MRI image is determined, the cartilage region is projected in the determined projection direction to generate a projected image, and the quantitative value of the cartilage region is calculated on the projected image. A method for deriving has been proposed. By using the method described in Patent Document 1, a region for quantifying the cartilage region can be appropriately determined, so that a stable diagnostic result for cartilage can be obtained. In particular, by using the cartilage thickness as a quantitative value, it becomes possible to evaluate the cartilage thickness.
  • Patent Document 2 proposes a method for determining the head center and radius of a joint bone and the cervical axis from a three-dimensional image of the joint in order to identify a spherical joint such as the neck of the femur.
  • the 3D cervical minimum curve is determined on the 3D surface model of the cervical portion of the bone
  • the least squares method conforming plane to the 3D cervical minimum curve is determined
  • the least squares is determined.
  • the direction orthogonal to the conforming plane is calculated as the direction of the precise cervical axis
  • the center of projection of the three-dimensional minimum curve of the cervix on the least squares conforming plane is calculated as the point of the precise cervical axis.
  • joints include curved surfaces.
  • the tibial joint appears to be flat, but the medial and lateral condyles have different inclinations and the articular surface has a concave shape. Therefore, even if the method described in Patent Document 1 is used, if the projection direction is not set appropriately, the error in quantifying the cartilage region becomes large.
  • FIG. 21 it is assumed that the cartilage 91 on the articular surface on the lateral condyle side of the tibia 90 is projected in the direction of the arrow A inclined with respect to the central axis X0 of the tibia 90. In this case, as shown in FIG.
  • the defective portion 92 of the cartilage 91 shown by the diagonal line is projected so that the cartilage 91 exists in the projected image 93. Further, the method described in Patent Document 2 determines the axis in a spherical joint, and does not appropriately set the projection surface for projecting the joint.
  • the present disclosure is made in view of the above circumstances, and an object of the present disclosure is to appropriately set a projection surface when generating a projection image of a joint from a three-dimensional image including the joint.
  • the joint projection plane setting device includes an image acquisition unit that acquires a three-dimensional image of a joint and an image acquisition unit. It is provided with a surface setting unit that sets a plane that approximates the joint surface of the joint as a projection surface for projecting a three-dimensional image and generating a projected image.
  • the surface setting unit excludes voxels whose distance from the projection surface is equal to or greater than the voxel exclusion distance from the plurality of voxels constituting the joint surface, and newly projects the voxels. Faces may be set.
  • the surface setting unit may set the projection surface by repeating the exclusion of voxels and the setting of a new projection surface a plurality of times.
  • the surface setting unit may set a plane that approximates the joint surface as the projection surface by the least squares method.
  • the joint may be a tibial joint.
  • the plane setting unit extracts the region excluding the condyle region as the joint surface region in the image of the joint surface of the tibia viewed from the intercondylar region setting direction.
  • a plane that approximates the joint surface included in the joint surface region may be set as the projection surface.
  • the joint projection plane setting device may further include a projection unit that generates a projection image by projecting cartilage in the joint of the three-dimensional image in a direction orthogonal to the projection plane.
  • the cartilage in the joint of the three-dimensional image so that the line connecting the center of gravity of the joint surface of the medial condyle of the tibia and the center of gravity of the joint surface of the lateral condyle faces in the horizontal direction. May further be provided with a projection unit that produces a projected image by projecting in a direction orthogonal to the projection plane.
  • a projection unit that generates a projected image by projecting onto the image may be further provided.
  • the "Akagi line” is a line connecting the posterior cruciate ligament attachment part and the medial edge of the patellar tendon attachment part.
  • the joint projection surface setting device may further include a display control unit that displays a projected image on the display unit.
  • the joint projection plane setting device may further include a quantification unit for deriving a quantification value of cartilage on the projected image.
  • the quantification unit may derive a quantification value in the region of interest on the projected image.
  • the projection unit may set a region of interest based on a contour that defines a region in which cartilage should exist in the joint.
  • the "contour that defines the region where cartilage should exist” means the contour that defines the region where cartilage should anatomically exist in the joint, not the region where cartilage actually exists in the joint.
  • the contour of the region where cartilage should be present in the joint is included as a convex portion on the joint surface. Therefore, in the tibia, this convex portion can be a "contour that defines the region where cartilage should exist”.
  • the quantification unit may derive the cartilage coverage in the region of interest as a quantification value.
  • the quantification unit may derive the cartilage defect area in the region of interest as a quantification value.
  • the quantification unit may derive a representative value of cartilage thickness at each position in the region of interest as a quantification value.
  • the quantification unit may derive the cartilage thickness at each position in the region of interest as a quantification value.
  • the quantifier may generate a cartilage thickness map in the region of interest.
  • the joint projection plane setting device may further include a display control unit that displays a thickness map on the display unit.
  • the quantification unit may derive a quantification value only in a region where the cartilage thickness in the region of interest is equal to or greater than the thickness to which the quantification value is derived.
  • the quantification unit may divide the region of interest on the projected image and derive a quantification value in each region obtained by the division.
  • the projection unit may set the region of interest at the same position as when the quantitative value is derived from another three-dimensional image. Further, in the joint projection plane setting device according to the present disclosure, when the region of interest is set in the projected image of another 3D image having the same subject as the subject in which the 3D image was acquired and the imaging time is different, The projection unit may set the same region of interest as the region of interest of the projected image of another three-dimensional image with respect to the projected image of the three-dimensional image.
  • the quantification unit may derive the area of cartilage on the projected image as a quantification value.
  • the quantification unit may derive the volume of cartilage on the projected image as a quantification value.
  • the setting unit may set the projection surface on which another projection image is generated as the projection surface for projecting the three-dimensional image to generate the projection image.
  • the joint projection plane setting device may further include a mapping unit that generates a mapping image in which a functional image of a joint is mapped to a projection image.
  • a “functional image” is an image having a signal value in the joint of a subject according to the amount or correlation of substances contained such as water and collagen. Specifically, T1 map, T2 map, T2 * map, T1 ⁇ map, CEST (Chemical Exchange Saturation Transfer), etc. acquired by MRI can be used as functional images.
  • the joint projection plane setting device may further include a display control unit that displays a mapped image on the display unit.
  • the joint projection plane setting method acquires a three-dimensional image of a joint and obtains a three-dimensional image.
  • a plane that approximates the joint surface of the joint is set as the projection surface for projecting a three-dimensional image and generating a projected image.
  • joint projection plane setting devices are A memory that stores instructions for the computer to execute,
  • the processor comprises a processor configured to execute a stored instruction. Get a 3D image of the joint, A process of setting a plane that approximates the joint surface of the joint as a projection surface for projecting a three-dimensional image and generating a projected image is executed.
  • Diagram to explain the derivation of the center of gravity Diagram showing a projected image including a line connecting the centers of gravity Diagram showing a projected image including the Akagi line Diagram to illustrate the setting of the area of interest Diagram showing a thickness map
  • a flowchart showing the processing performed in the first embodiment Schematic block diagram showing the configuration of the joint projection plane setting device according to the second embodiment.
  • Diagram showing a mapping image A flowchart showing the processing performed in the second embodiment
  • FIG. 1 is a hardware configuration diagram showing an outline of a diagnosis support system to which the joint projection plane setting device according to the first embodiment of the present disclosure is applied.
  • the joint projection plane setting device 1 the three-dimensional image capturing device 2, and the image storage server 3 according to the present embodiment are connected in a communicable state via the network 4. ing.
  • the three-dimensional image capturing device 2 is a device that generates a three-dimensional image representing the site by photographing the site to be diagnosed of the subject.
  • the three-dimensional image capturing device 2 is a CT device, an MRI device, a PET (Positron Emission Tomography) device, or the like.
  • the three-dimensional image generated by the three-dimensional image capturing device 2 is transmitted to the image storage server 3 and stored.
  • the diagnosis target site of the patient who is the subject is the knee joint
  • the three-dimensional imaging device 2 is the MRI device
  • the MRI of the knee joint of the subject in the three-dimensional imaging device 2 It is assumed that the image is generated as a three-dimensional image.
  • the image storage server 3 is a computer that stores and manages various data, and is equipped with a large-capacity external storage device and database management software.
  • the image storage server 3 communicates with other devices via a wired or wireless network 4 to send and receive image data and the like.
  • various data including image data such as a three-dimensional image generated by the three-dimensional image capturing device 2 are acquired via a network and stored in a recording medium such as a large-capacity external storage device for management.
  • the storage format of the image data and the communication between the devices via the network 4 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).
  • DICOM Digital Imaging and Communication in Medicine
  • the joint projection plane setting device 1 is realized by executing the joint projection plane setting program of the present disclosure installed on one computer.
  • the computer may be a workstation or personal computer operated directly by the diagnosing doctor, or it may be a server computer connected to them via a network.
  • the joint projection plane setting program is stored in a storage device of a server computer connected to a network or in a network storage in a state of being accessible from the outside, and is downloaded and installed on a computer used by a doctor upon request. Alternatively, it is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disk Read Only Memory), and is installed on a computer from the recording medium.
  • FIG. 2 is a diagram showing a schematic configuration of a joint projection plane setting device according to the first embodiment of the present disclosure, which is realized by installing and executing a joint projection plane setting program on a computer.
  • the joint projection plane setting device 1 includes a CPU (Central Processing Unit) 11, a memory 12, and a storage 13 as a standard workstation configuration. Further, a display unit 14 and an input unit 15 such as a mouse and a keyboard are connected to the joint projection surface setting device 1.
  • a CPU Central Processing Unit
  • the storage 13 stores a three-dimensional image of the subject acquired from the image storage server 3 via the network 4 and various information including information necessary for processing.
  • the three-dimensional image V0 with the knee joint of the subject as the diagnosis target site is stored in the storage 13.
  • the joint projection plane setting program executes an image acquisition process for acquiring a three-dimensional image V0 including a joint, a plane that approximates the joint surface of the joint, and a projection image described later by projecting a three-dimensional image as a process to be executed by the CPU 11.
  • a display control process for displaying the thickness map, which will be described later, derived by the conversion process and the quantification on the display unit 14 is defined.
  • the computer functions as an image acquisition unit 21, a surface setting unit 22, a projection unit 23, a quantification unit 24, and a display control unit 25.
  • the image acquisition unit 21 acquires the three-dimensional image V0 of the knee joint of the subject from the image storage server 3. When the three-dimensional image V0 is already stored in the storage 13, the image acquisition unit 21 may acquire the three-dimensional image V0 from the storage 13.
  • FIG. 3 is a diagram showing a three-dimensional image V0 of the knee joint. As shown in FIG. 3, the three-dimensional image V0 includes the femur 30 and the tibia 31. In FIG. 3, the patella is omitted for the sake of explanation. Cartilage 32 is present in the portion of the femur 30 facing the tibia 31, and cartilage 33 is present in the portion of the femur 31 facing the tibia 30.
  • the three-dimensional image V0 is an MRI image, and the range of the signal value (voxel value) in the three-dimensional image V0 is set in each of the bone, cartilage, meniscus, and other areas such as muscle and fat. different.
  • the image acquisition unit 21 extracts a bone region and a cartilage region from the three-dimensional image V0 by threshold processing for the signal value. Specifically, in the three-dimensional image V0, a region in a range that becomes a bone signal value is extracted as a bone region. Further, in the three-dimensional image V0, a region within a range that becomes a cartilage signal value is extracted as a cartilage region.
  • the bone region includes the femur 30 and the tibia 31, and the cartilage region includes the cartilage 32 and 33.
  • the image acquisition unit 21 extracts the bone region and the cartilage region from the three-dimensional image V0, but the present invention is not limited to this.
  • a means for extracting the bone region and the cartilage region from the three-dimensional image V0 may be separately provided.
  • the cartilage 33 of the tibia 31 is extracted as a cartilage region.
  • the extraction of the bone region and the cartilage region from the three-dimensional image V0 is not limited to the threshold value processing.
  • a discriminator that has been machine-learned by deep learning or the like may be used so as to extract the bone region and the cartilage region from the three-dimensional image V0.
  • the knee joint is imaged in a state where the knee is extended or slightly bent (10 to 20 degrees). Then, in the three-dimensional image V0, as shown in FIG. 3, the direction in which the femur 30 and the tibia 31 extend from top to bottom is set in the z direction, and the knee joint is directed from the back to the front when viewed from the front. The direction is set to the y direction, and the direction from left to right when the knee joint is viewed from the front is set to the x direction.
  • the surface setting unit 22 sets a plane that approximates the joint surface of the joint as a projection surface for projecting a three-dimensional image and generating a projection image described later.
  • the surface setting unit 22 sets the minimum three-dimensional region surrounding the tibia 31 included in the three-dimensional image V0.
  • the minimum three-dimensional region is the minimum region necessary for setting a projection plane for generating a projection image, which will be described later, in the region surrounding the three-dimensional image V0.
  • FIG. 4 is a diagram showing a three-dimensional region. As shown in FIG. 4, the surface setting unit 22 sets the minimum three-dimensional region 40 surrounding the tibia 31.
  • the direction of each side of the three-dimensional region 40 coincides with the x-direction, y-direction, and z-direction of the three-dimensional image V0.
  • the z direction corresponds to the intercondylar region setting direction of the present disclosure.
  • FIG. 5 is a diagram for explaining the extraction of the articular surface region.
  • the surface setting unit 22 condyles a region having a predetermined intercondylar region width with respect to the length of the side 41 with reference to the midpoint of the side 41 extending in the x direction of the upper surface 40A. It is set in the area 42 between them.
  • the width of the intercondylar region can be 15 to 25%, preferably 20% in the x direction of the upper surface 40A, but is not limited to this.
  • the surface setting unit 22 sets the joint surface region 43 of the three-dimensional region 40, which is located in the minus direction in the x direction with respect to the region 42 between the condyles. Further, the surface setting unit 22 sets the joint surface region 44 in the three-dimensional region 40, which is located in the plus direction in the x direction with respect to the region 42 between the condyles.
  • the articular surface region 43 corresponds to the region on the medial condyle side in the joint of the tibia 31, and the articular surface region 44 corresponds to the region on the lateral condyle side in the joint of the tibia 31.
  • the surface setting unit 22 sets a plane that approximates the joint surface included in the joint surface regions 43 and 44 as the projection surface.
  • the plane having the minimum distance from each voxel constituting the joint surface included in the joint surface regions 43 and 44 is derived as a projection plane by the least squares method (least squares method).
  • FIG. 6 is a diagram for explaining the derivation of the projection plane. Note that FIG. 6 shows a cross section of the tibia 31 perpendicular to the y-axis for the sake of simplicity. Further, only a part of the voxels on the joint surface regions 43 and 44 is indicated by black circles, and the distance from the voxels to the plane, that is, the projection surface 45 is indicated by arrows. As shown in FIG. 6, the surface setting unit 22 derives a plane as the projection surface 45 that minimizes the total distance from each voxel constituting the joint surface included in the joint surface regions 43 and 44.
  • FIG. 7 is a diagram for explaining voxel exclusion. Note that FIG. 7 shows a cross section of the tibia 31 in the zy plane.
  • the surface setting unit 22 derives a plane 45 having the minimum distance from each voxel constituting the joint surface included in the joint surface regions 43 and 44.
  • there is a voxel such as the voxel P1 shown in FIG. 7, in which the distance from the plane 45 is larger than that of other voxels.
  • the surface setting unit 22 excludes voxels that are equal to or greater than the voxel exclusion distance from the distances from each voxel constituting the joint surface included in the joint surface regions 43 and 44 to the projection surface 45. Then, the surface setting unit 22 derives a plane having the minimum total distance from each voxel on the joint surface regions 43 and 44 as a new projection surface 45A by using voxels other than the excluded voxels.
  • the voxel exclusion distance is, for example, 5 to 20%, preferably 10% of the maximum value of the distance from each voxel constituting the joint surface included in the joint surface regions 43 and 44 to the projection surface 45. Can, but is not limited to.
  • the surface setting unit 22 further determines a voxel that is equal to or greater than the voxel exclusion distance among the distances from each voxel constituting the joint surface included in the joint surface regions 43 and 44 to the new projection surface 45A.
  • the process of excluding and setting a new projection surface 45B is repeated to derive the final projection surface 46.
  • the process of setting a new projection plane is repeated twice, when the voxel exclusion distance is set to 10%, among all the voxels in the joint surface regions 43 and 44, the voxels that contributed to the setting of the projection plane 46 The ratio will be 81%.
  • the voxel exclusion distance is set to 10%, and the process of setting a new projection plane is repeated twice, but the present invention is not limited to this.
  • the projection unit 23 projects the cartilage in the joint of the three-dimensional image V0 in the direction orthogonal to the projection surface 46 to generate a projection image. That is, as shown in FIG. 8, the cartilage 33 of the tibia 31 is projected in the direction 47 orthogonal to the projection surface 46 to generate a projected image. In the present embodiment, the tibia 31 is also projected when the projected image is generated, but only the cartilage 33 may be projected to generate the projected image. It should be noted that the term “orthogonal” includes not only the case of being completely orthogonal but also the case of being orthogonal with a certain error of about 1 to 2 degrees.
  • FIG. 9 is a diagram for explaining the derivation of the center of gravity.
  • the voxels used in deriving the projection surface 46 have been reduced to 81% of all voxels in the articular surface regions 43 and 44 by repeating the process of setting the new projection surface twice.
  • the projection unit 23 uses only the voxels used in the process of setting the projection surface 46 in each of the joint surfaces included in the joint surface regions 43 and 44, and uses only the voxels used to set the projection surface 46, and the center of gravity and the lateral condyle of the joint surface of the medial condyle of the tibia 31. Derivation of the center of gravity of the joint surface of. At this time, the center of gravity G1 of the joint surface of the medial condyle is derived using the voxels in the joint surface region 43, and the center of gravity G2 of the joint surface of the lateral condyle is derived using the voxels in the joint surface region 44. In FIG. 9, the region where the voxels used for deriving the centers of gravity G1 and G2 are present is shown by being surrounded by a broken line.
  • the projection unit 23 projects the cartilage 33 of the tibia 31 in a direction orthogonal to the projection surface 46 so that the line connecting the centers of gravity G1 and G2 is horizontal in the projection image, and generates a projection image.
  • FIG. 10 is a diagram showing a projected image. In the projected image 50 shown in FIG. 10, the line 48 connecting the centers of gravity G1 and G2 is horizontal.
  • the Akagi line is derived from the joint surface of the tibia 31, and the cartilage 33 of the tibia 31 is projected in the direction orthogonal to the projection surface 46 so that the Akagi line faces the vertical direction of the projected image to generate a projected image. You may.
  • the Akagi line is a line connecting the posterior cruciate ligament attachment part and the medial edge of the patellar tendon attachment part.
  • FIG. 11 is a diagram showing a projected image generated so that the Akagi line faces the vertical direction of the projected image. As shown in FIG. 11, in the projected image 50, the Akagi line 49 is vertical.
  • the projection unit 23 sets an area of interest on the projected image 50.
  • the region corresponding to the subchondral bone region in the joint is set as the region of interest.
  • FIG. 12 is a diagram for explaining the setting of the region of interest.
  • hatching is applied to each of the cartilage region 51A on the articular surface of the medial condyle and the cartilage region 51B on the articular surface of the lateral condyle.
  • the subchondral bone region is a region in the joint of the tibia 31 that rubs against the joint of the femur 30.
  • the peripheral portions of the cartilage regions 51A and 51B in the projected image 50 do not rub against the joints of the femur 30.
  • the projection unit 23 extracts and extracts a region excluding the region within the predetermined subcartilage bone region extraction range from the edges of the cartilage regions 51A and 51B of the projected image 50 as the subchondral bone region.
  • the subchondral bone region is set to regions of interest 52A and 52B.
  • a contour defining a region where cartilage should exist in the joint is included as a convex portion on the joint surface. Therefore, the regions surrounded by the convex portions on the joint surface may be regarded as the cartilage regions 51A and 51B, and the regions of interest 52A and 52B may be set.
  • the quantification unit 24 derives the quantified values of the cartilage regions 51A and 51B on the projected image 50. Specifically, quantitative values are derived in the regions of interest 52A and 52B on the projected image 50. In the present embodiment, the quantification value is derived for each of the cartilage regions 51A and 51B of interest regions 52A and 52B, but is not limited thereto. Quantitative values for all regions of interest 52A and 52B may be derived.
  • the quantification unit 24 derives the areas of the regions of interest 52A and 52B and the areas of the cartilage regions 51A and 51B within the regions of interest 52A and 52B.
  • the area per pixel can be known. Therefore, the quantification unit 24 counts the number of pixels in the regions of interest 52A and 52B and the cartilage regions 51A and 51B, and multiplies the counted number of pixels by the area per pixel to obtain the cartilage regions 51A and 51B and the cartilage regions 51A and 51B.
  • the areas of regions 52A and 52B are derived.
  • the area of the cartilage regions 51A and 51B is one of the quantitative values.
  • the quantification unit 24 derives the thicknesses of the cartilage regions 51A and 51B as quantitative values.
  • the position of each pixel of the projected image 50 and the position of the cartilage 33 in the tibia 31 in the three-dimensional image V0 can be associated with each other.
  • the quantification unit 24 associates each pixel position in the regions of interest 52A and 52B of the projected image 50 with each pixel position of the cartilage 33 in the tibia 31 in the three-dimensional image V0.
  • the number of pixels between the surface of the cartilage 33 and the surface of the bone portion of the tibia 31 is derived in the normal direction at the pixel position of the cartilage 33.
  • the thickness of the cartilage regions 51A and 51B is derived by multiplying the derived number of pixels by the length per pixel.
  • the quantification unit 24 derives the volumes of the cartilage regions 51A and 51B as quantitative values.
  • the volume of the cartilage regions 51A and 51B can be derived by multiplying the area of the cartilage regions 51A and 51B by the thickness.
  • the quantification unit 24 derives other quantification values from the areas and thicknesses of the cartilage regions 51A and 51B. Specifically, the coverage of the cartilage regions 51A and 51B in the regions of interest 52A and 52B, the defect areas of the cartilage regions 51A and 51B in the regions of interest 52A and 52B, and the cartilage regions at each position in the regions of interest 52A and 52B. Representative values of the thicknesses of 51A and 51B are derived as quantitative values.
  • the coverage of the cartilage regions 51A and 51B in the regions of interest 52A and 52B is derived from (the area of the cartilage regions 51A and 51B in the regions of interest 52A and 52B) / (the area of the regions of interest 52A and 52B).
  • the quantification unit 24 derives the area of the region where the cartilage regions 51A and 51B do not exist.
  • the region 53A shown in FIG. 12 is a region in which cartilage does not exist
  • the area of the region 53A in which the cartilage does not exist in the cartilage region 51A is the defect area of the cartilage region 51A.
  • the quantifying unit 24 is the average value of the thicknesses of the cartilage regions 51A and 51B in the regions of interest 52A and 52B, intermediate. Derivation of value, minimum value, maximum value, etc.
  • the quantification unit 24 generates a thickness map from the thickness of the cartilage regions 51A and 51B at each position in the regions of interest 52A and 52B.
  • FIG. 13 is a diagram showing a thickness map. As shown in FIG. 13, in the thickness map M0, the distribution of the thickness of the cartilage regions 51A and 51B in the regions of interest 52A and 52B is shown by six colors. In the thickness map M0, the darker the color, the thinner the cartilage regions 51A and 51B. In FIG. 13, the difference in color is shown by the difference in hatching. Further, the thickness map M0 includes a reference 61 showing the relationship between the color and the thickness. By referring to the reference 61, the thickness distribution of the cartilage regions 51A and 51B in the regions of interest 52A and 52B can be easily visually recognized in the thickness map M0.
  • the quantification unit 24 may derive a quantification value using only pixel positions in the projected image 50 in which the thicknesses of the cartilage regions 51A and 51B are equal to or greater than a predetermined quantification value derivation target thickness.
  • the quantitative value may be derived using only the pixel positions where the cartilage regions 51A and 51B have a thickness of 0.5 mm or more. In this case, the pixel position where the cartilage thickness is less than 0.5 mm is excluded from the derivation of the quantitative value. As a result, the region that is thin and does not function as cartilage can be excluded from the derivation of the quantitative value.
  • the defect area may be derived by setting the pixel position where the cartilage thickness is less than 0.5 mm as the pixel position where the cartilage is defective.
  • the derived quantitative values are transmitted to the image storage server 3 in association with the three-dimensional image V0 together with information such as the patient name, the imaging date and time, the positions of the regions of interest 52A and 52B, and the projected image 50. , Will be saved.
  • the display control unit 25 displays the thickness map M0 on the display unit 14.
  • FIG. 14 is a flowchart showing the processing performed in the first embodiment.
  • the image acquisition unit 21 acquires the three-dimensional image V0 (step ST1) and extracts the bone region and the cartilage region from the three-dimensional image V0 (step ST2).
  • the surface setting unit 22 sets a plane that approximates the joint surface of the joint of the tibia 31 on the projection surface 46 for projecting the three-dimensional image V0 to generate a projected image (step ST3).
  • the projection unit 23 projects the cartilage at the joint of the three-dimensional image V0 in the direction orthogonal to the projection surface 46 to generate the projection image 50 (step ST4).
  • the quantification unit 24 derives the quantitative values of the cartilage regions 51A and 51B on the projected image 50 (step ST5), and generates a thickness map M0 from the derived quantitative values (step ST6).
  • the display control unit 25 displays the thickness map M0 on the display unit 14 (step ST7), and ends the process.
  • the plane that approximates the joint surface of the joint is set as the projection surface 46 for projecting the three-dimensional image V0 and generating the projected image. Therefore, it is possible to prevent the cartilage from being projected so as to be present in the cartilage defect portion, particularly with respect to the joint surface of a relatively flat joint such as the tibia 31. Therefore, according to the present embodiment, the projection plane for generating the projection image 50 from the three-dimensional image V0 including the joints can be appropriately set.
  • FIG. 15 is a diagram showing a schematic configuration of a joint projection plane setting device according to the second embodiment of the present disclosure.
  • the same reference numbers are assigned to the same configurations as those in FIG. 2, and detailed description thereof will be omitted.
  • the joint projection surface setting device 1A according to the second embodiment further includes a mapping unit 26 that generates a mapping image in which a functional image of the joint is mapped to the projection image. Different from.
  • the quantification unit 24 is provided in FIG. 15, the joint projection plane setting device 1A according to the second embodiment does not have to include the quantification unit 24.
  • the image acquisition unit 21 acquires the functional image F0 of the knee joint in addition to the three-dimensional image V0.
  • a T2 map image is used as the functional image F0.
  • the T2 map image is a kind of MRI image, and is an image showing the correlation with water in the knee joint as a signal value. In the T2 map image, for example, the higher the correlation with water, the larger the signal value in each pixel.
  • the surface setting unit 22 projects the functional image F0 onto the functional image F0 on a plane that approximates the joint surface of the joint of the tibia 31 as in the first embodiment. It is set on the projection surface 46 for generating the projection image. Then, the projection unit 23 projects the cartilage in the joint of the functional image F0 in the direction orthogonal to the projection surface 46 to generate a projection image.
  • the projected image of the functional image F0 is referred to as a functional projected image 70.
  • the cartilage 33 in the tibia 31 has a thickness
  • the signal value differs in the functional image F0 in the thickness direction of the cartilage 33.
  • the projection unit 23 sets an intermediate surface in the thickness direction of the cartilage 33 and expands the signal value of the functional image F0 on the intermediate surface to generate the functional projection image 70.
  • the functional projection image 70 may be generated using representative values such as an average value, a maximum value, a minimum value, and an intermediate value of signal values in the thickness direction of the cartilage 33.
  • the mapping unit 26 aligns the projected image 50 with the functional projected image 70.
  • the alignment method any well-known method such as rigid body alignment and non-rigid body alignment can be used.
  • the mapping unit 26 may deform the projected image 50 so as to match the functional projected image 70 and perform alignment, or may deform the functional projected image 70 so as to match the projected image 50 and perform alignment. You may go. Then, the mapping unit 26 generates a mapping image M1 in which the functional projection image 70 is mapped to the projection image 50.
  • FIG. 16 is a diagram showing a mapping image M1.
  • the mapping image M1 the magnitude of the correlation with water in the cartilage 33 of the tibia 31 is shown by six levels of color.
  • the mapping image M1 the darker the color, the lower the correlation with water.
  • the difference in color is shown by the difference in hatching.
  • the mapping image M1 includes a reference 62 showing the relationship between the color and the correlation between water. By referring to the reference 62, the correlation of the cartilage 33 with water can be easily recognized visually.
  • the areas of interest 52A and 52B are not set in the mapping image M1 shown in FIG. 16, the areas of interest 52A and 52B are set as in the first embodiment, and the mapping images M1 are set only in the areas of interest 52A and 52B. May be generated.
  • FIG. 17 is a flowchart showing the processing performed in the second embodiment.
  • the image acquisition unit 21 acquires the three-dimensional image V0 and the functional image F0 (step ST11), and extracts the bone region and the cartilage region from the three-dimensional image V0 (step ST12).
  • the surface setting unit 22 sets a plane that approximates the joint surface of the joint of the tibia 31 on the projection surface 46 for projecting the three-dimensional image V0 to generate a projected image (step ST13).
  • the projection unit 23 projects the cartilage in the joint of the three-dimensional image V0 in the direction orthogonal to the projection surface 46 to generate the projection image 50 (step ST14). Further, the projection unit 23 projects the functional image F0 in the direction orthogonal to the projection surface 46 to generate the functional projection image 70 (step ST15). Then, the mapping unit 26 generates a mapping image M1 in which the functional projection image 70 is mapped to the projection image 50 (step ST16). Further, the display control unit 25 displays the mapping image M1 on the display unit 14 (step ST17), and ends the process.
  • the configuration of the joint projection surface setting device according to the third embodiment is the same as the configuration of any of the joint projection surface setting devices according to the first and second embodiments, and only the processing performed is different. A detailed description of the device will be omitted here.
  • the joint projection surface setting device according to the third embodiment is different from the first and second embodiments in that the display control unit 25 displays the projection image 50 generated by the projection unit 23 on the display unit 14. ..
  • FIG. 18 is a flowchart showing the processing performed in the third embodiment.
  • the image acquisition unit 21 acquires the three-dimensional image V0 (step ST21) and extracts the bone region and the cartilage region from the three-dimensional image V0 (step ST22).
  • the surface setting unit 22 sets a plane that approximates the joint surface of the joint of the tibia 31 on the projection surface 46 for projecting the three-dimensional image V0 to generate a projected image (step ST23).
  • the projection unit 23 projects the cartilage in the joint of the three-dimensional image V0 in the direction orthogonal to the projection surface 46 to generate the projection image 50 (step ST24).
  • the display control unit 25 displays the projected image 50 on the display unit 14 (step ST25), and ends the process.
  • FIG. 19 is a diagram showing a three-dimensional projected image according to the fourth embodiment.
  • the projected image 80 includes the cartilage regions 81A and 81B of the tibia 31 and cross-sectional views 82A and 82B showing the thickness of the cartilage regions 81A and 81B as in the first embodiment.
  • the region of interest may be set in the cartilage regions 81A and 81B. Further, the position of the cross section in the cross-sectional views 82A and 82B may be changed.
  • the three-dimensional projected image 80 generated in this way, it is possible to derive a quantitative value as described above and generate a thickness map M0. Further, as in the second embodiment, it is also possible to generate a mapping image M1 in which the functional image F0 is superimposed on the three-dimensional projection image 80. Further, as in the third embodiment, the three-dimensional projected image 80 can be displayed on the display unit 14 by, for example, a volume rendering display.
  • the same subject may be followed up by comparing multiple 3D images taken at different times.
  • the projection image is generated in the first three-dimensional image V1 whose shooting time is the past
  • the projection image is also generated in the second three-dimensional image V2 whose shooting time is new and the follow-up observation is performed. It is preferable to do so.
  • the first 3D image V1 corresponds to the other 3D images of the present disclosure.
  • the cartilage may be worn over time, but the shape of the joint will not be deformed. Therefore, when a projection image is generated for the first three-dimensional image V1, the information representing the projection surface 46 is stored in the image storage server 3, and when the projection image for the second three-dimensional image V2 is generated. It is preferable to acquire information on the projection surface stored for the same subject and generate a projection image using the acquired information on the projection surface.
  • the projection unit 23 sets the region of interest at the same position as when the quantitative value is derived from the first three-dimensional image V1. You may.
  • the same projection surface may be set.
  • the projection plane for generating the projected image is the same in the three-dimensional images V0 of a plurality of different subjects. This makes it possible to easily compare the state of cartilage between subjects.
  • quantitative values are derived in all the regions of interest 52A and 52B, but the present invention is not limited to this. Quantitative values may be derived separately for each of the regions of interest 52A and 52B. Further, as shown in FIG. 20, the quantification unit 24 divides the projected image 50 into a plurality of (four in FIG. 20) regions 50A to 50D to divide the regions of interest 52A and 52B, and the divided regions. A quantitative value may be derived for each.
  • the quantitative values are derived in the regions of interest 52A and 52B included in the projected image 50, but the cartilage region 51A included in the projected image 50 is not set without setting the regions of interest 52A and 52B. And 51B as a whole may be made to derive a quantitative value.
  • the area of the cartilage regions 51A and 51B, the area of the cartilage region 51 in the regions of interest 52A and 52B, the thickness of the cartilage regions 51A and 51B, the volume of the cartilage region 51, and the inside of the regions of interest 52A and 52B Quantify the representative values of the coverage of the cartilage regions 51A and 51B, the defect areas of the cartilage regions 51A and 51B in the regions of interest 52A and 52B, and the thickness of the cartilage regions 51A and 51B at each position in the regions of interest 52A and 52B Derived as a value. However, one of these quantitative values, or any combination of quantitative values may be derived.
  • the projection plane is set using both the joint surface regions 43 and 44 of the joint surface of the medial condyle and the joint surface of the lateral condyle, but the projection plane is not limited to this.
  • the projection plane may be set using only the articular surface region 43 of the articular surface of the medial condyle. In this case, the projected projection image of only the joint surface region 43 of the joint surface of the medial condyle may be generated using the set projection surface.
  • the projection plane may be set using only the joint surface region 44 of the joint surface of the lateral condyle. In this case, the projected projection image of only the joint surface region 44 of the joint surface of the lateral condyle may be generated using the set projection surface.
  • the process of setting a new projection plane excluding voxels is repeated, but the present invention is not limited to this.
  • the final distance from each voxel constituting the joint surface included in the joint surface regions 43 and 44 to the projection surface 45 excludes voxels that are equal to or greater than the voxel exclusion distance.
  • the projection plane may be set.
  • the voxel exclusion distance may be the same as the case where the process of excluding voxels and setting a new projection plane is performed a plurality of times, and the process of excluding voxels and setting a new projection plane. May be more than when performing multiple times.
  • the voxel exclusion distance may be 20% of the maximum value.
  • the quantitative value of the cartilage of the knee joint is derived, but the present invention is not limited to this, and when the quantitative value of the cartilage of the elbow joint, the hip joint, the shoulder joint, the facet joint, etc. is derived. Of course, this disclosure is applicable.
  • a processing unit that executes various processes such as an image acquisition unit 21, a surface setting unit 22, a projection unit 23, a quantification unit 24, a display control unit 25, and a mapping unit 26.
  • various processors processors shown below can be used.
  • the various processors include a CPU, which is a general-purpose processor that executes software (program) and functions as various processing units, and a circuit after manufacturing an FPGA (Field Programmable Gate Array) or the like.
  • Dedicated electricity which is a processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose configuration can be changed. Circuits and the like are included.
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by combining one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the various processors as a hardware structure.
  • circuitry in which circuit elements such as semiconductor elements are combined can be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

関節投影面設定装置、方法およびプログラムにおいて、関節を含む3次元画像から関節の投影画像を生成する際の投影面を適切に設定する。画像取得部が、関節の3次元画像を取得する。面設定部が、関節の関節面を近似する平面を、3次元画像を投影して投影画像を生成するための投影面に設定する。

Description

関節投影面設定装置、方法およびプログラム
 本開示は、関節を含む3次元画像から関節の投影画像を生成する際の投影面を設定する関節投影面設定装置、方法およびプログラムに関する。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。ここで、3次元画像は多数の2次元画像から構成され情報量が多いため、医師が所望の観察部位を見つけて診断することに時間を要する場合がある。そこで、注目する臓器を認識し、注目する臓器を含む3次元画像から、例えば最大値投影法(MIP(Maximum Intensity Projection)法)および最小値投影法(MinIP(Minimum Intensity Projection)法)等の方法を用いて、注目する臓器を抽出してMIP表示等を行ったり、3次元画像のボリュームレンダリング(VR(Volume Rendering))表示を行ったりすることにより、臓器全体や病変の視認性を高め、診断の効率化を図ることが行われている。
 一方、変形性関節症は、高齢者に多く発症する疾病である。とくに変形性膝関節症は、膝関節の痛みおよび動作範囲の減少を引き起こすため、症状が進行すると歩けなくなることもある。このような変形性関節症の診断には、膝関節の軟骨を質的に評価する必要がある。このため、3次元画像を用いて関節の軟骨を定量化する手法が種々提案されている。例えば、特許文献1においては、MRI画像から抽出された軟骨領域の投影方向を決定し、決定した投影方向に軟骨領域を投影して投影画像を生成し、投影画像上において軟骨領域の定量値を導出する手法が提案されている。特許文献1に記載された手法を用いることにより、軟骨領域を定量化するための領域を適切に定めることができるため、軟骨について安定した診断結果を得ることができる。とくに、軟骨の厚さを定量値とすることにより、軟骨の厚さの評価を行うことが可能となる。
 また、特許文献2には、大腿骨頸部のような球状の関節を識別するために、関節の3次元画像から関節骨の頭部中心および半径並びに頸部軸を判定する手法が提案されている。特許文献2に記載の手法においては、骨の頸部部分の3次元表面モデル上で3次元頸部最小曲線を判定し、3次元頸部最小曲線に対する最小二乗法適合平面を判定し、最小二乗適合平面に直交する方向を、精密な頸部軸の方向として計算し、最小二乗適合平面上の3次元頸部最小曲線の投影の中心を、精密な頸部軸の点として計算している。
特開2018-042709号公報 特表2013-533765号公報
 一方、関節は曲面を含む。とくに、脛骨の関節は、平面であるように見えるが、内側顆および外側顆で傾きが異なり、かつ関節面が凹形状を有する。このため、特許文献1に記載された手法を用いたとしても、投影方向を適切に設定しないと、軟骨領域の定量化の誤差が大きくなる。例えば、図21に示すように、脛骨90の外側顆側の関節面にある軟骨91が、脛骨90の中心軸X0に対して傾斜する矢印A方向に投影されたとする。この場合、図22に示すように、斜線で示す軟骨91の欠損部分92が、投影画像93において軟骨91が存在するように投影されてしまう。また、特許文献2に記載された手法は、球形状の関節における軸を判定しており、関節を投影するための投影面を適切に設定していない。
 本開示は上記事情に鑑みなされ、関節を含む3次元画像から関節の投影画像を生成する際の投影面を適切に設定することを目的とする。
 本開示による関節投影面設定装置は、関節の3次元画像を取得する画像取得部と、
 関節の関節面を近似する平面を、3次元画像を投影して投影画像を生成するための投影面に設定する面設定部とを備える。
 なお、本開示による関節投影面設定装置においては、面設定部は、関節面を構成する複数のボクセルのうち、投影面からの距離がボクセル除外距離以上となるボクセルを除外して、新たな投影面を設定してもよい。
 また、本開示による関節投影面設定装置においては、面設定部は、ボクセルの除外および新たな投影面の設定を複数回繰り返して、投影面を設定してもよい。
 また、本開示による関節投影面設定装置においては、面設定部は、最小二乗法により関節面を近似する平面を投影面に設定してもよい。
 また、本開示による関節投影面設定装置においては、関節は脛骨の関節であってもよい。
 また、本開示による関節投影面設定装置においては、面設定部は、脛骨の関節面を顆間領域設定方向から見た画像において、顆間の領域を除いた領域を関節面領域として抽出し、関節面領域に含まれる関節面を近似する平面を、投影面に設定してもよい。
 また、本開示による関節投影面設定装置においては、3次元画像の関節にある軟骨を投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えてもよい。
 また、本開示による関節投影面設定装置においては、脛骨の内側顆の関節面の重心および外側顆の関節面の重心を結ぶ線が、水平方向を向くように、3次元画像の関節にある軟骨を投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えてもよい。
 また、本開示による関節投影面設定装置においては、投影面に垂直な方向から見た脛骨における赤木ラインが、垂直方向を向くように、3次元画像の関節にある軟骨を投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えてもよい。
 「赤木ライン」とは、後十字靱帯付着部と膝蓋腱付着部内側縁を結んだ線である。
 また、本開示による関節投影面設定装置においては、投影画像を表示部に表示する表示制御部をさらに備えてもよい。
 また、本開示による関節投影面設定装置においては、投影画像上において、軟骨の定量値を導出する定量化部をさらに備えてもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、投影画像上の関心領域において、定量値を導出してもよい。
 また、本開示による関節投影面設定装置においては、投影部は、関節における軟骨が存在すべき領域を規定する輪郭に基づいて関心領域を設定してもよい。
 「軟骨が存在すべき領域を規定する輪郭」とは、関節において実際に軟骨が存在する領域ではなく、関節において解剖学的に軟骨が存在すべき領域を規定する輪郭を意味する。例えば、脛骨においては、関節において軟骨が存在すべき領域の輪郭が、関節面に凸状部分として含まれる。このため、脛骨においては、この凸状部分を「軟骨が存在すべき領域を規定する輪郭」とすることができる。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域内における軟骨の被覆率を、定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域における軟骨の欠損面積を、定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域内の各位置における軟骨の厚さの代表値を、定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域内の各位置における軟骨の厚さを、定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域における軟骨の厚さマップを生成してもよい。
 また、本開示による関節投影面設定装置においては、厚さマップを表示部に表示する表示制御部をさらに備えてもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、関心領域における軟骨の厚さが、定量値導出対象厚さ以上となる領域においてのみ、定量値を導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、投影画像上の関心領域を分割し、分割により得られる各領域において、定量値を導出してもよい。
 また、本開示による関節投影面設定装置においては、3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像から導出した定量値の導出結果が存在する場合、投影部は、他の3次元画像から定量値を導出した際と同一位置に関心領域を設定してもよい。
 また、本開示による関節投影面設定装置においては、3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像の投影画像に関心領域が設定されている場合、投影部は、3次元画像の投影画像に対して、他の3次元画像の投影画像の関心領域と同一の関心領域を設定してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、投影画像上の軟骨の面積を定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、定量化部は、投影画像上の軟骨の体積を定量値として導出してもよい。
 また、本開示による関節投影面設定装置においては、3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像から生成した他の投影画像が存在する場合、面設定部は、他の投影画像を生成した投影面を、3次元画像を投影して投影画像を生成するための投影面に設定してもよい。
 また、本開示による関節投影面設定装置においては、関節についての機能画像を投影画像にマッピングしたマッピング画像を生成するマッピング部をさらに備えてもよい。
 「機能画像」とは、被検体の関節において、水およびコラーゲン等の含有される物質の量または相関性等に応じた信号値を有する画像である。具体的には、MRIにより取得されるT1マップ、T2マップ、T2*マップ、T1ρマップ、およびCEST(Chemical Exchange Saturation Transfer)等を機能画像として用いることができる。
 また、本開示による関節投影面設定装置においては、マッピング画像を表示部に表示する表示制御部をさらに備えてもよい。
 本開示による関節投影面設定方法は、関節の3次元画像を取得し、
 関節の関節面を近似する平面を、3次元画像を投影して投影画像を生成するための投影面に設定する。
 なお、本開示による関節投影面設定方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示による他の関節投影面設定装置は、
 コンピュータに実行させるための命令を記憶するメモリと、
 記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
 関節の3次元画像を取得し、
 関節の関節面を近似する平面を、3次元画像を投影して投影画像を生成するための投影面に設定する処理を実行する。
 本開示によれば、関節を含む3次元画像から投影画像を生成するための投影面を適切に設定することができる。
本開示の第1の実施形態による関節投影面設定装置を適用した、診断支援システムの概要を示すハードウェア構成図 第1の実施形態による関節投影面設定装置の構成を示す概略ブロック図 膝関節の3次元画像を示す図 3次元領域を示す図 関節面領域の抽出を説明するための図 投影面の導出を説明するための図 ボクセルの除外を説明するための図 投影画像の生成を説明するための図 重心の導出を説明するための図 重心を結ぶ線を含む投影画像を示す図 赤木ラインを含む投影画像を示す図 関心領域の設定を説明するための図 厚さマップを示す図 第1の実施形態において行われる処理を示すフローチャート 第2の実施形態による関節投影面設定装置の構成を示す概略ブロック図 マッピング画像を示す図 第2の実施形態において行われる処理を示すフローチャート 第3の実施形態において行われる処理を示すフローチャート 3次元の投影画像の生成を説明するための図 領域の分割を説明するための図 軟骨の投影画像の生成を説明するための図 軟骨の投影画像の生成を説明するための図
 以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の第1の実施形態による関節投影面設定装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による関節投影面設定装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
 3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置である。具体的には、3次元画像撮影装置2は、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は膝関節であり、3次元画像撮影装置2はMRI装置であり、3次元画像撮影装置2において、被検体の膝関節のMRI画像が3次元画像として生成されるとする。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線または無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像等の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
 関節投影面設定装置1は、1台のコンピュータにインストールした本開示の関節投影面設定プログラムを実行することにより実現される。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。関節投影面設定プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、またはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。あるいは、DVD(Digital Versatile Disc)またはCD-ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
 図2は、コンピュータに関節投影面設定プログラムをインストールして実行することにより実現される、本開示の第1の実施形態による関節投影面設定装置の概略構成を示す図である。図2に示すように、関節投影面設定装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、関節投影面設定装置1には、表示部14並びにマウスおよびキーボード等の入力部15が接続されている。
 ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の3次元画像、および処理に必要な情報を含む各種情報が記憶されている。なお、本実施形態においては、被検体についての膝関節を診断対象部位とする3次元画像V0がストレージ13に記憶されている。
 また、メモリ12には、関節投影面設定プログラムが記憶されている。関節投影面設定プログラムは、CPU11に実行させる処理として、関節を含む3次元画像V0を取得する画像取得処理、関節の関節面を近似する平面を、3次元画像を投影して後述する投影画像を生成するための投影面に設定する面設定処理、3次元画像V0の関節にある軟骨を投影面に投影して投影画像を生成する投影処理、投影画像上において、軟骨の定量値を導出する定量化処理、定量化により導出された後述する厚さマップを表示部14に表示する表示制御処理を規定する。
 そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、面設定部22、投影部23、定量化部24および表示制御部25として機能する。
 画像取得部21は、被検体の膝関節の3次元画像V0を画像保管サーバ3から取得する。なお、3次元画像V0が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から3次元画像V0を取得するようにしてもよい。図3は膝関節の3次元画像V0を示す図である。図3に示すように、3次元画像V0には、大腿骨30および脛骨31が含まれている。なお、図3においては、説明のために膝蓋骨は省略している。大腿骨30の脛骨31と面する部分には軟骨32が、脛骨31の大腿骨30と面する部分には軟骨33が存在する。また、軟骨32と軟骨33との間には半月板34が存在する。本実施形態においては、3次元画像V0はMRI画像であり、骨、軟骨、半月板、並びにこれら以外の筋肉および脂肪等領域のそれぞれにおいて、3次元画像V0における信号値(ボクセル値)の範囲が異なる。画像取得部21は、信号値に対するしきい値処理により3次元画像V0から骨領域および軟骨領域を抽出する。具体的には、3次元画像V0において、骨の信号値となる範囲の領域を骨領域として抽出する。また、3次元画像V0において、軟骨の信号値となる範囲の領域を軟骨領域として抽出する。骨領域には大腿骨30および脛骨31が含まれ、軟骨領域には軟骨32および33が含まれる。
 なお、本実施形態においては、画像取得部21が3次元画像V0から骨領域および軟骨領域を抽出しているが、これに限定されない。3次元画像V0から骨領域および軟骨領域を抽出する手段を別途設けるようにしてもよい。なお、本実施形態においては、脛骨31の軟骨33を軟骨領域として抽出する。また、3次元画像V0からの骨領域および軟骨領域の抽出は、しきい値処理に限定されない。例えば、3次元画像V0から骨領域および軟骨領域を抽出するように、ディープラーニング等により機械学習がなされた判別器を用いてもよい。
 一方、3次元画像V0を3次元画像撮影装置2により取得する際、膝を伸ばした状態、または軽く曲げた状態(10~20度)により、膝関節が撮影される。そして、3次元画像V0においては、図3に示すように、大腿骨30および脛骨31が上から下に延びる方向がz方向に設定され、膝関節を正面から見た場合の奥から手前に向かう方向がy方向に設定され、膝関節を正面から見た場合の左から右に向かう方向がx方向に設定される。
 面設定部22は、関節の関節面を近似する平面を、3次元画像を投影して後述する投影画像を生成するための投影面に設定する。以下、面設定部22が行う処理について説明する。まず、面設定部22は、3次元画像V0に含まれる脛骨31を囲む最小の3次元領域を設定する。最小の3次元領域とは、3次元画像V0を囲む領域のうち、後述する投影画像を生成するための投影面を設定するために必要最小限の領域をいう。図4は3次元領域を示す図である。図4に示すように面設定部22は、脛骨31を囲む最小の3次元領域40を設定する。なお、3次元領域40の各辺の方向は、3次元画像V0のx方向、y方向およびz方向と一致させる。ここで、z方向が本開示の顆間領域設定方向に対応する。
 次に面設定部22は、3次元領域40の上面40Aにおいて、顆間の領域を除いた領域を関節面領域として抽出する。図5は関節面領域の抽出を説明するための図である。図5に示すように、面設定部22は、上面40Aのx方向に延びる辺41の中点を基準として、辺41の長さに対して予め定められた顆間領域幅を有する領域を顆間の領域42に設定する。なお、顆間領域幅としては上面40Aのx方向における15~25%、好ましくは20%とすることができるが、これに限定されない。そして、面設定部22は、3次元領域40のうち、顆間の領域42よりもx方向においてマイナス方向に位置する領域を関節面領域43に設定する。また、面設定部22は、3次元領域40のうち、顆間の領域42よりもx方向においてプラス方向に位置する領域を関節面領域44に設定する。なお、関節面領域43が脛骨31の関節における内側顆側の領域に対応し、関節面領域44が脛骨31の関節における外側顆側の領域に対応する。
 次に、面設定部22は、関節面領域43および44に含まれる関節面を近似する平面を投影面に設定する。具体的には、関節面領域43および44に含まれる関節面を構成する各ボクセルからの距離が最小となる平面を最小自乗法(最小二乗法)により投影面として導出する。図6は投影面の導出を説明するための図である。なお、図6においては説明を簡単にするために、脛骨31のy軸に垂直な断面を示している。また、関節面領域43および44上の各ボクセルのうちの一部のボクセルのみを黒丸で示し、ボクセルから平面、すなわち投影面45までの距離を矢印で示している。図6に示すように、面設定部22は関節面領域43および44に含まれる関節面を構成する各ボクセルからの距離の総和が最小となるような平面を投影面45として導出する。
 次に、面設定部22は、関節面領域43および44における各ボクセルから投影面45までの距離が、予め定められたボクセル除外距離以上となるボクセルを除外して新たな投影面を設定する。図7はボクセルの除外を説明するための図である。なお、図7はzy平面における脛骨31の断面を示している。本実施形態においては、面設定部22は、関節面領域43および44に含まれる関節面を構成する各ボクセルからの距離が最小となる平面45を導出している。しかしながら、関節面には、図7に示すボクセルP1のように、平面45からの距離が他のボクセルと比較して大きくなるボクセルが存在する。このようなボクセルを用いて投影面を設定すると、関節面を近似する平面を精度よく導出することができない。
 このため、面設定部22は、関節面領域43および44に含まれる関節面を構成する各ボクセルからの投影面45までの距離のうち、ボクセル除外距離以上となるボクセルを除外する。そして、面設定部22は、除外したボクセル以外のボクセルを用いて、関節面領域43および44上の各ボクセルからの距離の総和が最小となる平面を、新たな投影面45Aとして導出する。ここで、ボクセル除外距離としては、例えば、関節面領域43および44に含まれる関節面を構成する各ボクセルからの投影面45までの距離の最大値の5~20%、好ましくは10%とすることができるが、これに限定されない。
 本実施形態においては、面設定部22は、関節面領域43および44に含まれる関節面を構成する各ボクセルからの新たな投影面45Aまでの距離のうち、さらにボクセル除外距離以上となるボクセルを除外して新たな投影面45Bを設定する処理を繰り返して、最終的な投影面46を導出する。例えば、新たな投影面を設定する処理を2回繰り返すと、上記ボクセル除外距離を10%とした場合、関節面領域43および44のすべてのボクセルのうち、投影面46の設定に寄与したボクセルの割合は、81%となる。なお、本実施形態においては、上記ボクセル除外距離を10%として、新たな投影面を設定する処理を2回繰り返すとするが、これに限定されない。
 投影部23は、3次元画像V0の関節にある軟骨を投影面46に直交する方向に投影して投影画像を生成する。すなわち、図8に示すように、脛骨31の軟骨33を、投影面46に直交する方向47に投影して、投影画像を生成する。本実施形態においては、投影画像の生成の際に、脛骨31も投影するが、軟骨33のみを投影して投影画像を生成してもよい。なお、直交とは完全に直交する場合のみならず、1~2度程度のある程度の誤差を持って直交する場合も含む。
 この際、投影部23は、脛骨31の内側顆の関節面の重心および外側顆の関節面の重心を結ぶ線が、予め定められた重心方向を向くように投影画像を生成する。図9は重心の導出を説明するための図である。投影面46の導出に際して使用されるボクセルは、上述した新たな投影面を設定する処理を2回繰り返すことにより、関節面領域43および44のすべてのボクセルの81%に低減されている。投影部23は、関節面領域43および44に含まれる関節面のそれぞれにおいて、投影面46を設定する処理に使用されたボクセルのみを用いて、脛骨31の内側顆の関節面の重心および外側顆の関節面の重心を導出する。この際、関節面領域43内のボクセルを用いて内側顆の関節面の重心G1が導出され、関節面領域44内のボクセルを用いて外側顆の関節面の重心G2がそれぞれ導出される。なお、図9においては、重心G1およびG2の導出に使用されるボクセルが存在する領域を破線で囲んで示している。
 投影部23は、重心G1およびG2を結ぶ線が投影画像において水平となるように、脛骨31の軟骨33を投影面46に直交する方向に投影して、投影画像を生成する。図10は投影画像を示す図である。図10に示す投影画像50においては、重心G1およびG2を結ぶ線48が水平となっている。
 なお、脛骨31の関節面において赤木ラインを導出し、赤木ラインが投影画像の垂直方向を向くように、脛骨31の軟骨33を投影面46に直交する方向に投影して、投影画像を生成してもよい。赤木ラインとは、後十字靱帯付着部と膝蓋腱付着部内側縁を結んだ線である。図11は、赤木ラインが投影画像の垂直方向を向くように生成した投影画像を示す図である。なお、図11に示すように、投影画像50においては、赤木ライン49が垂直となっている。
 さらに投影部23は、投影画像50上に関心領域を設定する。本実施形態においては、関節における軟骨下骨領域に対応する領域を関心領域として設定する。図12は関心領域の設定を説明するための図である。図12に示す投影画像50において、内側顆の関節面の軟骨領域51Aおよび外側顆の関節面の軟骨領域51Bのそれぞれにハッチングを付与して示している。ここで、軟骨下骨領域とは、脛骨31の関節において、大腿骨30の関節と擦り合う領域である。投影画像50における軟骨領域51Aおよび51Bの周辺部は、大腿骨30の関節とは擦り合わない。このため、投影部23は、投影画像50の軟骨領域51Aおよび51Bの縁部から予め定められた軟骨下骨領域抽出範囲にある領域を除外した領域を、軟骨下骨領域として抽出し、抽出した軟骨下骨領域を関心領域52Aおよび52Bに設定する。一方、脛骨31においては、関節において軟骨が存在すべき領域を規定する輪郭が、関節面に凸状部分として含まれる。このため、関節面における凸状部分により囲まれる領域を軟骨領域51Aおよび51Bと見なして、関心領域52Aおよび52Bを設定してもよい。
 定量化部24は、投影画像50上における軟骨領域51Aおよび51Bの定量値を導出する。具体的には、投影画像50上の関心領域52Aおよび52Bにおいて定量値を導出する。本実施形態においては、定量値の導出は軟骨領域51Aおよび51Bの関心領域52Aおよび52B毎に行うが、これに限定されない。関心領域52Aおよび52Bの全領域についての定量値を導出してもよい。
 まず、定量化部24は、関心領域52Aおよび52Bの面積、および関心領域52Aおよび52B内における軟骨領域51Aおよび51Bの面積を導出する。なお、投影画像50においては、1画素当たりの面積が分かる。このため、定量化部24は、関心領域52Aおよび52Bならびに軟骨領域51Aおよび51Bの画素数をカウントし、カウントした画素数に1画素当たりの面積を乗算することにより、軟骨領域51Aおよび51Bならびに関心領域52Aおよび52Bの面積を導出する。軟骨領域51Aおよび51Bの面積は定量値の1つである。
 また、定量化部24は、軟骨領域51Aおよび51Bの厚さを定量値として導出する。ここで、投影画像50の各画素位置と、3次元画像V0における脛骨31における軟骨33の位置とは対応づけることができる。定量化部24は、投影画像50の関心領域52Aおよび52Bにおける各画素位置を、3次元画像V0における脛骨31における軟骨33の各画素位置と対応づける。そして、軟骨33の画素位置における法線方向において、軟骨33の表面と脛骨31の骨部の表面との間の画素数を導出する。そして、導出した画素数に1画素当たりの長さを乗算することにより、軟骨領域51Aおよび51Bの厚さを導出する。
 また、定量化部24は、軟骨領域51Aおよび51Bの体積を定量値として導出する。軟骨領域51Aおよび51Bの体積は、軟骨領域51Aおよび51Bの面積に厚さを乗算することにより導出することができる。
 また、定量化部24は、軟骨領域51Aおよび51Bの面積および厚さから、他の定量値を導出する。具体的には、関心領域52Aおよび52B内における軟骨領域51Aおよび51Bの被覆率、関心領域52Aおよび52Bにおける軟骨領域51Aおよび51Bの欠損面積、ならびに、関心領域52Aおよび52B内の各位置における軟骨領域51Aおよび51Bの厚さの代表値を定量値として導出する。
 関心領域52Aおよび52B内における軟骨領域51Aおよび51Bの被覆率は、(関心領域52Aおよび52B内における軟骨領域51Aおよび51Bの面積)/(関心領域52Aおよび52Bの面積)により導出する。
 関心領域52Aおよび52Bにおける軟骨領域51Aおよび51Bの欠損面積として、定量化部24は、軟骨領域51Aおよび51Bが存在しない領域の面積を導出する。例えば、図12に示す領域53Aは軟骨が存在しない領域であるため、軟骨領域51Aにおける軟骨が存在しない領域53Aの面積が軟骨領域51Aの欠損面積となる。
 関心領域52Aおよび52B内の各位置における軟骨領域51Aおよび51Bの厚さの代表値としては、定量化部24は、関心領域52Aおよび52B内の軟骨領域51Aおよび51Bの厚さの平均値、中間値、最小値または最大値等を導出する。
 また、定量化部24は、関心領域52Aおよび52B内の各位置における軟骨領域51Aおよび51Bの厚さから、厚さマップを生成する。図13は厚さマップを示す図である。図13に示すように厚さマップM0は、関心領域52Aおよび52Bにおける軟骨領域51Aおよび51Bの厚さの分布が6段階の色により示されている。厚さマップM0においては、色が濃いほど軟骨領域51Aおよび51Bが薄いことを示している。なお、図13においては色の相違をハッチングの相違により示している。また、厚さマップM0には、色と厚さとの関係を示すレファレンス61が含まれる。レファレンス61を参照することにより、厚さマップM0において、関心領域52Aおよび52Bにおける軟骨領域51Aおよび51Bの厚さの分布を視覚的に容易に認識することができる。
 なお、定量化部24は、投影画像50において、軟骨領域51Aおよび51Bの厚さが予め定められた定量値導出対象厚さ以上となる画素位置のみを用いて定量値を導出してもよい。例えば、投影画像50において、軟骨領域51Aおよび51Bの厚さが0.5mm以上となる画素位置のみを用いて定量値を導出してもよい。この場合、軟骨の厚さが0.5mm未満となる画素位置については、定量値の導出から除外する。これにより、厚さが薄く、軟骨として機能していない領域を定量値の導出から外すことができる。なお、欠損面積を定量値とした場合、軟骨の厚さが0.5mm未満となる画素位置を、軟骨が欠損している画素位置として欠損面積を導出すればよい。
 なお、導出された定量値は、患者名、撮影日時、関心領域52Aおよび52Bの位置、ならびに投影画像50等の情報と併せて、3次元画像V0と対応づけられて画像保管サーバ3に送信され、保存される。
 表示制御部25は、厚さマップM0を表示部14に表示する。
 次いで、第1の実施形態において行われる処理について説明する。図14は第1の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、3次元画像V0を取得し(ステップST1)、3次元画像V0から骨領域および軟骨領域を抽出する(ステップST2)。次いで、面設定部22が、脛骨31の関節の関節面を近似する平面を、3次元画像V0を投影して投影画像を生成するための投影面46に設定する(ステップST3)。
 次いで、投影部23が、3次元画像V0の関節にある軟骨を投影面46に直交する方向に投影して投影画像50を生成する(ステップST4)。そして、定量化部24が、投影画像50上において、軟骨領域51Aおよび51Bの定量値を導出し(ステップST5)、導出された定量値から厚さマップM0を生成する(ステップST6)。さらに、表示制御部25が厚さマップM0を表示部14に表示し(ステップST7)、処理を終了する。
 このように、本実施形態においては、関節の関節面を近似する平面を、3次元画像V0を投影して投影画像を生成するための投影面46に設定するようにした。このため、とくに、脛骨31のように比較的平坦な関節の関節面に関して、軟骨の欠損部分に軟骨が存在するように投影されることを防止することができる。したがって、本実施形態によれば、関節を含む3次元画像V0から投影画像50を生成するための投影面を適切に設定することができる。
 次いで、本開示の第2の実施形態について説明する。図15は本開示の第2の実施形態による関節投影面設定装置の概略構成を示す図である。なお、図15において図2と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。図15に示すように第2の実施形態による関節投影面設定装置1Aは、関節についての機能画像を投影画像にマッピングしたマッピング画像を生成するマッピング部26をさらに備えた点が第1の実施形態と異なる。なお、図15においては、定量化部24を備えているが、第2の実施形態による関節投影面設定装置1Aは、定量化部24を備えなくてもよい。
 なお、第2の実施形態においては、画像取得部21は3次元画像V0に加えて、膝関節の機能画像F0を取得する。第2の実施形態においては、機能画像F0としてT2マップ画像を用いる。T2マップ画像はMRI画像の一種であり、膝関節における水との相関性を信号値として表した画像である。T2マップ画像においては、例えば、水との相関性が高いほど各画素における信号値が大きくなる。
 第2の実施形態においては、機能画像F0に対しても、第1の実施形態と同様に、面設定部22が、脛骨31の関節の関節面を近似する平面を、機能画像F0を投影して投影画像を生成するための投影面46に設定する。そして、投影部23が、機能画像F0の関節にある軟骨を投影面46に直交する方向に投影して投影画像を生成する。機能画像F0の投影画像を機能投影画像70と称する。ここで、脛骨31における軟骨33は厚さを有するため、機能画像F0においては、軟骨33の厚さ方向において信号値が異なる。第2の実施形態においては、投影部23は、軟骨33の厚さ方向に中間面を設定し、中間面における機能画像F0の信号値を展開して機能投影画像70を生成する。なお、軟骨33の厚さ方向における信号値の平均値、最大値、最小値および中間値等の代表値を用いて機能投影画像70を生成してもよい。
 ここで、3次元画像V0と機能画像F0とでは、含まれる部位は同一の膝関節であるが、撮影時間が異なる。このため、マッピング部26は、投影画像50と機能投影画像70との位置合わせを行う。位置合わせの手法としては、剛体位置合わせおよび非剛体位置合わせ等、周知の任意の手法を用いることができる。なお、マッピング部26は、投影画像50を機能投影画像70に一致させるように変形して位置合わせを行ってもよく、機能投影画像70を投影画像50に一致させるように変形して位置合わせを行ってもよい。そして、マッピング部26は、機能投影画像70を投影画像50にマッピングしたマッピング画像M1を生成する。
 図16はマッピング画像M1を示す図である。図16に示すように、マッピング画像M1は、脛骨31の軟骨33における水との相関性の大きさが6段階の色により示されている。マッピング画像M1においては、色が濃いほど水との相関性が低いことを示している。なお、図16においては色の相違をハッチングの相違により示している。また、マッピング画像M1には、色と水との相関性との関係を示すレファレンス62が含まれる。レファレンス62を参照することにより、軟骨33の水との相関性を視覚的に容易に認識することができる。なお、図16に示すマッピング画像M1においては関心領域52Aおよび52Bを設定していないが、第1の実施形態と同様に関心領域52Aおよび52Bを設定し、関心領域52Aおよび52Bのみにおいてマッピング画像M1を生成してもよい。
 次いで、第2の実施形態において行われる処理について説明する。図17は第2の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、3次元画像V0および機能画像F0を取得し(ステップST11)、3次元画像V0から骨領域および軟骨領域を抽出する(ステップST12)。次いで、面設定部22が、脛骨31の関節の関節面を近似する平面を、3次元画像V0を投影して投影画像を生成するための投影面46に設定する(ステップST13)。
 次いで、投影部23が、3次元画像V0の関節にある軟骨を投影面46に直交する方向に投影して投影画像50を生成する(ステップST14)。また、投影部23が、機能画像F0を投影面46に直交する方向に投影して機能投影画像70を生成する(ステップST15)。そして、マッピング部26が、機能投影画像70を投影画像50にマッピングしたマッピング画像M1を生成する(ステップST16)。さらに、表示制御部25がマッピング画像M1を表示部14に表示し(ステップST17)、処理を終了する。
 次いで、本開示の第3の実施形態について説明する。なお、第3の実施形態による関節投影面設定装置の構成は、上記第1および第2の実施形態による関節投影面設定装置のいずれかの構成と同一であり、行われる処理のみが異なるため、ここでは装置についての詳細な説明は省略する。第3の実施形態による関節投影面設定装置においては、投影部23が生成した投影画像50を表示制御部25が表示部14に表示するようにした点が第1および第2の実施形態と異なる。
 次いで、第3の実施形態において行われる処理について説明する。図18は第3の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、3次元画像V0を取得し(ステップST21)、3次元画像V0から骨領域および軟骨領域を抽出する(ステップST22)。次いで、面設定部22が、脛骨31の関節の関節面を近似する平面を、3次元画像V0を投影して投影画像を生成するための投影面46に設定する(ステップST23)。
 次いで、投影部23が、3次元画像V0の関節にある軟骨を投影面46に直交する方向に投影して投影画像50を生成する(ステップST24)。そして、表示制御部25が投影画像50を表示部14に表示し(ステップST25)、処理を終了する。
 次いで、本開示の第4の実施形態について説明する。上記第1から第3の実施形態においては、2次元の投影画像50を生成しているが、第4の実施形態においては、3次元の投影画像を生成するようにした点が第1から第3の実施形態と異なる。図19は、第4の実施形態における3次元の投影画像を示す図である。図19に示すように、投影画像80は、第1の実施形態と同様に脛骨31の軟骨領域81Aおよび81Bと、軟骨領域81Aおよび81Bの厚さを表す断面図82Aおよび82Bを含む。なお,第1の実施形態と同様に、軟骨領域81Aおよび81Bにおいて関心領域を設定してもよい。また、断面図82Aおよび82Bにおける断面の位置を変更できるようにしてもよい。
 このようにして生成した3次元の投影画像80に対しても、上述したように定量値を導出し、厚さマップM0を生成することが可能である。また、第2の実施形態と同様に、3次元の投影画像80に機能画像F0を重畳したマッピング画像M1を生成することも可能である。また、第3の実施形態と同様に、3次元の投影画像80を、例えばボリュームレンダリング表示等により表示部14に表示することも可能である。
 なお、同一の被検体について、撮影時期が異なる複数の3次元画像を比較して経過観察を行う場合がある。このような場合において、撮影時期が過去の第1の3次元画像V1において投影画像が生成されている場合、撮影時期が新しい第2の3次元画像V2においても投影画像を生成して経過観察を行うことが好ましい。なお、第1の3次元画像V1が本開示の他の3次元画像に対応する。この場合、軟骨は経時によって擦り減ることはあるが、関節の形状が変形することはない。このため、第1の3次元画像V1について投影画像を生成した際に、投影面46を表す情報を画像保管サーバ3に保存しておき、第2の3次元画像V2の投影画像を生成する際には、同一被検体について保存されている投影面の情報を取得し、取得した投影面の情報を用いて投影画像を生成することが好ましい。
 これにより、第2の3次元画像V2の投影画像を生成する際の演算量を低減することができる。また、この場合において、第1の3次元画像V1の投影画像に関心領域52Aおよび52Bが設定されている場合には、第2の3次元画像V2の投影画像に対して、第1の3次元画像V1の投影画像と同一の関心領域を設定することが好ましい。これにより、第1の3次元画像V1の軟骨の状態と第2の3次元画像V2における軟骨の状態との比較を容易に行うことができる。なお、第1の3次元画像V1から導出した定量値の導出結果が存在する場合、投影部23は、第1の3次元画像V1から定量値を導出した際と同一位置に関心領域を設定してもよい。
 また、複数の異なる被検体の3次元画像V0から投影画像を生成するに際して、同一の投影面を設定するようにしてもよい。この場合、さらに投影画像を生成する際の投影面を複数の異なる被検体の3次元画像V0において同一とすることが好ましい。これにより、被検体間の軟骨の状態の比較を容易に行うことができる。
 また、上記各実施形態においては、関心領域52Aおよび52Bの全領域において定量値を導出しているが、これに限定されない。関心領域52Aおよび52Bのそれぞれにおいて別個に定量値を導出してもよい。また、図20に示すように、定量化部24は、投影画像50を複数(図20においては4つ)の領域50A~50Dに分割することにより関心領域52Aおよび52Bを分割し、分割した領域毎に定量値を導出してもよい。
 また、上記各実施形態においては、投影画像50に含まれる関心領域52Aおよび52Bにおいて定量値を導出しているが、関心領域52Aおよび52Bを設定することなく、投影画像50に含まれる軟骨領域51Aおよび51Bの全体において定量値を導出するようにしてもよい。
 また、上記各実施形態においては、軟骨領域51Aおよび51Bの面積、関心領域52Aおよび52Bにおける軟骨領域51の面積、軟骨領域51Aおよび51Bの厚さ、軟骨領域51の体積、関心領域52Aおよび52B内における軟骨領域51Aおよび51Bの被覆率、関心領域52Aおよび52Bにおける軟骨領域51Aおよび51Bの欠損面積、ならびに、関心領域52Aおよび52B内の各位置における軟骨領域51Aおよび51Bの厚さの代表値を定量値として導出している。しかしながら、これらの定量値のうちのいずれか1つ、または任意の組み合わせの定量値を導出するようにしてもよい。
 また、上記各実施形態においては、内側顆の関節面および外側顆の関節面の関節面領域43および44の双方を用いて投影面を設定しているが、これに限定されない。内側顆の関節面の関節面領域43のみを用いて投影面を設定してもよい。この場合、設定した投影面を用いて、内側顆の関節面の関節面領域43のみの投影画像を生成すればよい。一方、外側顆の関節面の関節面領域44のみを用いて投影面を設定してもよい。この場合、設定した投影面を用いて、外側顆の関節面の関節面領域44のみの投影画像を生成すればよい。
 また,上記実施形態においては、ボクセルを除外しての新たな投影面を設定する処理を繰り返し行っているが、これに限定されない。最初に設定した投影面45において、関節面領域43および44に含まれる関節面を構成する各ボクセルからの投影面45までの距離のうち、ボクセル除外距離以上となるボクセルを除外して最終的な投影面を設定するようにしてもよい。この場合、ボクセル除外距離としては、ボクセルを除外しての新たな投影面を設定する処理を複数回行う場合と同一であってもよく、ボクセルを除外しての新たな投影面を設定する処理を複数回行う場合よりも多くてもよい。例えば、ボクセル除外距離を最大値の20%としてもよい。
 また、上記実施形態においては、膝関節の軟骨の定量値を導出しているが、これに限定されず、肘関節、股関節、肩関節または椎間関節等の軟骨の定量値を導出する際に本開示を適用できることはもちろんである。
 また、上記各実施形態において、例えば、画像取得部21、面設定部22、投影部23、定量化部24、表示制御部25およびマッピング部26といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1,1A  関節投影面設定装置
   2  3次元画像撮影装置
   3  画像保管サーバ
   4  ネットワーク
   11  CPU
   12  メモリ
   13  ストレージ
   14  表示部
   15  入力部
   21  画像取得部
   22  面設定部
   23  投影部
   24  定量化部
   25  表示制御部
   26  マッピング部
   30  大腿骨
   31  脛骨
   32,33  軟骨
   34  半月板
   40  3次元領域
   40A  上面
   41  辺
   42  顆間の領域
   43,44  関節面領域
   45,45A,45B,46  投影面
   47  投影面に垂直な方向
   48  重心を結ぶ線
   49  赤木ライン
   50  投影画像
   51A,51B,81A,81B  軟骨領域
   52A,52B  関心領域
   53A  軟骨が存在しない領域
   61,62  レファレンス
   70  機能投影画像
   80  3次元の投影画像
   90  脛骨
   91  軟骨
   92  欠損部分
   93  投影画像
   F0  機能画像
   G1,G2  重心
   M0  マップ
   M1  マッピング画像
   P1  ボクセル
   V0,V1,V2  3次元画像
   X0  中心軸

Claims (30)

  1.  関節の3次元画像を取得する画像取得部と、
     前記関節の関節面を近似する平面を、前記3次元画像を投影して投影画像を生成するための投影面に設定する面設定部とを備えた関節投影面設定装置。
  2.  前記面設定部は、前記関節面を構成する複数のボクセルのうち、前記投影面からの距離がボクセル除外距離以上となるボクセルを除外して、新たな投影面を設定する請求項1に記載の関節投影面設定装置。
  3.  前記面設定部は、前記ボクセルの除外および前記新たな投影面の設定を複数回繰り返して、前記投影面を設定する請求項2に記載の関節投影面設定装置。
  4.  前記面設定部は、最小二乗法により前記関節面を近似する平面を前記投影面に設定する請求項1から3のいずれか1項に記載の関節投影面設定装置。
  5.  前記関節は脛骨の関節である請求項1から4のいずれか1項に記載の関節投影面設定装置。
  6.  前記面設定部は、前記脛骨の関節面を顆間領域設定方向から見た画像において、顆間の領域を除いた領域を関節面領域として抽出し、該関節面領域に含まれる前記関節面を近似する平面を、前記投影面に設定する請求項5に記載の関節投影面設定装置。
  7.  前記3次元画像の前記関節にある軟骨を前記投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えた請求項1から6のいずれか1項に記載の関節投影面設定装置。
  8.  前記脛骨の内側顆の関節面の重心および外側顆の関節面の重心を結ぶ線が、水平方向を向くように、前記3次元画像の前記関節にある軟骨を前記投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えた請求項5または6に記載の関節投影面設定装置。
  9.  前記投影面に垂直な方向から見た前記脛骨における赤木ラインが、垂直方向を向くように、前記3次元画像の前記関節にある軟骨を前記投影面に直交する方向に投影することにより投影画像を生成する投影部をさらに備えた請求項5または6に記載の関節投影面設定装置。
  10.  前記投影画像を表示部に表示する表示制御部をさらに備えた請求項7から9のいずれか1項に1に記載の関節投影面設定装置。
  11.  前記投影画像上において、前記軟骨の定量値を導出する定量化部をさらに備えた請求項7から10のいずれか1項に記載の関節投影面設定装置。
  12.  前記定量化部は、前記投影画像上の関心領域において、前記定量値を導出する請求項11に記載の関節投影面設定装置。
  13.  前記投影部は、前記関節における軟骨が存在すべき領域を規定する輪郭に基づいて前記関心領域を設定する請求項12に記載の関節投影面設定装置。
  14.  前記定量化部は、前記関心領域内における前記軟骨の被覆率を、前記定量値として導出する請求項12または13に記載の関節投影面設定装置。
  15.  前記定量化部は、前記関心領域における前記軟骨の欠損面積を、前記定量値として導出する請求項12から14のいずれか1項に記載の関節投影面設定装置。
  16.  前記定量化部は、前記関心領域内の各位置における前記軟骨の厚さの代表値を、前記定量値として導出する請求項12から15のいずれか1項に記載の関節投影面設定装置。
  17.  前記定量化部は、前記関心領域内の各位置における前記軟骨の厚さを、前記定量値として導出する請求項12から15のいずれか1項に記載の関節投影面設定装置。
  18.  前記定量化部は、前記関心領域における前記軟骨の厚さマップを生成する請求項17に記載の関節投影面設定装置。
  19.  前記厚さマップを表示部に表示する表示制御部をさらに備えた請求項18に記載の関節投影面設定装置。
  20.  前記定量化部は、前記関心領域における前記軟骨の厚さが、定量値導出対象厚さ以上となる領域においてのみ、前記定量値を導出する請求項12から19のいずれか1項に記載の関節投影面設定装置。
  21.  前記定量化部は、前記投影画像上の前記関心領域を分割し、分割により得られる各領域において、前記定量値を導出する請求項12から20のいずれか1項に記載の関節投影面設定装置。
  22.  前記3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像から導出した定量値の導出結果が存在する場合、前記投影部は、前記他の3次元画像から定量値を導出した際と同一位置に関心領域を設定する請求項12から21のいずれか1項に記載の関節投影面設定装置。
  23.  前記3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像の投影画像に関心領域が設定されている場合、前記投影部は、前記3次元画像の前記投影画像に対して、前記他の3次元画像の投影画像の関心領域と同一の関心領域を設定する請求項12から21のいずれか1項に記載の関節投影面設定装置。
  24.  前記定量化部は、前記投影画像上の前記軟骨の面積を前記定量値として導出する請求項11から23のいずれか1項に記載の関節投影面設定装置。
  25.  前記定量化部は、前記投影画像上の前記軟骨の体積を前記定量値として導出する請求項11から24のいずれか1項に記載の関節投影面設定装置。
  26.  前記3次元画像を取得した被検体と同一の被検体についての撮影時期が異なる他の3次元画像から生成した他の投影画像が存在する場合、前記面設定部は、前記他の投影画像を生成した投影面を、前記3次元画像を投影して投影画像を生成するための投影面に設定する請求項7から25のいずれか1項に記載の関節投影面設定装置。
  27.  前記関節についての機能画像を前記投影画像にマッピングしたマッピング画像を生成するマッピング部をさらに備えた請求項7から26のいずれか1項に記載の関節投影面設定装置。
  28.  前記マッピング画像を表示部に表示する表示制御部をさらに備えた請求項27に記載の関節投影面設定装置。
  29.  関節の3次元画像を取得し、
     前記関節の関節面を近似する平面を、前記3次元画像を投影して投影画像を生成するための投影面に設定する関節投影面設定方法。
  30.  関節の3次元画像を取得する手順と、
     前記関節の関節面を近似する平面を、前記3次元画像を投影して投影画像を生成するための投影面に設定する手順とをコンピュータに実行させる関節投影面設定プログラム。
PCT/JP2020/015145 2019-06-07 2020-04-02 関節投影面設定装置、方法およびプログラム WO2020246124A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021524681A JP7242852B2 (ja) 2019-06-07 2020-04-02 関節投影面設定装置、方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-107116 2019-06-07
JP2019107116 2019-06-07

Publications (1)

Publication Number Publication Date
WO2020246124A1 true WO2020246124A1 (ja) 2020-12-10

Family

ID=73651999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015145 WO2020246124A1 (ja) 2019-06-07 2020-04-02 関節投影面設定装置、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP7242852B2 (ja)
WO (1) WO2020246124A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070161929A1 (en) * 2005-11-16 2007-07-12 Brainlab Ag Measuring the femoral antetorsion angle y of a human femur in particular on the basis of fluoroscopic images
US20080312663A1 (en) * 2007-06-15 2008-12-18 Martin Haimerl Computer-assisted joint analysis using surface projection
JP2010000305A (ja) * 2008-06-23 2010-01-07 Aloka Co Ltd 超音波診断装置
JP2011518645A (ja) * 2008-04-29 2011-06-30 オティスメッド コーポレイション 悪化前の状態を表すと共に関節形成装置の設計及び製造において使用可能であるコンピュータ化骨モデルの生成
JP2013533765A (ja) * 2010-06-16 2013-08-29 エーツー・サージカル 骨の3d医用画像から幾何学的要素を自動的に判定する方法およびシステム
JP2014529314A (ja) * 2011-07-20 2014-11-06 スミス アンド ネフュー インコーポレーテッド 解剖学的構造へのインプラントの適合を最適化するシステムおよび方法
JP2018042709A (ja) * 2016-09-14 2018-03-22 富士フイルム株式会社 軟骨定量化装置、方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007020598A2 (en) * 2005-08-17 2007-02-22 Koninklijke Philips Electronics N.V. Method and apparatus featuring simple click style interactions according to a clinical task workflow
WO2008115534A1 (en) * 2007-03-20 2008-09-25 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media or flexible occlusion rendering

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070161929A1 (en) * 2005-11-16 2007-07-12 Brainlab Ag Measuring the femoral antetorsion angle y of a human femur in particular on the basis of fluoroscopic images
US20080312663A1 (en) * 2007-06-15 2008-12-18 Martin Haimerl Computer-assisted joint analysis using surface projection
JP2011518645A (ja) * 2008-04-29 2011-06-30 オティスメッド コーポレイション 悪化前の状態を表すと共に関節形成装置の設計及び製造において使用可能であるコンピュータ化骨モデルの生成
JP2010000305A (ja) * 2008-06-23 2010-01-07 Aloka Co Ltd 超音波診断装置
JP2013533765A (ja) * 2010-06-16 2013-08-29 エーツー・サージカル 骨の3d医用画像から幾何学的要素を自動的に判定する方法およびシステム
JP2014529314A (ja) * 2011-07-20 2014-11-06 スミス アンド ネフュー インコーポレーテッド 解剖学的構造へのインプラントの適合を最適化するシステムおよび方法
JP2018042709A (ja) * 2016-09-14 2018-03-22 富士フイルム株式会社 軟骨定量化装置、方法およびプログラム

Also Published As

Publication number Publication date
JP7242852B2 (ja) 2023-03-20
JPWO2020246124A1 (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
Humbert et al. 3D-DXA: assessing the femoral shape, the trabecular macrostructure and the cortex in 3D from DXA images
US8265730B2 (en) Assessing the condition of a joint and preventing damage
Sarkalkan et al. Statistical shape and appearance models of bones
Bryan et al. Use of a statistical model of the whole femur in a large scale, multi-model study of femoral neck fracture risk
US8036729B2 (en) Assessing the condition of a joint and devising treatment
Udupa et al. Analysis of in vivo 3-D internal kinematics of the joints of the foot [MRI analysis]
US7881768B2 (en) Assessing the condition of a joint and devising treatment
US9289153B2 (en) Joint and cartilage diagnosis, assessment and modeling
Quijano et al. Three-dimensional reconstruction of the lower limb from biplanar calibrated radiographs
Baka et al. Evaluation of automated statistical shape model based knee kinematics from biplane fluoroscopy
JP6659501B2 (ja) 軟骨定量化装置、方法およびプログラム
Lee et al. Anatomical evaluation of CT-MRI combined femoral model
Smoger et al. Statistical shape modeling predicts patellar bone geometry to enable stereo-radiographic kinematic tracking
Lamecker et al. Statistical shape modeling of musculoskeletal structures and its applications
Atkins et al. Modified false-profile radiograph of the hip provides better visualization of the anterosuperior femoral head-neck junction
Memiş et al. A novel approach for computerized quantitative image analysis of proximal femur bone shape deformities based on the hip joint symmetry
US20210390764A1 (en) Joint image unfolding apparatus, joint image unfolding method, and joint image unfolding program
WO2020246124A1 (ja) 関節投影面設定装置、方法およびプログラム
US10580136B2 (en) Mapping image generation device, method, and program
Bousigues et al. 3D reconstruction of the scapula from biplanar X-rays for pose estimation and morphological analysis
JP7230240B2 (ja) 半月板投影面設定装置、方法およびプログラム
Charbonnier et al. Virtual Hip Joint: from Computer Graphics to Computer-Assisted Diagnosis.
Magnenat-Thalmann et al. A comprehensive methodology to visualize articulations for the physiological human
Hampali 3D Shape Reconstruction of Knee Bones from Low Radiation X-ray Images Using Deep Learning
Welshman A novel analytical pipeline quantifying variance in foot morphology and function using statistical shape modelling and a 26-segment foot model.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818820

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021524681

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20818820

Country of ref document: EP

Kind code of ref document: A1