WO2009107500A1 - 医用画像処理装置、医用画像処理方法、プログラム - Google Patents

医用画像処理装置、医用画像処理方法、プログラム Download PDF

Info

Publication number
WO2009107500A1
WO2009107500A1 PCT/JP2009/052518 JP2009052518W WO2009107500A1 WO 2009107500 A1 WO2009107500 A1 WO 2009107500A1 JP 2009052518 W JP2009052518 W JP 2009052518W WO 2009107500 A1 WO2009107500 A1 WO 2009107500A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image information
region
area
evaluation
Prior art date
Application number
PCT/JP2009/052518
Other languages
English (en)
French (fr)
Inventor
良洋 後藤
哲夫 中沢
邦佳 中島
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to US12/919,129 priority Critical patent/US8792698B2/en
Priority to JP2010500648A priority patent/JP5534607B2/ja
Publication of WO2009107500A1 publication Critical patent/WO2009107500A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to a medical image processing apparatus that processes and displays medical image information acquired by a medical image photographing apparatus such as an X-ray CT apparatus, an MRI apparatus, and an ultrasonic diagnostic apparatus. More specifically, the present invention relates to a medical image processing apparatus that generates an image for diagnosing a training effect or a therapeutic effect based on medical image information.
  • Muscle training is also performed for athletes and patients in rehabilitation treatment such as injuries.
  • thigh muscles are muscles related to movements such as supporting the body, running, jumping and stretching knees.
  • the muscles on the front side of the thigh muscle serve to stretch the legs, and the muscles on the back side have the role of bending the legs.
  • the thigh muscle having such an important role it is necessary to strengthen both the front and rear muscles by training.
  • One of the indexes for knowing the degree of training effect is a method of measuring the area of the muscle cross section and comparing it over time. For example, there is a method in which medical image information of a subject acquired by a medical imaging apparatus is displayed on a display device, and an operator operates a mouse or the like to measure the area of a muscle cross section of a thigh tomogram. .
  • a method of using a variance value calculated from a smoothed image of a muscle tissue image and a difference image of a sharpened image as an index of the amount of fat in the muscle without depending on the CT values of muscle tissues having individual differences and fat pieces in the muscle See, for example, [Patent Document 1].
  • [Patent Document 1] cannot extract a fascia enclosing a muscle region.
  • the fascia is only thinly visible on medical images and the like, so it is difficult to identify visually or to automatically recognize fascia by a computer. Therefore, [Patent Document 1] has a problem that it is difficult to obtain the amount of intramuscular fat with high accuracy by dividing the fat region into intramuscular fat and subcutaneous fat by fascia.
  • the operator has measured the time-dependent change in the area of the muscle region in the tomographic image to determine the effect of muscle training, but the method of measuring and comparing the area for each muscle type requires time. There was a problem that an efficient diagnosis could not be made. Further, there has been a problem that the change in the muscle cross-sectional area over time has not been effectively displayed, and it has been difficult for an operator to make a quick and accurate diagnosis.
  • the present invention has been made in view of the above problems, and provides a medical image processing apparatus capable of effectively extracting an evaluation area of medical image information and diagnosing the evaluation area accurately and quickly. For the purpose.
  • a first invention for achieving the above-described object is a medical image information acquisition unit that acquires medical image information indicating a tomographic image of a subject, and an evaluation region for each tissue included in the acquired medical image information Evaluation region extraction means for extracting a pixel value, density value, and luminance value for each tissue, and evaluation region display means for displaying the evaluation region on a display device.
  • This is a medical image processing apparatus.
  • the medical image processing apparatus of the first invention acquires medical image information indicating a tomographic image of a subject, and sets an evaluation area for each tissue included in the acquired medical image information for each tissue, a pixel value, a density value, Extracted by at least one luminance value and displayed on a display device.
  • the medical image information is image information indicating a tomographic image of a subject imaged by a medical image imaging apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic imaging apparatus.
  • the evaluation region is at least one tissue region among tissues such as a muscle region, a bone region, and a fat region in a tomographic image of a subject.
  • the evaluation area is an area extracted based on values such as a pixel value, a density value, and a luminance value of a tissue in order to evaluate the effect of muscle training.
  • the evaluation region may be a specific extracted tissue region (for example, a muscle region), or calculated based on the tissue region, such as a curve circumscribing the tissue region (for example, fascia circumscribing the muscle region) ).
  • the medical image processing apparatus effectively extracts and displays an evaluation region useful for diagnosis for each tissue included in the medical image information indicating the tomographic image of the subject. Can be diagnosed.
  • the medical image processing apparatus extracts a muscle region and a fat region based on the acquired medical image information, calculates a contour curve indicating the contour of the muscle region, divides the fat region inside and outside the contour curve, You may distinguish and display the area
  • a straight line group that contacts the muscle region may be created, and a curve that is inscribed in the closed region formed by the straight line group may be obtained as a contour curve.
  • a plurality of apex points on the outline of the muscle region may be obtained and a curve obtained by interpolating the plurality of apex points may be calculated to obtain an outline curve indicating the outline of the muscle region.
  • a plurality of apex points may be interpolated using a spline interpolation method to calculate a curve.
  • the medical image processing apparatus may extract each evaluation area based on a plurality of pieces of medical image information and display the evaluation areas in a manner that can be compared with the display device. For example, a predetermined region of a plurality of pieces of medical image information having different shooting times may be displayed so as to be compared.
  • the medical image processing apparatus extracts an evaluation region based on the acquired plurality of pieces of medical image information, specifies a bone region and a muscle region from the extracted evaluation region, and aligns each identified bone region.
  • a reference area that is a reference of the image may be extracted, and a plurality of pieces of medical image information may be subjected to at least one of a parallel movement process, a rotational movement process, and an enlargement / reduction process as necessary to display the reference areas in a consistent manner. Good.
  • the medical image processing apparatus may match the reference areas and display the identified muscle areas in a superimposed manner. This makes it possible to quickly compare and evaluate the areas of the muscle regions of a plurality of medical image information.
  • the medical image processing apparatus sets a predetermined point included in the extracted reference region as a reference point, sets a reference line including the reference point, a distance from the reference point to the contour of the muscle region, and a reference line May be displayed in correspondence with each other.
  • the reference region is a femoral bone region
  • the protruding portion of the femur may be used as the reference point.
  • the reference line may be set to a straight line connecting the reference point and the center of gravity of the femur.
  • the medical image processing apparatus extracts a bone region based on the CT value of the acquired medical image information, and calculates a reference point based on a predetermined point obtained for each bone region when there are a plurality of bone regions. It may be.
  • the medical image is an image of the lower leg.
  • the tibia and ribs may be extracted as bone regions, and the center of gravity of each of the tibia and ribs may be set as a predetermined point, and the center of the predetermined point may be set as a reference point. Further, a straight line connecting the centroids of the tibia and the ribs may be set as a reference line.
  • the medical image processing apparatus automatically identifies the medical image information of the thigh and the crus, the efficiency of diagnosis can be improved. Further, the medical image processing apparatus can be applied not only to diagnosis of image information of the lower limbs but also to diagnosis of evaluation regions (adipose region, muscle region, etc.) such as the abdomen and chest.
  • the second invention is a medical image information acquisition step for acquiring medical image information indicating a tomographic image of a subject, and an evaluation area for each tissue included in the acquired medical image information is a pixel value for each tissue,
  • a medical image processing method comprising: an evaluation region extraction step for extracting at least one of a density value and a luminance value; and an evaluation region display step for displaying the evaluation region on a display device.
  • the second invention is an invention relating to a medical image processing method in the medical image processing apparatus of the first invention.
  • a computer medical image information acquisition means for acquiring medical image information indicating a tomogram of a subject, and an evaluation area for each tissue included in the acquired medical image information for each tissue.
  • a program that functions as a medical image processing apparatus comprising: an evaluation area extraction unit that extracts at least one of a pixel value, a density value, and a luminance value; and an evaluation area display unit that displays the evaluation area on a display device.
  • the third invention is an invention relating to a program for causing a computer to function as the medical image processing apparatus of the first invention.
  • a medical image processing apparatus capable of effectively extracting an evaluation area of medical image information and diagnosing the evaluation area accurately and quickly.
  • FIG. 1 Hardware configuration diagram of the medical image processing apparatus 1 Flow chart showing the overall operation of the medical image processing apparatus 1 Figure showing thigh cross section 31 Flow chart showing fascia calculation and fat region extraction processing inside and outside fascia Diagram showing image information 301 Diagram showing image information 302 Explanatory diagram of curve 61 extraction method The figure which shows the image information 303 containing the curve 61 which approximates a fascia Diagram showing image information 304 The figure which shows the image information 305 containing the intramuscular fat area
  • 1 medical image processing device 3 network, 5 medical imaging device, 7 image database, 9 CPU, 11 main memory, 13 storage device, 15 display memory, 17 display device, 19 controller, 21 mouse, 23 keyboard, 25 network adapter , 27 system bath, 31 thigh section, 33 femur, 35 lateral vastus, 37 medial vastus, 39 fascia, 41 thin muscle, 43 sewing muscle, 45 thigh skin, 47 subcutaneous fat, 51 Air region, 53 bone region, 55 thigh skin, 57 muscle region, 59 tangent, 61 curve, 63 outer region, 65 inner region, 67 intramuscular fat region, 69 subcutaneous fat region, 71-1, 71-2, 103 muscle region, 73, 73-1, 73-2 femur, 75 patient name, 77 imaging site, 79 imaging date, 81 “superimpose display” button, 83 “radial display” button, 85-1, 85-2 Muscle area display, 87 “End” button, 89 “Back” button 91, femoral protrusion, 93 femoral
  • FIG. 1 is a hardware configuration diagram of the medical image processing apparatus 1.
  • the medical image processing apparatus 1 includes a CPU 9, a main memory 11, a storage device 13, a display memory 15, a display device 17, a mouse 21 and a keyboard 23 connected to a controller 19, and a network adapter 25 connected by a system bus 27.
  • the medical image processing apparatus 1 is connected to the medical image photographing apparatus 5 and the image database 7 via the network 3.
  • the CPU9 is a device that controls the operation of each component.
  • the CPU 9 loads a program stored in the storage device 13 and data necessary for program execution into the main memory 11 and executes the program.
  • the storage device 13 is a device that acquires and stores medical image information captured by the medical image capturing device 5 via a network 3 such as a LAN (local area network).
  • the storage device 13 stores a program executed by the CPU 9 and data necessary for program execution.
  • the main memory 11 stores programs executed by the CPU 9 and the progress of arithmetic processing.
  • the mouse 21 and the keyboard 23 are operation devices for an operator to give an operation instruction to the medical image processing apparatus 1.
  • the display memory 15 stores display data to be displayed on the display device 17 such as a liquid crystal display or a CRT.
  • the controller 19 detects the state of the mouse 21, detects the position of the mouse pointer on the display device 17, and outputs a detection signal to the CPU 9.
  • the network adapter 25 is for connecting the medical image processing apparatus 1 to a network 3 such as a LAN, a telephone line, or the Internet.
  • the medical image photographing device 5 is a device for photographing medical image information such as a tomographic image of a subject.
  • the medical image photographing device 5 is, for example, an X-ray CT device, an MRI device, or an ultrasonic photographing device.
  • the image database 7 is a database system that stores medical image information captured by the medical image capturing device 5.
  • the image database 7 may store medical image information captured by a plurality of other medical image capturing devices connected to the network 3.
  • FIG. 2 is a flowchart showing the overall operation of the medical image processing apparatus 1.
  • FIG. 3 is a diagram showing a thigh cross-sectional view 31. As shown in the thigh cross-sectional view 31 (FIG. 3), the muscle region of the thigh surrounds the femur 33, and the muscle region is covered with the fascia 39. In some cases, the operator distinguishes and evaluates the same fat region, that is, the subcutaneous fat 47 outside the fascia 39 and the intramuscular fat inside the fascia 39.
  • the medical image processing apparatus 1 When evaluating the fat regions inside and outside the fascia (YES in step 1001), the medical image processing apparatus 1 performs “fascia calculation and fat region extraction inside and outside fascia” (step 1002). “Calculation of fascia and extraction process of fat area inside and outside fascia” is a process of extracting a fascia from acquired medical image information and dividing the fat area with the fascia as a boundary, and details will be described later.
  • the operator Based on the results displayed by distinguishing between subcutaneous fat 47 and intramuscular fat, the operator measures the area of the fat region and evaluates the effects of training and treatment (step 1003). Since it is desirable that the amount of fat in the muscle is reduced by training, for example, by measuring the amount of fat in the muscle over time, the operator can determine the training effect with high accuracy.
  • the process proceeds to step 1004.
  • the medical image processing apparatus 1 performs “muscle region comparison processing” (step 1005).
  • the “muscle region comparison process” is a process for comparing changes in the muscle region with time for, for example, a plurality of pieces of medical image information having different imaging timings. The operator can determine the effect of training or treatment by determining the increase or decrease of the muscle region. Details of the “muscle region comparison process” will be described later.
  • the muscle regions are compared and displayed for a plurality of medical images with different imaging times, and the operator evaluates the training effect (step 1006).
  • There are several types of muscles in the thigh such as the outer vastus 35 and the inner vastus 37 in the front of the thigh, and hamstrings (biceps femoris, semi-tendonoid, and semi-membranous) in the back of the thigh. It consists of muscles. It becomes possible to determine with high accuracy by comparing which training shows the effect on which muscle by using the medical images of the thigh cross-sectional views 31 having different imaging timings.
  • FIG. 4 is a flowchart showing the calculation of fascia and the extraction of fat regions inside and outside the fascia by the medical image processing apparatus 1.
  • the CPU 9 of the medical image processing apparatus 1 acquires medical image information captured by the medical image capturing apparatus 5 from the storage device 13 or the image database 7 and reads it into the main memory 11 (step 2001).
  • FIG. 5 is a diagram showing the acquired image information 301.
  • Image information 301 is tomographic image information of the thigh imaged by the X-ray CT apparatus.
  • the outside of the thigh skin 55 is an air region 51.
  • the bone region 53 is the femur.
  • the medical image processing apparatus 1 deletes the image information of the air region 51, which is a region having a low CT value in the image information 301, and obtains a region A (not shown) (step 2002). That is, the image information having the CT value ( ⁇ 1000 HU (Housfield Unit)) of the air region 51 is deleted from the image information 301. Therefore, the area A is an area obtained by removing the air area 51 from the entire image information 301.
  • the medical image processing apparatus 1 deletes image information having a high CT value (about 1000 HU) indicating the bone region 53 from the region A to obtain a region B (not shown) (step 2003). Therefore, the region B is a region obtained by removing the bone region 53 from the region A.
  • the medical image processing apparatus 1 extracts image information indicating a CT value (about 30 to 80 HU) corresponding to the muscle region 57 from the region B, and obtains image information 302 (FIG. 6) (step 2004).
  • the muscle region 57 may be obtained by deleting fat and skin information from the region B based on the CT value.
  • FIG. 6 is a diagram showing the image information 302.
  • the image information 302 indicates the extracted muscle region 57.
  • FIG. 7 is an explanatory diagram of an example of a method for extracting the curve 61.
  • the medical image processing apparatus 1 draws a plurality of arbitrary tangent lines 59 that circumscribe the muscle region 57.
  • the medical image processing apparatus 1 calculates a curve 61 inscribed in a closed region formed by being surrounded by a plurality of tangent lines 59.
  • the calculated curve 61 can be approximated as fascia that is difficult to recognize visually. As the number of tangent lines 59 increases, the curve 61 can be obtained with higher accuracy.
  • the medical image processing apparatus 1 sets an arbitrary plurality of apex points on the contour of the muscle region 57.
  • the apex point setting method sets a reference point inside the muscle region 57, and sets a plurality of points on the contour as apex points in order of increasing distance from the reference point to the contour of the muscle region 57. .
  • the medical image processing apparatus 1 obtains the curve 61 by performing spline interpolation on the set point. As the number of apex points set is larger, the curve 61 can be obtained with higher accuracy.
  • FIG. 8 is a diagram showing image information 303 including a curve 61 approximating the fascia. The fascia covering the muscle region 57 is extracted as a curve 61 circumscribing the muscle region 57.
  • the medical image processing apparatus 1 sets the region B (the region obtained by removing the air region 51 and the bone region 53 from the image information 301) as the outer region 63 with the curve 61 indicating the contour of the extracted muscle region 57 as a boundary.
  • the image information 304 is obtained by dividing the inner area 65 (step 2006: FIG. 9).
  • FIG. 9 is a diagram showing the image information 304.
  • the image information 304 indicates an outer area 63 (between the thigh skin 55 and the curve 61) of the curve 61 and an inner area 65 (a closed area surrounded by the curve 61).
  • FIG. 10 is a diagram showing the image information 305. As shown in FIG. The image information 305 shows a curve 61 and an intramuscular fat region 67 inside the curve 61.
  • the medical image processing apparatus 1 uses the CT value to remove image information such as a blood vessel region and a skin region from the outer region 63 to obtain a subcutaneous fat region 69 (Step 2008).
  • FIG. 11 is a diagram showing the image information 306.
  • the intramuscular fat region 67 obtained in step 2007 and the subcutaneous fat region 69 obtained in step 2008 are distinguished from each other.
  • the medical image processing apparatus 1 distinguishes between the intramuscular fat region 67 and the subcutaneous fat region 69, which are extraction results, and displays them on the display device 17 (step 2009).
  • the medical image processing apparatus 1 may calculate and display region areas such as the intramuscular fat region 67 and the subcutaneous fat region 69.
  • the medical image processing apparatus 1 may display each region such as the intramuscular fat region 67 and the subcutaneous fat region 69 using different colors and display means (different shading patterns or the like).
  • the medical image processing apparatus 1 stores the extraction result in the storage device 13 (step 2010).
  • the medical image processing apparatus 1 obtains a virtual fascia and automatically divides a fat region into a subcutaneous fat region and an intramuscular fat region with the fascia as a boundary. be able to. Therefore, the amount of intramuscular fat as a result of muscle training or treatment can be obtained quantitatively with high accuracy.
  • the first embodiment that divides the fat region with the fascia as a boundary is like the second embodiment described later. This is effective in observing changes in the fat region over time.
  • the region divided into the subcutaneous fat region and the intramuscular fat region is visually distinguished and displayed, it is possible to prevent an operator's diagnosis error and to make a highly accurate diagnosis by the operator. .
  • FIG. 12 is a flowchart showing a comparison process of muscle regions of the medical image processing apparatus 1.
  • the CPU 9 of the medical image processing apparatus 1 acquires the first image information captured by the medical image capturing apparatus 5 from the storage device 13 or the image database 7 and reads it into the main memory 11 (step 3001).
  • the medical image processing apparatus 1 extracts the muscle region 71-1 from the first image information using the CT value to obtain image information 401 (step 3002: FIG. 13).
  • FIG. 13 is a diagram showing the image information 401.
  • the image information 401 is image information obtained by extracting the muscle region 71-1 and the femoral region 73-1 from the first image information photographed on the photographing date “y1 year m1 / n1”.
  • the medical image processing apparatus 1 acquires from the storage device 13 or the image database 7 second image information captured on a different shooting date under the same conditions as the first image information, and reads it into the main memory 11 (step 3003).
  • the medical image processing apparatus 1 extracts the muscle region 71-2 from the second image information by using the CT value, and obtains image information 402 (step 3004: FIG. 14).
  • FIG. 14 is a diagram showing the image information 402.
  • the image information 402 is image information obtained by extracting the regions of the muscle region 71-2 and the femur 73-2 from the second image information imaged on the imaging date “y2 years m2 / n2”.
  • FIG. 15 is a diagram showing the image information 403. Since the image information 403 is simply a combination of the image information 401 and the image information 402, it is difficult to compare the muscle region 71-1 of the image information 401 with the muscle region 71-2 of the image information 402.
  • the medical image processing apparatus 1 performs parallel movement, rotational movement, or the like of one or both of the image information so that the area of the femur 73-1 of the image information 401 and the area of the femur 73-2 of the image information 402 overlap.
  • To obtain the image information 404 (step 3005: FIG. 16). Note that any image information enlargement / reduction processing may be performed.
  • FIG. 16 is a diagram showing the image information 404.
  • the image information 404 is aligned and displayed so that the femur 73-1 of the image information 401 and the femur 73-2 of the image information 402 coincide with each other. According to the image information 404, the difference between the muscle region 71-1 and the muscle region 71-2 (region area difference) is clearly shown.
  • FIG. 17 shows a display method selection screen 501 displayed on the display device 17.
  • a patient name 75, an imaging region 77, and imaging dates 79 of a plurality of acquired medical images are displayed.
  • a “superimposition display” button 81 and a “radial radius display” button 83 for selecting an image display method are arranged on the screen 501. The operator presses the “superimpose display” button 81 or the “radial radius display” button 83 from the screen 501 displayed on the display device 17 to select the image comparison display method.
  • FIG. 18 shows a screen 502 displayed on the display device 17 when “superimposed display” is selected.
  • the image information 404 (FIG. 16)
  • the muscle region 71-1 of the image information 401 (FIG. 13)
  • the muscle region 71-2 of the image information 402 (FIG. 14)
  • Image information created by processing to match is displayed.
  • muscle areas of the muscle region 71-1 and the muscle region 71-2 are calculated and displayed as “muscle area S1 cm2” 85-1, and “muscle area S2 cm2” 85-2, respectively.
  • the muscle region 71-1 and the muscle region 71-2 may be displayed in different colors and patterns.
  • the display process is ended.
  • the “return” button 89 is pressed, the display method selection screen 501 (FIG. 17) is displayed on the display device 17 again. According to the superimposed display, the operator can immediately grasp the difference between the areas of the muscle regions of the plurality of images both visually and numerically. Therefore, the operator can accurately and quickly diagnose the effects of training and treatment by comparing the muscle areas.
  • FIG. 19 is a diagram illustrating the setting of polar coordinates. Based on the image information 404, the femoral protrusion 91 is set as the origin of polar coordinates, the center of gravity of the femur 73 is extracted as the femoral center of gravity 93, and the straight line connecting the femoral protrusion 91 and the femoral center of gravity 93 is the reference line Set as 94.
  • the angle between the direction from the origin to the boundary of the muscle region and the reference line 94 is “ ⁇ ”
  • the distance from the origin to the boundary of the muscle region 71-1 is “R1”
  • FIG. 20 shows a screen 503 displayed on the display device 17 when “radial radius display” is selected.
  • the screen 503 displays the distance “R1” from the origin (femoral protrusion 91) to the boundary of the muscle region 71-1 based on the image information 404 (FIG. 16), and the distance from the origin to the boundary of the muscle region 71-2.
  • the distance “R2” is displayed using polar coordinates.
  • the horizontal axis of the graph on the screen 503 indicates the polar coordinate angle 95 (“ ⁇ ”), and the vertical axis indicates the distance 97 (“R”) from the origin to the boundary of the muscle region.
  • the operator can quickly diagnose a change in the muscle region in a predetermined direction with respect to the reference line 94. For example, it is possible to easily diagnose in which direction of the thigh the effect of training or treatment appears as a change in muscle in the thigh using a graph (FIG. 20) based on a radial display.
  • the medical image processing apparatus 1 acquires a plurality of pieces of medical image information having different imaging timings, and quickly compares the effects of muscle training and treatment with changes in muscle regions. It is possible to make a diagnosis.
  • a comparative display method of changes in the muscle region it is possible to quickly diagnose a change in the muscle area by aligning and displaying a plurality of pieces of medical image information.
  • the effects of training and treatment can be accurately diagnosed by quantitatively comparing muscle areas.
  • the changes in the muscle area can be compared in the muscle area in the same direction. It becomes possible to diagnose quickly.
  • FIG. 21 is a flowchart showing a comparison process of the muscle region of the thigh or crus.
  • the CPU 9 of the medical image processing apparatus 1 acquires a plurality of pieces of medical image information photographed by the medical image photographing apparatus 5 from the storage device 13 or the image database 7 and reads it into the main memory 11 (step 4001).
  • the medical image processing apparatus 1 extracts the number of bones from the medical image information based on the distribution of image information having CT values of bone regions (step 4002). If the number of bones is one on one foot of the captured image of the subject (“one on one side” in step 4002), it is determined that the imaging region of the medical image information is the thigh. Since the polar coordinate setting and screen display in the femur have been described in the second embodiment, description thereof is omitted here (steps 4003 and 4004).
  • the imaging region of the medical image information is the lower leg.
  • the lower leg has two bones “tibia” and “radius”.
  • the medical image processing apparatus 1 sets an origin and a reference line for polar coordinate display in the medical image information of the lower leg.
  • FIG. 22 is a diagram showing how to obtain the origin and reference line of the crus section 98.
  • the crus sectional view 98 includes a tibia 99 and a rib 101, and has a muscle region mainly in the rear part (calf part) of the crus.
  • the centroids of the tibia 99 and the radius 101 are obtained as the tibia center of gravity 107 and the radius centroid 105, respectively.
  • the midpoint of the tibia center of gravity 107 and the radius centroid 105 is set as the polar coordinate origin 109, and a straight line connecting the tibia center of gravity 107 and the radius centroid 105 is set as the reference line 108 (step 4005).
  • the medical image processing apparatus 1 compares and displays muscle regions of a plurality of medical image information using polar coordinates (step 4006). Since the polar coordinate setting method and the radial display method have been described in the second embodiment, description thereof is omitted here.
  • the imaging region of the medical image information can be automatically determined by determining the number of bone regions. Accordingly, the polar coordinate setting method and the screen display method are also automatically set, so that operator error can be prevented and operability can be improved.
  • the determination of the imaging region based on the bone region is not limited to the determination between the thigh and the lower leg. By discriminating the bone region including the chest and abdomen of the subject, it is possible to automatically discriminate the imaging region and make a quick diagnosis.
  • the medical image processing apparatus 1 may be configured by appropriately combining the first embodiment and the second embodiment. More accurate diagnosis can be performed by determining the effects of training and treatment from different viewpoints such as intramuscular fat mass and changes in muscle area over time.
  • the medical image processing apparatus of the present invention can be applied to diagnosis of cross-sectional images of not only the thigh and the lower leg, but also other biological tissues.
  • the X-ray CT image has been described.
  • the present invention can be applied to diagnosis of medical image information acquired by a medical imaging apparatus such as an MRI apparatus or an ultrasonic diagnostic apparatus.
  • a medical imaging apparatus such as an MRI apparatus or an ultrasonic diagnostic apparatus.
  • at least one value of the pixel value, density value, and luminance value of the image is applied instead of the CT value.
  • the CT value is reflected in the pixel value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 被検体の断層像を示す医用画像情報を取得する医用画像情報取得手段と、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出手段と、前記評価領域を表示装置に表示する評価領域表示手段と、を具備する医用画像処理装置が提供される。

Description

医用画像処理装置、医用画像処理方法、プログラム
 本発明は、X線CT装置、MRI装置、超音波診断装置等の医用画像撮影装置によって取得された医用画像情報を処理して表示する医用画像処理装置に関する。詳細には、医用画像情報に基づいてトレーニング効果や治療効果を診断するための画像を生成する医用画像処理装置に関する。
 近年、高齢化社会における医療費削減のため、高齢者の筋肉トレーニングの必要性が認識されつつある。筋肉トレーニングは、スポーツ選手や、怪我等のリハビリ治療における患者に対しても行われる。
 例えば、大腿部の筋肉(大腿筋)は、体を支えたり、走ったり、ジャンプしたり、膝を伸ばしたり、という動作に関係する筋肉である。大腿筋の前側の筋肉は足を伸ばす役目となり、後ろ側にある筋肉は足を曲げる役割を持つ。このように重要な役割を持つ大腿筋は、前後どちらの筋肉もトレーニングにより強化する必要がある。
 スポーツ選手や患者等は、筋肉トレーニングを行うことで筋肉が太くなる。トレーニング効果の程度を知る指標の1つとして、筋肉断面の面積を計測して経時的に比較する方法がある。例えば、医用画像撮影装置によって取得された被検体の医用画像情報を表示装置に表示させ、操作者がマウス等を操作して大腿部断層像の筋肉断面の面積等の計測を行う方法がある。
 また、筋肉内脂肪量を、筋肉トレーニングの効果の程度を知るための指標とする方法がある。筋肉内の脂肪量を定量的に測定し、トレーニングの効果を診断する。
 筋肉内脂肪量の指標として、個人差のある筋肉組織および筋肉内の脂肪片のCT値に依存せず、筋肉組織画像の平滑化画像及び鮮明化画像の差分画像から算出する分散値を用いる方法がある(例えば、[特許文献1]参照。)。
特開2004-81394号公報
 しかしながら、[特許文献1]が示す技術は、筋肉領域を包む筋膜を抽出することができない。筋膜は医用画像等には薄くしか写らないので目視による識別も、コンピュータによる筋膜の自動認識も困難である。従って、[特許文献1]では筋膜によって脂肪領域を筋肉内脂肪と皮下脂肪とに分割して筋肉内脂肪量を高精度に求めることは困難であるという課題があった。
 また、従来、操作者は、断層像における筋肉領域の面積の経時変化を計測して筋肉トレーニングの効果を判断していたが、筋肉の種類別に面積を計測して比較する方法は時間を要するため効率的な診断ができないという問題点があった。また、従来は筋肉断面面積の経時変化が、効果的に表示されていないという課題があり、操作者による迅速で正確な診断が困難であるという問題点があった。
 本発明は、以上の課題に鑑みてなされたものであり、医用画像情報の評価領域を効果的に抽出して評価領域を正確かつ迅速に診断することを可能とする医用画像処理装置を提供することを目的とする。
 前述した目的を達成するための第1の発明は、被検体の断層像を示す医用画像情報を取得する医用画像情報取得手段と、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出手段と、前記評価領域を表示装置に表示する評価領域表示手段と、を具備することを特徴とする医用画像処理装置である。
 第1の発明の医用画像処理装置は、被検体の断層像を示す医用画像情報を取得し、取得された医用画像情報に含まれるそれぞれの組織に対する評価領域を組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出し表示装置に表示する。
 医用画像情報は、X線CT装置やMRI装置や超音波撮影装置等の医用画像撮影装置によって撮影された被検体の断層像を示す画像情報である。
 評価領域とは、被検体の断層像における筋肉領域、骨領域、脂肪領域等の組織のうち少なくとも1つの組織領域である。
 また、評価領域は、筋肉トレーニングの効果を評価するために組織の画素値、濃度値、輝度値等の値により抽出される領域である。評価領域は、抽出された特定の組織領域(例えば筋肉領域)であってもよいし、組織領域に基づいて算出された、例えば組織領域に外接する曲線等(例えば、筋肉領域に外接する筋膜)であってもよい。
 第1の発明では、医用画像処理装置は、被検体の断層像を示す医用画像情報に含まれるそれぞれの組織毎に、診断に有用な評価領域を効果的に抽出し表示するので、正確かつ迅速な診断を行うことができる。
 また、医用画像処理装置は、取得された医用画像情報に基づいて筋肉領域及び脂肪領域を抽出し、筋肉領域の輪郭を示す輪郭曲線を算出し、脂肪領域を輪郭曲線の内外で分割して、輪郭曲線の内外の領域を区別して表示してもよい。
 これにより、筋肉領域の輪郭を示す輪郭曲線を、目視での認識が困難であった筋膜に近似することができる。また、筋肉領域の内外の脂肪量を区別できるので、筋肉内脂肪量を高精度に求めることが可能になる。
 また、筋肉領域に接する直線群を作成し、直線群によって形成される閉領域に内接する曲線を、輪郭曲線として得るようにしてもよい。
 また、筋肉領域の輪郭上の複数の尖端点を求め、複数の尖端点を補間した曲線を算出して、筋肉領域の輪郭を示す輪郭曲線として得るようにしてもよい。複数の尖端点をスプライン補間方法を用いて補間し、曲線を算出してもよい。
 また、医用画像処理装置は、複数の医用画像情報に基づいて、それぞれの評価領域を抽出して表示装置に比較可能に表示してもよい。例えば撮影時期の異なる複数の医用画像情報の所定の領域を比較可能に表示してもよい。
 また、医用画像処理装置は、取得された複数の医用画像情報に基づいて評価領域を抽出し、抽出された評価領域から骨領域と筋肉領域とを特定し、それぞれ特定された骨領域について位置合わせの基準となる基準領域を抽出し、複数の医用画像情報に必要に応じて平行移動処理、回転移動処理、拡大縮小処理の少なくともいずれかの処理を施して基準領域を一致させて表示してもよい。
 医用画像処理装置は、基準領域を一致させ、更にそれぞれ特定された筋肉領域を重ね合わせて表示してもよい。これにより、複数の医用画像情報の筋肉領域の面積を迅速に比較し評価することが可能になる。
 また、医用画像処理装置は、抽出された基準領域に含まれる所定の点を基準点に設定し、基準点を含む基準線を設定し、基準点から筋肉領域の輪郭までの距離と、基準線との成す角度とを対応させて表示するようにしてもよい。基準領域が大腿骨の骨領域の場合は、大腿骨の突起部分を基準点にしてもよい。また、基準線は、基準点と、大腿骨の重心を結んだ直線に設定してもよい。
 これにより、筋肉領域を構成する各筋肉について個別に評価を行わずとも、基準点に対してどの方向にある筋肉が増大したかを近似的に診断することができる。
 また、医用画像処理装置は、取得された医用画像情報のCT値に基づいて骨領域を抽出し、骨領域が複数の場合には骨領域ごとに求める所定点に基づいて基準点を算出するようにしてもよい。
 例えば、医用画像情報の骨領域が2つの場合には、医用画像は下腿部の画像であると判断される。下腿部は、脛骨と腓骨とが骨領域として抽出され、脛骨と腓骨のそれぞれの重心を所定点とし、所定点の中心を基準点として設定してもよい。また、脛骨と腓骨のそれぞれの重心を結ぶ直線を基準線に設定してもよい。
 これにより、医用画像処理装置は、大腿部と下腿部の医用画像情報を自動的に識別するので、診断の効率を向上させることができる。また、医用画像処理装置は、下肢部の画像情報の診断だけではなく、腹部や胸部等の評価領域(脂肪領域や筋肉領域等)の診断にも応用することができる。
 第2の発明は、被検体の断層像を示す医用画像情報を取得する医用画像情報取得ステップと、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出ステップと、前記評価領域を表示装置に表示する評価領域表示ステップと、を含むことを特徴とする医用画像処理方法である。
 第2の発明は、第1の発明の医用画像処理装置における医用画像処理方法に関する発明である。
 第3の発明は、コンピュータを、被検体の断層像を示す医用画像情報を取得する医用画像情報取得手段と、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出手段と、前記評価領域を表示装置に表示する評価領域表示手段と、を具備する医用画像処理装置として機能させるプログラムである。
 第3の発明は、コンピュータを第1の発明の医用画像処理装置として機能させるプログラムに関する発明である。
 本発明によれば、医用画像情報の評価領域を効果的に抽出して評価領域を正確かつ迅速に診断することを可能とする医用画像処理装置を提供することができる。
医用画像処理装置1のハードウェア構成図 医用画像処理装置1の全体動作を示すフローチャート 大腿部断面図31を示す図 筋膜の算出と筋膜内外の脂肪領域の抽出処理を示すフローチャート 画像情報301を示す図 画像情報302を示す図 曲線61の抽出方法の説明図 筋膜を近似する曲線61を含む画像情報303を示す図 画像情報304を示す図 筋肉内脂肪領域67を含む画像情報305を示す図 筋肉内脂肪領域67と皮下脂肪領域69を区別する画像情報306を示す図 筋肉領域の比較処理を示すフローチャート 画像情報401を示す図 画像情報402を示す図 画像情報401と画像情報402とを重畳した画像情報403を示す図 画像情報404を示す図 表示方法の選択の画面501を示す図 重畳表示の画面502を示す図 極座標の設定を説明する図 動径表示の画面503を示す図 大腿部又は下腿部の筋肉領域の比較処理を示すフローチャート 下腿部断面図98の原点と基準線の求め方を示す図
符号の説明
 1 医用画像処理装置、3 ネットワーク、5 医用画像撮影装置、7 画像データベース、9 CPU、11 主メモリ、13 記憶装置、15 表示メモリ、17 表示装置、19 コントローラ、21 マウス、23 キーボード、25 ネットワークアダプタ、27 システムバス、31 大腿部断面図、33 大腿骨、35 外側広筋、37 内側広筋、39 筋膜、41 薄筋、43 縫工筋、45 大腿部皮膚、47 皮下脂肪、51 空気領域、53 骨領域、55 大腿部皮膚、57 筋肉領域、59 接線、61 曲線、63 外領域、65 内領域、67 筋肉内脂肪領域、69 皮下脂肪領域、71-1、71-2、103 筋肉領域、73、73-1、73-2 大腿骨、75 患者名、77 撮影部位、79 撮影日、81 「重畳表示」ボタン、83 「動径表示」ボタン、85-1、85-2 筋肉面積表示、87 「終了」ボタン、89 「戻る」ボタン、91 大腿骨突起部、93 大腿骨重心、94、108 基準線、95 角度、97 距離、98 下腿部断面図、99 脛骨、101 腓骨、105 腓骨重心、107 脛骨重心、109 極座標原点、301~306、401~404 画像情報、501~503 画面
発明を実施するための形態
 以下添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。尚、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。また、以下に説明する実施形態では、主として、被検体の大腿部を診断対象部位とし、医用画像情報として大腿部のX線CT画像の画像処理を行うものとして説明する。
 (1.医用画像処理装置1の構成)
 最初に、図1を参照しながら、医用画像処理装置1の構成について説明する。
 図1は、医用画像処理装置1のハードウェア構成図である。 
 医用画像処理装置1は、CPU9、主メモリ11、記憶装置13、表示メモリ15、表示装置17、コントローラ19に接続されたマウス21やキーボード23、ネットワークアダプタ25がシステムバス27によって接続されて構成される。医用画像処理装置1は、ネットワーク3を介して医用画像撮影装置5や画像データベース7に接続される。
 CPU9は、各構成要素の動作を制御する装置である。CPU9は、記憶装置13に格納されるプログラムやプログラム実行に必要なデータを主メモリ11にロードして実行する。記憶装置13は、医用画像撮影装置5により撮影された医用画像情報をLAN(ローカルエリアネットワーク)等のネットワーク3を介して取得して格納する装置である。また、記憶装置13には、CPU9が実行するプログラムやプログラム実行に必要なデータが格納される。主メモリ11は、CPU9が実行するプログラムや演算処理の途中経過を記憶するものである。
 マウス21やキーボード23は、操作者が医用画像処理装置1に対して操作指示を行う操作デバイスである。表示メモリ15は、液晶ディスプレイやCRT等の表示装置17に表示するための表示データを格納するものである。コントローラ19は、マウス21の状態を検出して、表示装置17上のマウスポインタの位置を検出し、検出信号をCPU9へ出力するものである。ネットワークアダプタ25は、医用画像処理装置1をLAN、電話回線、インターネット等のネットワーク3に接続するためのものである。
 医用画像撮影装置5は、被検体の断層画像等の医用画像情報を撮影する装置である。医用画像撮影装置5は、例えば、X線CT装置やMRI装置や超音波撮影装置である。画像データベース7は、医用画像撮影装置5によって撮影された医用画像情報を記憶するデータベースシステムである。画像データベース7は、ネットワーク3に接続される複数の他の医用画像撮影装置によって撮影された医用画像情報を蓄積するものであってもよい。
 <医用画像情報の評価の概要>
 (2.医用画像処理装置1の動作)
 次に、図2、図3を参照しながら、医用画像処理装置1による大腿部の断面情報の評価画像作成の概要について説明する。 
 図2は、医用画像処理装置1の全体動作を示すフローチャートである。 
 図3は、大腿部断面図31を示す図である。 
 大腿部断面図31(図3)に示すように、大腿部の筋肉領域は大腿骨33を囲み、筋肉領域は筋膜39で覆われる。操作者は、同じ脂肪領域である、筋膜39の外側にある皮下脂肪47と、筋膜39の内側にある筋肉内脂肪とを区別して評価する場合がある。
 筋膜内外の脂肪領域を評価する場合(ステップ1001のYES)、医用画像処理装置1は「筋膜の算出と筋膜内外の脂肪領域の抽出処理」を行う(ステップ1002)。「筋膜の算出と筋膜内外の脂肪領域の抽出処理」は、取得した医用画像情報から筋膜を抽出し、筋膜を境界として脂肪領域を分割する処理であり、詳細については後述する。
 皮下脂肪47と筋肉内脂肪とが区別して表示された結果に基づいて、操作者は脂肪領域の面積測定等を行ってトレーニングや治療の効果を評価する(ステップ1003)。トレーニングにより筋肉内の脂肪量が減少することが望ましいので、例えば経時的に筋肉内脂肪量の測定を行うことにより、操作者はトレーニング効果を高精度に判定することができる。
 筋膜内外の脂肪領域の評価を行わない場合(ステップ1001のNO)、又は筋膜内外の脂肪領域の評価が終了した場合にはステップ1004に進む。筋肉領域の変化を比較する場合(ステップ1004のYES)、医用画像処理装置1は「筋肉領域の比較処理」を行う(ステップ1005)。「筋肉領域の比較処理」は、例えば撮影時期の異なる複数の医用画像情報について、筋肉領域の経時変化を比較する処理である。操作者は、筋肉領域の増減を判定することでトレーニングや治療の効果を判定することができる。「筋肉領域の比較処理」の詳細については後述する。
 撮影時期の異なる複数の医用画像について筋肉領域を比較表示し、操作者はトレーニング効果を評価する(ステップ1006)。大腿部の筋肉は、大腿の前部にある外側広筋35や内側広筋37、大腿の後部にあるハムストリングス(大腿二頭筋、半腱様筋、半膜様筋)等、数種類の筋肉から成る。どのようなトレーニングでどの筋肉に効果が表れているかを、撮影時期の異なる大腿部断面図31の医用画像を用いて比較することによって高精度に判定することが可能になる。
 <第1実施形態>
 (3.筋膜の算出と筋膜内外の脂肪領域の抽出処理)
 次に、図4~図11を参照しながら、第1実施形態について説明する。
 (3-1.筋肉領域の抽出)
 図4は、医用画像処理装置1による、筋膜の算出と筋膜内外の脂肪領域の抽出処理を示すフローチャートである。 
 医用画像処理装置1のCPU9は、医用画像撮影装置5によって撮影された医用画像情報を記憶装置13あるいは画像データベース7から取得して、主メモリ11に読み込む(ステップ2001)。
 図5は、取得された画像情報301を示す図である。画像情報301は、X線CT装置で撮影された大腿部の断層像情報である。大腿部皮膚55の外側は、空気領域51である。骨領域53は大腿骨である。
 次に、医用画像処理装置1は、画像情報301のCT値の低い領域である空気領域51の画像情報を削除し領域A(図示せず。)を得る(ステップ2002)。即ち、空気領域51のCT値(-1000HU(Housfield Unit))を有する画像情報を画像情報301から削除する。従って、領域Aは画像情報301全体から空気領域51を除去した領域である。
 次に、医用画像処理装置1は、領域Aから骨領域53を示す高いCT値(約1000HU)を有する画像情報を削除し領域B(図示せず。)を得る(ステップ2003)。従って、領域Bは領域Aから骨領域53を除去した領域である。
 医用画像処理装置1は、領域Bから、筋肉領域57に対応するCT値(約30~80HU)を示す画像情報を抽出して画像情報302(図6)を得る(ステップ2004)。尚、領域BからCT値に基づいて脂肪や皮膚の情報を削除することにより筋肉領域57を求めても良い。 
 図6は、画像情報302を示す図である。画像情報302は、抽出された筋肉領域57を示す。
 (3-2.筋膜の抽出)
 次に、医用画像処理装置1は、筋肉領域57の輪郭を示す曲線61を抽出する(ステップ2005)。
 図7は、曲線61の抽出方法の1例の説明図である。 
 医用画像処理装置1は、筋肉領域57に外接する任意の複数の接線59をひく。医用画像処理装置1は、複数の接線59に囲まれて形成される閉領域に内接する曲線61を算出する。算出された曲線61は、目視等で認識することが困難な筋膜として近似することができる。接線59の数が多いほど、高精度に曲線61を求めることが可能である。
 次に、曲線61の抽出方法の別の例を説明する(図示せず。)。医用画像処理装置1は、筋肉領域57の輪郭上にある任意の複数の尖端点を設定する。尖端点の設定方法は、1例として、筋肉領域57の内側に基準点を定め、この基準点から筋肉領域57の輪郭までの距離が長い順に、輪郭上の点を尖端点として複数個設定する。医用画像処理装置1は、設定された尖端点をスプライン補間することにより、曲線61を得る。設定される尖端点の数が多いほど、高精度に曲線61を求めることが可能である。
 図8は、筋膜を近似する曲線61を含む画像情報303を示す図である。 
 筋肉領域57を覆う筋膜は、筋肉領域57に外接する曲線61として抽出される。
 (3-3.筋膜内外の脂肪領域の区別)
 次に、医用画像処理装置1は、抽出した筋肉領域57の輪郭を示す曲線61を境界として、領域B(画像情報301から空気領域51と骨領域53を除去した領域)を、外領域63と内領域65に分け画像情報304を得る(ステップ2006:図9)。
 図9は、画像情報304を示す図である。画像情報304は、曲線61の外領域63(大腿部皮膚55と曲線61の間)と、内領域65(曲線61に囲まれる閉領域)とを示す。
 次に、医用画像処理装置1は、内領域65から、CT値を利用して筋肉領域や骨領域や血管領域等の画像情報を除去して筋肉内脂肪領域67を得る(ステップ2007:図10)
 図10は、画像情報305を示す図である。画像情報305は、曲線61と、曲線61の内部の筋肉内脂肪領域67とを示す。
 次に、医用画像処理装置1は、外領域63から、CT値を利用して血管領域や皮膚領域等の画像情報を除去して皮下脂肪領域69を得る(ステップ2008)。
 図11は、画像情報306を示す図である。画像情報306は、ステップ2007で得られる筋肉内脂肪領域67と、ステップ2008で得られる皮下脂肪領域69とが区別して示される。
 医用画像処理装置1は、抽出結果である筋肉内脂肪領域67と皮下脂肪領域69とを区別して表示装置17に表示する(ステップ2009)。医用画像処理装置1は、筋肉内脂肪領域67や皮下脂肪領域69等の領域面積を算出して表示してもよい。医用画像処理装置1は、筋肉内脂肪領域67や皮下脂肪領域69等のそれぞれの領域を、異なる色や表示手段(異なる網掛け模様等)を用いて表示してもよい。
 医用画像処理装置1は、上記抽出結果を記憶装置13に保存する(ステップ2010)。 
 (3-4.第1実施形態の効果)
 以上述べたように、第1実施形態では、医用画像処理装置1は、仮想的な筋膜を求め、筋膜を境界として脂肪領域を皮下脂肪領域と筋肉内脂肪領域とに自動的に分割することができる。従って筋肉トレーニングや治療の結果としての筋肉内脂肪の量を定量的に高精度に求めることが可能になる。特に、筋膜の位置は、筋肉トレーニングや治療の結果として経時的に変化するものであるから、筋膜を境界として脂肪領域を分割する第1実施形態は、後述する第2実施形態のように、脂肪領域の経時的な変化を観察する際に有効である。
 また、皮下脂肪領域と筋肉内脂肪領域とに分割した領域が、視覚的に区別して表示されるので、操作者の診断ミスを防止することができ、操作者による高精度な診断が可能になる。
 <第2実施形態>
 (4.筋肉領域の比較処理)
 次に、図12~図20を参照しながら、第2実施形態について説明する。第2実施形態では、撮影時期の異なる複数の医用画像情報を比較し、筋肉トレーニングや治療の効果を、特に筋肉領域の変化を比較することで診断する。
 (4-1.比較する筋肉領域の抽出)
 図12は、医用画像処理装置1の筋肉領域の比較処理を示すフローチャートである。 
 医用画像処理装置1のCPU9は、医用画像撮影装置5によって撮影された第1の画像情報を記憶装置13あるいは画像データベース7から取得して、主メモリ11に読み込む(ステップ3001)。
 医用画像処理装置1は、第1の画像情報から、CT値を利用して筋肉領域71-1を抽出し、画像情報401を得る(ステップ3002:図13)。
 図13は、画像情報401を示す図である。画像情報401は、撮影日「y1年m1月n1日」に撮影された第1の画像情報から筋肉領域71-1と大腿骨73-1の領域を抽出して得られた画像情報である。
 次に、医用画像処理装置1は第1の画像情報と同条件で異なる撮影日に撮影された第2の画像情報を記憶装置13あるいは画像データベース7から取得して、主メモリ11に読み込む(ステップ3003)。
 医用画像処理装置1は、第2の画像情報から、CT値を利用して筋肉領域71-2を抽出し、画像情報402を得る(ステップ3004:図14)。
 図14は、画像情報402を示す図である。画像情報402は、撮影日「y2年m2月n2日」に撮影された第2の画像情報から筋肉領域71-2と大腿骨73-2の領域を抽出して得られた画像情報である。
 (4-2.画像情報の位置調整)
 次に、医用画像処理装置1は画像情報401(図13)と画像領域402(図14)とを重ね、画像情報403を得る(図15)。
 図15は、画像情報403を示す図である。画像情報403は、単に画像情報401と画像情報402とを重ねたものなので、画像情報401の筋肉領域71-1と、画像情報402の筋肉領域71-2との比較は困難である。
 医用画像処理装置1は、画像情報401の大腿骨73-1の領域と、画像情報402の大腿骨73-2の領域とが重なるように、一方又は両方の画像情報の平行移動、回転移動等を行って位置合わせを行い、画像情報404を得る(ステップ3005:図16)。尚、いずれかの画像情報の拡大縮小処理を行ってもよい。
 図16は、画像情報404を示す図である。画像情報404は、画像情報401の大腿骨73-1と、画像情報402の大腿骨73-2とが一致するように位置合わせが行われ、大腿骨73として表示される。画像情報404によると、筋肉領域71-1と筋肉領域71-2との差(領域の面積の差)が明確に示される。
 (4-3.画像情報の表示)
 次に、医用画像処理装置1は、画像情報404(図16)に基づいて、異なる撮影日に撮影された複数の画像の筋肉領域71を表示する(ステップ3006)。
 医用画像の表示方法について説明する。
 図17は、表示装置17に表示される表示方法の選択の画面501を示す。
 画面501には、患者名75、撮影部位77、及び取得された複数の医用画像の撮影日79が表示される。また、画面501には、画像の表示方法を選択するための「重畳表示」ボタン81、「動径表示」ボタン83が配置される。
 操作者は、表示装置17に表示される画面501から、「重畳表示」ボタン81、又は「動径表示」ボタン83を押下して画像の比較表示方法を選択する。
 (4-3-1.重畳表示)
 操作者によって「重畳表示」ボタン81が押下されると、医用画像処理装置1は、画像情報404(図16)に基づいて、筋肉領域71-1、筋肉領域71-2のそれぞれの面積を算出して表示装置17に表示させる。
 図18は、「重畳表示」が選択された場合に表示装置17に表示される画面502を示す。
 画面502には、画像情報404(図16)、即ち画像情報401(図13)の筋肉領域71-1と画像情報402(図14)の筋肉領域71-2とが、大腿骨73の位置が一致するように処理して作成された画像情報が表示される。また、筋肉領域71-1と筋肉領域71-2の筋肉面積が算出され、それぞれ「筋肉面積 S1 cm2」85-1、「筋肉面積 S2 cm2」85-2と、表示される。筋肉領域71-1と筋肉領域71-2のそれぞれの領域を、異なる色や模様で表示するようにしてもよい。
 「終了」ボタン87が押下されると、表示処理が終了する。「戻る」ボタン89が押下されると、表示装置17に再び表示方法の選択の画面501(図17)が表示される。
 重畳表示によると、操作者は、複数の画像の筋肉領域の面積の差を、視覚的にも数値的にも即座に把握することができる。従って、操作者は、筋肉面積の比較を行うことによりトレーニングや治療の効果を正確かつ迅速に診断することができる。
 (4-3-2.動径表示)
 操作者によって「動径表示」ボタン83が押下されると、医用画像処理装置1は、画像情報404(図16)を得て、筋肉領域71-1、筋肉領域71-2を極座標を利用して表示させる。
 図19は、極座標の設定を説明する図である。
 画像情報404に基づき、大腿骨突起部91が極座標の原点として設定され、大腿骨73の重心が大腿骨重心93として抽出され、大腿骨突起部91と大腿骨重心93とを結ぶ直線が基準線94として設定される。また、原点から筋肉領域の境界へ向う方向と基準線94との成す角度が「θ」、原点から筋肉領域71-1の境界までの距離が「R1」、原点から筋肉領域71-2の境界までの距離が「R2」と設定される。即ち原点から大腿骨重心93へ向う方向が、極座標の角度「θ=0°」と設定される。
 図20は、「動径表示」が選択された場合に表示装置17に表示される画面503を示す。
 画面503には、画像情報404(図16)に基づいて原点(大腿骨突起部91)から筋肉領域71-1の境界までの距離「R1」と、原点から筋肉領域71-2の境界までの距離「R2」とが極座標を利用して表示される。
 画面503のグラフの横軸は極座標の角度95(「θ」)、縦軸は原点から筋肉領域の境界までの距離97(「R」)を示す。
 「終了」ボタン87が押下されると、表示処理が終了する。「戻る」ボタン89が押下されると、表示装置17に再び表示方法の選択の画面501(図17)が表示される。
 動径表示によると、操作者は、基準線94に対して所定方向にある筋肉領域の変化を迅速に診断することができる。例えば、トレーニングや治療の効果が、大腿部のどの方向の筋肉の変化として表れているかを、動径表示によるグラフ(図20)を利用して簡単に診断することができる。
 (4-4.第2実施形態の効果)
 以上述べたように、第2実施形態では、医用画像処理装置1は、撮影時期の異なる複数の医用画像情報を取得し、筋肉トレーニングや治療の効果を、筋肉領域の変化を比較することで迅速に診断することが可能である。
 また、筋肉領域の変化の比較表示方法として、複数の医用画像情報の位置合わせを行い重畳表示することで、筋肉面積の変化を迅速に診断することが可能になる。また、筋肉面積を定量的に比較することでトレーニングや治療の効果を正確に診断することができる。
 また、複数の医用画像情報の筋肉領域の変化を動径表示することで、筋肉領域の変化を同じ方向の筋肉領域で比較することができるので、トレーニングや治療の効果がどの筋肉に表れたかを迅速に診断することが可能になる。
 <撮影部位の判別>
 (5.大腿部・下腿部の判別)
 次に、図21及び図22を参照しながら、診断部位の判別について説明する。
 上述の第2実施形態では、医用画像情報の撮影部位が大腿部であるとして説明したが、これに限定されない。例えば、医用画像情報の撮影部位が大腿部又は下腿部である場合について説明する。
 図21は、大腿部又は下腿部の筋肉領域の比較処理を示すフローチャートである。
 医用画像処理装置1のCPU9は、医用画像撮影装置5によって撮影された複数の医用画像情報を記憶装置13あるいは画像データベース7から取得して、主メモリ11に読み込む(ステップ4001)。
 医用画像処理装置1は、医用画像情報について、骨領域のCT値を有する画像情報の分布に基づいて骨の本数を抽出する(ステップ4002)。
 被検体の撮影画像の片足について骨の本数が1本であれば(ステップ4002の「片側に1本」)、医用画像情報の撮影部位は大腿部であると判定される。大腿骨における極座標の設定と画面表示については第2実施形態で説明したので、ここでは説明を省略する(ステップ4003及びステップ4004)。
 被検体の撮影画像の片足について骨の本数が2本であれば(ステップ4002の「片側に2本」)、医用画像情報の撮影部位は下腿部であると判定される。
 下腿部は、2本の骨「脛骨」と「腓骨」とを有する。医用画像処理装置1は、下腿部の医用画像情報に、極座標表示のための原点と基準線を設定する。
 図22は、下腿部断面図98の原点と基準線の求め方を示す図である。
 下腿部断面図98は、脛骨99と腓骨101を有し、主として下腿部の後部(ふくらはぎの部分)に筋肉領域がある。
 下腿部断面図98において、脛骨99と腓骨101の重心がそれぞれ、脛骨重心107及び腓骨重心105として求められる。脛骨重心107と腓骨重心105の中点が極座標原点109として設定され、脛骨重心107と腓骨重心105とを結ぶ直線が基準線108として設定される(ステップ4005)。
 医用画像処理装置1は、複数の医用画像情報の筋肉領域を極座標を利用して比較表示する(ステップ4006)。極座標の設定方法と、動径表示の方法は第2実施形態で説明したので、ここでの説明は省略する。
 以上述べたように、骨領域の数を判別することにより、医用画像情報の撮影部位を自動的に判別することができる。従って、極座標の設定方法や画面表示方法についても自動的に設定され、操作者のミスを防ぎ、操作性を向上させることができる。
 尚、骨領域による撮影部位の判別は、大腿部と下腿部との判別に限定されない。被検体の胸部や腹部も含めて骨領域の判別を行うことにより、自動的に撮影部位を判別して迅速に診断することが可能になる。
 (6.その他)
 尚、第1実施形態、第2実施形態を適宜組み合わせて医用画像処理装置1を構成してもよい。トレーニングや治療の効果を、筋肉内脂肪量と筋肉領域の経時変化等の、異なる観点で判定することにより、より正確な診断を行うことができる。
 また、上述の実施形態では大腿部や下腿部の断面画像の診断について説明したが、これに限定されない。本発明の医用画像処理装置は、大腿部や下腿部だけでなく、他の生体組織の断面画像の診断に適用することができる。
 また、上述の実施形態ではX線CT画像について説明したが、MRI装置、超音波診断装置等の医用画像撮影装置によって取得された医用画像情報の診断に適用することができる。この場合には、CT値に代わり、画像の画素値、濃度値、輝度値の少なくとも1つの値が適用される。尚、X線CT装置は、CT値が画素値に反映されている。
 以上、本発明に係る医用画像処理装置の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。

Claims (11)

  1.  被検体の断層像を示す医用画像情報を取得する医用画像情報取得手段と、
     取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出手段と、前記評価領域を表示装置に表示する評価領域表示手段と、を具備することを特徴とする医用画像処理装置。
  2.  前記評価領域抽出手段は、取得された前記医用画像情報に基づいて筋肉領域及び脂肪領域を特定し、前記筋肉領域の輪郭を示す輪郭曲線を算出し、前記脂肪領域を前記輪郭曲線の内外で分割して、前記輪郭曲線の内側の評価領域を第1評価領域、及び前記輪郭曲線の外側の評価領域を第2評価領域として抽出し、
     前記評価領域表示手段は、前記第1評価領域と前記第2評価領域とを区別して表示することを特徴とする請求項1に記載の医用画像処理装置。
  3.  前記評価領域抽出手段は、前記筋肉領域に接する直線群を作成し、前記直線群によって形成される閉領域に内接する曲線を、前記輪郭曲線として得ることを特徴とする請求項2に記載の医用画像処理装置。
  4.  前記評価領域抽出手段は、前記筋肉領域の輪郭上の複数の尖端点を求め、前記複数の尖端点を補間した曲線を算出して、前記筋肉領域の輪郭を示す前記輪郭曲線として得ることを特徴とする請求項2に記載の医用画像処理装置。
  5.  複数の前記医用画像情報に基づいて、それぞれの前記評価領域を抽出して前記表示装置に比較可能に表示する評価領域比較表示手段、を更に具備することを特徴とする請求項1に記載の医用画像処理装置。
  6.  前記医用画像情報取得手段は、複数の前記医用画像情報を取得し、前記評価領域抽出手段は、取得された複数の前記医用画像情報に基づいて前記評価領域を抽出し、前記評価領域比較表示手段は、抽出された前記評価領域から骨領域と筋肉領域とを特定し、前記医用画像情報からそれぞれ特定された前記骨領域について位置合わせの基準となる基準領域を抽出し、複数の前記医用画像情報に必要に応じて平行移動処理、回転移動処理、拡大縮小処理の少なくともいずれかの処理を施し、複数の前記医用画像情報の前記基準領域を一致させて表示することを特徴とする請求項5に記載の医用画像処理装置。
  7.  前記評価領域比較表示手段は、前記基準領域を一致させ、更にそれぞれ特定された前記筋肉領域を重ね合わせて表示することを特徴とする請求項6に記載の医用画像処理装置。
  8.  前記評価領域比較表示手段は、抽出された前記基準領域に含まれる所定の点を基準点に設定し、前記基準点を含む基準線を設定し、前記基準点から前記筋肉領域の輪郭までの距離と、前記基準線との成す角度とを対応させて表示することを特徴とする請求項6に記載の医用画像処理装置。
  9.  前記評価領域抽出手段は、前記取得された医用画像情報のCT値に基づいて骨領域を抽出し、前記骨領域が複数の場合には前記骨領域ごとに求める所定点に基づいて前記基準点を算出することを特徴とする請求項8に記載の医用画像処理装置。
  10.  被検体の断層像を示す医用画像情報を取得する医用画像情報取得ステップと、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出ステップと、前記評価領域を表示装置に表示する評価領域表示ステップと、を含むことを特徴とする医用画像処理方法。
  11.  コンピュータを、被検体の断層像を示す医用画像情報を取得する医用画像情報取得手段と、取得された前記医用画像情報に含まれるそれぞれの組織に対する評価領域を前記組織毎に画素値、濃度値、輝度値の少なくとも1つの値により抽出する評価領域抽出手段と、前記評価領域を表示装置に表示する評価領域表示手段と、を具備する医用画像処理装置として機能させるプログラム。
PCT/JP2009/052518 2008-02-25 2009-02-16 医用画像処理装置、医用画像処理方法、プログラム WO2009107500A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/919,129 US8792698B2 (en) 2008-02-25 2009-02-16 Medical imaging processing device, medical image processing method, and program
JP2010500648A JP5534607B2 (ja) 2008-02-25 2009-02-16 医用画像処理装置及び、そのプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008042934 2008-02-25
JP2008-042934 2008-02-25

Publications (1)

Publication Number Publication Date
WO2009107500A1 true WO2009107500A1 (ja) 2009-09-03

Family

ID=41015900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052518 WO2009107500A1 (ja) 2008-02-25 2009-02-16 医用画像処理装置、医用画像処理方法、プログラム

Country Status (3)

Country Link
US (1) US8792698B2 (ja)
JP (1) JP5534607B2 (ja)
WO (1) WO2009107500A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094421A (ja) * 2016-12-14 2018-06-21 三星電子株式会社Samsung Electronics Co.,Ltd. 医療映像表示方法及び医療映像表示装置
JP7482461B2 (ja) 2022-01-26 2024-05-14 國立成功大學 筋肉量の測定方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9086356B2 (en) 2004-10-04 2015-07-21 Hologic, Inc. Visceral fat measurement
US7725153B2 (en) 2004-10-04 2010-05-25 Hologic, Inc. Estimating visceral fat by dual-energy x-ray absorptiometry
DE102008045278A1 (de) * 2008-09-01 2010-03-25 Siemens Aktiengesellschaft Verfahren zum Kombinieren von Bildern und Magnetresonanzgerät
US8792689B2 (en) * 2010-03-23 2014-07-29 Hologic, Inc. Measuring intramuscular fat
US9865050B2 (en) 2010-03-23 2018-01-09 Hologic, Inc. Measuring intramuscular fat
DE102010027878A1 (de) * 2010-04-16 2011-10-20 Siemens Aktiengesellschaft Auswerteverfahren für eine Auswertung von medizinischen Bilddaten sowie eine medizinische Auswertevorrichtung hierzu
JP5570866B2 (ja) * 2010-04-30 2014-08-13 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5620194B2 (ja) * 2010-08-24 2014-11-05 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5658945B2 (ja) * 2010-08-24 2015-01-28 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5665655B2 (ja) * 2011-05-24 2015-02-04 株式会社日立製作所 画像処理装置及び方法
WO2014034294A1 (ja) * 2012-08-28 2014-03-06 株式会社日立メディコ 画像表示装置及び医用画像撮像装置
US9642585B2 (en) 2013-11-25 2017-05-09 Hologic, Inc. Bone densitometer
ES2795430T3 (es) 2015-02-26 2020-11-23 Hologic Inc Métodos para la determinación del estado fisiológico en exploraciones corporales
US10102452B2 (en) * 2017-03-14 2018-10-16 Clarius Mobile Health Corp. Systems and methods for identifying an imaged needle in an ultrasound image
KR102085812B1 (ko) * 2018-04-10 2020-03-06 가톨릭관동대학교산학협력단 촬영 이미지 기반의 건강상태 분석 및 정보 제공 방법, 그의 장치 및 그의 기록 매체
CN110111386B (zh) * 2019-05-10 2023-01-24 深圳大学 一种肌肉组织中结构性角度的自动测量方法及系统
CN112819811A (zh) * 2021-02-24 2021-05-18 上海商汤智能科技有限公司 图像分析方法及相关装置、电子设备、存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299629A (ja) * 2002-04-12 2003-10-21 Art Heaven Nine:Kk 身体組成測定装置
JP2004057275A (ja) * 2002-07-25 2004-02-26 Hitachi Medical Corp 画像診断装置
WO2004089219A1 (ja) * 2003-04-08 2004-10-21 Hitachi Medical Corporation 医用画像診断支援装置及び方法
JP2006061687A (ja) * 2004-07-30 2006-03-09 Matsushita Electric Works Ltd 筋肉増量方法
JP3120546U (ja) * 2005-03-31 2006-04-13 バイオスペース・カンパニー・リミテッド 体成分分析結果シート
JP2007068845A (ja) * 2005-09-08 2007-03-22 Aloka System Engineering Co Ltd X線ct装置及び画像処理方法
JP2007135858A (ja) * 2005-11-18 2007-06-07 Hitachi Medical Corp 画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03120546A (ja) 1989-10-04 1991-05-22 Brother Ind Ltd 画像形成装置
JP3120546B2 (ja) 1992-02-26 2000-12-25 日亜化学工業株式会社 永久磁石材料の製造方法
JPH09218939A (ja) * 1996-02-09 1997-08-19 Toshiba Corp 画像処理装置
US7677540B1 (en) * 2003-04-04 2010-03-16 Duval Eugene F Dual pulley constant force mechanism
US7570791B2 (en) * 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
EP1762976B1 (en) * 2005-09-08 2011-05-18 Aloka Co., Ltd. Computerized tomography device and image processing method for identifying brown adipose tissue

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299629A (ja) * 2002-04-12 2003-10-21 Art Heaven Nine:Kk 身体組成測定装置
JP2004057275A (ja) * 2002-07-25 2004-02-26 Hitachi Medical Corp 画像診断装置
WO2004089219A1 (ja) * 2003-04-08 2004-10-21 Hitachi Medical Corporation 医用画像診断支援装置及び方法
JP2006061687A (ja) * 2004-07-30 2006-03-09 Matsushita Electric Works Ltd 筋肉増量方法
JP3120546U (ja) * 2005-03-31 2006-04-13 バイオスペース・カンパニー・リミテッド 体成分分析結果シート
JP2007068845A (ja) * 2005-09-08 2007-03-22 Aloka System Engineering Co Ltd X線ct装置及び画像処理方法
JP2007135858A (ja) * 2005-11-18 2007-06-07 Hitachi Medical Corp 画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094421A (ja) * 2016-12-14 2018-06-21 三星電子株式会社Samsung Electronics Co.,Ltd. 医療映像表示方法及び医療映像表示装置
US10772595B2 (en) 2016-12-14 2020-09-15 Samsung Electronics Co., Ltd. Method and apparatus for displaying medical image
JP7482461B2 (ja) 2022-01-26 2024-05-14 國立成功大學 筋肉量の測定方法

Also Published As

Publication number Publication date
US8792698B2 (en) 2014-07-29
JPWO2009107500A1 (ja) 2011-06-30
US20110002522A1 (en) 2011-01-06
JP5534607B2 (ja) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5534607B2 (ja) 医用画像処理装置及び、そのプログラム
RU2542096C2 (ru) Система для представления информации о вентиляции легких
EP2442276B1 (en) Medical image processing apparatus and medical image processing method
US20210233243A1 (en) Diagnostic support program
JP7462898B2 (ja) 診断支援プログラム
CN111166474B (zh) 一种关节置换手术术前的辅助诊查方法和装置
Zhou et al. Automatic fascicle length estimation on muscle ultrasound images with an orientation-sensitive segmentation
Salvi et al. Transverse muscle ultrasound analysis (TRAMA): robust and accurate segmentation of muscle cross-sectional area
Xu et al. Back shape measurement and three-dimensional reconstruction of spinal shape using one kinect sensor
US20160180520A1 (en) Quantitative method for 3-d joint characterization
US11903691B2 (en) Combined steering engine and landmarking engine for elbow auto align
US20190236783A1 (en) Image processing apparatus, image processing method, and program
TW201637615A (zh) 骨結構檢測方法與系統
JP4401121B2 (ja) 異常陰影検出装置
TWI828661B (zh) 診斷支援系統
KR101659056B1 (ko) 2차원 기술자를 이용한 두개골유합증 자동진단시스템 및 이를 이용한 두개골유합증 자동진단방법
Idram et al. A reliable method for morphological measurement of 3D calcaneus models from computed tomography images
JP2019180899A (ja) 医用画像処理装置
KR102122767B1 (ko) 초음파 검사 지원 장치 및 방법
Zhang et al. Automatic anatomical labeling of abdominal arteries for small bowel evaluation on 3D CT scans
JP2011062253A (ja) 断層画像処理装置、筋断面積測定システム及び断層画像処理方法
Uozumi et al. Computer-aided segmentation system of posterior cruciate ligament in knee joint from CT and MRI using anatomical information: A Pilot Study of System Configuration
EP4187546A1 (en) Assisting subject positioning in medical imaging
Uesaka et al. Analysis of Patella Movement and Posture During Knee Flexion Using a Depth Camera
Aghayan et al. Calculation and visualization of range of motion of hip joint from MRI

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09715868

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010500648

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12919129

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09715868

Country of ref document: EP

Kind code of ref document: A1