WO2009119181A1 - 画像計測装置、医用画像システム及びプログラム - Google Patents

画像計測装置、医用画像システム及びプログラム Download PDF

Info

Publication number
WO2009119181A1
WO2009119181A1 PCT/JP2009/052633 JP2009052633W WO2009119181A1 WO 2009119181 A1 WO2009119181 A1 WO 2009119181A1 JP 2009052633 W JP2009052633 W JP 2009052633W WO 2009119181 A1 WO2009119181 A1 WO 2009119181A1
Authority
WO
WIPO (PCT)
Prior art keywords
auxiliary line
image
displayed
medical image
monitor screen
Prior art date
Application number
PCT/JP2009/052633
Other languages
English (en)
French (fr)
Inventor
高史 南條
Original Assignee
コニカミノルタエムジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタエムジー株式会社 filed Critical コニカミノルタエムジー株式会社
Publication of WO2009119181A1 publication Critical patent/WO2009119181A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof

Definitions

  • the present invention relates to an image measurement device, a medical image system, and a program.
  • images obtained by photographing a patient with radiation such as X-rays are used in diagnosis in the medical field such as orthopedics.
  • the doctor observes and interprets the radiographic image output on the film, marks the position to be measured on the radiographic image with a red pencil to obtain numerical values and angles for diagnosis, and uses a measuring instrument such as a ruler or a protractor. Measure the distance and angle of the marked position.
  • auxiliary line a line used for measurement
  • auxiliary lines may be drawn for each measurement.
  • a side spine image an image obtained by photographing the spine from the side of the human body (hereinafter referred to as a side spine image) is displayed on the monitor screen, and the vertebrae to be measured are displayed.
  • the drawing position of the auxiliary line is usually specified in the order of the anterior vertebral body, the middle vertebral body, and the posterior vertebral body. In some cases, the drawing position of the auxiliary line is specified in the order of the middle part and the anterior part of the vertebral body.
  • auxiliary lines that connect the upper and lower ends of the vertebral body rear part, the vertebral body middle part, and the vertebral body front part are drawn, so that the appearance is compared with the case where the auxiliary lines are drawn in the correct order.
  • the first auxiliary line shows the vertebral body
  • the second auxiliary line shows the vertebral body
  • the third auxiliary line shows the vertebral body.
  • auxiliary lines when a plurality of auxiliary lines are drawn, it may be difficult to identify a correspondence relationship indicating what each auxiliary line represents on the medical image.
  • a user other than the user who has drawn the auxiliary line may refer to an image in which the auxiliary line is drawn. In some cases, it was not possible to identify what was to be shown. In addition, it is difficult to confirm whether or not the measurement is correctly performed even when the auxiliary line is drawn on the medical image and printed on paper or output by an imager.
  • the present invention has been made in view of the above-described problems in the prior art, and has an object to improve operability in measurement and prevent misdiagnosis.
  • the invention described in claim 1 is an image measurement apparatus for displaying a medical image on a monitor screen of a display means and calculating a measurement result from the displayed medical image, wherein the monitor An operation means for designating a position for drawing a measurement auxiliary line in the medical image displayed on the screen, and the auxiliary line on the medical image displayed on the monitor screen based on an operation from the operation means.
  • the control means displays the code in the vicinity of the end of the auxiliary line.
  • an image server device that stores a medical image and a medical image acquired from the image server device are displayed on a monitor screen of a display unit, and a measurement result is calculated from the displayed medical image.
  • a medical image system connected to an image measurement device via a communication network so that data communication is possible, wherein the image measurement device determines a position for drawing an auxiliary line for measurement in a medical image displayed on the monitor screen.
  • a control means for calculating the measurement result based on the auxiliary line.
  • a computer for displaying a medical image on a monitor screen of a display means and calculating a measurement result from the displayed medical image, and for assisting measurement in the medical image displayed on the monitor screen.
  • An operation means for designating a position for drawing a line, the auxiliary line is drawn on the medical image displayed on the monitor screen based on an operation from the operation means, and the auxiliary line is associated with the auxiliary line.
  • the code for identifying the auxiliary line is displayed in correspondence with the auxiliary line, it is possible to identify what the auxiliary line indicates, and the measurement. In addition to improving the operability in, misdiagnosis can be prevented.
  • the second aspect of the present invention it is possible to display a code for identifying the auxiliary line without hindering the drawing of the auxiliary line.
  • FIG. 1 is a system configuration diagram of a medical image system. It is a block diagram which shows the functional structure of an image server apparatus. It is a figure which shows the length of the axial direction of the vertebral body front part of a measurement object vertebral body, the length of the axial direction of a vertebral body rear part, and the length of the axial direction of a vertebral body middle part. It is a block diagram which shows the functional structure of an image measuring device. It is a figure for demonstrating the display method of an identification code. It is a flowchart which shows the image provision process performed in an image server apparatus. It is a flowchart which shows the image measurement process (alpha) performed in an image measuring device.
  • a screen at the time of designating the axial direction upper end of a vertebral body front part It is an example of a screen at the time of designating the axial direction lower end of a vertebral body part. It is an example of a screen in the state where the identification code “A” is displayed in the vicinity of both ends of the front auxiliary line. It is an example of a screen at the time of designating the axial direction upper end of a vertebral body middle part. It is an example of a screen when designating the axial direction lower end of the vertebral body middle part. It is an example of a screen in the state where the identification code “C” is displayed in the vicinity of both ends of the middle auxiliary line.
  • a screen at the time of designating the end point of a reference auxiliary line It is an example of a screen at the time of designating the upper end of the 1st vertical auxiliary line. It is an example of a screen in the state where the identification code “R” is displayed near the end of the first vertical auxiliary line. It is an example of a screen at the time of designating the starting point of the 1st diagonal auxiliary line. It is an example of a screen at the time of designating the end point of the 1st diagonal auxiliary line. It is an example of a screen in the state where the identification code “R” is displayed near the end of the first diagonal auxiliary line.
  • FIG. 1 shows a system configuration of a medical image system 100 according to the first embodiment.
  • a RIS Radiological Information System
  • modality 20 a modality 20
  • image server device 30 a modality 20
  • image measurement device 40 a modality 20
  • N a network network
  • the RIS10 performs information management such as medical appointment reservation, diagnosis result report, results management, and material inventory management in the radiology department.
  • the RIS 10 generates examination order information indicating the contents of imaging and diagnosis, and transmits the examination order information to the modality 20.
  • the modality 20 is an image generation device that images a patient based on examination order information transmitted from the RIS 10 and generates image data of a medical image.
  • the modality 20 transmits the image data to the image server device 30.
  • a CR Computed Radiography
  • CT Computed Tomography
  • MRI Magnetic Resonance Imaging
  • the image server device 30 is configured by PACS, stores an image file 361 (see FIG. 2) of a medical image received from the modality 20, and provides the image file 361 in response to a request from an external device such as the image measurement device 40. To do.
  • FIG. 2 shows a functional configuration of the image server device 30.
  • the image server device 30 includes a control unit 31, an operation unit 32, a display unit 33, a communication unit 34, a ROM (Read Only Memory) 35, and a storage unit 36. Connected by.
  • the control unit 31 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and comprehensively controls processing operations of each unit of the image server device 30. Specifically, the CPU reads various processing programs stored in the ROM 35 in accordance with an operation signal input from the operation unit 32 or an instruction signal received by the communication unit 34, and a work piece formed in the RAM. Expand to the area and perform various processes in cooperation with the program.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the operation unit 32 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse.
  • the operation unit 32 controls operation signals input by key operations or mouse operations on the keyboard. To 31.
  • the display unit 33 is configured by an LCD (Liquid Crystal Display), and displays various screens based on display data input from the control unit 31.
  • LCD Liquid Crystal Display
  • the communication unit 34 is an interface that transmits and receives data to and from external devices such as the RIS 10, the modality 20, and the image measurement device 40.
  • the ROM 35 is constituted by a nonvolatile semiconductor memory or the like, and stores a control program, parameters and files necessary for executing the program.
  • the storage unit 36 is composed of a hard disk or the like and stores various data. Specifically, the storage unit 36 stores an image file 361, an image processing condition file 362, a DB (Data Base) 363, and the like.
  • the image file 361 is a file of medical image data received from the modality 20.
  • As the image file 361 for example, a lateral spine image (see FIG. 14) obtained by photographing the spine from the side of the human body is stored.
  • the image processing condition file 362 is a file for storing image processing conditions.
  • the image processing conditions include gradation processing, enlargement ratio, annotation type, coordinates indicating the drawing position of the auxiliary line, line thickness, line type (solid line, broken line, etc.), and a code for identifying each auxiliary line. Information such as coordinates indicating the display position is included. In the case of a lateral spine image, as shown in FIG.
  • the axial length of the front part of the vertebral body corresponding to the front side of the human body of the measurement target vertebral body is A
  • the vertebra corresponding to the back side of the human body C / A, C / P and A / P are calculated with P as the axial length of the posterior body and C as the axial length of the central vertebral body located between the vertebral body and the posterior vertebral body.
  • the measured results are also included in the image processing conditions.
  • the image processing conditions may include parameters indicating the display state of an image that conforms to the DICOM (Digital Imaging and Communications in Medicine) standard GSPS (Grayscale Softcopy Presentation State) in addition to the image processing conditions unique to the system. Good.
  • the DB 363 is for associating a medical image with an image processing condition applied to the medical image, and includes an image table 364 and an image processing condition table 365.
  • the image table 364 the external key of the image processing condition table 365 is set for each of the image files 361.
  • the path of the image processing condition file 362 is associated with each key referred to in the image table 364.
  • the control unit 31 reads out the requested image file 361 from the storage unit 36 and transmits it to the image measurement device 40 when an acquisition request for the image file 361 is received from the image measurement device 40. In addition, when the image processing condition is received from the image measurement device 40, the control unit 31 stores the received image processing condition in the image processing condition file 362 and registers the correspondence relationship with the image file 361 in the DB 363.
  • the image measurement device 40 is a device for displaying a medical image acquired from the image server device 30 and calculating a measurement result such as a numerical value and an angle used for diagnosis of the medical image, from a PC (Personal Computer) or the like. Composed. For example, the image measuring device 40 calculates C / A, C / P, and A / P used for diagnosis of a compression fracture in a lateral spine image.
  • FIG. 4 shows a functional configuration of the image measurement device 40.
  • the image measurement device 40 includes a control unit 41, an operation unit 42, a display unit 43, a communication unit 44, a ROM 45, and a storage unit 46, and each unit is connected by a bus 47.
  • the control unit 41 is configured by a CPU, a RAM, and the like, and comprehensively controls the processing operation of each unit of the image measurement device 40. Specifically, the CPU reads various processing programs stored in the ROM 45 in response to an operation signal input from the operation unit 42 or an instruction signal received by the communication unit 44, and a work piece formed in the RAM. Expand to the area and perform various processes in cooperation with the program.
  • the operation unit 42 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse.
  • the control unit 42 controls operation signals input by keyboard operation or mouse operation. 41 is output.
  • the operation unit 42 is used when designating a position for drawing auxiliary lines for measurement of C / A, C / P, and A / P in the lateral spine image displayed on the monitor screen of the display unit 43.
  • the display unit 43 is composed of an LCD, and displays various screens based on display data input from the control unit 41. Specifically, the display unit 43 displays a medical image such as a lateral spine image.
  • the communication unit 44 is an interface that transmits / receives data to / from an external device such as the image server device 30.
  • the ROM 45 is configured by a nonvolatile semiconductor memory or the like, and stores a control program, parameters and files necessary for executing the program.
  • the storage unit 46 is composed of a hard disk or the like and stores various data.
  • the control unit 41 transmits an acquisition request for the image file 361 of the medical image stored in the storage unit 36 to the image server device 30 via the communication unit 44, and the image of the medical image is transmitted from the image server device 30.
  • the file 361 is acquired.
  • the control unit 41 displays the medical image on the monitor screen of the display unit 43 based on the acquired medical image image file 361. In the first embodiment, a case where an image file 361 of a lateral spine image is acquired and the lateral spine image is displayed on the monitor screen of the display unit 43 will be described.
  • an auxiliary line (hereinafter referred to as an auxiliary line) connecting the upper and lower ends of the vertebral body in the axial direction
  • An auxiliary line connecting the upper and lower ends of the vertebral body in the axial direction (hereinafter referred to as a middle auxiliary line) Lc, an auxiliary line connecting the upper and lower ends of the vertebral body in the axial direction (hereinafter referred to as the posterior part) This is called an auxiliary line.) Lp is drawn in order.
  • control unit 41 displays a code (hereinafter referred to as an identification code) for identifying each auxiliary line in association with each auxiliary line on the lateral spine image displayed on the monitor screen of the display unit 43. .
  • the control unit 41 displays the identification codes 51 and 52 of “A” in the vicinity of both ends of the front auxiliary line La, respectively, and the both ends of the middle auxiliary line Lc.
  • Identification codes 53 and 54 “C” are displayed in the vicinity, and identification codes 55 and 56 “P” are displayed in the vicinity of both ends of the rear auxiliary line Lp.
  • the “neighborhood” means a distance in a range in which the correspondence relationship with the auxiliary line can be recognized, and when there are a plurality of auxiliary lines, it means a range smaller than the distance from other auxiliary lines.
  • the control unit 41 acquires the sizes of the identification codes 51 to 56 to be displayed, and calculates the width w and the height h. Then, the center positions of the identification codes 51 to 56 are arranged on the extension line of the auxiliary line at a position away from the end of the auxiliary line by a distance of (the larger value of the width w and the height h) / 2.
  • the image coordinate system is a coordinate system on an image unique to the image file 361.
  • FIG. 6 is a flowchart showing an image providing process executed in the image server device 30.
  • This process is a process for providing a medical image to be measured to the image measuring device 40, and is realized by software processing in cooperation with the CPU of the control unit 31 and the program stored in the ROM 35. .
  • the communication unit 34 receives an acquisition request for the image file 361 from the image measurement device 40 (step S ⁇ b> 1; YES)
  • the requested image file 361 is read from the storage unit 36 by the control unit 31. Then, it is transmitted to the image measuring device 40 via the communication unit 34 (step S2).
  • step S3 when the image processing condition is received from the image measurement device 40 by the communication unit 34 (step S3; YES), the received image processing condition is stored in the image processing condition file 362 in the storage unit 36 by the control unit 31.
  • the correspondence relationship with the image file 361 to be measured is registered in the DB 363 (step S4).
  • the image providing process ends.
  • FIG. 7 is a flowchart showing the image measurement process ⁇ executed in the image measurement device 40. This process is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • an image file 361 of a lateral spine image to be measured is selected by an operation from the operation unit 42, and the selected lateral spine is transmitted to the image server device 30 by the communication unit 44 according to control of the control unit 41.
  • An acquisition request for an image file 361 of an image is transmitted.
  • the image file 361 of a side spinal image is acquired from the image server apparatus 30 by the control part 41 via the communication part 44 (step S11).
  • the control unit 41 displays the side spine image on the monitor screen of the display unit 43 based on the acquired image file 361 of the side spine image (step S12).
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed on the upper end in the axial direction of the vertebral body front part of the measurement target vertebral body.
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the first coordinate (step S13).
  • the lateral spine image is indicated by a broken line, but is omitted in the following figures.
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed at the lower axial end of the front vertebral body, and the lower end position of the front vertebral body is designated. Then, the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the second coordinate (step S14).
  • the first coordinate (image coordinate system) and the second coordinate (image coordinate system) are displayed on the lateral spine image displayed on the monitor screen of the display unit 43 by the control unit 41.
  • Identification codes 51 and 52 of “A” are displayed in the vicinity of both ends of the front auxiliary line La (step S16). This makes it possible to identify that the front auxiliary line La is an auxiliary line connecting the upper and lower ends in the axial direction of the front part of the vertebral body.
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed on the axial upper end of the middle vertebral body of the measurement target vertebral body, and the upper end position of the middle vertebral body Is designated, the control unit 41 obtains the coordinates in the image coordinate system corresponding to the position where the mouse button was pressed, and determines the third coordinate (step S17).
  • the mouse button of the operation unit 42 when the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed at the lower end in the axial direction of the middle vertebral body, the lower end position of the middle vertebral body is designated.
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the fourth coordinate (step S18).
  • the control unit 41 causes the third point coordinate (image coordinate system) and the fourth point coordinate (image coordinate system) to be displayed on the side spine image displayed on the monitor screen of the display unit 43.
  • Identification codes 53 and 54 of “C” are displayed in the vicinity of both ends of the middle auxiliary line Lc (step S20). This makes it possible to identify that the middle auxiliary line Lc is an auxiliary line connecting the upper and lower ends in the axial direction of the middle part of the vertebral body.
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed at the upper axial end of the vertebral body rear part of the measurement target vertebral body, and the upper end position of the vertebral body rear part Is designated, the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the fifth coordinate (step S21).
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the sixth coordinate (step S22).
  • the control unit 41 causes the fifth point coordinate (image coordinate system) and the sixth point coordinate (image coordinate system) to be displayed on the side spine image displayed on the monitor screen of the display unit 43.
  • Is drawn step S23
  • identification codes 55 and 56 of “P” are displayed near both ends of the rear auxiliary line Lp (step S24). This makes it possible to identify that the posterior auxiliary line Lp is an auxiliary line connecting the upper and lower ends in the axial direction of the vertebral body rear part.
  • control unit 41 calculates C / A, C / P, and A / P based on the lengths of the drawn front auxiliary line La, middle auxiliary line Lc, and rear auxiliary line Lp (step). S25).
  • the measurement result (values of C / A, C / P, and A / P) is displayed on the monitor screen of the display unit 43 by the control unit 41 (step S26).
  • the measurement result “C / A 0.93, C / P 0.88, A / P 0.95” is displayed.
  • control unit 41 determines whether to save the image processing conditions (step S27). For example, when a save button is selected on the monitor screen of the display unit 43 by an operation from the operation unit 42, the image processing conditions are saved.
  • the control unit 41 When storing the image processing conditions (step S27; YES), the control unit 41 displays coordinates (image coordinate system) indicating the start point and end point of each drawn auxiliary line, and displays the identification code corresponding to each auxiliary line.
  • Contents (“A”, “C”, “P”), images indicating the display position of each identification code (image coordinate system), images such as measurement results (values of C / A, C / P, and A / P)
  • the processing conditions are transmitted to the image server device 30 (step S28). If the image processing conditions are not stored (step S27; NO), the processing ends. Thus, the image measurement process ⁇ is completed.
  • the identification codes 51 and 52 “A” are displayed corresponding to the front auxiliary line La, and “C” is displayed corresponding to the middle auxiliary line Lc. Since the identification codes 53 and 54 are displayed and the identification codes 55 and 56 of “P” are displayed in correspondence with the rear auxiliary line Lp, it is possible to identify what each auxiliary line indicates, and operation in measurement It is possible to improve miscibility and prevent misdiagnosis.
  • the identification codes 51 to 56 are displayed near the ends of the front auxiliary line La, the middle auxiliary line Lc, and the rear auxiliary line Lp, the identification codes 51 to 56 are displayed without disturbing the drawing of the auxiliary lines. can do.
  • the medical image system according to the second embodiment has the same configuration as that of the medical image system 100 shown in the first embodiment. Therefore, the same components are denoted by the same reference numerals, and the configuration is the same. Illustration and description are omitted.
  • a configuration and processing characteristic of the second embodiment will be described.
  • the CE angle is used to diagnose osteoarthritis of the hip (acetabular dysplasia). Symptoms of osteoarthritis of the hip include pain in daily activities such as hip pain, movement pain, range of motion limitation, and walking problems.
  • the CE angle refers to an angle formed by a vertical line passing through the center of the femoral head and a line passing through the center and the outer edge of the acetabulum. The normal value is 25 degrees or more, and if it is less than 10 degrees, it tends to progress to hip arthropathy.
  • FIG. 10 shows an example of a hip joint image obtained by X-ray imaging of the left and right hip joints from the front side of the human body.
  • the left side corresponds to the right side of the human body
  • the right side in FIG. 10 corresponds to the left side of the human body.
  • a second vertical auxiliary line M4 perpendicular to the center of the left femoral head and a second oblique auxiliary line M5 passing through the left acetabular outer edge 66 are drawn.
  • the angle ⁇ 1 formed by the first vertical auxiliary line M2 and the first diagonal auxiliary line M3 is the right CE angle
  • the angle ⁇ 2 formed by the second vertical auxiliary line M4 and the second diagonal auxiliary line M5 is the left CE angle.
  • the storage unit 36 of the image server device 30 stores a hip joint image file obtained by photographing the left and right hip joints from the front side of the human body as the image file 361.
  • the image processing condition file 362 further includes values of the right CE angle and the left CE angle measured from the hip joint image.
  • the operation unit 42 of the image measurement device 40 is used when designating a position for drawing an auxiliary line for CE angle measurement in the hip joint image displayed on the monitor screen of the display unit 43.
  • the display unit 43 displays a medical image such as a hip joint image.
  • the control unit 41 acquires the image file 361 of the hip joint image and displays the hip joint image on the monitor screen of the display unit 43.
  • the control unit 41 passes the right tear mark lower end 61 and the left tear mark lower end 62 on the hip joint image displayed on the monitor screen of the display unit 43.
  • a second oblique auxiliary line M5 that passes through the center 65 of the left femoral head and the outer edge 66 of the left acetabulum are drawn in order.
  • the user When drawing each auxiliary line, the user starts from the operation unit 42 the start point (first point) and end point (second point) of the reference auxiliary line M1, the upper end (third point) of the first vertical auxiliary line M2, the first The start point (fourth point) and end point (fifth point) of the diagonal auxiliary line M3, the upper end (sixth point) of the second vertical auxiliary line M4, the start point (seventh point) and the end point (8 of the second diagonal auxiliary line M5) Point).
  • the upper ends of the first vertical auxiliary line M2 and the second vertical auxiliary line M4 are the upper ends on the monitor screen.
  • first vertical auxiliary line M2 and the second vertical auxiliary line M4 are perpendicular to the reference auxiliary line M1, if the upper end position is designated, the first vertical auxiliary line M2 and the second vertical auxiliary line M4 are moved downward from the upper end position to the reference auxiliary line M1.
  • One vertical auxiliary line M2 and second vertical auxiliary line M4 can be drawn.
  • the control unit 41 displays an identification code corresponding to each auxiliary line. Specifically, the control unit 41 indicates “R” corresponding to the right side of the human body in the vicinity of the end of the first vertical auxiliary line M2 (the end corresponding to the upper end of the first vertical auxiliary line M2). The identification code 71 (see FIG. 13F) is displayed. Further, the control unit 41 indicates that it corresponds to the right side of the human body in the vicinity of the end of the first oblique auxiliary line M3 (the end closer to the right acetabular outer edge 64 than the center 63 of the right femoral head). An identification code 72 (see FIG. 13F) “R” is displayed.
  • control unit 41 has an identification code “L” indicating that it corresponds to the left side of the human body near the end of the second vertical auxiliary line M4 (the end corresponding to the upper end of the second vertical auxiliary line M4). 73 (see FIG. 13F) is displayed. Further, the control unit 41 corresponds to the left side of the human body in the vicinity of the end of the second oblique auxiliary line M5 (the end closer to the left acetabular outer edge 66 side than the center 65 of the left femoral head). An identification code 74 (see FIG. 13F) of “L” is displayed.
  • the control unit 41 calculates an angle formed between the drawn first vertical auxiliary line M2 and the first oblique auxiliary line M3 as a right CE angle, and draws the drawn second vertical auxiliary line M4 and the second oblique auxiliary line M5. Is calculated as the left CE angle.
  • 11A and 11B are flowcharts showing the image measurement process ⁇ executed in the image measurement device 40. This process is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • an image file 361 of a hip joint image to be measured is selected by an operation from the operation unit 42, and the selected hip joint image is transmitted to the image server device 30 by the communication unit 44 according to control of the control unit 41.
  • An acquisition request for the image file 361 is transmitted.
  • the image file 361 of a hip joint image is acquired from the image server apparatus 30 by the control part 41 via the communication part 44 (step S31).
  • the control unit 41 displays the hip joint image on the monitor screen of the display unit 43 based on the acquired image file 361 of the hip joint image (step S32).
  • the user presses the mouse button of the operation unit 42 with the mouse cursor MC placed at the position to be the starting point of the reference auxiliary line M1, and the starting point position of the reference auxiliary line M1 is designated. Then, the coordinate in the image coordinate system corresponding to the position where the mouse button is pressed is acquired by the control unit 41, and the first coordinate is determined (step S33).
  • the hip joint image is indicated by a broken line, but is omitted in the following drawings.
  • the user presses the mouse button of the operation unit 42 with the mouse cursor MC placed at the end point of the reference auxiliary line M1, and the end point position of the reference auxiliary line M1 is designated. Then, the coordinate in the image coordinate system corresponding to the position where the mouse button is pressed is acquired by the control unit 41, and the second coordinate is determined (step S34).
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the third point coordinates (step S36).
  • the control unit 41 sets the third coordinate (image coordinate system) as one end (upper end) on the hip joint image displayed on the monitor screen of the display unit 43, and the reference auxiliary line M1.
  • a first vertical auxiliary line M2 perpendicular to the reference auxiliary line M1 is drawn with the upper point as the other end (lower end) (step S37), and in the vicinity of the end (upper end) of the first vertical auxiliary line M2.
  • the identification code 71 “R” is displayed (step S38). This makes it possible to identify that the first vertical auxiliary line M2 is a vertical auxiliary line corresponding to the right side of the human body, that is, a vertical auxiliary line passing through the center 63 of the right femoral head.
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the coordinates of the fourth point (step S39).
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the fifth coordinate (step S40).
  • the control unit 41 causes the coordinates of the fourth point (image coordinate system) and the coordinates of the fifth point (image coordinate system) to be displayed on the hip joint image displayed on the monitor screen of the display unit 43.
  • Is drawn step S41
  • an identification code “R” is provided near the end of the first oblique auxiliary line M3 (the end on the right acetabular outer edge 64 side). 72 is displayed (step S42).
  • the first oblique auxiliary line M3 is an oblique auxiliary line corresponding to the right side of the human body, that is, an oblique auxiliary line passing through the center 63 of the right femoral head and the outer edge 64 of the right acetabulum. It becomes.
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the sixth coordinate (step S43).
  • the control unit 41 sets the sixth coordinate (image coordinate system) as one end (upper end) on the hip joint image displayed on the monitor screen of the display unit 43, and the reference auxiliary line M1.
  • a second vertical auxiliary line M4 perpendicular to the reference auxiliary line M1 is drawn with the upper point as the other end (lower end) (step S44), and in the vicinity of the end (upper end) of the second vertical auxiliary line M4.
  • the identification code 73 “L” is displayed (step S45). This makes it possible to identify that the second vertical auxiliary line M4 is a vertical auxiliary line corresponding to the left side of the human body, that is, a vertical auxiliary line passing through the center 65 of the left femoral head.
  • the control unit 41 acquires the coordinates in the image coordinate system corresponding to the position where the mouse button is pressed, and determines the seventh point coordinate (step S46).
  • the control unit 41 obtains the coordinates in the image coordinate system corresponding to the position where the mouse button was pressed, and determines the eighth coordinate (step S47).
  • the control unit 41 causes the seventh coordinate (image coordinate system) and the eighth coordinate (image coordinate system) to be displayed on the hip joint image displayed on the monitor screen of the display unit 43.
  • Is drawn step S48
  • an identification code “L” is placed near the end of the second oblique auxiliary line M5 (the end on the left acetabular outer edge 66 side).
  • 74 is displayed (step S49).
  • the second oblique auxiliary line M5 is an oblique auxiliary line corresponding to the left side of the human body, that is, an oblique auxiliary line passing through the center 65 of the left femoral head and the outer edge 66 of the left acetabulum. It becomes.
  • control unit 41 calculates the angle between the first vertical auxiliary line M2 and the first diagonal auxiliary line M3 as the right CE angle (step S50), and the second vertical auxiliary line M4 and the second diagonal auxiliary line M5. Is calculated as the left CE angle (step S51).
  • the measurement result (the values of the right CE angle and the left CE angle) is displayed on the monitor screen of the display unit 43 by the control unit 41 (step S52).
  • the measurement result “right CE angle 50.2 °, left CE angle 47.3 °” is displayed.
  • control unit 41 determines whether to save the image processing conditions (step S53). For example, when a save button is selected on the monitor screen of the display unit 43 by an operation from the operation unit 42, the image processing conditions are saved.
  • step S53 When the image processing conditions are stored (step S53; YES), the control unit 41 displays the coordinates (image coordinate system) indicating the end points of each drawn auxiliary line and the display contents of the identification code corresponding to each auxiliary line. (“R”, “L”), coordinates indicating the display position of each identification code (image coordinate system), measurement results (values of right CE angle and left CE angle), and the like are transmitted to the image server device 30. (Step S54). If the image processing conditions are not stored (step S53; NO), the processing ends. The image measurement process ⁇ is thus completed.
  • the identification code 71 “R” is displayed in association with the first vertical auxiliary line M2, and “R” is associated with the first oblique auxiliary line M3.
  • the identification code 72 is displayed, the identification code 73 “L” is displayed in correspondence with the second vertical auxiliary line M4, and the identification code 74 “L” is displayed in correspondence with the second diagonal auxiliary line M5. It is possible to identify what each auxiliary line indicates, so that operability in measurement can be improved and misdiagnosis can be prevented.
  • each auxiliary line is drawn.
  • the identification codes 71 to 74 can be displayed without disturbing the above.
  • first vertical auxiliary line M2, the first diagonal auxiliary line M3, the second vertical auxiliary line M4, the second diagonal auxiliary line M5, and the identification codes 71 to 74 are drawn on the hip joint image and output to paper or film. In this case, it is possible to identify what each auxiliary line indicates.
  • the identification code is not limited to an alphabet, and may be a number, a character, a symbol, a figure, or the like.
  • the order in which auxiliary lines are drawn is determined in advance, and the identification code is displayed every time the auxiliary line to which the identification code is to be assigned is drawn.
  • the identification codes may be displayed together after all the auxiliary lines necessary for the drawing are drawn.
  • the positional relationship of each auxiliary line is analyzed to automatically determine what each auxiliary line indicates. An identification code corresponding to the line may be given.
  • the ratio (%) of the distance between the vertical auxiliary line V3 and the vertical auxiliary line V4 to the distance between the vertical auxiliary line V2 and the vertical auxiliary line V4 is calculated as the right AHI, and the vertical auxiliary line V5 and the vertical auxiliary line V7 are calculated.
  • Perpendicular to the vertical extension line V6 While calculating the ratio of the distance between the auxiliary line V7 (%) as a left AHI, in correspondence with each of the vertical auxiliary line V2 ⁇ V7, it may display the identification code indicating the respective site.
  • a ROM is used as a computer-readable medium storing a program for executing each process
  • the present invention is not limited to this example.
  • a non-volatile memory such as a flash memory and a portable recording medium such as a CD-ROM can be applied.
  • a carrier wave may be applied as a medium for providing program data via a communication line.
  • the image measuring apparatus, medical image system, and program according to the present invention may be used in the medical field for measuring numerical values and angles used for diagnosis from medical images.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 計測における操作性を向上させるとともに、誤診を防止する。  側面脊椎画像から圧迫骨折の診断に用いるC/A、C/P及びA/Pを算出する画像計測装置において、モニタ画面に表示された側面脊椎画像上に、計測対象椎体の椎体前部の軸方向の上下端を結ぶ前部補助線La、椎体中部の軸方向の上下端を結ぶ中部補助線Lc、椎体後部の軸方向の上下端を結ぶ後部補助線Lpを描画するとともに、前部補助線Laの両端部の近傍にそれぞれ「A」という識別符号51,52を表示し、中部補助線Lcの両端部の近傍にそれぞれ「C」という識別符号53,54を表示し、後部補助線Lpの両端部の近傍にそれぞれ「P」いう識別符号55,56を表示する。

Description

画像計測装置、医用画像システム及びプログラム
 本発明は、画像計測装置、医用画像システム及びプログラムに関する。
 従来、整形外科等の医療分野の診断において、X線等の放射線により患者を撮影した画像が用いられている。医師は、フィルムに出力した放射線画像を観察読影するとともに、診断に用いる数値や角度を得るために放射線画像上に計測すべき位置を赤鉛筆等でマーキングし、定規や分度器等の計測器具を用いてマーキングされた位置の距離や角度等を計測する。
 近年、医療分野においてもデジタル化が進み、病院内で生成される放射線画像は、ほとんどがデジタル画像としてワークステーション又はPACS(Picture Archiving and Communication System)で保存されている。デジタル画像の場合、画像をモニタ画面上に表示させ、この画面上で計測に用いる線(以下、補助線という。)を手動又は自動で指定することによって、距離や角度等の計測を自動化したり、一度引いた補助線を移動したりすることができるため、医師や放射線技師等の計測に要する負担を大幅に軽減させることが可能となった。
 また、複雑な計測では、1回の計測につき、複数の補助線が描画される場合がある。例えば、脊椎の圧迫骨折を診断する際には、図14に示すように、脊椎を人体の側面から撮影した画像(以下、側面脊椎画像という。)をモニタ画面に表示させ、計測対象となる椎体の人体の前面側に対応する椎体前部(Anterior)の上下端を結ぶ補助線La、人体の背面側に対応する椎体後部(Posterior)の上下端を結ぶ補助線Lp、椎体前部と椎体後部の中間に位置する椎体中部(Center)の上下端を結ぶ補助線Lcを引き、補助線Laの長さA、補助線Lpの長さP、補助線Lcの長さCをそれぞれ測定する。そして、C/A、C/P、A/Pを算出し、C/A、C/Pのいずれかが0.8未満の場合、又は、A/Pが0.75未満の場合に圧迫骨折と判定する。
 また、医用画像から診断に用いるための特徴を示す角度を計測する場合には、角度を形成する2直線の位置を指定する必要がある。描画した2直線の位置を後から調整する際に、一対(ペア)でのみ調整を許可することとすると、一方の直線だけを引き直したり、移動させたりすることができない。そこで、表示部に表示された医用画像上に複数の直線を描画し、描画した2本の直線間の角度を計測する画像計測装置において、描画された各直線を独立して変更・編集・削除することができる技術が提案されている(特許文献1参照)。
特開2006-192104号公報
 しかし、圧迫骨折の診断においては、通常、椎体前部、椎体中部、椎体後部の順に補助線の描画位置を指定するが、ユーザが操作を誤って、逆から椎体後部、椎体中部、椎体前部の順に補助線の描画位置を指定してしまう場合があった。この場合、モニタ画面上では、椎体後部、椎体中部、椎体前部の上下端をそれぞれ結ぶ補助線が描画されるので、正しい順序で補助線が描画された場合と比較して、見た目上の差はないが、1番目に引いた補助線が椎体前部を示し、2番目に引いた補助線が椎体中部を示し、3番目に引いた補助線が椎体後部を示すものとしてC/A、C/P、A/Pが算出されるので、診断を誤るおそれがあった。
 このように、複数の補助線が描画される場合には、各補助線が医用画像上の何を示すものであるかという対応関係を識別することが困難となる場合があった。また、PACSは、登録された複数のユーザによって利用されるため、補助線を描画したユーザ以外のユーザが、補助線が描画された状態の画像を参照する場合もあり、各補助線が何を示すものであるかを識別することができない場合があった。また、医用画像上に補助線が描画された状態で紙にプリントされたり、イメージャにより出力されたりした場合にも、正しく計測が行われたか否かを確認することは困難であった。
 本発明は、上記の従来技術における問題に鑑みてなされたものであって、計測における操作性を向上させるとともに、誤診を防止することを課題とする。
 上記課題を解決するために、請求項1に記載の発明は、医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出する画像計測装置であって、前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段と、前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段と、を備える。
 請求項2に記載の発明は、請求項1に記載の画像計測装置において、前記制御手段は、前記補助線の端部の近傍に前記符号を表示させる。
 請求項3に記載の発明は、医用画像を保存する画像サーバ装置と、当該画像サーバ装置から取得した医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出する画像計測装置とが通信ネットワークを介してデータ通信可能に接続された医用画像システムであって、前記画像計測装置は、前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段と、前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段と、を備える。
 請求項4に記載の発明は、医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出するコンピュータを、前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段、前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段、として機能させるためのプログラムである。
 請求項1、3、4に記載の発明によれば、補助線と対応させて補助線を識別するための符号を表示するので、補助線が何を示すものであるかが識別可能となり、計測における操作性を向上させるとともに、誤診を防止することができる。
 請求項2に記載の発明によれば、補助線の描画を妨げることなく、補助線を識別するための符号を表示することができる。
医用画像システムのシステム構成図である。 画像サーバ装置の機能的構成を示すブロック図である。 計測対象椎体の椎体前部の軸方向の長さ、椎体後部の軸方向の長さ、椎体中部の軸方向の長さを示す図である。 画像計測装置の機能的構成を示すブロック図である。 識別符号の表示方法を説明するための図である。 画像サーバ装置において実行される画像提供処理を示すフローチャートである。 画像計測装置において実行される画像計測処理αを示すフローチャートである。 椎体前部の軸方向上端を指定する際の画面例である。 椎体前部の軸方向下端を指定する際の画面例である。 前部補助線の両端部の近傍に「A」という識別符号が表示された状態の画面例である。 椎体中部の軸方向上端を指定する際の画面例である。 椎体中部の軸方向下端を指定する際の画面例である。 中部補助線の両端部の近傍に「C」という識別符号が表示された状態の画面例である。 椎体後部の軸方向上端を指定する際の画面例である。 椎体後部の軸方向下端を指定する際の画面例である。 後部補助線の両端部の近傍に「P」という識別符号が表示された状態の画面例である。 CE角を説明するための図である。 画像計測装置において実行される画像計測処理βを示すフローチャートである。 画像計測装置において実行される画像計測処理βを示すフローチャートである。 基準補助線の始点を指定する際の画面例である。 基準補助線の終点を指定する際の画面例である。 第一垂直補助線の上端を指定する際の画面例である。 第一垂直補助線の端部の近傍に「R」という識別符号が表示された状態の画面例である。 第一斜め補助線の始点を指定する際の画面例である。 第一斜め補助線の終点を指定する際の画面例である。 第一斜め補助線の端部の近傍に「R」という識別符号が表示された状態の画面例である。 第二垂直補助線の上端を指定する際の画面例である。 第二垂直補助線の端部の近傍に「L」という識別符号が表示された状態の画面例である。 第二斜め補助線の始点を指定する際の画面例である。 第二斜め補助線の終点を指定する際の画面例である。 第二斜め補助線の端部の近傍に「L」という識別符号が表示された状態の画面例である。 脊椎を人体の側面から撮影した画像の例である。
[第1の実施の形態]
 まず、本発明に係る医用画像システムの第1の実施の形態について説明する。
 図1に、第1の実施の形態における医用画像システム100のシステム構成を示す。図1に示すように、医用画像システム100では、RIS(Radiological Information System:放射線情報システム)10、モダリティ20、画像サーバ装置30及び画像計測装置40が、ネットワークNを介してデータ通信可能に接続されている。
 RIS10は、放射線科部門内における診療予約、診断結果のレポート、実績管理、材料在庫管理等の情報管理を行う。RIS10は、撮影や診断の内容を示す検査オーダ情報を生成し、モダリティ20に送信する。
 モダリティ20は、RIS10から送信された検査オーダ情報に基づいて、患者を撮影し、医用画像の画像データを生成する画像生成装置である。モダリティ20は、画像データを画像サーバ装置30に送信する。モダリティ20としては、CR(Computed Radiography)装置、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等が用いられる。
 画像サーバ装置30は、PACSにより構成され、モダリティ20から受信した医用画像の画像ファイル361(図2参照)を保存し、画像計測装置40等の外部機器からの要求に応じて画像ファイル361を提供する。
 図2に、画像サーバ装置30の機能的構成を示す。図2に示すように、画像サーバ装置30は、制御部31、操作部32、表示部33、通信部34、ROM(Read Only Memory)35、記憶部36を備えて構成され、各部はバス37により接続されている。
 制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等から構成され、画像サーバ装置30の各部の処理動作を統括的に制御する。具体的には、CPUは、操作部32から入力される操作信号又は通信部34により受信される指示信号に応じて、ROM35に記憶されている各種処理プログラムを読み出し、RAM内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
 操作部32は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部31に出力する。
 表示部33は、LCD(Liquid Crystal Display)により構成され、制御部31から入力される表示データに基づいて各種画面を表示する。
 通信部34は、RIS10、モダリティ20、画像計測装置40等の外部機器との間でデータの送受信を行うインターフェースである。
 ROM35は、不揮発性の半導体メモリ等により構成され、制御プログラム、当該プログラムの実行に必要なパラメータやファイル等を記憶している。
 記憶部36は、ハードディスク等により構成され、各種データを記憶する。具体的には、記憶部36には、画像ファイル361、画像処理条件ファイル362、DB(Data Base)363等が記憶される。
 画像ファイル361は、モダリティ20から受信した医用画像の画像データのファイルである。画像ファイル361として、例えば、脊椎を人体の側面から撮影した側面脊椎画像(図14参照)のファイルが保存されている。
 画像処理条件ファイル362は、画像処理条件を保存するためのファイルである。画像処理条件には、階調処理、拡大率、アノテーションの種類、補助線の描画位置を示す座標、線の太さ、線種(実線、破線等)、各補助線を識別するための符号の表示位置を示す座標等の情報が含まれる。また、側面脊椎画像の場合には、図3に示すように、計測対象椎体の人体の前面側に対応する椎体前部の軸方向の長さをA、人体の背面側に対応する椎体後部の軸方向の長さをP、椎体前部と椎体後部の中間に位置する椎体中部の軸方向の長さをCとして、C/A、C/P及びA/Pを算出した計測結果も画像処理条件に含まれる。なお、画像処理条件には、システム独自の画像処理条件の他、DICOM(Digital Imaging and Communications in Medicine)規格のGSPS(Grayscale Softcopy Presentation State)準拠の画像の表示状態を示すパラメータが含まれていてもよい。
 DB363は、医用画像とその医用画像に施されている画像処理条件とを対応付けるためのものであり、画像テーブル364、画像処理条件テーブル365を含む。画像テーブル364には、画像ファイル361のそれぞれに対して、画像処理条件テーブル365の外部キーが設定されている。画像処理条件テーブル365には、画像テーブル364において参照されるキーのそれぞれに対して、画像処理条件ファイル362のパスが対応付けられている。
 制御部31は、画像計測装置40から画像ファイル361の取得要求があった場合に、要求された画像ファイル361を記憶部36から読み出し、画像計測装置40に送信する。また、制御部31は、画像計測装置40から画像処理条件を受信した場合に、受信した画像処理条件を画像処理条件ファイル362に保存し、画像ファイル361との対応関係をDB363に登録する。
 画像計測装置40は、画像サーバ装置30から取得した医用画像を表示させ、当該医用画像の診断に用いる数値や角度等の計測結果を算出するための装置であって、PC(Personal Computer)等から構成される。例えば、画像計測装置40は、側面脊椎画像においては、圧迫骨折の診断に用いるC/A、C/P及びA/Pを算出する。
 図4に、画像計測装置40の機能的構成を示す。図4に示すように、画像計測装置40は、制御部41、操作部42、表示部43、通信部44、ROM45、記憶部46を備え、各部はバス47により接続されている。
 制御部41は、CPU、RAM等から構成され、画像計測装置40の各部の処理動作を統括的に制御する。具体的には、CPUは、操作部42から入力される操作信号又は通信部44により受信される指示信号に応じて、ROM45に記憶されている各種処理プログラムを読み出し、RAM内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
 操作部42は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部41に出力する。操作部42は、表示部43のモニタ画面に表示された側面脊椎画像においてC/A、C/P及びA/Pの計測用の補助線を描画する位置を指定する際に用いられる。
 表示部43は、LCDにより構成され、制御部41から入力される表示データに基づいて各種画面を表示する。具体的には、表示部43は、側面脊椎画像等の医用画像を表示する。
 通信部44は、画像サーバ装置30等の外部機器との間でデータの送受信を行うインターフェースである。
 ROM45は、不揮発性の半導体メモリ等により構成され、制御プログラム、当該プログラムの実行に必要なパラメータやファイル等を記憶している。
 記憶部46は、ハードディスク等により構成され、各種データを記憶する。
 制御部41は、通信部44を介して、画像サーバ装置30に対して、記憶部36に記憶されている医用画像の画像ファイル361の取得要求を送信し、画像サーバ装置30から医用画像の画像ファイル361を取得する。制御部41は、取得した医用画像の画像ファイル361に基づいて、表示部43のモニタ画面に医用画像を表示させる。第1の実施の形態では、側面脊椎画像の画像ファイル361を取得し、表示部43のモニタ画面に側面脊椎画像を表示させる場合について説明する。
 制御部41は、操作部42のマウスからの操作に基づいて、表示部43のモニタ画面に表示された側面脊椎画像上に、椎体前部の軸方向の上下端を結ぶ補助線(以下、前部補助線という。)La、椎体中部の軸方向の上下端を結ぶ補助線(以下、中部補助線という。)Lc、椎体後部の軸方向の上下端を結ぶ補助線(以下、後部補助線という。)Lpを順に描画する。
 また、制御部41は、表示部43のモニタ画面に表示された側面脊椎画像上に、各補助線と対応させて各補助線を識別するための符号(以下、識別符号という。)を表示させる。具体的には、図5に示すように、制御部41は、前部補助線Laの両端部の近傍にそれぞれ「A」という識別符号51,52を表示させ、中部補助線Lcの両端部の近傍にそれぞれ「C」という識別符号53,54を表示させ、後部補助線Lpの両端部の近傍にそれぞれ「P」いう識別符号55,56を表示させる。
 ここで、「近傍」とは、補助線との対応関係が認識できる範囲の距離をいい、補助線が複数ある場合には、他の補助線からの距離よりも小さい範囲をいう。例えば、制御部41は、図5に示すように、表示すべき識別符号51~56のサイズを取得し、幅wと高さhを算出する。そして、補助線の延長線上で、補助線の端部から(幅wと高さhのうち大きい方の値)/2の距離だけ離れた位置に識別符号51~56の中心位置を配置する。
 制御部41は、描画された各補助線の長さに基づいて、C/A、C/P及びA/Pを算出する。具体的には、制御部41は、
 C/A=(中部補助線Lcの長さ)/(前部補助線Laの長さ)
 C/P=(中部補助線Lcの長さ)/(後部補助線Lpの長さ)
 A/P=(前部補助線Laの長さ)/(後部補助線Lpの長さ)
により、各値を算出する。
 なお、補助線や識別符号の位置を示す際には、画像座標系における座標(x,y)を用いる。画像座標系とは、画像ファイル361に固有の画像上における座標系をいう。
 次に、動作を説明する。
 図6は、画像サーバ装置30において実行される画像提供処理を示すフローチャートである。この処理は、画像計測装置40に対して計測対象となる医用画像を提供する処理であって、制御部31のCPUと、ROM35に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 まず、通信部34により、画像計測装置40から画像ファイル361の取得要求が受信された場合には(ステップS1;YES)、制御部31により、要求された画像ファイル361が記憶部36から読み出され、通信部34を介して画像計測装置40に送信される(ステップS2)。
 次に、通信部34により、画像計測装置40から画像処理条件が受信された場合には(ステップS3;YES)、制御部31により、受信した画像処理条件が記憶部36の画像処理条件ファイル362に保存され、計測対象の画像ファイル361との対応関係がDB363に登録される(ステップS4)。
 以上で、画像提供処理が終了する。
 図7は、画像計測装置40において実行される画像計測処理αを示すフローチャートである。この処理は、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 まず、操作部42からの操作により、計測対象となる側面脊椎画像の画像ファイル361が選択され、制御部41の制御に従って、通信部44により、画像サーバ装置30に対して、選択された側面脊椎画像の画像ファイル361の取得要求が送信される。そして、制御部41により、通信部44を介して、画像サーバ装置30から側面脊椎画像の画像ファイル361が取得される(ステップS11)。そして、制御部41により、取得された側面脊椎画像の画像ファイル361に基づいて、表示部43のモニタ画面に側面脊椎画像が表示される(ステップS12)。
 次に、図8Aに示すように、計測対象椎体の椎体前部の軸方向上端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体前部の上端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、1点目の座標が決定される(ステップS13)。なお、図8Aには側面脊椎画像を破線で示したが、以下の図では省略する。
 次に、図8Bに示すように、椎体前部の軸方向下端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体前部の下端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、2点目の座標が決定される(ステップS14)。
 そして、図8Cに示すように、制御部41により、表示部43のモニタ画面に表示された側面脊椎画像上に、1点目の座標(画像座標系)と2点目の座標(画像座標系)とを結ぶ前部補助線Laが描画されるとともに(ステップS15)、前部補助線Laの両端部の近傍にそれぞれ「A」という識別符号51,52が表示される(ステップS16)。これにより、前部補助線Laが椎体前部の軸方向の上下端を結ぶ補助線であることが識別可能となる。
 次に、図8Dに示すように、計測対象椎体の椎体中部の軸方向上端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体中部の上端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、3点目の座標が決定される(ステップS17)。
 次に、図8Eに示すように、椎体中部の軸方向下端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体中部の下端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、4点目の座標が決定される(ステップS18)。
 そして、図8Fに示すように、制御部41により、表示部43のモニタ画面に表示された側面脊椎画像上に、3点目の座標(画像座標系)と4点目の座標(画像座標系)とを結ぶ中部補助線Lcが描画されるとともに(ステップS19)、中部補助線Lcの両端部の近傍にそれぞれ「C」という識別符号53,54が表示される(ステップS20)。これにより、中部補助線Lcが椎体中部の軸方向の上下端を結ぶ補助線であることが識別可能となる。
 次に、図9Aに示すように、計測対象椎体の椎体後部の軸方向上端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体後部の上端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、5点目の座標が決定される(ステップS21)。
 次に、図9Bに示すように、椎体後部の軸方向下端にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、椎体後部の下端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、6点目の座標が決定される(ステップS22)。
 そして、図9Cに示すように、制御部41により、表示部43のモニタ画面に表示された側面脊椎画像上に、5点目の座標(画像座標系)と6点目の座標(画像座標系)とを結ぶ後部補助線Lpが描画されるとともに(ステップS23)、後部補助線Lpの両端部の近傍にそれぞれ「P」という識別符号55,56が表示される(ステップS24)。これにより、後部補助線Lpが椎体後部の軸方向の上下端を結ぶ補助線であることが識別可能となる。
 次に、制御部41により、描画された前部補助線La、中部補助線Lc、後部補助線Lpの長さに基づいて、C/A、C/P及びA/Pが算出される(ステップS25)。
 次に、制御部41により、表示部43のモニタ画面に計測結果(C/A、C/P及びA/Pの値)が表示される(ステップS26)。図9Cに示す例では、「C/A 0.93、C/P 0.88、A/P 0.95」と表示されている。
 次に、制御部41により、画像処理条件を保存するか否かが判断される(ステップS27)。例えば、操作部42からの操作により、表示部43のモニタ画面上で保存ボタンが選択された場合には、画像処理条件が保存される。
 画像処理条件を保存する場合には(ステップS27;YES)、制御部41により、描画された各補助線の始点及び終点を示す座標(画像座標系)、各補助線に対応する識別符号の表示内容(「A」、「C」、「P」)、各識別符号の表示位置を示す座標(画像座標系)、計測結果(C/A、C/P及びA/Pの値)等の画像処理条件が画像サーバ装置30に送信される(ステップS28)。画像処理条件を保存しない場合には(ステップS27;NO)、そのまま処理が終了する。
 以上で、画像計測処理αが終了する。
 以上説明したように、第1の実施の形態によれば、前部補助線Laと対応させて「A」という識別符号51,52を表示し、中部補助線Lcと対応させて「C」という識別符号53,54を表示し、後部補助線Lpと対応させて「P」いう識別符号55,56を表示するので、各補助線が何を示すものであるかが識別可能となり、計測における操作性を向上させるとともに、誤診を防止することができる。
 また、前部補助線La、中部補助線Lc、後部補助線Lpの端部の近傍に識別符号51~56を表示するので、各補助線の描画を妨げることなく、識別符号51~56を表示することができる。
 また、側面脊椎画像上に前部補助線La、中部補助線Lc、後部補助線Lp及び識別符号51~56が描画された状態で紙やフィルムに出力した場合にも、各補助線が何を示すものであるかが識別可能となる。
[第2の実施の形態]
 次に、本発明を適用した第2の実施の形態について説明する。
 第2の実施の形態における医用画像システムは、第1の実施の形態に示した医用画像システム100と同様の構成によってなるため、同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
 第2の実施の形態では、計測対象がCE角(Central-edge angle)である場合について説明する。CE角は、変形性股関節症(臼蓋形成不全)の診断に用いられる。変形性股関節症の症状として、股関節痛、運動痛、可動域制限、歩行障害等の日常生活動作の障害が挙げられる。CE角は、大腿骨頭の中心を通る垂直線と、その中心と臼蓋外側縁とを通る線とのなす角度をいう。正常値は25度以上であり、10度未満では股関節症へと進行しやすい。
 図10に、左右の股関節部を人体の前面側からX線撮影した股関節画像の例を示す。図10において左側が人体の右側に相当し、図10において右側が人体の左側に相当する。CE角を計測する際には、まず、股関節画像をモニタ画面に表示させ、モニタ画面上で右涙痕下端61と左涙痕下端62とを通る基準補助線M1、右大腿骨頭の中心63を通り基準補助線M1に垂直な第一垂直補助線M2、右大腿骨頭の中心63と右臼蓋外側縁64とを通る第一斜め補助線M3、左大腿骨頭の中心65を通り基準補助線M1に垂直な第二垂直補助線M4、左大腿骨頭の中心65と左臼蓋外側縁66とを通る第二斜め補助線M5を引く。第一垂直補助線M2と第一斜め補助線M3とのなす角度θ1が右CE角であり、第二垂直補助線M4と第二斜め補助線M5とのなす角度θ2が左CE角である。
 画像サーバ装置30の記憶部36には、画像ファイル361として、左右の股関節部を人体の前面側から撮影した股関節画像のファイルが保存されている。画像処理条件ファイル362には、更に、股関節画像から計測された右CE角及び左CE角の値が含まれる。
 画像計測装置40の操作部42は、表示部43のモニタ画面に表示された股関節画像においてCE角計測用の補助線を描画する位置を指定する際に用いられる。表示部43は、股関節画像等の医用画像を表示する。
 制御部41は、股関節画像の画像ファイル361を取得し、表示部43のモニタ画面に股関節画像を表示させる。
 制御部41は、操作部42のマウスからの操作に基づいて、表示部43のモニタ画面に表示された股関節画像上に、右涙痕下端61と左涙痕下端62とを通る基準補助線M1、右大腿骨頭の中心63を通り基準補助線M1に垂直な第一垂直補助線M2、右大腿骨頭の中心63と右臼蓋外側縁64とを通る第一斜め補助線M3、左大腿骨頭の中心65を通り基準補助線M1に垂直な第二垂直補助線M4、及び、左大腿骨頭の中心65と左臼蓋外側縁66とを通る第二斜め補助線M5を順に描画する。
 各補助線を描画する際に、ユーザは操作部42から基準補助線M1の始点(1点目)及び終点(2点目)、第一垂直補助線M2の上端(3点目)、第一斜め補助線M3の始点(4点目)及び終点(5点目)、第二垂直補助線M4の上端(6点目)、第二斜め補助線M5の始点(7点目)及び終点(8点目)を指定する。ここで、第一垂直補助線M2及び第二垂直補助線M4の上端とは、モニタ画面上における上端をいう。第一垂直補助線M2及び第二垂直補助線M4は、基準補助線M1に垂直な線であるため、上端の位置を指定すれば、上端位置から基準補助線M1に垂線を下ろすことにより、第一垂直補助線M2及び第二垂直補助線M4を描画することができる。
 また、制御部41は、各補助線を描画する際に、各補助線と対応させて識別符号を表示させる。具体的には、制御部41は、第一垂直補助線M2の端部(第一垂直補助線M2の上端に相当する端部)の近傍に、人体の右側に対応することを示す「R」という識別符号71(図13F参照)を表示させる。また、制御部41は、第一斜め補助線M3の端部(右大腿骨頭の中心63より右臼蓋外側縁64に近い方の端部)の近傍に、人体の右側に対応することを示す「R」という識別符号72(図13F参照)を表示させる。また、制御部41は、第二垂直補助線M4の端部(第二垂直補助線M4の上端に相当する端部)の近傍に、人体の左側に対応することを示す「L」という識別符号73(図13F参照)を表示させる。また、制御部41は、第二斜め補助線M5の端部(左大腿骨頭の中心65より左臼蓋外側縁66側に近い方の端部)の近傍に、人体の左側に対応することを示す「L」という識別符号74(図13F参照)を表示させる。
 制御部41は、描画された第一垂直補助線M2と第一斜め補助線M3とのなす角度を右CE角として算出し、描画された第二垂直補助線M4と第二斜め補助線M5とのなす角度を左CE角として算出する。
 次に、動作を説明する。
 図11A及び図11Bは、画像計測装置40において実行される画像計測処理βを示すフローチャートである。この処理は、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 まず、操作部42からの操作により、計測対象となる股関節画像の画像ファイル361が選択され、制御部41の制御に従って、通信部44により、画像サーバ装置30に対して、選択された股関節画像の画像ファイル361の取得要求が送信される。そして、制御部41により、通信部44を介して、画像サーバ装置30から股関節画像の画像ファイル361が取得される(ステップS31)。そして、制御部41により、取得された股関節画像の画像ファイル361に基づいて、表示部43のモニタ画面に股関節画像が表示される(ステップS32)。
 次に、図12Aに示すように、基準補助線M1の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、基準補助線M1の始点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、1点目の座標が決定される(ステップS33)。なお、図12Aには股関節画像を破線で示したが、以下の図では省略する。
 次に、図12Bに示すように、基準補助線M1の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、基準補助線M1の終点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、2点目の座標が決定される(ステップS34)。
 そして、制御部41により、表示部43のモニタ画面に表示された股関節画像上に、1点目の座標(画像座標系)と2点目の座標(画像座標系)とを結ぶ基準補助線M1が描画される(ステップS35)。
 次に、図12Cに示すように、第一垂直補助線M2の上端となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第一垂直補助線M2の上端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、3点目の座標が決定される(ステップS36)。
 そして、制御部41により、図12Dに示すように、表示部43のモニタ画面に表示された股関節画像上に、3点目の座標(画像座標系)を一端(上端)とし、基準補助線M1上の点を他端(下端)とする、基準補助線M1に垂直な第一垂直補助線M2が描画されるとともに(ステップS37)、第一垂直補助線M2の端部(上端)の近傍に「R」という識別符号71が表示される(ステップS38)。これにより、第一垂直補助線M2が人体の右側に対応する垂直補助線であること、すなわち、右大腿骨頭の中心63を通る垂直補助線であることが識別可能となる。
 次に、図12Eに示すように、第一斜め補助線M3の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第一斜め補助線M3の始点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、4点目の座標が決定される(ステップS39)。
 次に、図12Fに示すように、第一斜め補助線M3の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第一斜め補助線M3の終点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、5点目の座標が決定される(ステップS40)。
 そして、図13Aに示すように、制御部41により、表示部43のモニタ画面に表示されている股関節画像上に、4点目の座標(画像座標系)と5点目の座標(画像座標系)とを結ぶ第一斜め補助線M3が描画されるとともに(ステップS41)、第一斜め補助線M3の端部(右臼蓋外側縁64側の端部)の近傍に「R」という識別符号72が表示される(ステップS42)。これにより、第一斜め補助線M3が人体の右側に対応する斜め補助線であること、すなわち、右大腿骨頭の中心63と右臼蓋外側縁64とを通る斜め補助線であることが識別可能となる。
 次に、図13Bに示すように、第二垂直補助線M4の上端となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第二垂直補助線M4の上端位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、6点目の座標が決定される(ステップS43)。
 そして、制御部41により、図13Cに示すように、表示部43のモニタ画面に表示された股関節画像上に、6点目の座標(画像座標系)を一端(上端)とし、基準補助線M1上の点を他端(下端)とする、基準補助線M1に垂直な第二垂直補助線M4が描画されるとともに(ステップS44)、第二垂直補助線M4の端部(上端)の近傍に「L」という識別符号73が表示される(ステップS45)。これにより、第二垂直補助線M4が人体の左側に対応する垂直補助線であること、すなわち、左大腿骨頭の中心65を通る垂直補助線であることが識別可能となる。
 次に、図13Dに示すように、第二斜め補助線M5の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第二斜め補助線M5の始点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、7点目の座標が決定される(ステップS46)。
 次に、図13Eに示すように、第二斜め補助線M5の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、第二斜め補助線M5の終点位置が指定されると、制御部41により、マウスボタンが押下された位置に対応する画像座標系における座標が取得され、8点目の座標が決定される(ステップS47)。
 そして、図13Fに示すように、制御部41により、表示部43のモニタ画面に表示されている股関節画像上に、7点目の座標(画像座標系)と8点目の座標(画像座標系)とを結ぶ第二斜め補助線M5が描画されるとともに(ステップS48)、第二斜め補助線M5の端部(左臼蓋外側縁66側の端部)の近傍に「L」という識別符号74が表示される(ステップS49)。これにより、第二斜め補助線M5が人体の左側に対応する斜め補助線であること、すなわち、左大腿骨頭の中心65と左臼蓋外側縁66とを通る斜め補助線であることが識別可能となる。
 次に、制御部41により、第一垂直補助線M2と第一斜め補助線M3とのなす角度が右CE角として算出され(ステップS50)、第二垂直補助線M4と第二斜め補助線M5とのなす角度が左CE角として算出される(ステップS51)。
 次に、制御部41により、表示部43のモニタ画面に計測結果(右CE角及び左CE角の値)が表示される(ステップS52)。図13Fの例では、「右CE角50.2° 左CE角47.3°」と表示されている。
 次に、制御部41により、画像処理条件を保存するか否かが判断される(ステップS53)。例えば、操作部42からの操作により、表示部43のモニタ画面上で保存ボタンが選択された場合には、画像処理条件が保存される。
 画像処理条件を保存する場合には(ステップS53;YES)、制御部41により、描画された各補助線の両端点を示す座標(画像座標系)、各補助線に対応する識別符号の表示内容(「R」、「L」)、各識別符号の表示位置を示す座標(画像座標系)、計測結果(右CE角及び左CE角の値)等の画像処理条件が画像サーバ装置30に送信される(ステップS54)。画像処理条件を保存しない場合には(ステップS53;NO)、そのまま処理が終了する。
 以上で、画像計測処理βが終了する。
 以上説明したように、第2の実施の形態によれば、第一垂直補助線M2と対応させて「R」という識別符号71を表示し、第一斜め補助線M3と対応させて「R」という識別符号72を表示し、第二垂直補助線M4と対応させて「L」という識別符号73を表示し、第二斜め補助線M5と対応させて「L」という識別符号74を表示するので、各補助線が何を示すものであるかが識別可能となり、計測における操作性を向上させるとともに、誤診を防止することができる。
 また、第一垂直補助線M2、第一斜め補助線M3、第二垂直補助線M4、第二斜め補助線M5の端部の近傍に識別符号71~74を表示するので、各補助線の描画を妨げることなく、識別符号71~74を表示することができる。
 また、股関節画像上に第一垂直補助線M2、第一斜め補助線M3、第二垂直補助線M4、第二斜め補助線M5及び識別符号71~74が描画された状態で紙やフィルムに出力した場合にも、各補助線が何を示すものであるかが識別可能となる。
 なお、上記各実施の形態における記述は、本発明に係る医用画像システムの一例であり、これに限定されるものではない。システムを構成する各装置の細部構成及び細部動作に関しても適宜変更可能である。
 例えば、上記各実施の形態では、識別符号としてアルファベットを用いた場合について説明したが、識別符号はアルファベットに限らず、数字、文字、記号、図形等でもよい。
 また、上記各実施の形態では、補助線を描画する順序が予め定められており、識別符号を付与すべき補助線が描画される度に識別符号を表示することとしたが、1回の計測に必要な全ての補助線が描画された後にまとめて識別符号を表示することとしてもよい。また、1回の計測に必要な全ての補助線が描画された後に、各補助線の位置関係を解析して、自動的に各補助線が何を示すものであるかを判別し、各補助線に対応する識別符号を付与することとしてもよい。
 また、上記各実施の形態では、側面脊椎画像からC/A、C/P及びA/Pを算出する場合、股関節画像からCE角を算出する場合について説明したが、計測対象とする医用画像や計測対象値については、あらゆるものに適用可能である。
[コブ角]
 脊椎を人体の正面から撮影した正面脊椎画像からコブ角を算出する場合には、湾曲部の上下端にある終椎の上位終椎の軸方向上端に沿って補助線を描画し、下位終椎の軸方向下端に沿って補助線を描画して、各補助線のなす角度を算出するが、頭尾方向(人体の頭から足に向かう方向)の順に、各補助線と対応させて、「1」、「2」、・・・という識別符号を表示することとしてもよい。
[骨頭下降率]
 上腕骨頭及び関節窩を含む肩画像から骨頭下降率を算出する場合には、関節窩の上端を通る水平な補助線、関節窩の下端を通る水平な補助線、上腕骨頭の下端を通る水平な補助線を描画し、関節窩の上端を通る補助線と関節窩の下端を通る補助線との距離に対する関節窩の下端を通る補助線と上腕骨頭の下端を通る補助線との距離の割合(%)を算出するが、各補助線と対応させて、各部位を示す識別符号を表示することとしてもよい。
[シャープ角]
 左右の股関節部を人体の前面側から撮影した股関節画像からシャープ角を算出する場合には、左右の涙痕下端を通る基準補助線、右涙痕下端と右臼蓋外側縁とを通る右斜め補助線、左涙痕下端と左臼蓋外側縁とを通る左斜め補助線を描画し、基準補助線と右斜め補助線とのなす角度を右シャープ角として算出し、基準補助線と左斜め補助線とのなす角度を左シャープ角として算出するが、各斜め補助線と対応させて、左右を示す識別符号を表示することとしてもよい。
[AHI]
 左右の股関節部を人体の前面側から撮影した股関節画像からAHIを算出する場合には、左右の涙痕下端を通る基準補助線V1、右大腿骨頭外側端を通り基準補助線V1に垂直な垂直補助線V2、右臼蓋縁外側端を通り基準補助線V1に垂直な垂直補助線V3、右大腿骨頭内側端を通り基準補助線V1に垂直な垂直補助線V4、左大腿骨頭外側端を通り基準補助線V1に垂直な垂直補助線V5、左臼蓋縁外側端を通り基準補助線V1に垂直な垂直補助線V6、左大腿骨頭内側端を通り基準補助線V1に垂直な垂直補助線V7を描画し、垂直補助線V2と垂直補助線V4との距離に対する垂直補助線V3と垂直補助線V4との距離の割合(%)を右AHIとして算出し、垂直補助線V5と垂直補助線V7との距離に対する垂直補助線V6と垂直補助線V7との距離の割合(%)を左AHIとして算出するが、各垂直補助線V2~V7と対応させて、各部位を示す識別符号を表示することとしてもよい。
[横倉法]
 足部を側面側から撮影した足立位側面画像において横倉法による計測を行う場合には、内側種子骨の下縁位置と踵骨隆起端位置とを結ぶ基準補助線V11を描画し、距骨と舟状骨の関節の中点位置、舟状骨と楔状骨の関節の中点位置、楔状骨と中足骨の関節の中点位置、踵立方関節の前下端位置、立方骨の下縁位置、第五中足骨の下縁位置のそれぞれを一端とし、基準補助線V11上の点を他端とする、基準補助線V11に垂直な垂直補助線V12,V13,V14,V15,V16,V17を描画し、垂直補助線V12~V17の長さ、及び、基準補助線V11の長さに対する各垂直補助線V12~V17の長さの割合(%)をそれぞれ算出するが、各垂直補助線V12~V17と対応させて、各部位を示す識別符号を表示することとしてもよい。
 以上の説明では、各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリ等の不揮発性メモリ、CD-ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。
 本発明に係る画像計測装置、医用画像システム及びプログラムは、医用画像から診断に用いる数値や角度を計測する医療分野において利用可能性がある。
符号の説明
10 RIS
20 モダリティ
30 画像サーバ装置
31 制御部
32 操作部
33 表示部
34 通信部
35 ROM
36 記憶部
 361 画像ファイル
 362 画像処理条件ファイル
 363 DB
 364 画像テーブル
 365 画像処理条件テーブル
37 バス
40 画像計測装置
41 制御部
42 操作部
43 表示部
44 通信部
45 ROM
46 記憶部
47 バス
51,52,53,54,55,56 識別符号
71,72,73,74 識別符号
100 医用画像システム
N ネットワーク
MC マウスカーソル
La 前部補助線
Lc 中部補助線
Lp 後部補助線
M1 基準補助線
M2 第一垂直補助線
M3 第一斜め補助線
M4 第二垂直補助線
M5 第二斜め補助線

Claims (4)

  1.  医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出する画像計測装置であって、
     前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段と、
     前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段と、
     を備える画像計測装置。
  2.  前記制御手段は、前記補助線の端部の近傍に前記符号を表示させる、
     請求項1に記載の画像計測装置。
  3.  医用画像を保存する画像サーバ装置と、当該画像サーバ装置から取得した医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出する画像計測装置とが通信ネットワークを介してデータ通信可能に接続された医用画像システムであって、
     前記画像計測装置は、
     前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段と、
     前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段と、
     を備える医用画像システム。
  4.  医用画像を表示手段のモニタ画面に表示させ、当該表示された医用画像から計測結果を算出するコンピュータを、
     前記モニタ画面に表示された医用画像において計測用の補助線を描画する位置を指定するための操作手段、
     前記モニタ画面に表示された医用画像上に前記補助線を前記操作手段からの操作に基づいて描画するとともに、当該補助線と対応させて当該補助線を識別するための符号を表示させ、前記補助線に基づいて前記計測結果を算出する制御手段、
     として機能させるためのプログラム。
PCT/JP2009/052633 2008-03-26 2009-02-17 画像計測装置、医用画像システム及びプログラム WO2009119181A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-080871 2008-03-26
JP2008080871A JP2011115187A (ja) 2008-03-26 2008-03-26 画像計測装置、医用画像システム及びプログラム

Publications (1)

Publication Number Publication Date
WO2009119181A1 true WO2009119181A1 (ja) 2009-10-01

Family

ID=41113389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052633 WO2009119181A1 (ja) 2008-03-26 2009-02-17 画像計測装置、医用画像システム及びプログラム

Country Status (2)

Country Link
JP (1) JP2011115187A (ja)
WO (1) WO2009119181A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102920460A (zh) * 2012-10-18 2013-02-13 夏和桃 一种下肢矫形尺
JP5883147B2 (ja) * 2012-08-28 2016-03-09 株式会社日立メディコ 画像表示装置及び医用画像撮像装置
US10045824B2 (en) 2013-10-18 2018-08-14 Medicrea International Methods, systems, and devices for designing and manufacturing a rod to support a vertebral column of a patient
US10292770B2 (en) 2017-04-21 2019-05-21 Medicrea International Systems, methods, and devices for developing patient-specific spinal treatments, operations, and procedures
US10318655B2 (en) 2013-09-18 2019-06-11 Medicrea International Method making it possible to produce the ideal curvature of a rod of vertebral osteosynthesis material designed to support a patient's vertebral column
US10456211B2 (en) 2015-11-04 2019-10-29 Medicrea International Methods and apparatus for spinal reconstructive surgery and measuring spinal length and intervertebral spacing, tension and rotation
US10918422B2 (en) 2017-12-01 2021-02-16 Medicrea International Method and apparatus for inhibiting proximal junctional failure
US11612436B2 (en) 2016-12-12 2023-03-28 Medicrea International Systems, methods, and devices for developing patient-specific medical treatments, operations, and procedures
US11769251B2 (en) 2019-12-26 2023-09-26 Medicrea International Systems and methods for medical image analysis
US11877801B2 (en) 2019-04-02 2024-01-23 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11925417B2 (en) 2019-04-02 2024-03-12 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101124144B1 (ko) 2011-05-04 2012-03-21 강석중 척추변형 측정시스템
JP2022181902A (ja) * 2021-05-27 2022-12-08 国立大学法人北海道大学 骨関節疾患の画像診断装置、画像診断装置の作動方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105604A (ja) * 2002-09-20 2004-04-08 Asahi Roentgen Kogyo Kk 頭部x線規格画像の計測処理方法および計測処理装置ならびに計測処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2006192104A (ja) * 2005-01-14 2006-07-27 Konica Minolta Medical & Graphic Inc 画像計測装置及び画像計測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105604A (ja) * 2002-09-20 2004-04-08 Asahi Roentgen Kogyo Kk 頭部x線規格画像の計測処理方法および計測処理装置ならびに計測処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2006192104A (ja) * 2005-01-14 2006-07-27 Konica Minolta Medical & Graphic Inc 画像計測装置及び画像計測方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5883147B2 (ja) * 2012-08-28 2016-03-09 株式会社日立メディコ 画像表示装置及び医用画像撮像装置
JPWO2014034294A1 (ja) * 2012-08-28 2016-08-08 株式会社日立メディコ 画像表示装置及び医用画像撮像装置
CN102920460B (zh) * 2012-10-18 2014-04-02 夏和桃 一种下肢矫形尺
CN102920460A (zh) * 2012-10-18 2013-02-13 夏和桃 一种下肢矫形尺
US10318655B2 (en) 2013-09-18 2019-06-11 Medicrea International Method making it possible to produce the ideal curvature of a rod of vertebral osteosynthesis material designed to support a patient's vertebral column
US10970426B2 (en) 2013-09-18 2021-04-06 Medicrea International SA Methods, systems, and devices for designing and manufacturing a spinal rod
US12019955B2 (en) 2013-09-18 2024-06-25 Medicrea International Method making it possible to produce the ideal curvature of a rod of vertebral osteosynthesis material designed to support a patient's vertebral column
US10413365B1 (en) 2013-10-18 2019-09-17 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US11197718B2 (en) 2013-10-18 2021-12-14 Medicrea Iniernational Methods, systems, and devices for designing and manufacturing a spinal rod
US10420615B1 (en) 2013-10-18 2019-09-24 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10426553B2 (en) 2013-10-18 2019-10-01 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10433912B1 (en) 2013-10-18 2019-10-08 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10433913B2 (en) 2013-10-18 2019-10-08 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10441363B1 (en) 2013-10-18 2019-10-15 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10314657B2 (en) 2013-10-18 2019-06-11 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US11918295B2 (en) 2013-10-18 2024-03-05 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10045824B2 (en) 2013-10-18 2018-08-14 Medicrea International Methods, systems, and devices for designing and manufacturing a rod to support a vertebral column of a patient
US10973582B2 (en) 2013-10-18 2021-04-13 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US11197719B2 (en) 2013-10-18 2021-12-14 Medicrea International Methods, systems, and devices for designing and manufacturing a spinal rod
US10456211B2 (en) 2015-11-04 2019-10-29 Medicrea International Methods and apparatus for spinal reconstructive surgery and measuring spinal length and intervertebral spacing, tension and rotation
US11612436B2 (en) 2016-12-12 2023-03-28 Medicrea International Systems, methods, and devices for developing patient-specific medical treatments, operations, and procedures
US11185369B2 (en) 2017-04-21 2021-11-30 Medicrea Nternational Systems, methods, and devices for developing patient-specific spinal treatments, operations, and procedures
US12004814B2 (en) 2017-04-21 2024-06-11 Medicrea International Systems, methods, and devices for developing patient-specific spinal treatments, operations, and procedures
US10292770B2 (en) 2017-04-21 2019-05-21 Medicrea International Systems, methods, and devices for developing patient-specific spinal treatments, operations, and procedures
US10918422B2 (en) 2017-12-01 2021-02-16 Medicrea International Method and apparatus for inhibiting proximal junctional failure
US11877801B2 (en) 2019-04-02 2024-01-23 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11925417B2 (en) 2019-04-02 2024-03-12 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11769251B2 (en) 2019-12-26 2023-09-26 Medicrea International Systems and methods for medical image analysis

Also Published As

Publication number Publication date
JP2011115187A (ja) 2011-06-16

Similar Documents

Publication Publication Date Title
WO2009119181A1 (ja) 画像計測装置、医用画像システム及びプログラム
JP7203148B2 (ja) 術中画像分析のためのシステム及び方法
CN110097933B (zh) 用于由医学图像数据生成患者专用整形外科计划的方法或系统
Segev et al. Intra-and interobserver reliability analysis of digital radiographic measurements for pediatric orthopedic parameters using a novel PACS integrated computer software program
JP2005103055A (ja) 医用画像処理装置
US20070174769A1 (en) System and method of mapping images of the spine
JP2010253243A (ja) 関節裂隙幅計測システム及び関節裂隙幅計測方法及びプログラム
US20120029943A1 (en) Report generation management device and program
JP2009232982A (ja) 画像計測装置、医用画像システム及びプログラム
Floyd et al. A review of preoperative planning technologies for spinal deformity correction
JP4973556B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP5146528B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP6938898B2 (ja) 画像管理装置、画像表示方法及び記録媒体
JP4935728B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP2009219766A (ja) 画像計測装置、医用画像システム及びプログラム
JP2006102044A (ja) 医用画像処理システム及び医用画像処理方法
JP4935726B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP4935727B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP2010233879A (ja) 画像計測装置及びプログラム
JP4973555B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP5853785B2 (ja) 医用画像表示システム
JP2009066060A (ja) 医用画像システム、所見レポート生成装置、所見レポート生成方法及びプログラム
JP4935725B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP2009151651A (ja) 情報処理装置及び情報処理方法
JP2010238040A (ja) 画像計測装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09726355

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09726355

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP