WO2009116341A1 - 順序解析装置及びプログラム - Google Patents

順序解析装置及びプログラム Download PDF

Info

Publication number
WO2009116341A1
WO2009116341A1 PCT/JP2009/052625 JP2009052625W WO2009116341A1 WO 2009116341 A1 WO2009116341 A1 WO 2009116341A1 JP 2009052625 W JP2009052625 W JP 2009052625W WO 2009116341 A1 WO2009116341 A1 WO 2009116341A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
points
auxiliary line
order
point
Prior art date
Application number
PCT/JP2009/052625
Other languages
English (en)
French (fr)
Inventor
高史 南條
康祐 簑島
Original Assignee
コニカミノルタエムジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタエムジー株式会社 filed Critical コニカミノルタエムジー株式会社
Priority to JP2010503800A priority Critical patent/JPWO2009116341A1/ja
Publication of WO2009116341A1 publication Critical patent/WO2009116341A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Definitions

  • the present invention relates to a sequence analysis apparatus and a program.
  • images obtained by photographing a patient with radiation such as X-rays are used in diagnosis in the medical field such as orthopedics.
  • the doctor observes and interprets the radiographic image output on the film, marks the position to be measured on the radiographic image with a red pencil to obtain numerical values and angles for diagnosis, and uses a measuring instrument such as a ruler or a protractor. Measure the distance and angle of the marked position.
  • the hump angle is used for diagnosis of scoliosis.
  • Scoliosis is a disease in which the spinal column bends to the side. In high scoliosis, the rib cage is significantly deformed, thus reducing lung function. If the angle is less than 25 degrees, follow up every 3 months. If the angle is 25-40 degrees, brace therapy is required and observation is done every seasonal holiday. If the angle is more than 50-60 degrees, surgical treatment is used. It is a measure of treatment.
  • Cobb angle is the angle between the upper surface of the upper vertebra (the vertebral body with the greatest inclination angle) and the lower surface of the lower terminal vertebra at the upper and lower ends of the part showing the scoliosis (curved part) in the spine.
  • an image of the spine is displayed on the monitor screen, and an auxiliary line is drawn on the monitor screen along the upper axial end of the upper terminal vertebra and the lower axial end of the lower terminal vertebra, thereby providing two auxiliary Measure the angle between lines.
  • each curved portion is referred to as a first curve and a second curve in order from the head of the human body to the foot (hereinafter referred to as the head-to-tail direction).
  • the curve angle ⁇ 1 of the first curve has an auxiliary line L21 drawn along the upper axial end of the upper terminal vertebra of the first curve and an auxiliary line L22 drawn along the lower axial end of the lower end of the first curve.
  • the angle between The curve angle ⁇ 2 of the second curve corresponds to the auxiliary line L22 drawn along the axial upper end of the upper terminal vertebra of the second curve (the line drawn along the lower axial end of the lower terminal of the first curve) ) And the auxiliary line L23 drawn along the axial lower end of the lower terminal vertebra of the second curve.
  • the curved portions are referred to as a first curve, a second curve, and a third curve in order in the head-to-tail direction.
  • the curve angle ⁇ 3 of the first curve has an auxiliary line L24 drawn along the upper axial end of the upper terminal vertebra of the first curve and an auxiliary line L25 drawn along the lower axial end of the lower end of the first curve.
  • the angle between The curve angle ⁇ 4 of the second curve corresponds to the auxiliary line L25 drawn along the upper axial end of the upper terminal vertebra of the second curve (the line drawn along the lower axial end of the lower terminal vertebra of the first curve) ) And the auxiliary line L26 drawn along the axial lower end of the lower terminal vertebra of the second curve.
  • the curve angle ⁇ 5 of the third curve coincides with the auxiliary line L26 drawn along the upper axial end of the upper terminal vertebra of the third curve (the line drawn along the lower axial end of the lower terminal of the second curve) ) And the auxiliary line L27 drawn along the axial lower end of the lower terminal vertebra of the third curve.
  • auxiliary lines to be used for angle measurement according to the order of drawing the auxiliary lines. For example, when there are two curved parts in the spine image, the angle formed between the first drawn auxiliary line and the second drawn auxiliary line is measured as the cobb angle of the first curve, and the second drawn auxiliary line And the third drawn auxiliary line are measured as the angle of the second curve.
  • the user draws the auxiliary line L31 first along the upper axial end of the upper terminal vertebra of the first curve, and second along the lower axial end of the lower terminal vertebra of the second curve.
  • the auxiliary line L32 is drawn to the third axis along the lower end in the axial direction of the lower terminal vertebra of the first curve (the upper end in the axial direction of the upper terminal vertebra of the second curve)
  • the angle formed by the line L31 and the auxiliary line L32 is measured as the hump angle of the first curve
  • the angle formed by the auxiliary line L32 and the auxiliary line L33 is measured as the hump angle of the second curve.
  • the diagnosis is erroneous.
  • the normal PACS stores the previous image processing conditions, a series of operations for drawing the auxiliary lines L31, L32, and L33 is performed, and after the image processing conditions are stored, another person views the image. When doing so, there was a risk of further misdiagnosis.
  • the position of the auxiliary line or point drawn on the medical image serves as a reference when measuring the numerical value or angle used for diagnosis, and therefore, the position of each auxiliary line or point in the direction suitable for the purpose of diagnosis. Order is important.
  • the vertical direction of the human body is not always stored in the correct form (see FIGS. 8A to 8D).
  • the position on the image is specified by the (x, y) coordinates in the image coordinate system set for each image.
  • the negative direction of the y-axis indicates the head of the image.
  • the image is taken in the direction of the side. If all images are taken in the direction shown in FIG. 8A, the y-axis direction is recognized as the vertical direction of the human body, and the order of each point is accurately grasped by ordering from the smallest y coordinate to the largest. can do.
  • the present invention has been made in view of the above-described problems in the prior art, and an object of the present invention is to obtain an order along a predetermined direction for a plurality of points on a medical image.
  • the order analysis apparatus acquires position information in an image coordinate system of a plurality of points on a medical image, and based on the acquired position information of each point, an image Control means for ordering the points in an order along a predetermined direction on the medical image with reference to a coordinate system is provided.
  • the control means includes a positional relationship of the points with respect to a straight line in a direction perpendicular to the one direction, and a relationship between the straight line and the respective points.
  • the points are ordered based on the distance.
  • the control means determines which region each of the points belongs to with the straight line as a boundary, and determines one of the two regions.
  • the points belonging to the region are ordered in descending order of the distance from the straight line, and then the points belonging to other regions are ordered in descending order of the distance from the straight line.
  • control unit further prohibits movement in which the positional relationship of the points in the one direction is switched.
  • the control unit further moves the position of any one of the points.
  • the points are reordered in the order along the one direction based on the positional information of the points in the image coordinate system after the movement.
  • control means is configured such that the positional relationship of the points in the one direction is determined by the movement of any one of the points. Only when they are replaced, the points are reordered in the order along the one direction.
  • the computer acquires position information of the plurality of points on the medical image in the image coordinate system, and based on the acquired position information of each point, the medical coordinate system is used. It is a program for functioning as control means for ordering the points in an order along a predetermined direction on an image.
  • an order along a predetermined direction can be obtained for a plurality of points on a medical image.
  • the points can be accurately ordered even when the medical image is rotated.
  • the points can be ordered using a straight line in a direction perpendicular to a predetermined direction.
  • the image is taken so that the positive direction of the y-axis is on the head side of the image.
  • This is an example in a case where an image is taken so that the negative direction of the x-axis is on the head side of the image.
  • 8B is an image obtained by rotating the image of FIG. 8B clockwise by 270 degrees.
  • 8C is an image obtained by rotating the image of FIG. 8C clockwise by 180 degrees.
  • 8D is an image obtained by rotating the image of FIG. 8D clockwise by 90 degrees.
  • It is a flowchart which shows a hump angle measurement process.
  • It is a flowchart which shows an auxiliary line drawing process. It is an example of a screen when designating the start point of the first auxiliary line in the drawing order. It is an example of a screen when designating the end point of the 1st auxiliary line with the drawing order.
  • This is an example when the third auxiliary line from the head side is selected as the movement target.
  • This is an example in which the positional relationship in the head-to-tail direction of the third auxiliary line from the head side and the second auxiliary line from the head side is switched.
  • It is a figure for demonstrating a hump angle
  • It is a figure for demonstrating the problem in the past.
  • FIG. 1 shows a system configuration of the medical image system 100.
  • an RIS (Radiological Information System) 10 a modality 20, an image server device 30, and an image measurement device 40 as a sequence analysis device are transmitted via a network N. It is connected so that it can communicate.
  • the RIS10 performs information management such as medical appointment reservation, diagnosis result report, results management, and material inventory management in the radiology department.
  • the RIS 10 generates examination order information indicating the contents of imaging and diagnosis, and transmits the examination order information to the modality 20.
  • the modality 20 is an image generation device that images a patient based on examination order information transmitted from the RIS 10 and generates image data of a medical image.
  • the modality 20 transmits the image data to the image server device 30.
  • a CR Computed Radiography
  • CT Computed Tomography
  • MRI Magnetic Resonance Imaging
  • the image server device 30 is configured by PACS, stores the image data file of the medical image received from the modality 20, and provides the image file in response to a request from an external device such as the image measurement device 40.
  • FIG. 2 shows a functional configuration of the image server device 30.
  • the image server device 30 includes a control unit 31, an operation unit 32, a display unit 33, a communication unit 34, a ROM (Read Only Memory) 35, and a storage unit 36. Connected by.
  • the control unit 31 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and comprehensively controls processing operations of each unit of the image server device 30. Specifically, the CPU reads various processing programs stored in the ROM 35 in accordance with an operation signal input from the operation unit 32 or an instruction signal received by the communication unit 34, and a work piece formed in the RAM. Expand to the area and perform various processes in cooperation with the program.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the operation unit 32 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse.
  • the operation unit 32 controls operation signals input by key operations or mouse operations on the keyboard. To 31.
  • the display unit 33 is configured by an LCD (Liquid Crystal Display), and displays various screens based on display data input from the control unit 31.
  • LCD Liquid Crystal Display
  • the communication unit 34 is an interface that transmits and receives data to and from external devices such as the RIS 10, the modality 20, and the image measurement device 40.
  • the ROM 35 is constituted by a nonvolatile semiconductor memory or the like, and stores a control program, parameters and files necessary for executing the program.
  • the storage unit 36 is composed of a hard disk or the like and stores various data. Specifically, the storage unit 36 stores image files, related information, and the like.
  • the image file is an image data file of a medical image received from the modality 20.
  • the storage unit 36 stores, for example, an image file of a spine image indicating a spine in which a plurality of curved portions exist.
  • the related information refers to information related to the image of the image file, and is associated with each image file.
  • the related information includes patient information, examination information, and the like. In the case of a spine image, the measurement result of the hump angle is also included.
  • the Cobb angle is an angle formed by the upper surface of the upper vertebra of the end vertebra and the lower surface of the lower vertebra at the upper and lower ends of the portion showing the scoliosis (curved part) in the spine.
  • the hump angles corresponding to the respective bending portions are referred to as the hump angle of the first curve, the hump angle of the second curve,... (See FIG. 19).
  • the control unit 31 reads the requested image file from the storage unit 36 and transmits it to the image measurement device 40 when there is an image file acquisition request from the image measurement device 40. Further, when the measurement result is received from the image measurement device 40, the control unit 31 stores the received measurement result in the storage unit 36 in association with the measurement target image file.
  • the image measuring device 40 is a device for displaying a medical image acquired from the image server device 30 and measuring numerical values and angles used for diagnosis of the medical image, and is configured by a PC (Personal Computer) or the like. For example, the image measuring device 40 measures a bump angle used for scoliosis diagnosis in a spine image.
  • PC Personal Computer
  • FIG. 3 shows a functional configuration of the image measuring device 40.
  • the image measurement device 40 includes a control unit 41, an operation unit 42, a display unit 43, a communication unit 44, a ROM 45, and a storage unit 46, and each unit is connected by a bus 47.
  • the control unit 41 is configured by a CPU, a RAM, and the like, and comprehensively controls the processing operation of each unit of the image measurement device 40. Specifically, the CPU reads various processing programs stored in the ROM 45 in response to an operation signal input from the operation unit 42 or an instruction signal received by the communication unit 44, and a work piece formed in the RAM. Expand to the area and perform various processes in cooperation with the program.
  • the operation unit 42 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse.
  • the control unit 42 controls operation signals input by keyboard operation or mouse operation. 41 is output.
  • the operation unit 42 is used when designating a position for drawing an auxiliary line for measuring a hump angle in a direction intersecting the extending direction of the spine in the spine image displayed on the monitor screen of the display unit 43.
  • Extension direction of the spine is not a strict extension direction along the continuous direction of the spine (direction with curvature), but the direction in which the spine should be aligned when there is no scoliosis, That is, it is used in the meaning of the head-to-tail direction or the head-to-head direction (the direction from the human body foot to the head).
  • the display unit 43 is composed of an LCD, and displays various screens based on display data input from the control unit 41. Specifically, the display unit 43 displays a medical image such as a spine image.
  • the communication unit 44 is an interface that transmits / receives data to / from an external device such as the image server device 30.
  • the ROM 45 is configured by a nonvolatile semiconductor memory or the like, and stores a control program, parameters and files necessary for executing the program.
  • the storage unit 46 is composed of a hard disk or the like and stores various data.
  • the control unit 41 transmits an acquisition request for an image file of a medical image stored in the storage unit 36 to the image server device 30 via the communication unit 44, and the image file of the medical image is transmitted from the image server device 30. To get.
  • the control unit 41 displays the medical image on the monitor screen of the display unit 43 based on the acquired medical image image file.
  • FIG. 4 shows how to obtain coordinates on the monitor screen of the display unit 43 (monitor coordinate system). As shown in FIG. 4, in the monitor coordinate system, the right direction of the monitor screen is the positive direction of the X axis, and the downward direction of the monitor screen is the positive direction of the Y axis.
  • the control unit 41 Based on the operation of the operation unit 42 from the mouse, the control unit 41 includes the upper axial end of the upper end vertebra and the lower end spine axis of each of the plurality of curved portions of the spine image displayed on the monitor screen of the display unit 43. Draw an auxiliary line along the bottom edge of the direction.
  • the control unit 41 acquires position information (coordinates) in the image coordinate system of the midpoint of each drawn auxiliary line, and based on the acquired position information of each midpoint on the spine image
  • the middle points are ordered in an order along a predetermined direction.
  • the image coordinate system is a coordinate system on an image unique to the image file.
  • the head-to-tail direction is used as the predetermined direction in the spine extension direction of the spine image.
  • the control unit 41 based on the positional relationship of each midpoint with respect to a straight line (reference line) in a direction perpendicular to a predetermined direction and the distance between the straight line (reference line) and each midpoint, Order each point.
  • the monitor coordinate system is distinguished as (X, Y) and the image coordinate system is distinguished as (x, y).
  • FIG. 5 is a flowchart showing the first ordering method.
  • the points where the discriminant D is negative are ordered in descending order of the distance d
  • the point where the discriminant D is 0 is the next order
  • the point where the discriminant D is positive This is an ordering process in ascending order of the distance d, and is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • control unit 41 determines whether or not the discriminant D with respect to the reference line is negative for a certain point among the points (step S3). If the discriminant D is negative (step S3). YES), ordering is performed in order from the largest distance d to the reference line from the smallest (step S4). On the other hand, if the discriminant D is 0 or positive (step S3; NO), the ordering is performed in order from the smallest distance d to the reference line (step S5).
  • step S6 determines whether or not the processing has been completed for all points. If there is an unprocessed point (step S6; NO), the processing from step S3 to step S6 is repeated. .
  • step S6; YES the order in the case where the discriminant D is 0 or positive is connected to the order in the case where the discriminant D is negative to connect the order in the case where the discriminant D is zero or positive.
  • FIG. 6 is a flowchart showing the second ordering method.
  • the points where the discriminant D is positive are ordered in descending order of the distance d
  • the point where the discriminant D is 0 is the next order
  • the point where the discriminant D is negative This is an ordering process in ascending order of the distance d, and is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • control unit 41 determines whether or not the discriminant D with respect to the reference line is positive for a certain point among the points (step S13). If the discriminant D is positive (step S13). YES), ordering is performed in order from the largest distance d to the reference line from the largest (step S14). On the other hand, if the discriminant D is 0 or negative (step S13; NO), the ordering is performed in order from the smallest distance d to the reference line (step S15).
  • control unit 41 determines whether or not the process has been completed for all points (step S16). If there is an unprocessed point (step S16; NO), the processes of steps S13 to S16 are repeated. .
  • step S16; YES the order in the case where the discriminant D is 0 or negative is connected to the order in the case where the discriminant D is positive, thereby obtaining a series of orders ( Step S17).
  • a case where ordering is performed will be described.
  • the point P is D>0
  • the point Q is D>0
  • the point R is D ⁇ 0.
  • the point P is about 283
  • the point Q is about 71
  • the point R is about 212. Therefore, points R, Q, and P are ordered from the discriminant D and distance d for each point.
  • FIG. 8A to 8D show the positional relationship of images with reference to the image coordinate system (x, y).
  • FIG. 8A shows an example in which the negative direction of the y-axis is photographed so as to be on the head side of the image
  • FIG. Yes FIG. 8C is an example in the case where the positive direction of the y-axis is taken to be the head side of the image
  • FIG. 8D is a case in which the negative direction of the x-axis is taken to be the head side of the image. It is an example.
  • images are taken with the positional relationship shown in FIG. 8A.
  • FIGS. 9A to 9D When measuring angles and numerical values used for image diagnosis, as shown in FIGS. 9A to 9D, the image is rotated and displayed so that the head side of the image is on the upper side of the monitor screen.
  • 9A shows the image of FIG. 8A displayed without rotation
  • FIG. 9B shows the image of FIG. 8B rotated clockwise by 270 degrees
  • FIG. 9C shows the image of FIG. 8C.
  • 9D is rotated clockwise by 180 degrees
  • FIG. 9D is the image of FIG. 8D rotated clockwise by 90 degrees.
  • control unit 41 may order the midpoints of the auxiliary lines in ascending order of the distance from the reference line, with one side corresponding to the head side end portion of the four sides of the spine image as the reference line. And the control part 41 makes the order of each ordered middle point the order of each auxiliary line in a head-to-tail direction.
  • the control unit 41 measures the angle formed by the two auxiliary lines adjacent to each other in the ordered order (that is, the order of the head-to-tail direction) as the bump angle. Specifically, when there are two curved portions in the spine image, the control unit 41 determines the angle formed by the first auxiliary line from the head side and the second auxiliary line from the head side as the first curve. The angle is measured as a hump angle, and the angle formed by the second auxiliary line from the head side and the third auxiliary line from the head side is measured as the hump angle of the second curve. In addition, when there are three curved portions in the spine image, the control unit 41 sets the angle formed by the first auxiliary line from the head side and the second auxiliary line from the head side as the Cobb angle of the first curve.
  • control unit 41 changes the relative positional relationship in the head-to-tail direction of each midpoint of each auxiliary line (that is, the order along the head-to-tail direction of each midpoint). Prohibit movement.
  • FIG. 11 is a flowchart showing a hump angle measurement process executed in the image measurement device 40. This process is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • FIG. 11 a case will be described in which a spine image showing a spine in which two curved portions are present is used as a measurement target, and the hump angle of each curved portion is measured.
  • an image file of a spine image to be measured is selected by an operation from the operation unit 42, and an image of the selected spine image is transmitted to the image server device 30 by the communication unit 44 according to the control of the control unit 41.
  • a file acquisition request is sent.
  • the image file of a spine image is acquired by the control part 41 from the image server apparatus 30 via the communication part 44 (step T1).
  • the spine image is displayed on the monitor screen of the display unit 43 by the control unit 41 based on the acquired image file of the spine image (step T2).
  • the control unit 41 performs an image rotation process (step T3). Specifically, as shown in FIGS. 9A to 9D, the image is rotated and displayed so that the head side of the image is on the upper side of the monitor screen.
  • auxiliary line drawing process is performed by the control unit 41 based on an operation from the operation unit 42 (step T4).
  • the auxiliary line drawing process is a process of drawing a plurality of auxiliary lines in a direction intersecting with the extending direction of the spine of the spine image, and each auxiliary line is an axis of the upper terminal vertebra of each of the two curved portions of the spine image. It is drawn along the upper axial direction or the lower axial end of the lower terminal vertebra.
  • the auxiliary line drawing process will be described with reference to FIG.
  • the mouse button of the operation unit 42 is pressed by the user with the mouse cursor MC placed at the position where the drawing order is the start point of the first auxiliary line, and the start point position of the auxiliary line is set.
  • the control unit 41 determines the first coordinate (x1, y1) in the image coordinate system corresponding to the position where the mouse button is pressed (monitor coordinate system) (step T21).
  • FIG. 13B the user presses the mouse button of the operation unit 42 with the mouse cursor MC placed at the position where the drawing order is the end point of the first auxiliary line, and the end point position of the auxiliary line Is specified, the control unit 41 determines the coordinates (x2, y2) of the second point in the image coordinate system corresponding to the position (monitor coordinate system) where the mouse button is pressed (step T22). Then, the control unit 41 draws an auxiliary line connecting the first point coordinates (x1, y1) and the second point coordinates (x2, y2) on the spine image displayed on the monitor screen of the display unit 43. (Step T23).
  • FIG. 13A and FIG. 13B are examples in the case of drawing an auxiliary line along the axial upper end of the upper terminal vertebra of the first curve.
  • the control unit 41 determines the coordinates (x3, y3) of the third point in the image coordinate system corresponding to the position (monitor coordinate system) where the mouse button is pressed (step T24).
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed at the position where the drawing order is the end point of the second auxiliary line, and the end point position of the auxiliary line is reached.
  • the control unit 41 determines the coordinates (x4, y4) of the fourth point in the image coordinate system corresponding to the position (monitor coordinate system) where the mouse button is pressed (step T25). Then, an auxiliary line connecting the third coordinate (x3, y3) and the fourth coordinate (x4, y4) is drawn on the spine image displayed on the monitor screen of the display unit 43 by the control unit 41. (Step T26).
  • FIG. 13C and FIG. 13D are examples in the case of drawing an auxiliary line along the axial lower end of the lower terminal vertebra of the second curve.
  • the control unit 41 determines the fifth coordinate (x5, y5) in the image coordinate system corresponding to the position (monitor coordinate system) where the mouse button is pressed (step T27).
  • the mouse button of the operation unit 42 is pressed by the user while the mouse cursor MC is placed at the position where the drawing order is the end point of the third auxiliary line, and the end point position of the auxiliary line is reached.
  • the control unit 41 determines the coordinates (x6, y6) of the sixth point in the image coordinate system corresponding to the position (monitor coordinate system) where the mouse button is pressed (step T28). Then, an auxiliary line connecting the fifth coordinate (x5, y5) and the sixth coordinate (x6, y6) is drawn on the spine image displayed on the monitor screen of the display unit 43 by the control unit 41. (Step T29).
  • FIG. 13E and FIG. 13F are examples in the case of drawing an auxiliary line along the lower axial end of the lower terminal vertebra of the first curve (an auxiliary line along the upper axial end of the upper end of the second curve).
  • the control unit 41 obtains the coordinates (x12, y12) of the midpoint of the coordinates (x1, y1) of the first point and the coordinates (x2, y2) of the second point (step T5), 3
  • the coordinates (x34, y34) of the middle point of the coordinates (x3, y3) of the point and the coordinates (x4, y4) of the fourth point are acquired (step T6), and the coordinates (x5, y5) of the fifth point and 6
  • the coordinates (x56, y56) of the middle point of the coordinates (x6, y6) of the point are acquired (step T7).
  • the coordinates of each midpoint are represented in the image coordinate system.
  • the control unit 41 acquires one side corresponding to the head side end portion among the four sides of the spine image as a reference line (step T8).
  • the control unit 41 orders each midpoint in the order along the head-to-tail direction of the spine image extending direction of the spine image with reference to the image coordinate system. Done. Specifically, the control unit 41 orders the midpoints in ascending order of the distance from the reference line based on the coordinates of the midpoints (step T9). For example, in the case of the positional relationship shown in FIG. 9A, as shown in FIG. 10A, the midpoints of the auxiliary lines are ordered in ascending order of the y coordinate of each midpoint. In the case of the positional relationship shown in FIG. 9B, as shown in FIG.
  • the midpoints of the auxiliary lines are ordered in descending order of the x coordinate of each midpoint.
  • the midpoints of the auxiliary lines are ordered in descending order of the y coordinate of each midpoint.
  • the midpoints of the auxiliary lines are ordered in ascending order of the x coordinate of each midpoint.
  • the order of the midpoints is the order of the auxiliary lines in the head-to-tail direction.
  • the control unit 41 measures the angle formed by the two auxiliary lines adjacent to each other in the ordered order (ie, head-to-tail order) as the bump angle (step T10). Specifically, the control unit 41 measures the angle formed by the first auxiliary line from the head side and the second auxiliary line from the head side as the Cobb angle of the first curve, and the second auxiliary line from the head side. And the third auxiliary line from the head side are measured as the bump angle of the second curve.
  • the measurement result is displayed on the monitor screen of the display unit 43 by the control unit 41 (step T11).
  • the values of the hump angle of the first curve and the hoop angle of the second curve are displayed as “first curve 17.9 °, second curve 21.2 °”. . This is the end of the bump angle measurement process.
  • FIG. 14 is a flowchart showing auxiliary line movement processing A executed in the image measurement device 40. This processing is performed in a state where a plurality of auxiliary lines are already drawn on the spine image, and is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • any one of the drawn auxiliary lines is selected as a movement target by a user operation from the operation unit 42 (step T31). Specifically, when the mouse button of the operation unit 42 is pressed while the mouse cursor is placed on the auxiliary line to be moved, the auxiliary line is selected.
  • the type of the selected auxiliary line (the number of the auxiliary line selected from the head of the spine image is the auxiliary line type). ) Is acquired (step T32).
  • the position of the selected auxiliary line is moved by the user's operation from the operation unit 42 (step T33). Specifically, when the mouse button is released at the destination position while the mouse button is pressed, the position of the auxiliary line after the movement is determined.
  • control unit 41 determines whether or not the movement of the auxiliary line is a movement exceeding another auxiliary line (step T34). Specifically, the control unit 41 determines whether or not the positional relationship in the head-to-tail direction of the spine image between the midpoint of the selected auxiliary line and the midpoint of another auxiliary line is switched.
  • the third auxiliary line L3 from the head side is selected as the movement target.
  • the control unit 41 the distance from the reference line of the midpoint of the auxiliary line L3 (one side corresponding to the head side end portion among the four sides of the spine image), and the distance from the reference line of the midpoint of the auxiliary line L2
  • the distance from the reference line at the midpoint of the auxiliary line L3 is smaller than the distance from the reference line at the midpoint of the auxiliary line L2, as shown in FIG. It is determined that the positional relationship in the direction has been changed, and it is determined that the auxiliary line L3 exceeds the auxiliary line L2.
  • step T34 When the movement of the selected auxiliary line is a movement exceeding another auxiliary line (step T34; YES), the movement of the auxiliary line is stopped by the control unit 41 (step T35).
  • step T34 when the movement of the selected auxiliary line is not a movement exceeding another auxiliary line (step T34; NO), the movement of the auxiliary line is permitted by the control unit 41. This is the end of the auxiliary line movement process A.
  • the order along the head-to-tail direction can be obtained for each midpoint of the plurality of auxiliary lines drawn on the spine image. .
  • the drawing position of each auxiliary line can be designated in an arbitrary order, and the operability can be improved. Further, by using the position information in the image coordinate system, it is possible to accurately order the midpoints even when the spine image is rotated.
  • the order of the midpoints can be performed based on the positional relationship between the midpoints with respect to the reference line and the distance between the reference line and each midpoint. .
  • the medical image system according to the second embodiment has the same configuration as that of the medical image system 100 shown in the first embodiment. Therefore, the same components are denoted by the same reference numerals, and the configuration is the same. Illustration and description are omitted.
  • a configuration and processing characteristic of the second embodiment will be described.
  • each auxiliary line can be moved freely.
  • the control unit 41 of the image measuring device 40 When the position of any one of the auxiliary lines is moved after each auxiliary line is drawn, that is, among the midpoints of each auxiliary line, the control unit 41 of the image measuring device 40 When the position of one of the midpoints is moved, the order of the midpoints is reordered in the order along one predetermined direction based on the position information of each midpoint after the movement in the image coordinate system.
  • the head-to-tail direction is used as the predetermined direction among the extending directions of the spine in the spine image.
  • the control unit 41 moves in the head-to-tail direction only when the relative positional relationship in the head-to-tail direction of each midpoint is switched by the movement of one of the midpoints of each auxiliary line. Reorder each midpoint in order.
  • FIG. 16 is a flowchart showing auxiliary line movement processing B executed in the image measurement device 40. This processing is performed in a state where a plurality of auxiliary lines are already drawn on the spine image, and is realized by software processing in cooperation with the CPU of the control unit 41 and the program stored in the ROM 45.
  • any one of the drawn auxiliary lines is selected as a movement target by a user operation from the operation unit 42 (step T41). Specifically, when the mouse button of the operation unit 42 is pressed while the mouse cursor is placed on the auxiliary line to be moved, the auxiliary line is selected.
  • the type of the selected auxiliary line (the selected auxiliary line is the auxiliary line number from the head side of the spine image). Is acquired (step T42).
  • the position of the selected auxiliary line is moved by the user's operation from the operation unit 42 (step T43). Specifically, when the mouse button is released at the destination position while the mouse button is pressed, the position of the auxiliary line after the movement is determined.
  • control unit 41 determines whether or not the movement of the auxiliary line is a movement exceeding another auxiliary line (step T44). Specifically, the control unit 41 determines whether or not the positional relationship in the head-to-tail direction of the spine image between the midpoint of the selected auxiliary line and the midpoint of another auxiliary line is switched.
  • the third auxiliary line L13 from the head side is selected as the movement target.
  • the control unit 41 the distance from the reference line of the midpoint of the auxiliary line L13 (one side corresponding to the head side end portion among the four sides of the spine image), and the distance from the reference line of the midpoint of the auxiliary line L12
  • the distance from the reference line of the midpoint of the auxiliary line L13 becomes smaller than the distance from the reference line of the midpoint of the auxiliary line L12, as shown in FIG. It is determined that the positional relationship in the direction has been changed, and it is determined that the auxiliary line L13 has exceeded the auxiliary line L12.
  • the control unit 41 acquires the coordinates in the image coordinate system of the midpoint of each auxiliary line after the movement. Then, according to the rotation state of the image, one side corresponding to the head side end portion among the four sides of the spine image is acquired as a reference line (step T46).
  • control unit 41 reorders the midpoints in the order along the head-to-tail direction in the spine extension direction of the spine image based on the position information of the midpoints of the auxiliary lines. Specifically, the control unit 41 reorders the midpoints in ascending order of the distance from the reference line based on the coordinates of the midpoints (step T47).
  • the angle formed by the two auxiliary lines adjacent to each other in the ordered order is measured by the control unit 41 as the bump angle (step T48).
  • the control unit 41 measures the angle formed between the auxiliary line L11 and the auxiliary line L13 as the Cobb angle of the first curve, and the angle formed between the auxiliary line L13 and the auxiliary line L12 is the cogging of the second curve. Measured as a corner.
  • the measurement result is displayed on the monitor screen of the display unit 43 by the control unit 41 (step T49).
  • the values of the hump angle of the first curve and the hump angle of the second curve are displayed as “first curve 3.9 °, second curve 21.2 °”. .
  • step T44 when the movement of the selected auxiliary line is not a movement exceeding the other auxiliary lines (step T44; NO), the process ends as it is. This is the end of the auxiliary line movement process B.
  • the order along the head-to-tail direction can be obtained for each midpoint of the plurality of auxiliary lines drawn on the spine image. .
  • the order of the midpoints can be performed based on the positional relationship between the midpoints with respect to the reference line and the distance between the reference line and each midpoint. .
  • the ordering of each midpoint is performed in the order along the head-to-tail direction based on the position information of each midpoint after the movement Since the process is repeated, the midpoints can always be accurately ordered. At this time, the movement of one of the midpoints of each auxiliary line changes the positional relationship in the head-to-tail direction of each midpoint, that is, only when necessary. Since the ordering is performed again, it is possible to increase the efficiency in ordering each midpoint.
  • the order of the midpoints is rearranged only when the positional relationship in the head-to-tail direction of each midpoint is changed by the movement of any one of the midpoints of the auxiliary lines.
  • the order of the midpoints may be re-ordered regardless of whether or not the positional relationship of each midpoint is changed in the head-to-tail direction.
  • auxiliary lines are ordered in the order along the head-to-tail direction among the extending directions of the spine in the spine image, but in the order along the reverse direction (the head-to-head direction).
  • the auxiliary lines may be ordered.
  • the midpoint of each auxiliary line drawn on the spine image is the target of ordering.
  • the point designated by the user on the image by the operation of the mouse or the like or the feature on the medical image It is also possible to target contact points or the like of the portion showing the shape.
  • a ROM is used as a computer-readable medium storing a program for executing each process
  • the present invention is not limited to this example.
  • a non-volatile memory such as a flash memory and a portable recording medium such as a CD-ROM can be applied.
  • a carrier wave may be applied as a medium for providing program data via a communication line.
  • the sequence analysis apparatus and program according to the present invention may be used in the medical field for measuring numerical values and angles used for diagnosis from medical images.
  • RIS 20 modality 10 RIS 20 modality 30 image server device 31 control unit 32 operation unit 33 display unit 34 communication unit 35 ROM 36 Storage Unit 37 Bus 40 Image Measuring Device 41 Control Unit 42 Operation Unit 43 Display Unit 44 Communication Unit 45 ROM 46 storage unit 47 bus 100 medical image system N network MC mouse cursor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 医用画像上の複数の点について、予め定められた一方向に沿った順序を得る。  順序付けの対象となる各点の座標を取得し(ステップS1)、基準線を取得する(ステップS2)。次に、各点のうち、ある点について、基準線を境界としてどちらの領域に属するか又は直線上にあるかを示す判別式Dが負である場合には(ステップS3;YES)、基準線との距離dが大きい順に順序付けを行う(ステップS4)。一方、判別式Dが0又は正である場合には(ステップS3;NO)、基準線との距離dが小さい順に順序付けを行う(ステップS5)。全ての点についてステップS3~S6の処理を繰り返し、全ての点について終了した場合には(ステップS6;YES)、判別式Dが負の場合における順序の次に、判別式Dが0又は正である場合における順序をつなげて一連の順序付けとする(ステップS7)。

Description

順序解析装置及びプログラム
 本発明は、順序解析装置及びプログラムに関する。
 従来、整形外科等の医療分野の診断において、X線等の放射線により患者を撮影した画像が用いられている。医師は、フィルムに出力した放射線画像を観察読影するとともに、診断に用いる数値や角度を得るために放射線画像上に計測すべき位置を赤鉛筆等でマーキングし、定規や分度器等の計測器具を用いてマーキングされた位置の距離や角度等を計測する。
 近年、医療分野においてもデジタル化が進み、病院内で生成される放射線画像は、ほとんどがデジタル画像としてワークステーション又はPACS(Picture Archiving and Communication System)で保存されている。デジタル画像の場合、画像をモニタ画面上に表示させ、この画面上で計測に用いる点や線(以下、補助線という。)を手動又は自動で指定することによって、距離や角度等の計測を自動化したり、一度引いた補助線を移動したりすることができるため、医師や放射線技師等の計測に要する負担を大幅に軽減させることが可能となった。
 例えば、側弯症の診断には、コブ角が用いられる。側弯症とは、脊柱が側方へ曲がる病気である。高度の側弯では、胸郭が著しく変形し、そのため肺の機能が低下する。コブ角が25度未満の場合は3か月毎の経過観察、25~40度の場合は装具療法が必要で季節休暇毎の観察、50~60度以上の場合は手術療法等、コブ角が治療の目安となる。
 コブ角とは、脊椎において側弯を示している部分(湾曲部)の上下端にある終椎(傾斜角の最も大きな椎体)の上位終椎の上面と下位終椎の下面のなす角をいう。具体的には、脊椎を撮影した画像をモニタ画面に表示させ、モニタ画面上で湾曲部の上位終椎の軸方向上端及び下位終椎の軸方向下端に沿って補助線を引き、二つの補助線のなす角度を計測する。
 図18に示すように、脊椎において湾曲部が二つある場合には、各湾曲部を人体の頭から足に向かう方向(以下、頭尾方向という。)に順に第一カーブ、第二カーブという。第一カーブのコブ角θ1は、第一カーブの上位終椎の軸方向上端に沿って引かれた補助線L21と第一カーブの下位終椎の軸方向下端に沿って引かれた補助線L22とのなす角度である。第二カーブのコブ角θ2は、第二カーブの上位終椎の軸方向上端に沿って引かれた補助線L22(第一カーブの下位終椎の軸方向下端に沿って引かれた線と一致)と第二カーブの下位終椎の軸方向下端に沿って引かれた補助線L23とのなす角度である。
 図19に示すように、脊椎において湾曲部が三つある場合には、各湾曲部を頭尾方向に順に第一カーブ、第二カーブ、第三カーブという。第一カーブのコブ角θ3は、第一カーブの上位終椎の軸方向上端に沿って引かれた補助線L24と第一カーブの下位終椎の軸方向下端に沿って引かれた補助線L25とのなす角度である。第二カーブのコブ角θ4は、第二カーブの上位終椎の軸方向上端に沿って引かれた補助線L25(第一カーブの下位終椎の軸方向下端に沿って引かれた線と一致)と第二カーブの下位終椎の軸方向下端に沿って引かれた補助線L26とのなす角度である。第三カーブのコブ角θ5は、第三カーブの上位終椎の軸方向上端に沿って引かれた補助線L26(第二カーブの下位終椎の軸方向下端に沿って引かれた線と一致)と第三カーブの下位終椎の軸方向下端に沿って引かれた補助線L27とのなす角度である。
 コブ角等の角度を計測する場合には、角度を形成する2直線の位置を指定する必要がある。描画した2直線の位置を後から調整する際に、一対(ペア)でのみ調整を許可することとすると、一方の直線だけを引き直したり、移動させたりすることができない。そこで、表示部に表示された医用画像上に複数の直線を描画し、描画した2本の直線間の角度を計測する画像計測装置において、描画された各直線を独立して変更・編集・削除することができる技術が提案されている(特許文献1参照)。
特開2006-192104号公報
 しかし、現在使用されている計測機能のほとんどは、補助線を描画する順序によって角度の計測に用いるべき二つの補助線を決定している。例えば、脊椎画像において湾曲部が二つある場合、1番目に描画した補助線と2番目に描画した補助線とのなす角度を第一カーブのコブ角として計測し、2番目に描画した補助線と3番目に描画した補助線とのなす角度を第二カーブのコブ角として計測している。
 例えば、図20に示すように、ユーザが第一カーブの上位終椎の軸方向上端に沿って1番目に補助線L31を引き、第二カーブの下位終椎の軸方向下端に沿って2番目に補助線L32を引き、第一カーブの下位終椎の軸方向下端(第二カーブの上位終椎の軸方向上端)に沿って3番目に補助線L33を引いた場合であっても、補助線L31と補助線L32とのなす角度を第一カーブのコブ角として計測し、補助線L32と補助線L33とのなす角度を第二カーブのコブ角として計測してしまうという問題があった。ユーザは、第一カーブのコブ角として計測された値が補助線L31と補助線L33とのなす角度を示していると認識しているため、診断を誤るおそれがあった。また、通常のPACSでは前回の画像処理条件を記憶しているため、補助線L31,L32,L33を引く一連の操作が行われ、画像処理条件が保存された後、別の者が画像を閲覧した際には、更に誤診を招くおそれがあった。
 このように、医用画像上に描画された補助線や点の位置は、診断に用いる数値や角度を計測する際の基準となるため、診断の目的に適した方向における各補助線又は各点の順序が重要となる。
 また、X線画像は、撮影時の体位やモダリティの種類等によって様々な方向で生成されるため、必ずしも人体の上下方向が正しい形で保存されているとは限らない(図8A~図8D参照)。画像上の位置は、各画像で設定されている画像座標系における(x,y)座標で特定されるが、一般的には、図8Aに示すように、y軸の負方向が画像の頭側になるような方向で撮影される場合が多い。全ての画像が図8Aに示す方向で撮影されていれば、y軸方向を人体の上下方向として認識し、y座標が小さいものから大きいものへ順序付けを行うことで各点の順序を正確に把握することができる。
 しかし、図8B~図8Dに示す方向で撮影が行われた場合には、図9B~図9Dに示すように画像の頭側がモニタ画面の上側になるように画像を回転させてモニタ画面上に表示するため、各点の順序付けを行うことは困難となる。
 モニタ画面上の位置を表すモニタ座標系において(図4参照)、回転後の画像の各点の順序を決定する方法も考えられるが、そもそも、モニタ座標系で医用画像上に補助線を描画してしまうと、最終的にその描画した補助線を画像とともに保存する際に、補助線の位置を示す座標をモニタ座標系から画像座標系へ変換することが必要となり、手間がかかる。更に、画像座標系では、画像に付帯されているDICOMヘッダ情報により1ピクセルが何mmに相当するかが分かるので、描画した補助線の長さ等が確認できるのに対し、モニタ座標系では、描画した補助線の長さがわからないという問題もあった。
 本発明は、上記の従来技術における問題に鑑みてなされたものであって、医用画像上の複数の点について、予め定められた一方向に沿った順序を得ることを課題とする。
 上記課題を解決するために、請求項1に記載の順序解析装置は、医用画像上の複数の点の画像座標系における位置情報を取得し、当該取得した各点の位置情報に基づいて、画像座標系を基準として前記医用画像上の予め定められた一方向に沿う順序で前記各点の順序付けを行う制御手段を備える。
 請求項2に記載の発明は、請求項1に記載の順序解析装置において、前記制御手段は、前記一方向に垂直な方向の直線に対する前記各点の位置関係及び前記直線と前記各点との距離に基づいて、前記各点の順序付けを行う。
 請求項3に記載の発明は、請求項2に記載の順序解析装置において、前記制御手段は、前記各点が前記直線を境界としてどちらの領域に属するかを判別し、二つの領域のうち一の領域に属する前記各点について前記直線との距離が大きいものから順に順序付けを行い、次いで、他の領域に属する前記各点について前記直線との距離が小さいものから順に順序付けを行う。
 請求項4に記載の発明は、請求項1から3のいずれか一項に記載の順序解析装置において、前記制御手段は、更に、前記各点の前記一方向における位置関係が入れ替わる移動を禁止する。
 請求項5に記載の発明は、請求項1から3のいずれか一項に記載の順序解析装置において、前記制御手段は、更に、前記各点のうちいずれか一の点の位置が移動された場合に、当該移動後の各点の画像座標系における位置情報に基づいて、前記一方向に沿う順序で前記各点の順序付けをし直す。
 請求項6に記載の発明は、請求項5に記載の順序解析装置において、前記制御手段は、前記各点のうちいずれか一の点の移動により、前記各点の前記一方向における位置関係が入れ替わった場合にのみ、前記一方向に沿う順序で前記各点の順序付けをし直す。
 請求項7に記載の発明は、コンピュータを、医用画像上の複数の点の画像座標系における位置情報を取得し、当該取得した各点の位置情報に基づいて、画像座標系を基準として前記医用画像上の予め定められた一方向に沿う順序で前記各点の順序付けを行う制御手段として機能させるためのプログラムである。
 請求項1、7に記載の発明によれば、医用画像上の複数の点について、予め定められた一方向に沿った順序を得ることができる。画像座標系における位置情報を用いることにより、医用画像が回転されている場合であっても、正確に各点の順序付けを行うことができる。
 請求項2、3に記載の発明によれば、予め定められた一方向に垂直な方向の直線を利用して、各点の順序付けを行うことができる。
 請求項4に記載の発明によれば、各点の予め定められた一方向に沿う順序が入れ替わるのを防ぐことができる。
 請求項5に記載の発明によれば、各点のうちいずれか一の点の位置が移動された場合に、各点の順序付けをし直すので、常に正確に各点の順序付けを行うことができる。
 請求項6に記載の発明によれば、必要な場合にのみ各点の順序付けをし直すので、各点の順序付けにおいて効率化を図ることができる。
医用画像システムのシステム構成図である。 画像サーバ装置の機能的構成を示すブロック図である。 画像計測装置の機能的構成を示すブロック図である。 モニタ画面における座標の取り方を示す図である。 第1の順序付け方法を示すフローチャートである。 第2の順序付け方法を示すフローチャートである。 直線x-y=0を基準線として3点の順序付けを行う場合の例である。 y軸の負方向が画像の頭側になるように撮影した場合の例である。 x軸の正方向が画像の頭側になるように撮影した場合の例である。 y軸の正方向が画像の頭側になるように撮影した場合の例である。 x軸の負方向が画像の頭側になるように撮影した場合の例である。 図8Aの画像を回転させずにそのまま表示させたものである。 図8Bの画像を右回りに270度回転させたものである。 図8Cの画像を右回りに180度回転させたものである。 図8Dの画像を右回りに90度回転させたものである。 y=0を基準線としてy軸の正方向に向かって順序付けを行う場合の例である。 x=10000を基準線としてx軸の負方向に向かって順序付けを行う場合の例である。 y=10000を基準線としてy軸の負方向に向かって順序付けを行う場合の例である。 x=0を基準線としてx軸の正方向に向かって順序付けを行う場合の例である。 コブ角計測処理を示すフローチャートである。 補助線描画処理を示すフローチャートである。 描画順が1番目の補助線の始点を指定する際の画面例である。 描画順が1番目の補助線の終点を指定する際の画面例である。 描画順が2番目の補助線の始点を指定する際の画面例である。 描画順が2番目の補助線の終点を指定する際の画面例である。 描画順が3番目の補助線の始点を指定する際の画面例である。 描画順が3番目の補助線の終点を指定する際の画面例である。 第1の実施の形態における補助線移動時処理Aを示すフローチャートである。 頭側から3番目の補助線が移動対象として選択された場合の例である。 頭側から3番目の補助線と頭側から2番目の補助線の頭尾方向における位置関係が入れ替わった場合の例である。 第2の実施の形態における補助線移動時処理Bを示すフローチャートである。 頭側から3番目の補助線が移動対象として選択された場合の例である。 頭側から3番目の補助線と頭側から2番目の補助線の頭尾方向における位置関係が入れ替わった場合の例である。 脊椎において湾曲部が二つある場合のコブ角を説明するための図である。 脊椎において湾曲部が三つある場合のコブ角を説明するための図である。 従来における問題点を説明するための図である。
 以下、図面を参照して、本発明に係る順序解析装置の実施の形態について説明する。
[第1の実施の形態]
 まず、第1の実施の形態を説明する。
 図1に、医用画像システム100のシステム構成を示す。図1に示すように、医用画像システム100では、RIS(Radiological Information System:放射線情報システム)10、モダリティ20、画像サーバ装置30、順序解析装置としての画像計測装置40が、ネットワークNを介してデータ通信可能に接続されている。
 RIS10は、放射線科部門内における診療予約、診断結果のレポート、実績管理、材料在庫管理等の情報管理を行う。RIS10は、撮影や診断の内容を示す検査オーダ情報を生成し、モダリティ20に送信する。
 モダリティ20は、RIS10から送信された検査オーダ情報に基づいて、患者を撮影し、医用画像の画像データを生成する画像生成装置である。モダリティ20は、画像データを画像サーバ装置30に送信する。モダリティ20としては、CR(Computed Radiography)装置、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等が用いられる。
 画像サーバ装置30は、PACSにより構成され、モダリティ20から受信した医用画像の画像データのファイルを保存し、画像計測装置40等の外部機器からの要求に応じて画像ファイルを提供する。
 図2に、画像サーバ装置30の機能的構成を示す。図2に示すように、画像サーバ装置30は、制御部31、操作部32、表示部33、通信部34、ROM(Read Only Memory)35、記憶部36を備えて構成され、各部はバス37により接続されている。
 制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等から構成され、画像サーバ装置30の各部の処理動作を統括的に制御する。具体的には、CPUは、操作部32から入力される操作信号又は通信部34により受信される指示信号に応じて、ROM35に記憶されている各種処理プログラムを読み出し、RAM内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
 操作部32は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部31に出力する。
 表示部33は、LCD(Liquid Crystal Display)により構成され、制御部31から入力される表示データに基づいて各種画面を表示する。
 通信部34は、RIS10、モダリティ20、画像計測装置40等の外部機器との間でデータの送受信を行うインターフェースである。
 ROM35は、不揮発性の半導体メモリ等により構成され、制御プログラム、当該プログラムの実行に必要なパラメータやファイル等を記憶している。
 記憶部36は、ハードディスク等により構成され、各種データを記憶する。具体的には、記憶部36には、画像ファイル、関連情報等が記憶される。画像ファイルは、モダリティ20から受信した医用画像の画像データのファイルである。記憶部36には、例えば、複数の湾曲部が存在する脊椎を示す脊椎画像の画像ファイルが保存されている。関連情報は、画像ファイルの画像に関連する情報をいい、各画像ファイルに対応付けられている。関連情報には、患者情報、検査情報等が含まれ、脊椎画像の場合には、コブ角の計測結果も含まれる。
 コブ角は、脊椎において側弯を示している部分(湾曲部)の上下端にある終椎の上位終椎の上面と下位終椎の下面のなす角である。脊椎において湾曲部が複数存在する場合には、各湾曲部に対応するコブ角を、頭尾方向に順に第一カーブのコブ角、第二カーブのコブ角、・・・、という(図18及び図19参照)。
 制御部31は、画像計測装置40から画像ファイルの取得要求があった場合に、要求された画像ファイルを記憶部36から読み出し、画像計測装置40に送信する。また、制御部31は、画像計測装置40から計測結果を受信した場合に、受信した計測結果を、計測対象の画像ファイルと対応付けて記憶部36に保存する。
 画像計測装置40は、画像サーバ装置30から取得した医用画像を表示させ、当該医用画像の診断に用いる数値や角度を計測するための装置であって、PC(Personal Computer)等から構成される。例えば、画像計測装置40は、脊椎画像においては、側弯症の診断に用いるコブ角の計測を行う。
 図3に、画像計測装置40の機能的構成を示す。図3に示すように、画像計測装置40は、制御部41、操作部42、表示部43、通信部44、ROM45、記憶部46を備え、各部はバス47により接続されている。
 制御部41は、CPU、RAM等から構成され、画像計測装置40の各部の処理動作を統括的に制御する。具体的には、CPUは、操作部42から入力される操作信号又は通信部44により受信される指示信号に応じて、ROM45に記憶されている各種処理プログラムを読み出し、RAM内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
 操作部42は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部41に出力する。操作部42は、表示部43のモニタ画面に表示された脊椎画像において脊椎の延在方向に交差する方向のコブ角計測用の補助線を描画する位置を指定する際に用いられる。「脊椎の延在方向」とは、脊椎の連続方向(湾曲を伴う方向)に沿った厳密な意味での延在方向ではなく、側弯がなかった場合に脊椎が本来並んでいるべき方向、すなわち、頭尾方向又は尾頭方向(人体の足から頭に向かう方向)の意味で用いる。
 表示部43は、LCDにより構成され、制御部41から入力される表示データに基づいて各種画面を表示する。具体的には、表示部43は、脊椎画像等の医用画像を表示する。
 通信部44は、画像サーバ装置30等の外部機器との間でデータの送受信を行うインターフェースである。
 ROM45は、不揮発性の半導体メモリ等により構成され、制御プログラム、当該プログラムの実行に必要なパラメータやファイル等を記憶している。
 記憶部46は、ハードディスク等により構成され、各種データを記憶する。
 制御部41は、通信部44を介して、画像サーバ装置30に対して、記憶部36に記憶されている医用画像の画像ファイルの取得要求を送信し、画像サーバ装置30から医用画像の画像ファイルを取得する。制御部41は、取得した医用画像の画像ファイルに基づいて、表示部43のモニタ画面に医用画像を表示させる。本実施の形態では、脊椎画像の画像ファイルを取得し、表示部43のモニタ画面に脊椎画像を表示させる場合について説明する。図4に、表示部43のモニタ画面における座標の取り方(モニタ座標系)を示す。図4に示すように、モニタ座標系では、モニタ画面の右方向をX軸の正方向とし、モニタ画面の下方向をY軸の正方向とする。
 制御部41は、操作部42のマウスからの操作に基づいて、表示部43のモニタ画面に表示された脊椎画像の複数の湾曲部のそれぞれの上位終椎の軸方向上端及び下位終椎の軸方向下端に沿って補助線を描画する。
 制御部41は、描画された各補助線の中点の画像座標系における位置情報(座標)を取得し、取得した各中点の位置情報に基づいて、画像座標系を基準として脊椎画像上の予め定められた一方向に沿う順序で各中点の順序付けを行う。画像座標系とは、画像ファイルに固有の画像上における座標系をいう。また、本実施の形態では、予め定められた一方向として、脊椎画像の脊椎の延在方向のうち頭尾方向を用いる。具体的には、制御部41は、予め定められた一方向に垂直な方向の直線(基準線)に対する各中点の位置関係及び直線(基準線)と各中点との距離に基づいて、各点の順序付けを行う。
 なお、本実施の形態では、モニタ座標系を(X,Y)、画像座標系を(x,y)として区別する。
 ここで、ある直線に対するある点の位置関係(点が直線を境界としてどちらの領域に属するか又は直線上にあるか)を判別するための式(以下、判別式という。)について説明する。判別式Dは、式ax+by+c=0で表される直線に対する点(α,β)の位置関係について、次のように定義される。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 また、点(α,β)と式ax+by+c=0で表される直線との距離dは、次式により求められる。
Figure JPOXMLDOC01-appb-M000003
 ある直線を基準線として、基準線に垂直な方向に沿う順序で複数の点の順序付けを行う方法について、図5及び図6を参照して、第1の順序付け方法及び第2の順序付け方法を説明する。
 図5は、第1の順序付け方法を示すフローチャートである。この処理は、複数の点のうち、判別式Dが負の点を距離dが大きいものから順に順序付け、判別式Dが0の点をそれに次ぐ順序とし、次に判別式Dが正の点を距離dが小さいものから順に順序付ける処理であり、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 第1の順序付け方法では、まず、制御部41は、順序付けの対象となる各点の座標を取得し(ステップS1)、基準線ax+by+c=0を取得する(ステップS2)。
 次に、制御部41は、各点のうち、ある点について基準線に対する判別式Dが負であるか否かを判断し(ステップS3)、判別式Dが負である場合には(ステップS3;YES)、基準線との距離dが大きい方から小さい方へ順に順序付けを行う(ステップS4)。一方、判別式Dが0又は正である場合には(ステップS3;NO)、基準線との距離dが小さい方から大きい方へ順に順序付けを行う(ステップS5)。
 次に、制御部41は、全ての点について終了したか否かを判断し(ステップS6)、未処理の点がある場合には(ステップS6;NO)、ステップS3~ステップS6の処理を繰り返す。全ての点について終了した場合には(ステップS6;YES)、判別式Dが負の場合における順序の次に、判別式Dが0又は正である場合における順序をつなげて一連の順序付けとする(ステップS7)。
 図6は、第2の順序付け方法を示すフローチャートである。この処理は、複数の点のうち、判別式Dが正の点を距離dが大きいものから順に順序付け、判別式Dが0の点をそれに次ぐ順序とし、次に判別式Dが負の点を距離dが小さいものから順に順序付ける処理であり、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 第2の順序付け方法では、まず、制御部41は、順序付けの対象となる各点の座標を取得し(ステップS11)、基準線ax+by+c=0を取得する(ステップS12)。
 次に、制御部41は、各点のうち、ある点について基準線に対する判別式Dが正であるか否かを判断し(ステップS13)、判別式Dが正である場合には(ステップS13;YES)、基準線との距離dが大きい方から小さい方へ順に順序付けを行う(ステップS14)。一方、判別式Dが0又は負である場合には(ステップS13;NO)、基準線との距離dが小さい方から大きい方へ順に順序付けを行う(ステップS15)。
 次に、制御部41は、全ての点について終了したか否かを判断し(ステップS16)、未処理の点がある場合には(ステップS16;NO)、ステップS13~ステップS16の処理を繰り返す。全ての点について終了した場合には(ステップS16;YES)、判別式Dが正の場合における順序の次に、判別式Dが0又は負である場合における順序をつなげて一連の順序付けとする(ステップS17)。
 図7を参照して、直線x-y=0を基準線として、点P(100,500)、点Q(200,300)、点R(500,200)について、第1の順序付け方法を用いて順序付けを行う場合について説明する。直線x-y=0を基準線として、各点について判別式Dを求めると、点PはD>0、点QはD>0、点RはD<0となる。また、各点と直線x-y=0との距離dを求めると、点Pは約283、点Qは約71、点Rは約212となる。したがって、各点に対する判別式Dと距離dとから、点R、点Q、点Pと順序が付けられる。
 この方法を応用して、医用画像上に描画された複数の補助線の各中点の順序付けを行う。
 図8A~図8Dに、画像座標系(x,y)を基準とした画像の位置関係を示す。本実施の形態では、各画像がx=0~10000、y=0~10000のサイズで生成されているものとする。図8Aは、y軸の負方向が画像の頭側になるように撮影した場合の例であり、図8Bは、x軸の正方向が画像の頭側になるように撮影した場合の例であり、図8Cは、y軸の正方向が画像の頭側になるように撮影した場合の例であり、図8Dは、x軸の負方向が画像の頭側になるように撮影した場合の例である。通常は、図8Aに示す位置関係で撮影される場合が多い。
 画像診断に用いる角度や数値の計測を行う際には、図9A~図9Dに示すように、画像の頭側がモニタ画面の上側になるように画像を回転させて表示する。図9Aは、図8Aの画像を回転させずにそのまま表示させたものであり、図9Bは、図8Bの画像を右回りに270度回転させたものであり、図9Cは、図8Cの画像を右回りに180度回転させたものであり、図9Dは、図8Dの画像を右回りに90度回転させたものである。
 図9Aに示す位置関係の場合は、図10Aに示すように、y=0を基準線としてy軸の正方向に向かって各補助線の中点の順序付けを行う(第1の順序付け方法)。図9Bに示す位置関係の場合は、図10Bに示すように、x=10000を基準線としてx軸の負方向に向かって各補助線の中点の順序付けを行う(第2の順序付け方法)。図9Cに示す位置関係の場合は、図10Cに示すように、y=10000を基準線としてy軸の負方向に向かって各補助線の中点の順序付けを行う(第2の順序付け方法)。図9Dに示す位置関係の場合は、図10Dに示すように、x=0を基準線としてx軸の正方向に向かって各補助線の中点の順序付けを行う(第1の順序付け方法)。
 すなわち、制御部41は、脊椎画像の4辺のうち頭側端部に相当する1辺を基準線として、基準線からの距離が小さい順に各補助線の中点の順序付けを行えばよい。そして、制御部41は、順序付けられた各中点の順序を、頭尾方向における各補助線の順序とする。
 制御部41は、順序付けられた順序(すなわち、頭尾方向順)において相隣る二つの補助線同士が互いになす角度をコブ角として計測する。具体的には、制御部41は、脊椎画像に湾曲部が二つ存在する場合には、頭側から1番目の補助線と頭側から2番目の補助線とのなす角度を第一カーブのコブ角として計測し、頭側から2番目の補助線と頭側から3番目の補助線とのなす角度を第二カーブのコブ角として計測する。また、制御部41は、脊椎画像に湾曲部が三つ存在する場合には、頭側から1番目の補助線と頭側から2番目の補助線とのなす角度を第一カーブのコブ角として計測し、頭側から2番目の補助線と頭側から3番目の補助線とのなす角度を第二カーブのコブ角として計測し、頭側から3番目の補助線と頭側から4番目の補助線とのなす角度を第三カーブのコブ角として計測する。
 制御部41は、各補助線が描画された後、各補助線の各中点の頭尾方向における相対的な位置関係(すなわち、各中点の頭尾方向に沿う順序)が入れ替わる補助線の移動を禁止する。
 次に、脊椎画像からコブ角を計測する際の具体的な動作を説明する。
 図11は、画像計測装置40において実行されるコブ角計測処理を示すフローチャートである。この処理は、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。図11では、二つの湾曲部が存在する脊椎を示す脊椎画像を計測対象とし、各湾曲部のコブ角を計測する場合について説明する。
 まず、操作部42からの操作により、計測対象となる脊椎画像の画像ファイルが選択され、制御部41の制御に従って、通信部44により、画像サーバ装置30に対して、選択された脊椎画像の画像ファイルの取得要求が送信される。そして、制御部41により、通信部44を介して、画像サーバ装置30から脊椎画像の画像ファイルが取得される(ステップT1)。
 次に、制御部41により、取得された脊椎画像の画像ファイルに基づいて、表示部43のモニタ画面に脊椎画像が表示される(ステップT2)。ここで、必要に応じて、操作部42からの操作により、画像の回転が指示されると、制御部41により、画像の回転処理が行われる(ステップT3)。具体的には、図9A~図9Dに示すように、画像の頭側がモニタ画面の上側になるように画像が回転されて表示される。
 次に、操作部42からの操作に基づいて、制御部41により、補助線描画処理が行われる(ステップT4)。補助線描画処理は、脊椎画像の脊椎の延在方向に交差する方向の補助線を複数描画する処理であって、各補助線は、脊椎画像の二つの湾曲部のそれぞれの上位終椎の軸方向上端又は下位終椎の軸方向下端に沿って描画される。ここで、図12を参照して、補助線描画処理について説明する。
 まず、図13Aに示すように、描画順が1番目の補助線の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の始点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における1点目の座標(x1,y1)が決定される(ステップT21)。次に、図13Bに示すように、描画順が1番目の補助線の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の終点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における2点目の座標(x2,y2)が決定される(ステップT22)。そして、制御部41により、1点目の座標(x1,y1)と2点目の座標(x2,y2)を結ぶ補助線が表示部43のモニタ画面に表示された脊椎画像上に描画される(ステップT23)。図13A及び図13Bは、第一カーブの上位終椎の軸方向上端に沿う補助線を描画する場合の例である。
 次に、図13Cに示すように、描画順が2番目の補助線の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の始点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における3点目の座標(x3,y3)が決定される(ステップT24)。次に、図13Dに示すように、描画順が2番目の補助線の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の終点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における4点目の座標(x4,y4)が決定される(ステップT25)。そして、制御部41により、3点目の座標(x3,y3)と4点目の座標(x4,y4)を結ぶ補助線が表示部43のモニタ画面に表示された脊椎画像上に描画される(ステップT26)。図13C及び図13Dは、第二カーブの下位終椎の軸方向下端に沿う補助線を描画する場合の例である。
 次に、図13Eに示すように、描画順が3番目の補助線の始点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の始点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における5点目の座標(x5,y5)が決定される(ステップT27)。次に、図13Fに示すように、描画順が3番目の補助線の終点となる位置にマウスカーソルMCが置かれた状態でユーザにより操作部42のマウスボタンが押下され、補助線の終点位置が指定されると、制御部41により、マウスボタンが押下された位置(モニタ座標系)に対応する画像座標系における6点目の座標(x6,y6)が決定される(ステップT28)。そして、制御部41により、5点目の座標(x5,y5)と6点目の座標(x6,y6)を結ぶ補助線が表示部43のモニタ画面に表示された脊椎画像上に描画される(ステップT29)。図13E及び図13Fは、第一カーブの下位終椎の軸方向下端に沿う補助線(第二カーブの上位終椎の軸方向上端に沿う補助線)を描画する場合の例である。
 図11に戻り、制御部41により、1点目の座標(x1,y1)と2点目の座標(x2,y2)の中点の座標(x12,y12)が取得され(ステップT5)、3点目の座標(x3,y3)と4点目の座標(x4,y4)の中点の座標(x34,y34)が取得され(ステップT6)、5点目の座標(x5,y5)と6点目の座標(x6,y6)の中点の座標(x56,y56)が取得される(ステップT7)。各中点の座標は、画像座標系で表されている。
 次に、制御部41により、画像の回転状態に応じて、脊椎画像の4辺のうち頭側端部に相当する1辺が基準線として取得される(ステップT8)。具体的には、図9Aに示す位置関係の場合は、y=0が基準線として取得され、図9Bに示す位置関係の場合は、x=10000が基準線として取得され、図9Cに示す位置関係の場合は、y=10000が基準線として取得され、図9Dに示す位置関係の場合は、x=0が基準線として取得される。
 次に、制御部41により、各補助線の中点の位置情報に基づいて、画像座標系を基準として脊椎画像の脊椎の延在方向のうち頭尾方向に沿う順序で各中点の順序付けが行われる。具体的には、制御部41により、各中点の座標に基づいて、基準線からの距離が小さい順に各中点の順序付けが行われる(ステップT9)。例えば、図9Aに示す位置関係の場合は、図10Aに示すように、各中点のy座標が小さい順に各補助線の中点の順序付けが行われる。図9Bに示す位置関係の場合は、図10Bに示すように、各中点のx座標が大きい順に各補助線の中点の順序付けが行われる。図9Cに示す位置関係の場合は、図10Cに示すように、各中点のy座標が大きい順に各補助線の中点の順序付けが行われる。図9Dに示す位置関係の場合は、図10Dに示すように、各中点のx座標が小さい順に各補助線の中点の順序付けが行われる。そして、各中点の順序が、頭尾方向における各補助線の順序となる。
 次に、制御部41により、順序付けられた順序(すなわち、頭尾方向順)において相隣る二つの補助線同士が互いになす角度がコブ角として計測される(ステップT10)。具体的には、制御部41により、頭側から1番目の補助線と頭側から2番目の補助線とのなす角度が第一カーブのコブ角として計測され、頭側から2番目の補助線と頭側から3番目の補助線とのなす角度が第二カーブのコブ角として計測される。
 次に、制御部41により、表示部43のモニタ画面に計測結果が表示される(ステップT11)。図13Fの例では、コブ角の計測に用いる各補助線とともに、第一カーブのコブ角及び第二カーブのコブ角の値が「第一カーブ17.9° 第二カーブ21.2°」と表示されている。
 以上でコブ角計測処理が終了する。
 図14は、画像計測装置40において実行される補助線移動時処理Aを示すフローチャートである。この処理は、脊椎画像上に既に複数の補助線が描画されている状態で行われる処理であり、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 まず、表示部43のモニタ画面に表示されている脊椎画像において、操作部42からのユーザの操作により、描画された補助線のうちいずれか一の補助線が移動対象として選択される(ステップT31)。具体的には、移動対象となる補助線上にマウスカーソルが置かれた状態で操作部42のマウスボタンが押下されると、補助線が選択された状態になる。
 次に、制御部41により、図11のステップT9において順序付けられた結果に基づいて、選択された補助線の種類(選択された補助線が脊椎画像の頭側から何番目の補助線であるか)が取得される(ステップT32)。
 次に、操作部42からのユーザの操作により、選択された補助線の位置が移動される(ステップT33)。具体的には、マウスボタンを押下した状態で移動先の位置でマウスボタンが離されると、移動後の補助線の位置が決定される。
 ここで、制御部41により、この補助線の移動が他の補助線を越える移動であったか否かが判断される(ステップT34)。具体的には、制御部41により、選択された補助線の中点と他の補助線の中点の脊椎画像の頭尾方向における位置関係が入れ替わったか否かが判断される。
 例えば、図15Aに示すように、脊椎画像上に頭尾方向に順に補助線L1,L2,L3が描画されている状態で、頭側から3番目の補助線L3が移動対象として選択された場合を例に説明する。制御部41により、補助線L3の中点の基準線(脊椎画像の4辺のうち頭側端部に相当する1辺)からの距離と、補助線L2の中点の基準線からの距離とが比較され、図15Bに示すように、補助線L3の中点の基準線からの距離が補助線L2の中点の基準線からの距離より小さくなった場合には、両中点の頭尾方向における位置関係が入れ替わったと判断され、補助線L3が補助線L2を越えたと判断される。
 選択された補助線の移動が他の補助線を越える移動であった場合には(ステップT34;YES)、制御部41により、補助線の移動が中止される(ステップT35)。
 一方、選択された補助線の移動が他の補助線を越える移動でなかった場合には(ステップT34;NO)、制御部41により、補助線の移動は許可される。
 以上で、補助線移動時処理Aが終了する。
 以上説明したように、第1の実施の形態における画像計測装置40によれば、脊椎画像上に描画された複数の補助線の各中点について、頭尾方向に沿った順序を得ることができる。このため、各補助線を描画する際にユーザが描画順を気にする必要がなく、任意の順序で各補助線の描画位置を指定することができ、操作性を向上させることができる。また、画像座標系における位置情報を用いることにより、脊椎画像が回転されている場合であっても、正確に各中点の順序付けを行うことができる。
 また、頭尾方向に垂直な方向の基準線を利用して、基準線に対する各中点の位置関係及び基準線と各中点との距離に基づいて、各中点の順序付けを行うことができる。
 また、各補助線が描画された後は、各補助線の各中点の頭尾方向における位置関係が入れ替わる補助線の移動を禁止するので、各中点の頭尾方向に沿う順序が入れ替わるのを防ぐことができる。
[第2の実施の形態]
 次に、本発明を適用した第2の実施の形態について説明する。
 第2の実施の形態における医用画像システムは、第1の実施の形態に示した医用画像システム100と同様の構成によってなるため、同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
 第1の実施の形態では、画像計測装置40において、各補助線が描画された後、各補助線の各中点の頭尾方向における位置関係が入れ替わる移動を禁止する場合について説明したが、第2の実施の形態では、各補助線の移動は自由に行うことができることとする。
 画像計測装置40の制御部41は、各補助線が描画された後、各補助線のうちいずれか一の補助線の位置が移動された場合、すなわち、各補助線の各中点のうちいずれか一の中点の位置が移動された場合に、移動後の各中点の画像座標系における位置情報に基づいて、予め定められた一方向に沿う順序で各中点の順序付けをし直す。本実施の形態では、予め定められた一方向として、脊椎画像の脊椎の延在方向のうち頭尾方向を用いる。この際、制御部41は、各補助線の中点のうちいずれか一の中点の移動により、各中点の頭尾方向における相対的な位置関係が入れ替わった場合にのみ、頭尾方向に沿う順序で各中点の順序付けをし直す。
 次に、画像計測装置40における具体的な動作を説明する。
 表示部43のモニタ画面に表示された脊椎画像に対して補助線を描画し、コブ角を計測する処理については、第1の実施の形態において説明したコブ角計測処理(図11参照)と同様であるため、説明を省略する。
 図16は、画像計測装置40において実行される補助線移動時処理Bを示すフローチャートである。この処理は、脊椎画像上に既に複数の補助線が描画されている状態で行われる処理であり、制御部41のCPUと、ROM45に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
 まず、表示部43のモニタ画面に表示されている脊椎画像において、操作部42からのユーザの操作により、描画された補助線のうちいずれか一の補助線が移動対象として選択される(ステップT41)。具体的には、移動対象となる補助線上にマウスカーソルが置かれた状態で操作部42のマウスボタンが押下されると、補助線が選択された状態になる。
 次に、制御部41により、補助線を描画した際に順序付けられた結果に基づいて、選択された補助線の種類(選択された補助線が脊椎画像の頭側から何番目の補助線であるか)が取得される(ステップT42)。
 次に、操作部42からのユーザの操作により、選択された補助線の位置が移動される(ステップT43)。具体的には、マウスボタンを押下した状態で移動先の位置でマウスボタンが離されると、移動後の補助線の位置が決定される。
 ここで、制御部41により、この補助線の移動が他の補助線を越える移動であったか否かが判断される(ステップT44)。具体的には、制御部41により、選択された補助線の中点と他の補助線の中点の脊椎画像の頭尾方向における位置関係が入れ替わったか否かが判断される。
 例えば、図17Aに示すように、脊椎画像上に頭尾方向に順に補助線L11,L12,L13が描画されている状態で、頭側から3番目の補助線L13が移動対象として選択された場合を例に説明する。制御部41により、補助線L13の中点の基準線(脊椎画像の4辺のうち頭側端部に相当する1辺)からの距離と、補助線L12の中点の基準線からの距離とが比較され、図17Bに示すように、補助線L13の中点の基準線からの距離が補助線L12の中点の基準線からの距離より小さくなった場合には、両中点の頭尾方向における位置関係が入れ替わったと判断され、補助線L13が補助線L12を越えたと判断される。
 選択された補助線の移動が他の補助線を越える移動であった場合には(ステップT44;YES)、制御部41により、移動後の各補助線の中点の画像座標系における座標が取得され(ステップT45)、画像の回転状態に応じて、脊椎画像の4辺のうち頭側端部に相当する1辺が基準線として取得される(ステップT46)。
 次に、制御部41により、各補助線の中点の位置情報に基づいて、脊椎画像の脊椎の延在方向のうち頭尾方向に沿う順序で各中点の順序付けがし直される。具体的には、制御部41により、各中点の座標に基づいて、基準線からの距離が小さい順に各中点の順序付けがし直される(ステップT47)。
 次に、制御部41により、順序付けられた順序(すなわち、頭尾方向順)において相隣る二つの補助線同士が互いになす角度がコブ角として計測される(ステップT48)。図17Bの例では、制御部41により、補助線L11と補助線L13とのなす角度が第一カーブのコブ角として計測され、補助線L13と補助線L12とのなす角度が第二カーブのコブ角として計測される。
 次に、制御部41により、表示部43のモニタ画面に計測結果が表示される(ステップT49)。図17Bの例では、コブ角の計測に用いる各補助線とともに、第一カーブのコブ角及び第二カーブのコブ角の値が「第一カーブ3.9° 第二カーブ21.2°」と表示されている。
 一方、選択された補助線の移動が他の補助線を越える移動でなかった場合には(ステップT44;NO)、そのまま終了する。
 以上で、補助線移動時処理Bが終了する。
 以上説明したように、第2の実施の形態における画像計測装置40によれば、脊椎画像上に描画された複数の補助線の各中点について、頭尾方向に沿った順序を得ることができる。
 また、頭尾方向に垂直な方向の基準線を利用して、基準線に対する各中点の位置関係及び基準線と各中点との距離に基づいて、各中点の順序付けを行うことができる。
 また、各補助線の各中点のうちいずれか一の中点の位置が移動された場合に、移動後の各中点の位置情報に基づいて頭尾方向に沿う順序で各中点の順序付けをし直すので、常に正確に各中点の順序付けを行うことができる。この際、各補助線の中点のうちいずれか一の中点の移動により、各中点の頭尾方向における位置関係が入れ替わった場合にのみ、すなわち、必要な場合にのみ、各中点の順序付けをし直すので、各中点の順序付けにおいて効率化を図ることができる。
 第2の実施の形態では、各補助線の中点のうちいずれか一の中点の移動によって各中点の頭尾方向における位置関係が入れ替わった場合にのみ、各中点の順序付けをし直すこととしたが、補助線の移動があった場合に、各中点の頭尾方向における位置関係の入れ替わりの有無にかかわらず、各中点の順序付けをし直すこととしてもよい。
 なお、上記各実施の形態における記述は、本発明に係る順序解析装置の一例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても適宜変更可能である。
 例えば、上記各実施の形態では、脊椎画像の脊椎の延在方向のうち、頭尾方向に沿う順序で各補助線の順序付けを行う場合について説明したが、逆方向(尾頭方向)に沿う順序で各補助線の順序付けを行うこととしてもよい。
 また、上記各実施の形態では、脊椎画像上に描画された各補助線の中点を順序付けの対象としたが、ユーザがマウス等の操作により画像上で指定した点や、医用画像上で特徴となる形状を示す部分の接点等を対象としてもよい。
 以上の説明では、各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリ等の不揮発性メモリ、CD-ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。
 本発明に係る順序解析装置及びプログラムは、医用画像から診断に用いる数値や角度を計測する医療分野において利用可能性がある。
符号の説明
10 RIS
20 モダリティ
30 画像サーバ装置
31 制御部
32 操作部
33 表示部
34 通信部
35 ROM
36 記憶部
37 バス
40 画像計測装置
41 制御部
42 操作部
43 表示部
44 通信部
45 ROM
46 記憶部
47 バス
100 医用画像システム
N ネットワーク
MC マウスカーソル

Claims (7)

  1.  医用画像上の複数の点の画像座標系における位置情報を取得し、当該取得した各点の位置情報に基づいて、画像座標系を基準として前記医用画像上の予め定められた一方向に沿う順序で前記各点の順序付けを行う制御手段を備える順序解析装置。
  2.  前記制御手段は、前記一方向に垂直な方向の直線に対する前記各点の位置関係及び前記直線と前記各点との距離に基づいて、前記各点の順序付けを行う、
     請求項1に記載の順序解析装置。
  3.  前記制御手段は、前記各点が前記直線を境界としてどちらの領域に属するかを判別し、二つの領域のうち一の領域に属する前記各点について前記直線との距離が大きいものから順に順序付けを行い、次いで、他の領域に属する前記各点について前記直線との距離が小さいものから順に順序付けを行う、
     請求項2に記載の順序解析装置。
  4.  前記制御手段は、更に、前記各点の前記一方向における位置関係が入れ替わる移動を禁止する、
     請求項1から3のいずれか一項に記載の順序解析装置。
  5.  前記制御手段は、更に、前記各点のうちいずれか一の点の位置が移動された場合に、当該移動後の各点の画像座標系における位置情報に基づいて、前記一方向に沿う順序で前記各点の順序付けをし直す、
     請求項1から3のいずれか一項に記載の順序解析装置。
  6.  前記制御手段は、前記各点のうちいずれか一の点の移動により、前記各点の前記一方向における位置関係が入れ替わった場合にのみ、前記一方向に沿う順序で前記各点の順序付けをし直す、
     請求項5に記載の順序解析装置。
  7.  コンピュータを、
     医用画像上の複数の点の画像座標系における位置情報を取得し、当該取得した各点の位置情報に基づいて、画像座標系を基準として前記医用画像上の予め定められた一方向に沿う順序で前記各点の順序付けを行う制御手段として機能させるためのプログラム。
PCT/JP2009/052625 2008-03-18 2009-02-17 順序解析装置及びプログラム WO2009116341A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010503800A JPWO2009116341A1 (ja) 2008-03-18 2009-02-17 順序解析装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008069690 2008-03-18
JP2008-069690 2008-03-18

Publications (1)

Publication Number Publication Date
WO2009116341A1 true WO2009116341A1 (ja) 2009-09-24

Family

ID=41090749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052625 WO2009116341A1 (ja) 2008-03-18 2009-02-17 順序解析装置及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2009116341A1 (ja)
WO (1) WO2009116341A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125958A (ja) * 2000-10-25 2002-05-08 Fuji Photo Film Co Ltd 画像を幾何学的に計測するための計測処理装置
JP2003290217A (ja) * 2002-04-03 2003-10-14 Toshiba Corp X線診断装置および医用画像解析装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192104A (ja) * 2005-01-14 2006-07-27 Konica Minolta Medical & Graphic Inc 画像計測装置及び画像計測方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125958A (ja) * 2000-10-25 2002-05-08 Fuji Photo Film Co Ltd 画像を幾何学的に計測するための計測処理装置
JP2003290217A (ja) * 2002-04-03 2003-10-14 Toshiba Corp X線診断装置および医用画像解析装置

Also Published As

Publication number Publication date
JPWO2009116341A1 (ja) 2011-07-21

Similar Documents

Publication Publication Date Title
WO2009119181A1 (ja) 画像計測装置、医用画像システム及びプログラム
US10852939B2 (en) Medical image display apparatus and recording medium
US20100171682A1 (en) Medical image display apparatus and computer readable medium
JP4645264B2 (ja) 医用画像読影管理システム
JP5146528B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP2009232982A (ja) 画像計測装置、医用画像システム及びプログラム
JP4143567B2 (ja) 画像表示装置及びプログラム
JP4935728B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP5343615B2 (ja) 医用画像表示装置及びプログラム
WO2009116341A1 (ja) 順序解析装置及びプログラム
JP4973555B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP4973556B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP2010233879A (ja) 画像計測装置及びプログラム
JP2009219766A (ja) 画像計測装置、医用画像システム及びプログラム
JP2018089157A (ja) 画像管理装置、画像表示方法及び記録媒体
JP4935726B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP4935725B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP4935727B2 (ja) 画像計測装置、医用画像システム及びプログラム
JP6732593B2 (ja) 画像処理装置および画像処理方法
JP5853785B2 (ja) 医用画像表示システム
JP5369891B2 (ja) 画像計測装置及びプログラム
JP2009125147A (ja) 画像処理装置、画像処理方法及びプログラム
JP2010238040A (ja) 画像計測装置及びプログラム
US11334997B2 (en) Hinge detection for orthopedic fixation
JP2009125140A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09721643

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010503800

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09721643

Country of ref document: EP

Kind code of ref document: A1