WO2022085493A1 - 医用画像処理装置 - Google Patents

医用画像処理装置 Download PDF

Info

Publication number
WO2022085493A1
WO2022085493A1 PCT/JP2021/037378 JP2021037378W WO2022085493A1 WO 2022085493 A1 WO2022085493 A1 WO 2022085493A1 JP 2021037378 W JP2021037378 W JP 2021037378W WO 2022085493 A1 WO2022085493 A1 WO 2022085493A1
Authority
WO
WIPO (PCT)
Prior art keywords
candidate
medical image
region
processing apparatus
image processing
Prior art date
Application number
PCT/JP2021/037378
Other languages
English (en)
French (fr)
Inventor
剛司 野田
聡太 鳥居
春樹 岩井
由昌 小林
久典 加藤
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202180071085.0A priority Critical patent/CN116456904A/zh
Publication of WO2022085493A1 publication Critical patent/WO2022085493A1/ja
Priority to US18/192,832 priority patent/US20230245308A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Definitions

  • the embodiments disclosed in the present specification and the like relate to a medical image processing apparatus.
  • BMD Bone Mineral Density
  • BD mammary gland density
  • One of the problems to be solved by the embodiment disclosed in the present specification and the like is to enable the setting of an appropriate region of interest.
  • the problems solved by the embodiments disclosed in the present specification and the like are not limited to the above problems.
  • the problem corresponding to each effect by each configuration shown in the embodiment described later can be positioned as another problem to be solved by the embodiment disclosed in the present specification and the like.
  • the medical image processing device of the embodiment includes an acquisition unit, a setting unit, an analysis unit, and an output unit.
  • the acquisition unit acquires a medical image.
  • the setting unit sets a plurality of candidate regions on the medical image as candidates for the region of interest to be set on the medical image.
  • the analysis unit executes a quantitative analysis regarding the composition of the subject for each of the plurality of candidate regions.
  • the output unit outputs a plurality of analysis results corresponding to each of the plurality of candidate areas.
  • FIG. 1 is a block diagram showing an example of the configuration of the medical information processing system according to the first embodiment.
  • FIG. 2 is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 3A is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 3B is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 3C is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 4 is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 5 is a diagram for explaining a candidate region according to the first embodiment.
  • FIG. 6 is a diagram showing a display example according to the first embodiment.
  • FIG. 7 is a diagram showing a display example according to the first embodiment.
  • FIG. 1 is a block diagram showing an example of the configuration of the medical information processing system according to the first embodiment.
  • FIG. 2 is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • FIG. 8 is a diagram showing a display example according to the first embodiment.
  • FIG. 9 is a diagram showing a display example according to the first embodiment.
  • FIG. 10 is a diagram showing a display example according to the first embodiment.
  • FIG. 11 is a flowchart for explaining a series of processes of the medical image processing apparatus according to the first embodiment.
  • FIG. 12 is a diagram for explaining the mammary gland density measurement according to the second embodiment.
  • a medical information processing system 1 including a medical image diagnosis device 10, an image storage device 20, and a medical image processing device 30 will be described as an example.
  • the medical image diagnostic device 10, the image storage device 20, and the medical image processing device 30 are connected to each other via a network NW as shown in FIG.
  • the medical image diagnostic device 10 is a device that captures an image of a subject P and collects a medical image.
  • the medical image diagnostic device 10 is an X-ray diagnostic device
  • the medical image diagnostic device 10 irradiates the subject P with X-rays and detects the X-rays transmitted through the subject P to obtain an X-ray image. To collect. Further, the medical image diagnostic device 10 transmits the collected X-ray image to the image storage device 20 or the medical image processing device 30 via the network NW.
  • the image storage device 20 stores various medical images.
  • the image storage device 20 receives an X-ray image collected by the medical image diagnostic device 10 and stores it in a memory provided inside or outside the device.
  • the image storage device 20 is a server of PACS (Picture Archiving and Communication System).
  • the medical image processing device 30 executes various processes described later using the medical images collected by the medical image diagnostic device 10.
  • the medical image processing apparatus 30 includes an input interface 31, a display 32, a memory 33, and a processing circuit 34, as shown in FIG.
  • the input interface 31 receives various input operations from the user, converts the received input operations into electric signals, and outputs the received input operations to the processing circuit 34.
  • the input interface 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the non-contact input circuit, voice input circuit, etc. used.
  • the input interface 31 may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical image processing device 30. Further, the input interface 31 may be a circuit that accepts an input operation from the user by motion capture.
  • the input interface 31 can receive the user's body movement, line of sight, and the like as an input operation by processing the signal acquired through the tracker and the image collected about the user. Further, the input interface 31 is not limited to the one provided with physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the medical image processing device 30 and outputs the electric signal to the processing circuit 34 is also an input interface 31. Included in the example.
  • the display 32 displays various information.
  • the display 32 displays the medical image collected by the medical image diagnostic apparatus 10 and the result of the analysis performed using the medical image under the control of the processing circuit 34.
  • the display 32 displays a GUI (Graphical User Interface) for receiving various instructions and settings from the user via the input interface 31.
  • the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display.
  • the display 32 may be a desktop type, or may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical image processing device 30.
  • the medical image processing device 30 may include a projector in place of or in addition to the display 32.
  • the projector can project onto a screen, a wall, a floor, a body surface of the subject P, or the like.
  • the projector can also project onto an arbitrary plane, object, space, etc. by projection mapping.
  • the memory 33 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like.
  • the memory 33 stores a program for the circuit included in the medical image processing device 30 to realize its function.
  • the memory 33 stores the medical image collected by the medical image diagnostic apparatus 10.
  • the memory 33 may be realized by a server group (cloud) connected to the medical image processing device 30 via a network NW.
  • the processing circuit 34 controls the operation of the entire medical image processing apparatus 30 by executing the control function 34a, the acquisition function 34b, the setting function 34c, the analysis function 34d, the output function 34e, and the reception function 34f.
  • the acquisition function 34b is an example of an acquisition unit.
  • the setting function 34c is an example of the setting unit.
  • the analysis function 34d is an example of the analysis unit.
  • the output function 34e is an example of an output unit.
  • the reception function 34f is an example of the reception unit.
  • the processing circuit 34 reads a program corresponding to the control function 34a from the memory 33 and executes it, and based on various input operations received from the user via the input interface 31, the acquisition function 34b and the setting function 34c. , Analysis function 34d, output function 34e, reception function 34f, and other various functions are controlled.
  • the processing circuit 34 acquires a medical image by reading a program corresponding to the acquisition function 34b from the memory 33 and executing the program.
  • the acquisition function 34b acquires an X-ray image collected by the medical image diagnosis device 10 and stored in the image storage device 20 via the network NW.
  • the acquisition function 34b may acquire an X-ray image directly from the medical image diagnosis device 10 without going through the image storage device 20.
  • the processing circuit 34 reads a program corresponding to the setting function 34c from the memory 33 and executes it to set a plurality of candidate areas on the medical image as candidates for the region of interest to be set on the medical image. .. Further, for example, the processing circuit 34 reads a program corresponding to the analysis function 34d from the memory 33 and executes it to execute a quantitative analysis regarding the composition of the subject P for each of the plurality of candidate regions. Further, for example, the processing circuit 34 reads a program corresponding to the output function 34e from the memory 33 and executes it, thereby outputting a plurality of analysis results corresponding to each of the plurality of candidate areas.
  • the processing circuit 34 reads a program corresponding to the reception function 34f from the memory 33 and executes the operation to select one of a plurality of candidate areas as the area of interest from the user who has referred to the analysis result. Accept.
  • the processing by the setting function 34c, the analysis function 34d, the output function 34e, and the reception function 34f will be described later.
  • each processing function is stored in the memory 33 in the form of a program that can be executed by a computer.
  • the processing circuit 34 is a processor that realizes a function corresponding to each program by reading a program from the memory 33 and executing the program. In other words, the processing circuit 34 in the state where the program is read has a function corresponding to the read program.
  • control function 34a the acquisition function 34b, the setting function 34c, the analysis function 34d, the output function 34e, and the reception function 34f are realized by a single processing circuit 34, a plurality of independent functions are realized.
  • the processing circuit 34 may be configured by combining the processors, and the functions may be realized by each processor executing a program. Further, each processing function of the processing circuit 34 may be appropriately distributed or integrated into a single or a plurality of processing circuits.
  • the processing circuit 34 may realize the function by using the processor of the external device connected via the network NW. For example, the processing circuit 34 reads a program corresponding to each function from the memory 33 and executes it, and also uses a server group (cloud) connected to the medical image processing device 30 via a network NW as a computational resource. , Each function shown in FIG. 1 is realized.
  • the medical image processing device 30 sets a region of interest on the X-ray image collected by the medical image diagnostic device 10, and executes quantitative analysis according to the region of interest.
  • the medical image processing apparatus 30 performs a bone mineral quantitative measurement as a quantitative analysis and calculates a bone density (Bone Mineral Density: BMD).
  • the medical image diagnostic apparatus 10 uses a plurality of X-ray energies to collect X-ray images corresponding to each X-ray energy.
  • the medical diagnostic imaging apparatus 10 performs dual energy acquisition and obtains a first X-ray image corresponding to the first X-ray energy and a second X-ray image corresponding to the second X-ray energy. collect.
  • the medical diagnostic imaging apparatus 10 can perform dual energy acquisition by controlling the tube voltage supplied to the X-ray tube.
  • the medical image diagnostic device 10 transmits the first X-ray image and the second X-ray image to the image storage device 20 or the medical image processing device 30 via the network NW.
  • the acquisition function 34b acquires a first X-ray image and a second X-ray image from the image storage device 20 or the medical image diagnosis device 10. Next, the acquisition function 34b generates a bone density image based on the first X-ray image and the second X-ray image.
  • the acquisition function 34b performs a substance discrimination process to separate the bone component existing in the imaging target site from other components.
  • the acquisition function 34b defines calcium (Ca) and water as reference substances, and estimates the abundance ratio of calcium to water and the abundance ratio of water to calcium for each pixel.
  • the acquisition function 34b can generate a substance discrimination image corresponding to the calcium component as a bone density image.
  • the acquisition function 34b has been described as generating a bone density image, the acquisition function 34b assumes that the bone density image generated by the medical image diagnostic apparatus 10 or another apparatus is acquired via the network NW. It doesn't matter.
  • the setting function 34c sets the region of interest on the bone density image.
  • the setting function 34c sets the region of interest R11 as shown in FIG.
  • the region of interest R11 is a soft tissue.
  • the region of interest R11 may be automatically set by the setting function 34c, or may be set based on a user operation.
  • FIG. 2 is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment. In FIG. 2, a case where quantitative measurement of bone mineral content of vertebrae is performed will be described.
  • the region of interest R11 shown in FIG. 2 may include transverse processes of vertebrae and bones other than vertebrae (ribs, ilium, etc.). In this case, the BMD may be calculated lower.
  • the setting function 34c further sets a neutral region as a region of interest, as shown in FIGS. 3A, 3B and 3C.
  • 3A, 3B and 3C are diagrams for explaining the bone mineral quantitative measurement according to the first embodiment.
  • the setting function 34c sets the region of interest R21 corresponding to the vertebrae, as shown in FIG. 3A. Further, as shown in FIG. 3B, the setting function 34c sets the region of interest R22 corresponding to the transverse process of the vertebra and the bone other than the vertebra. That is, the region of interest R22 is a neutral region that does not fall under any of the vertebrae and soft tissues. Further, the setting function 34c sets the region of interest R23 corresponding to the soft tissue, as shown in FIG. 3C.
  • the analysis function 34d executes the quantitative measurement of bone mineral based on the set region of interest.
  • FIG. 4 is a diagram for explaining the bone mineral quantitative measurement according to the first embodiment.
  • the horizontal axis of the bone density image will be described as the x-axis
  • the vertical axis will be described as the y-axis.
  • the bone region is extracted on the bone density image and the set region of interest is used. Therefore, the value of BMD is affected by the region of interest, and if the region of interest is not set appropriately, the BMD may also be an inappropriate value.
  • the boundaries between tissues, such as between bone and soft tissue may be ambiguous and it is not easy to set a region of interest.
  • AI artificial intelligence
  • the user can fine-tune the set region of interest according to his / her taste and patient, it is not easy to grasp the influence of the result of the fine-tuning on the quantitative analysis.
  • the medical image processing apparatus 30 makes it possible to set an appropriate region of interest by the processing described in detail below. Specifically, first, the acquisition function 34b acquires a medical image. For example, the acquisition function 34b generates a bone density image based on the first X-ray image and the second X-ray image collected by dual energy. Alternatively, the acquisition function 34b acquires a bone density image generated by another device via the network NW.
  • FIG. 5 is a diagram for explaining a candidate region according to the first embodiment.
  • the setting function 34c sets the candidate region R31, the candidate region R32, and the candidate region R33 as candidates for the region of interest corresponding to the vertebrae.
  • the setting function 34c can set the candidate area by various methods.
  • the setting function 34c can set a candidate region using a trained model that is functionalized to accept input of a medical image and estimate a region of interest.
  • the trained model may be generated by the setting function 34c, or may be generated by a device other than the medical image processing device 30.
  • the trained model is stored in, for example, the memory 33, and is appropriately read out and used by the setting function 34c.
  • the trained model is configured by a convolutional neural network (Convolutional Neural Network).
  • a convolutional neural network is a network that propagates information from the input layer side to the output layer side while maintaining the relationship between pixels. For example, a region of interest that has been set on a medical image in the past and in which an abnormal value does not occur in the result of bone mineral quantification measurement based on the region of interest is used as teacher data. Trained with parameters that generate teacher data in the region of interest from the data on the input side by performing training on a multi-layered neural network with medical images as input side data and teacher data in the region of interest as output side data. A model is generated.
  • the multi-layer neural network is composed of, for example, an input layer, a plurality of intermediate layers (hidden layers), and an output layer.
  • the setting function 34c inputs the bone density image acquired by the acquisition function 34b into the trained model, and sets the estimation result of the region of interest obtained by the trained model as a candidate region.
  • a plurality of trained models may be used, and the estimation results of a plurality of regions of interest obtained by each trained model may be set as candidate regions.
  • the trained model is generated based on the rigor of the area judgment and the teacher data of different creators or groups.
  • the setting function 34c may set a candidate area by threshold processing. For example, the setting function 34c may set the result of estimating the region corresponding to the bone by comparing the pixel value of each pixel in the bone density image acquired by the acquisition function 34b with the threshold value as a candidate region.
  • the setting function 34c may set a candidate region by performing a graph cut process on the bone density image.
  • the setting function 34c may set a candidate area by a user operation.
  • the output function 34e displays the bone density image acquired by the acquisition function 34b on the display 32, and the user performs an operation of drawing the outline of the candidate region while referring to the bone density image.
  • the setting function 34c may set the area drawn by the user as a candidate area.
  • the output function 34e displays a plurality of candidate areas on the display 32, and the user performs an operation of adjusting the displayed candidate areas. In this case, the setting function 34c sets the area adjusted by the user as a new candidate area.
  • the setting function 34c may set a candidate area by performing morphology processing. For example, the setting function 34c sets a candidate region by enlarging or reducing the region output from the trained model as the estimation result of the region of interest. As an example, the setting function 34c sets the area output from the trained model as the estimation result of the region of interest as the candidate area R32, sets the area obtained by reducing the candidate area R32 as the candidate area R31, and sets the candidate area R32. The expanded area is set as the candidate area R33.
  • the setting function 34c accepts an operation of selecting one of a plurality of preset parameters from the user, and performs morphology processing based on the selected parameters.
  • the setting function 34c accepts an operation of selecting one of the parameters such as "80%", “90%”, "110%”, and "120%” from the user.
  • the setting function 34c expands the region output from the trained model as the estimation result of the region of interest to the size of "110%” while maintaining the shape and center position.
  • the setting function 34c may perform morphology processing based on an arbitrary parameter received from the user. That is, the setting function 34c may perform discrete morphology processing or continuous morphology processing.
  • the output function 34e displays the bone density image on the display 32, and the user specifies an arbitrary point on the bone density image.
  • the setting function 34c sets a candidate area by enlarging or reducing the area output from the trained model as the estimation result of the area of interest so as to pass through the point specified by the user.
  • the output function 34e causes the display 32 to display the candidate area R31, the candidate area R32, and the candidate area R33 shown in FIG.
  • the user designates an arbitrary point in the area between the candidate area R31 and the candidate area R32 and the area between the candidate area R32 and the candidate area R33.
  • the setting function 34c enlarges or reduces the candidate area R31 or the candidate area R32 so as to pass through the point specified by the user. And set the candidate area.
  • the embodiment is not limited to this.
  • the setting function 34c may execute morphology processing on the area set by the threshold value processing, the area set by the graph cut processing, the area created by the user operation, and the like to set the candidate area. not.
  • the setting function 34c may set a candidate region including cortical bone and a candidate region not including cortical bone, respectively.
  • the setting function 34c can extract the cortical bone region from the bone density image and set the candidate region including the cortical bone and the candidate region not including the cortical bone, respectively.
  • the output function 34e may display a plurality of candidate regions so that it can be identified whether or not each candidate region includes cortical bone.
  • the analysis function 34d executes quantitative bone mineral measurement for each of the plurality of candidate regions set by the setting function 34c. For example, the analysis function 34d calculates BMD for a plurality of candidate regions R31 to R33.
  • the output function 34e outputs the analysis result by the analysis function 34d.
  • the output function 34e displays a plurality of analysis results in association with a plurality of candidate areas. For example, the output function 34e associates the plurality of candidate areas R31 to R33 with the calculated BMDs and displays them on the display 32.
  • the output function 34e displays a graph in which the type of candidate area (ROI TYPE) such as the candidate area R31, the candidate area R32, and the candidate area R33 is used as the horizontal axis and the BMD value is used as the vertical axis. It is displayed on the display 32.
  • the type of candidate area ROI TYPE
  • the BMD value is used as the vertical axis. It is displayed on the display 32.
  • the user determines whether to select the candidate area based on the figure displayed on the display 32.
  • the user can use various information such as patient information such as the age and gender of the subject P, the symptom complained by the subject P, the past test results of the subject P, and the impression of referring to the bone density image. Roughly estimate the value of BMD.
  • the figure shown in FIG. 6 serves as a material for determining which candidate region is appropriate as the region of interest.
  • the user refers to the bone density image and the display of the candidate area shown in FIG. 5, and selects one of the candidate area R31, the candidate area R32, and the candidate area R33.
  • the candidate area R33 is not appropriate, it is assumed that it is difficult to determine which of the candidate area R31 and the candidate area R32 is appropriate.
  • the user can select the candidate region R31 and the candidate region R32 where the BMD has a more appropriate value as the region of interest by referring to the diagram shown in FIG.
  • the reception function 34f accepts an operation for selecting an area of interest.
  • the user performs an operation of selecting an area of interest by a click operation using a mouse, an operation of tapping a touch panel, a voice input, or the like.
  • the reception function 34f accepts an operation of designating a position on the graph shown in FIG. 6 or a position on a character such as "R31", "R32", or "R33” as an operation of selecting an area of interest.
  • the reception function 34f accepts the operation of designating the position on the bone density image shown in FIG. 5 as the operation of selecting the region of interest.
  • the reception function 34f accepts the operation of designating the position on the legend shown in FIG. 5 as the operation of selecting the region of interest.
  • the output function 34e outputs the analysis result corresponding to the selected region of interest. For example, when the candidate region R32 is selected as the region of interest, the output function 34e causes the display 32 to display a report in which the BMD of the candidate region R32 is described. As a result, the user can perform various diagnoses such as grasping the therapeutic effect on the subject P and formulating a treatment plan.
  • the above-mentioned user may be a doctor or an inspection engineer.
  • the reception function 34f accepts the selection of the region of interest from the doctor, and the output function 34e causes the doctor to display the analysis result corresponding to the selected region of interest.
  • the reception function 34f accepts the selection of the region of interest from the examination engineer, and the output function 34e causes the doctor to display the analysis result corresponding to the selected region of interest.
  • the output function 34e controls the display of the display 32
  • the embodiment is not limited to this.
  • the output function 34e may control the projector to project the graph of FIG.
  • the output function 34e may transmit the graph of FIG. 6 to another device, and the display in the other device may display to the user.
  • the output function 34e may output the graph of FIG. 6 from the printer and provide it to the user. The same applies to various displays described later.
  • the graph in FIG. 6 is an example, and various modifications are possible.
  • the output function 34e transfers the BMD calculated based on the candidate area R31, the BMD calculated based on the candidate area R32, and the BMD calculated based on the candidate area R33 to each of the candidate area R31, the candidate area R32, and the candidate area R33. It may be associated and displayed as a table or text.
  • the output function 34e may further display an image showing a candidate area in association with the analysis result.
  • the output function 34e links the plot of the BMD calculated based on the candidate area R31 to display an image showing the candidate area R31 on the graph.
  • the output function 34e links the plot of the BMD calculated based on the candidate area R32 to display an image showing the candidate area R32 on the graph.
  • the output function 34e links the plot of the BMD calculated based on the candidate area R33 to display an image showing the candidate area R33 on the graph.
  • the output function 34e may display the analysis results corresponding to each of the plurality of candidate regions in association with the time axis.
  • FIG. 8 shows a case where the bone mineral quantitative measurement of the subject P is performed at the measurement date / time T1, the measurement date / time T2, and the measurement date / time T3.
  • the setting function 34c sets the candidate areas of the candidate area R41, the candidate area R42, the candidate area R43, the candidate area R44, and the candidate area R45 at each measurement date and time.
  • the setting function 34c inputs the bone density image collected from the subject P at the measurement date and time T1 into the trained model, and sets the region output from the trained model as the candidate region R41. Further, the setting function 34c inputs the bone density image collected from the subject P at the measurement date / time T2 into the trained model, and sets the region output from the trained model as the candidate region R41. Further, the setting function 34c inputs the bone density image collected from the subject P at the measurement date / time T3 into the trained model, and sets the region output from the trained model as the candidate region R41. That is, the setting function 34c sets the area output from the trained model as the candidate area R41 at each measurement date and time.
  • the setting function 34c sets the candidate area R42 at each measurement date and time by executing the morphology processing for the area output from the first trained model. Further, the setting function 34c sets the region output from the second trained model, which is different from the first trained model, as the candidate region R43 at each measurement date and time. Further, to give an example, the setting function 34c sets the candidate region R44 at each measurement date and time by performing the threshold value processing. Further, to give an example, the setting function 34c sets the candidate area R45 at each measurement date and time by performing the graph cut process.
  • the output function 34e displays a three-axis graph including an axis indicating the type of candidate region (ROI TYPE), an axis indicating the BMD value, and an axis indicating the measurement date and time.
  • the user selects the region of interest with reference to the BMD calculated this time and the BMD calculated in the past. In other words, the user can select the region of interest in consideration of the achievement and reliability of each candidate region.
  • the output function 34e may detect an abnormal value candidate from a plurality of analysis results. For example, in FIG. 8, the BMD corresponding to the candidate region R44 set at the measurement date / time T3 has a prominently high value. In such a case, the output function 34e detects the BMD of (R44, T3) as an abnormal value candidate. For example, the output function 34e calculates a standard deviation for each measurement date and time and the BMD value of each candidate region, and sets an error range based on the standard deviation. As an example, when the bone density image contains a plurality of vertebral bodies (vertebral bones), the output function 34e sets an error range by performing statistical processing on the BMD calculated for each vertebral body. Can be done.
  • the output function 34e can estimate the number of photons based on the pixel value of the bone density image and set the error range based on the estimation result. For example, the output function 34e estimates the amount of quantum noise according to the Poisson distribution based on the estimation result of the number of photons, sums the amount of quantum noise and the amount of predetermined noise corresponding to the circuit noise, and makes an error range. To set. Then, when the BMD value is not included in the error range, the output function 34e detects it as an abnormal value candidate. As an example, the output function 34e detects a BMD value that is not included in a predetermined interval (for example, a range of 3 ⁇ ) on the probability distribution as an abnormal value candidate.
  • a predetermined interval for example, a range of 3 ⁇
  • the output function 34e may detect an abnormal value candidate for each measurement date and time. For example, the output function 34e calculates a standard deviation for the BMD value of each candidate region for each measurement date and time, compares it with an error range, and detects an abnormal value candidate. Alternatively, the output function 34e may detect an outlier candidate for each candidate area. For example, the output function 34e calculates a standard deviation for the BMD value at each measurement date and time for each candidate region, compares it with an error range, and detects an abnormal value candidate.
  • the error range may be set based on a smaller candidate area. That is, the smaller the candidate area, the lower the possibility that an inappropriate area is included in the candidate area. For example, when setting a region of interest corresponding to bone, if the candidate region is small, the possibility that soft tissue or the like is included in the candidate region is low. On the other hand, the smaller the candidate area, the smaller the number of pixels included in the candidate area, and the more easily it is affected by statistical error.
  • the output function 34e can improve the detection accuracy of the outlier candidate by applying the error range set based on the smaller candidate region to the other candidate regions.
  • the output function 34e sets an error range for each candidate area based on the candidate area R41. If the error in the candidate region R41 is ⁇ from past measurements, device specifications, etc., the error in the R4X region corresponds to “ ⁇ ⁇ R41 region area / R4X region area”. Then, the output function 34e detects an abnormal value candidate by comparing the BMD of each candidate area with the error range set for each candidate area.
  • the output function 34e may display an image showing a candidate area related to the abnormal value candidate. For example, when the BMD of (R44, T3) is detected as an abnormal value candidate, the output function 34e displays an image showing the candidate area R44 set at the measurement date and time T3, as shown in FIG. Further, the output function 34e displays an image showing the candidate area R44 set in the measurement date / time T1 or T2 which is not detected as an abnormal value candidate, so that images having the same candidate area but different measurement dates / times can be compared. May be good.
  • the output function 34e may highlight the portion where the bone density has changed significantly by coloring or the like. This enables the user to estimate the cause of the occurrence of the outlier candidate. For example, when there are many parts where the bone density changes significantly, it is presumed that the abnormal value candidates are generated due to the actual change in the bone density. On the other hand, when there is no particular portion where the bone density changes significantly, it is presumed that an abnormal value candidate has occurred because the set candidate region is inappropriate.
  • the output function 34e provides an image display area in addition to the area for displaying the graph shown in FIG. 9, an image showing the candidate area R44 set at the measurement date / time T3, and a candidate area set at the measurement date / time T2.
  • An image showing R44 may be displayed on the stack.
  • the output function 34e may be appropriately switched to a two-dimensional graph and displayed.
  • the output function 34e has a two-dimensional graph consisting of two axes of the candidate area type (ROI TYPE) and the BMD value, and a two-dimensional graph consisting of the measurement date and time and the BMD value, based on the user operation. It may be displayed by switching between the graph and the graph.
  • ROI TYPE candidate area type
  • BMD value the candidate area type
  • the output function 34e may change the display target based on the outlier candidate. For example, when the BMD of (R44, T3) is detected as an abnormal value candidate, the output function 34e may not display the value of the BMD corresponding to the candidate area R44 as shown in FIG. Such a change in the display target may be reflected from the measurement date / time T3 when the abnormal value candidate is detected, or may be reflected after the next time. Further, when each candidate area is used as learning data for machine learning, the candidate area detected as an outlier candidate may be excluded from the learning data. Note that FIG. 10 is a diagram showing a display example according to the first embodiment.
  • the setting function 34c sets the candidate region R211 and the candidate region R212 as candidates for the region of interest corresponding to the vertebrae. Further, the setting function 34c sets the candidate region R221 and the candidate region R222 as candidates for the region of interest corresponding to the neutral region. Further, the setting function 34c sets the candidate region R231 and the candidate region R232 as candidates for the region of interest corresponding to the soft tissue. That is, when setting a plurality of interest regions, the setting function 34c sets a plurality of candidate regions for each of the interest regions.
  • the analysis function 34d executes quantitative bone mineral measurement for each combination of candidate regions. For example, the analysis function 34d calculates the BMD based on the combination of the candidate area R211 and the candidate area R221 and the candidate area R231. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R211 and the candidate area R221 and the candidate area R232. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R211 and the candidate area R222 and the candidate area R231. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R211 and the candidate area R222 and the candidate area R232.
  • the analysis function 34d calculates the BMD based on the combination of the candidate area R212, the candidate area R221, and the candidate area R231. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R212, the candidate area R221, and the candidate area R232. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R212, the candidate area R222, and the candidate area R231. Further, the analysis function 34d calculates the BMD based on the combination of the candidate area R212, the candidate area R222, and the candidate area R232.
  • the output function 34e outputs the analysis result.
  • the output function 34e displays the BMD calculated based on the combination of candidate areas in association with the combination of candidate areas used for calculating the BMD.
  • the output function 34e causes the display 32 to display a graph in which the horizontal axis is a combination of candidate areas and the vertical axis is BMD.
  • the reception function 34f receives from the user an operation of selecting one of a plurality of candidate areas as the area of interest. For example, when the user selects a BMD value calculated based on the combination of the candidate area R211 and the candidate area R221, the reception function 34f selects the candidate area R211 as the area of interest corresponding to the vertebrae. Assuming that the candidate region R221 is selected as a candidate for the region of interest corresponding to the neutral region and the candidate region R231 is selected as a candidate for the region of interest corresponding to the soft tissue, an operation from the user can be accepted.
  • FIG. 11 is a flowchart for explaining a series of processes of the medical image processing apparatus 30 according to the first embodiment.
  • Step S101 corresponds to the acquisition function 34b.
  • Step S102 corresponds to the setting function 34c.
  • Step S103 corresponds to the analysis function 34d.
  • Step S104 corresponds to the output function 34e.
  • Step S105 and step S106 correspond to the reception function 34f.
  • the processing circuit 34 acquires a medical image (step S101). For example, the processing circuit 34 generates a bone density image based on the first X-ray image and the second X-ray image. For example, the processing circuit 34 acquires a bone density image via the network NW. Next, the processing circuit 34 sets a plurality of candidate regions (step S102). Next, the processing circuit 34 executes a quantitative analysis (step S103). For example, the processing circuit 34 performs bone mineral quantification (BMD) measurement for each of the plurality of candidate regions.
  • BMD bone mineral quantification
  • the processing circuit 34 displays the analysis result (step S104). For example, the processing circuit 34 displays BMD corresponding to each of the plurality of candidate areas on the display 32 by displaying FIGS. 6, 7, 8, 9, 10, and the like.
  • the processing circuit 34 accepts the selection of the region of interest (step S105). That is, the processing circuit 34 accepts an operation of selecting one of the plurality of candidate regions as the region of interest from the user who has referred to the analysis results corresponding to each of the plurality of candidate regions in step S104.
  • the processing circuit 34 determines whether or not the region of interest has been selected (step S106). When the region of interest is not selected (negative in step S106), the processing circuit 34 goes into a standby state. Alternatively, if the region of interest is not selected, the processing circuit 34 may shift to step S102 again and reset a plurality of candidate regions. Here, the processing circuit 34 may set a candidate area different from the previous time by using a trained model different from the previous time or changing the threshold value in the threshold value processing, for example. On the other hand, when the region of interest is selected (affirmation in step S106), the processing circuit 34 ends the processing.
  • the acquisition function 34b acquires a medical image. Further, the setting function 34c sets a plurality of candidate regions on the medical image as candidates for the region of interest to be set on the medical image. Further, the analysis function 34d executes a quantitative analysis regarding the composition of the subject P for each of the plurality of candidate regions. Further, the output function 34e outputs a plurality of analysis results corresponding to each of the plurality of candidate areas.
  • the medical image processing apparatus 30 can set an appropriate region of interest.
  • the user can refer to the plurality of analysis results corresponding to each of the plurality of candidate regions and determine which of the plurality of candidate regions is selected as the region of interest. That is, the user further uses the analysis result obtained when the candidate area is used in addition to the information such as the medical image itself and the shape of the candidate area set on the medical image as a judgment material, and is more appropriate. You can select the area of interest.
  • the setting function 34c sets a plurality of candidate regions for each of the interest regions.
  • the analysis function 34d executes a quantitative analysis for each combination of candidate regions. Therefore, the medical image processing apparatus 30 can set an appropriate region of interest even when performing quantitative analysis using a plurality of regions of interest, such as for quantitative measurement of bone mineral.
  • the output function 34e displays the plurality of analysis results in association with the time axis.
  • the output function 34e causes the display 32 to display a three-axis graph including an axis indicating the type of the candidate area, an axis indicating the BMD value, and an axis indicating the measurement date and time. Therefore, the medical image processing apparatus 30 can set a more appropriate region of interest. Specifically, when the user decides which of the plurality of candidate areas to select as the area of interest, the user further uses the analysis result obtained by using the candidate area in the past as a judgment material, and is more appropriate. You can select the area of interest.
  • the output function 34e detects an abnormal value candidate from a plurality of analysis results. Therefore, the medical image processing apparatus 30 can set a more appropriate region of interest. For example, when an outlier candidate is detected, the output function 34e can display an image showing a candidate area related to the outlier candidate. This allows the user to determine whether the outlier candidate is caused by an actual change in bone density or the like, or is caused by an inappropriate candidate region. Further, when it is determined that an outlier candidate has occurred due to an inappropriate candidate area, the user can avoid selecting such a candidate area as a region of interest.
  • the medical image processing apparatus 30 is basically described above only in the first bone mineral quantification measurement. Processing may be performed. That is, in the first bone mineral quantification measurement, the setting function 34c sets a plurality of candidate regions, the analysis function 34d executes the bone mineral quantification measurement for each of the plurality of candidate regions, and the output function 34e performs a plurality of candidate regions. Output multiple analysis results corresponding to each area. This allows the user to select an appropriate region of interest.
  • the region of interest set in the first bone mineral quantification measurement can be used. Thereby, the medical image processing apparatus 30 can unify the analysis conditions of the bone mineral quantitative measurement performed a plurality of times, and can easily evaluate the change with time.
  • the medical image processing apparatus 30 may perform the above-mentioned processing also in the second and subsequent bone mineral quantification measurements. That is, the setting function 34c sets a plurality of candidate regions in the second and subsequent bone mineral quantification measurements, the analysis function 34d executes the bone mineral quantification measurement for each of the plurality of candidate regions, and the output function 34e has a plurality of candidate regions. A plurality of analysis results corresponding to each of the candidate areas may be output.
  • the medical image processing apparatus 30 may be set to perform the above-mentioned processing in the second and subsequent bone mineral quantification measurements, or may perform the above-mentioned processing in response to a request from the user.
  • the region of interest set in the first bone mineral quantification measurement is also used in the second and subsequent bone mineral quantification measurements, and a report is created.
  • the medical image processing apparatus 30 can additionally execute the above-mentioned processing.
  • the bone density image is generated and the candidate region is set.
  • the setting function 34c performs preprocessing on the bone density image prior to setting the candidate region, and the bone after the pretreatment.
  • a candidate area may be set in the density image.
  • the setting function 34c executes a cortical bone removal process on the bone density image as a preprocessing. Specifically, the setting function 34c extracts a region corresponding to cortical bone in the bone density image, and replaces the extracted region with a background component or the like.
  • the candidate region will be set based on the cancellous bone excluding the cortical bone.
  • the change in bone density is small in cortical bone and large in cancellous bone. Therefore, by calculating BMD based on cancellous bone, more useful information can be provided to the user.
  • the trained model is configured by the convolutional neural network
  • the trained model may be configured by another machine learning method.
  • Other machine learning methods include extracting multiple region of interest candidates by feature extraction using digital filters and pattern matching, and classifying and estimating the final region of interest using methods such as boosting and support vector machines. can give.
  • the bone mineral quantitative measurement has been described as an example of the quantitative analysis.
  • the embodiment is not limited to this, and various quantitative analyzes regarding the composition of the subject P can be similarly applied.
  • the analysis function 34d may execute the mammary gland density measurement as a quantitative analysis regarding the composition of the subject P and calculate the mammary gland density (Breast Density: BD).
  • the medical information processing system 1 includes, for example, a mammography device as a medical diagnostic imaging device 10.
  • the medical diagnostic imaging apparatus 10 photographs the breast of the subject P and collects mammography images such as MLO (Mediatal-Oblique) images, CC (Cranio-Caudal) images, and tomosynthesis images.
  • the acquisition function 34b acquires a mammography image from the image storage device 20 or the medical image diagnosis device 10.
  • the region of interest R51 is the region corresponding to the breast.
  • the region of interest R52 is a region in which the mammary gland is present.
  • the analysis function 34d can calculate the BD by dividing the area of the region of interest R52 by the area of the region of interest R51.
  • BD may also have an inappropriate value.
  • FIG. 12 is a diagram for explaining the mammary gland density measurement according to the second embodiment.
  • the setting function 34c sets the candidate area R511 and the candidate area R512 as candidates for the region of interest R51. Further, the setting function 34c sets the candidate area R521 and the candidate area R522 as candidates for the region of interest R52. That is, the setting function 34c sets a plurality of candidate regions for each of the plurality of interest regions.
  • the analysis function 34d calculates the BD based on the combination of the candidate area R511 and the candidate area R521. Further, the analysis function 34d calculates the BD based on the combination of the candidate region R511 and the candidate region R522. Further, the analysis function 34d calculates the BD based on the combination of the candidate area R512 and the candidate area R521. Further, the analysis function 34d calculates the BD based on the combination of the candidate region R512 and the candidate region R522. That is, the analysis function 34d executes the mammary gland density measurement for each combination of candidate regions.
  • the output function 34e outputs the analysis result.
  • the output function 34e displays the BD calculated based on the combination of candidate areas in association with the combination of candidate areas used to calculate the BD.
  • the output function 34e causes the display 32 to display a graph in which the horizontal axis is a combination of candidate areas and the vertical axis is BD.
  • the reception function 34f accepts from the user an operation of selecting one of a plurality of candidate areas as the area of interest. For example, when the user selects a BD value calculated based on the combination of the candidate area R511 and the candidate area R521, the reception function 34f selects the candidate area R511 as the area of interest R51 and the candidate area R521 as the area of interest R52. Can be accepted as an operation from the user as if is selected.
  • the medical image processing apparatus 30 may basically perform the above-mentioned processing each time. That is, since it is basic to set the region of interest each time in the mammary gland density measurement, the setting function 34c sets a plurality of candidate regions in each mammary gland density measurement, and the analysis function 34d sets each of the plurality of candidate regions.
  • the mammary gland density measurement is executed, and the output function 34e outputs a plurality of analysis results corresponding to each of the plurality of candidate regions.
  • an X-ray image such as a bone density image or a mammography image has been described as an example of a medical image.
  • the embodiments are not limited to this.
  • an X-ray CT (Computed Tomography) image a PET (Positron Expression Computed Tomography) image, a SPECT (Single Photon Emission Computed Tomography) image, an image for an ultrasound image such as an image for a ceremonial doctor, an ultrasonic image, an image for an ultrasound, an image, an image, an image, an image, an image, an image, an image, and an image. Even when it is executed, it can be applied in the same manner.
  • the place where the medical image diagnosis device 10, the image storage device 20, and the medical image processing device 30 are installed is arbitrary.
  • the medical image processing device 30 may be installed in a hospital different from the medical image diagnostic device 10. That is, the network NW may be configured by a local network closed in the hospital, or may be a network via the Internet.
  • the medical image diagnosis device 10 and the medical image processing device 30 have been described as separate bodies, but the medical image processing device 30 may be included in the medical image diagnosis device 10.
  • the console device in the medical image diagnosis device 10 may perform the function as the medical image diagnosis device 10.
  • the acquisition function 34b can acquire a medical image by imaging the subject P.
  • processor used in the above description is, for example, a CPU, a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Program)). It means a circuit such as a Logic Device (SPLD), a composite programmable logic device (Complex Programmable Logic Device: CPLD), and a field programmable gate array (Field Programmable Gate Array: FPGA).
  • SPLD Logic Device
  • CPLD Complex Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • each processor of the embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. .. Further, a plurality of components in each figure may be integrated into one processor to realize the function.
  • a single memory 33 has been described as storing a program corresponding to each processing function of the processing circuit 34.
  • the embodiments are not limited to this.
  • a plurality of memories 33 may be distributed and arranged, and the processing circuit 34 may be configured to read a corresponding program from the individual memories 33.
  • the program may be configured to be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit.
  • each component of each device is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the medical image processing method described in the above-described embodiment can be realized by executing a medical image processing program prepared in advance on a computer such as a personal computer or a workstation.
  • This medical image processing program can be distributed via a network such as the Internet.
  • this medical image processing program is recorded on a non-transient recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD that can be read by a computer, and is read from the recording medium by the computer. Can also be done by.
  • the disclosed technique supplies a program that implements one or more of the functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a circuit for example, ASIC
  • Medical information processing system 10 Medical image diagnostic device 30 Medical image processing device 34 Processing circuit 34a Control function 34b Acquisition function 34c Setting function 34d Analysis function 34e Output function 34f Reception function

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

実施形態の医用画像処理装置は、取得部と、設定部と、解析部と、出力部とを備える。取得部は、医用画像を取得する。設定部は、前記医用画像上に設定する関心領域の候補として、前記医用画像上に複数の候補領域を設定する。解析部は、複数の前記候補領域のそれぞれについて、被検体の組成に関する定量解析を実行する。出力部は、複数の前記候補領域のそれぞれに対応した、複数の解析結果を出力する。

Description

医用画像処理装置
 本明細書等に開示の実施形態は、医用画像処理装置に関する。
 医用画像上に設定された関心領域に対して定量解析を行なう技術が普及してきている。定量解析を行なう技術としては、例えば、骨塩定量(BMD:Bone Mineral Density)、乳腺密度(BD:Breast Density) 等が知られている。定量解析の結果は、設定された関心領域によって影響を受ける場合がある。
特開2008-104798号公報
 本明細書等に開示の実施形態が解決しようとする課題の一つは、適切な関心領域の設定を可能とすることである。ただし、本明細書等に開示の実施形態により解決される課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を、本明細書等に開示の実施形態が解決する他の課題として位置付けることもできる。
 実施形態の医用画像処理装置は、取得部と、設定部と、解析部と、出力部とを備える。取得部は、医用画像を取得する。設定部は、前記医用画像上に設定する関心領域の候補として、前記医用画像上に複数の候補領域を設定する。解析部は、複数の前記候補領域のそれぞれについて、被検体の組成に関する定量解析を実行する。出力部は、複数の前記候補領域のそれぞれに対応した、複数の解析結果を出力する。
図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。 図2は、第1の実施形態に係る骨塩定量測定について説明するための図である。 図3Aは、第1の実施形態に係る骨塩定量測定について説明するための図である。 図3Bは、第1の実施形態に係る骨塩定量測定について説明するための図である。 図3Cは、第1の実施形態に係る骨塩定量測定について説明するための図である。 図4は、第1の実施形態に係る骨塩定量測定について説明するための図である。 図5は、第1の実施形態に係る候補領域について説明するための図である。 図6は、第1の実施形態に係る表示例を示す図である。 図7は、第1の実施形態に係る表示例を示す図である。 図8は、第1の実施形態に係る表示例を示す図である。 図9は、第1の実施形態に係る表示例を示す図である。 図10は、第1の実施形態に係る表示例を示す図である。 図11は、第1の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。 図12は、第2の実施形態に係る乳腺密度測定について説明するための図である。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(第1の実施形態)
 医用画像診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用情報処理システム1を例として説明する。例えば、医用画像診断装置10、画像保管装置20及び医用画像処理装置30は、図1に示すように、ネットワークNWを介して相互に接続される。
 医用画像診断装置10は、被検体Pの撮像を行なって医用画像を収集する装置である。医用画像診断装置10がX線診断装置である場合、医用画像診断装置10は、被検体Pに対してX線を照射し、被検体Pを透過したX線を検出することにより、X線画像を収集する。また、医用画像診断装置10は、収集したX線画像を、ネットワークNWを介して、画像保管装置20又は医用画像処理装置30に送信する。
 画像保管装置20は、各種の医用画像を保管する。例えば、画像保管装置20は、医用画像診断装置10によって収集されたX線画像を受け付けて、装置内又は装置外に設けられたメモリに記憶させる。例えば、画像保管装置20は、PACS(Picture Archiving and Communication System)のサーバである。
 医用画像処理装置30は、医用画像診断装置10によって収集された医用画像を用いて、後述する各種の処理を実行する。例えば、医用画像処理装置30は、図1に示すように、入力インタフェース31、ディスプレイ32、メモリ33及び処理回路34を備える。
 入力インタフェース31は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インタフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インタフェース31は、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インタフェース31は、モーションキャプチャによりユーザからの入力操作を受け付ける回路であっても構わない。一例を挙げると、入力インタフェース31は、トラッカーを介して取得した信号やユーザについて収集された画像を処理することにより、ユーザの体動や視線等を入力操作として受け付けることができる。また、入力インタフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用画像処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インタフェース31の例に含まれる。
 ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34による制御の下、医用画像診断装置10によって収集された医用画像や、医用画像を用いて実行された解析の結果を表示する。また、例えば、ディスプレイ32は、入力インタフェース31を介してユーザから各種の指示や設定等を受け付けるためのGUI(Graphical User Interface)を表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。
 なお、図1においては医用画像処理装置30がディスプレイ32を備えるものとして説明するが、医用画像処理装置30は、ディスプレイ32に代えて又は加えて、プロジェクタを備えてもよい。プロジェクタは、処理回路34による制御の下、スクリーンや壁、床、被検体Pの体表面等に対して投影を行なうことができる。一例を挙げると、プロジェクタは、プロジェクションマッピングによって、任意の平面や物体、空間等への投影を行うこともできる。
 メモリ33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ33は、医用画像処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。また、メモリ33は、医用画像診断装置10によって収集された医用画像を記憶する。なお、メモリ33は、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。
 処理回路34は、制御機能34a、取得機能34b、設定機能34c、解析機能34d、出力機能34e及び受付機能34fを実行することで、医用画像処理装置30全体の動作を制御する。取得機能34bは、取得部の一例である。また、設定機能34cは、設定部の一例である。また、解析機能34dは、解析部の一例である。また、出力機能34eは、出力部の一例である。また、受付機能34fは、受付部の一例である。
 例えば、処理回路34は、制御機能34aに対応するプログラムをメモリ33から読み出して実行することにより、入力インタフェース31を介してユーザから受け付けた各種の入力操作に基づいて、取得機能34b、設定機能34c、解析機能34d、出力機能34e、受付機能34fといった各種の機能を制御する。
 また、例えば、処理回路34は、取得機能34bに対応するプログラムをメモリ33から読み出して実行することにより、医用画像を取得する。例えば、取得機能34bは、医用画像診断装置10によって収集されて画像保管装置20において保管されているX線画像を、ネットワークNWを介して取得する。或いは、取得機能34bは、画像保管装置20を介すことなく、医用画像診断装置10から直接的にX線画像を取得することとしても構わない。
 また、例えば、処理回路34は、設定機能34cに対応するプログラムをメモリ33から読み出して実行することにより、医用画像上に設定する関心領域の候補として、医用画像上に複数の候補領域を設定する。また、例えば、処理回路34は、解析機能34dに対応するプログラムをメモリ33から読み出して実行することにより、複数の候補領域のそれぞれについて、被検体Pの組成に関する定量解析を実行する。また、例えば、処理回路34は、出力機能34eに対応するプログラムをメモリ33から読み出して実行することにより、複数の候補領域のそれぞれに対応した複数の解析結果を出力する。また、例えば、処理回路34は、受付機能34fに対応するプログラムをメモリ33から読み出して実行することにより、解析結果を参照したユーザから、関心領域として複数の候補領域のうちいずれかを選択する操作を受け付ける。なお、設定機能34c、解析機能34d、出力機能34e及び受付機能34fによる処理については後述する。
 図1に示す医用画像処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ33へ記憶されている。処理回路34は、メモリ33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。
 なお、図1においては単一の処理回路34にて、制御機能34a、取得機能34b、設定機能34c、解析機能34d、出力機能34e及び受付機能34fが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。
 また、処理回路34は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。
 以上、医用画像処理装置30を含んだ医用情報処理システム1の構成例について説明した。かかる構成の下、医用画像処理装置30は、医用画像診断装置10によって収集されたX線画像上に関心領域を設定し、関心領域に応じた定量解析を実行する。
 例えば、医用画像処理装置30は、定量解析として骨塩定量測定を行ない、骨密度(Bone Mineral Density:BMD)を算出する。この場合、医用画像診断装置10においては、複数のX線エネルギーを用いて、各X線エネルギーに対応したX線画像が収集される。例えば、医用画像診断装置10は、デュアルエナジー収集を実行し、第1のX線エネルギーに対応する第1のX線画像と、第2のX線エネルギーに対応する第2のX線画像とを収集する。一例を挙げると、医用画像診断装置10は、X線管に供給する管電圧を制御することによって、デュアルエナジー収集を実行することができる。また、医用画像診断装置10は、第1のX線画像及び第2のX線画像を、ネットワークNWを介して、画像保管装置20又は医用画像処理装置30に対して送信する。
 次に、取得機能34bは、画像保管装置20又は医用画像診断装置10から、第1のX線画像及び第2のX線画像を取得する。次に、取得機能34bは、第1のX線画像及び第2のX線画像に基づいて、骨密度画像を生成する。
 例えば、取得機能34bは、物質弁別処理を行ない、撮影対象部位に存在する骨成分を他の成分から分離する。一例を挙げると、取得機能34bは、基準物質としてカルシウム(Ca)及び水を定義し、画素ごとに、水に対するカルシウムの存在比率と、カルシウムに対する水の存在比率とをそれぞれ推定する。これにより、取得機能34bは、骨密度画像として、カルシウム成分に対応する物質弁別画像を生成することができる。なお、取得機能34bが骨密度画像を生成するものとして説明したが、取得機能34bは、医用画像診断装置10又は他の装置において生成された骨密度画像を、ネットワークNWを介して取得することとしても構わない。
 次に、設定機能34cは、骨密度画像上に関心領域を設定する。例えば、設定機能34cは、図2に示すように、関心領域R11を設定する。例えば、関心領域R11は、軟部組織である。関心領域R11は、設定機能34cが自動で設定してもよいし、ユーザ操作に基づいて設定されてもよい。なお、図2は、第1の実施形態に係る骨塩定量測定について説明するための図である。図2においては、椎骨の骨塩定量測定を行なう場合について説明する。
 図2に示す関心領域R11は、椎骨の横突起物や、椎骨以外の骨(肋骨、腸骨など)が含まれるおそれがある。この場合、BMDが低目に算出されるおそれがある。設定機能34cは、図3A、図3B及び図3Cに示すように、関心領域としてニュートラルの領域を更に設定する。図3A、図3B及び図3Cは、第1の実施形態に係る骨塩定量測定について説明するための図である。
 例えば、設定機能34cは、図3Aに示すように、椎骨に対応する関心領域R21を設定する。また、設定機能34cは、図3Bに示すように、椎骨の横突起物や椎骨以外の骨に対応する関心領域R22を設定する。即ち、関心領域R22は、椎骨及び軟部組織のいずれにも該当しないニュートラルの領域である。また、設定機能34cは、図3Cに示すように、軟部組織に対応する関心領域R23を設定する。
 解析機能34dは、設定された関心領域に基づいて、骨塩定量測定を実行する。以下、図4に示すように、骨に対応した関心領域と軟部組織に対応した関心領域とが設定された場合について説明する。図4は、第1の実施形態に係る骨塩定量測定について説明するための図である。図4においては、骨密度画像の横軸をx軸、縦軸をy軸として説明する。
 BMDを算出する際には、骨密度画像上で骨領域を抽出し、設定された関心領域が使用される。このため、BMDの値は関心領域の影響を受け、関心領域が適切に設定されていなければ、BMDも不適切な値となるおそれがある。しかしながら、骨と軟部組織との間など、組織間の境界はあいまいな場合もあり、関心領域を設定することは容易ではない。関心領域の設定方法はいくつか存在し、人工知能(Artificial Intelligence:AI)を活用した方法も提案されているが、いずれの方法にしても常に適切な関心領域が設定されることは保証されない。また、ユーザは、設定された関心領域を好みや患者に応じて微調整することができるが、微調整の結果が定量解析に与える影響を把握することは容易でない。
 医用画像処理装置30は、以下詳細に説明する処理によって、適切な関心領域の設定を可能とする。具体的には、まず、取得機能34bは、医用画像を取得する。例えば、取得機能34bは、デュアルエナジー収集された第1のX線画像及び第2のX線画像に基づいて、骨密度画像を生成する。或いは、取得機能34bは、他の装置で生成された骨密度画像を、ネットワークNWを介して取得する。
 次に、設定機能34cは、医用画像上に設定する関心領域の候補として、医用画像上に複数の候補領域を設定する。以下、この点について図5を用いて説明する。図5は、第1の実施形態に係る候補領域について説明するための図である。図5においては、説明の便宜のため、骨密度画像に含まれる椎骨のみを示す。例えば、設定機能34cは、図5に示すように、椎骨に対応した関心領域の候補として、候補領域R31、候補領域R32及び候補領域R33を設定する。
 設定機能34cは、候補領域を種々の手法で設定することができる。例えば、設定機能34cは、医用画像の入力を受け付けて関心領域の推定を行なうよう機能付けられた学習済みモデルを用いて、候補領域の設定を行なうことができる。学習済みモデルは、設定機能34cが生成してもよいし、医用画像処理装置30以外の他の装置によって生成されても構わない。学習済みモデルは、例えばメモリ33において保管され、設定機能34cによって適宜読み出されて使用される。
 例えば、学習済みモデルは、畳み込みニューラルネットワーク(Convolutional Neural Network)により構成される。畳み込みニューラルネットワークとは、画素間の関係性を維持したまま、情報を入力層側から出力層側に伝播させるネットワークである。例えば、過去に医用画像上に設定された関心領域であって、その関心領域に基づく骨塩定量測定の結果に異常値が生じなかった関心領域を教師データとして使用する。医用画像を入力側データ、関心領域の教師データを出力側データとし、多層のニューラルネットワークについて学習を実行することで、入力側データから関心領域の教師データを生成するようなパラメータを有した学習済みモデルが生成される。なお、多層のニューラルネットワークは、例えば、入力層と、複数の中間層(隠れ層)と、出力層とにより構成される。
 設定機能34cは、取得機能34bが取得した骨密度画像を学習済みモデルに入力し、学習済みモデルにより求められた関心領域の推定結果を、候補領域として設定する。
 なお、学習済みモデルは、複数用いられてもよく、それぞれの学習済みモデルにより求められた複数の関心領域の推定結果を、候補領域として設定してもよい。この場合、学習済みモデルは、領域判断の厳密さや、作成者又はグループを変えた教師データに基づき生成される。
 設定機能34cは、閾値処理により、候補領域を設定してもよい。例えば、設定機能34cは、取得機能34bが取得した骨密度画像における各画素の画素値を閾値と比較することで骨に対応する領域を推定した結果を、候補領域として設定してもよい。
 また、設定機能34cは、骨密度画像についてグラフカット処理を行なうことにより、候補領域を設定してもよい。
 また、設定機能34cは、ユーザ操作によって候補領域を設定してもよい。例えば、出力機能34eは、取得機能34bが取得した骨密度画像をディスプレイ32に表示させ、ユーザは、骨密度画像を参照しつつ候補領域の輪郭を描画する操作を行なう。この場合、設定機能34cは、ユーザによって描画された領域を、候補領域として設定してもよい。出力機能34eは、複数の候補領域をディスプレイ32に表示させ、ユーザは、表示された候補領域を調整する操作を行なう。この場合、設定機能34cは、ユーザによって調整された領域を、新たな候補領域として設定する。
 また、設定機能34cは、モルフォロジ―処理を行なうことにより、候補領域を設定してもよい。例えば、設定機能34cは、関心領域の推定結果として学習済みモデルから出力された領域を拡大又は縮小することにより、候補領域を設定する。一例を挙げると、設定機能34cは、関心領域の推定結果として学習済みモデルから出力された領域を候補領域R32として設定し、候補領域R32を縮小した領域を候補領域R31として設定し、候補領域R32を拡大した領域を候補領域R33として設定する。
 一例を挙げると、設定機能34cは、予め設定した複数のパラメータのうちいずれかを選択する操作をユーザから受け付け、選択されたパラメータに基づいてモルフォロジ―処理を行なう。例えば、設定機能34cは、「80%」、「90%」、「110%」、「120%」といったパラメータのうちのいずれかを選択する操作をユーザから受け付ける。例えば、「110%」が選択された場合、設定機能34cは、関心領域の推定結果として学習済みモデルから出力された領域を、形状及び中心位置を維持しつつ、「110%」のサイズまで拡大する。或いは、設定機能34cは、ユーザから受け付けた任意のパラメータに基づいてモルフォロジ―処理を行なっても構わない。即ち、設定機能34cは、離散的なモルフォロジ―処理を行なってもよいし、連続的なモルフォロジ―処理を行なってもよい。
 別の例を挙げると、出力機能34eは、骨密度画像をディスプレイ32に表示させ、ユーザは、骨密度画像上の任意の点を指定する。設定機能34cは、関心領域の推定結果として学習済みモデルから出力された領域を、ユーザが指定した点を通過するように拡大又は縮小することで、候補領域を設定する。例えば、出力機能34eは、図5に示した候補領域R31、候補領域R32及び候補領域R33をディスプレイ32に表示させる。ユーザは、候補領域R31と候補領域R32との間の領域や、候補領域R32と候補領域R33との間の領域における任意の点を指定する。例えば候補領域R31と候補領域R32との間の領域内の点が指定された場合、設定機能34cは、ユーザが指定した点を通過するように、候補領域R31又は候補領域R32を拡大又は縮小して、候補領域を設定する。
 なお、学習済みモデルから出力された領域に対するモルフォロジ―処理を実行することで候補領域を設定する場合について説明したが、実施形態はこれに限定されるものではない。例えば、設定機能34cは、閾値処理によって設定された領域、グラフカット処理によって設定された領域、ユーザ操作によって作成された領域等に対するモルフォロジ―処理を実行して、候補領域を設定することとしても構わない。
 さらに、設定機能34cは、皮質骨を含む候補領域と皮質骨を含まない候補領域とをそれぞれ設定してもよい。一般に、皮質骨と、皮質骨内部の海綿骨とでは骨密度が異なるため、骨密度画像上での画素値も異なる。従って、設定機能34cは、骨密度画像から皮質骨領域を抽出し、皮質骨を含む候補領域と皮質骨を含まない候補領域とをそれぞれ設定することができる。出力機能34eは、各候補領域が皮質骨を含むものであるか否かを識別できるように、複数の候補領域の表示を行なってもよい。
 解析機能34dは、設定機能34cによって設定された複数の候補領域のそれぞれについて、骨塩定量測定を実行する。例えば、解析機能34dは、複数の候補領域R31~R33についてBMDを算出する。
 出力機能34eは、解析機能34dによる解析結果を出力する。出力機能34eは、複数の解析結果と複数の候補領域とを対応付けて表示させる。例えば、出力機能34eは、複数の候補領域R31~R33と、それぞれ算出されたBMDとを対応付けて、ディスプレイ32に表示させる。
 例えば、出力機能34eは、図6に示すように、候補領域R31、候補領域R32及び候補領域R33といった候補領域の種類(ROI TYPE)を横軸とし、BMDの値を縦軸としたグラフを、ディスプレイ32に表示させる。
 ユーザは、ディスプレイ32に表示された図を基に候補領域を選択するか判断する。ユーザは、被検体Pの年齢や性別等の患者情報、被検体Pが訴えている症状、被検体Pについての過去の検査結果、骨密度画像を参照しての印象といった種々の情報等から、BMDの値を大まかに推定する。図6に示した図は、いずれの候補領域が関心領域として適切であるかの判断材料となる。
 具体的には、ユーザは、図5に示した骨密度画像及び候補領域の表示を参照し、候補領域R31、候補領域R32及び候補領域R33のいずれかを選択する。ここで、候補領域R33が適切でないとは判断できたものの、候補領域R31と候補領域R32とのどちらが適切であるか判断に迷うケースが想定される。このような場合において、ユーザは、図6に示した図を参照することで、候補領域R31と候補領域R32とのうちBMDがより妥当な値となる方を関心領域として選択できる。
 受付機能34fは、関心領域を選択する操作を受け付ける。例えば、ユーザは、マウスを用いたクリック操作や、タッチパネルをタップする操作、音声入力等により、関心領域を選択する操作を行なう。例えば、受付機能34fは、図6に示したグラフ上の位置や、「R31」、「R32」、「R33」といった文字上の位置を指定する操作を、関心領域を選択する操作として受け付ける。また、受付機能34fは、図5に示した骨密度画像上の位置を指定する操作を、関心領域を選択する操作として受け付ける。また、受付機能34fは、図5に示した凡例上の位置を指定する操作を、関心領域を選択する操作として受け付ける。
 出力機能34eは、選択された関心領域に対応した解析結果を出力する。例えば、関心領域として候補領域R32が選択された場合、出力機能34eは、候補領域R32のBMDが記載されたレポートを、ディスプレイ32に表示させる。これにより、ユーザは、被検体Pに対する治療効果の把握や治療計画の立案といった各種の診断を行なうことができる。
 なお、上述したユーザは、医師でも検査技師でもよい。例えば、受付機能34fは、関心領域の選択を医師から受け付け、出力機能34eは、選択された関心領域に対応した解析結果をその医師に対して表示させる。また、例えば、受付機能34fは、関心領域の選択を検査技師から受け付け、出力機能34eは、選択された関心領域に対応した解析結果を医師に対して表示させる。
 また、出力機能34eがディスプレイ32の表示を制御する場合について説明したが、実施形態はこれに限定されるものではない。例えば、出力機能34eは、プロジェクタを制御して、図6のグラフを投影させることとしてもよい。また、例えば、出力機能34eは、図6のグラフを他の装置に送信し、当該他の装置におけるディスプレイがユーザに対する表示を行なってもよい。また、例えば、出力機能34eは、図6のグラフをプリンターから出力して、ユーザに提供することとしてもよい。後述する各種の表示についても同様である。
 また、図6のグラフは一例であり、種々の変形が可能である。出力機能34eは、候補領域R31に基づいて算出したBMD、候補領域R32に基づいて算出したBMD及び候補領域R33に基づいて算出したBMDを、候補領域R31、候補領域R32及び候補領域R33のそれぞれに対応付けて、表やテキストで表示させてもよい。
 また、出力機能34eは、候補領域を示す画像を、解析結果に対応付けて更に表示させることとしてもよい。一例を挙げると、出力機能34eは、図7に示すように、候補領域R31に基づいて算出したBMDのプロットに紐付けて、候補領域R31を示す画像をグラフ上に表示させる。同様に、出力機能34eは、候補領域R32に基づいて算出したBMDのプロットに紐付けて、候補領域R32を示す画像をグラフ上に表示させる。同様に、出力機能34eは、候補領域R33に基づいて算出したBMDのプロットに紐付けて、候補領域R33を示す画像をグラフ上に表示させる。
 また、被検体Pについて骨塩定量測定が複数回行なわれる場合、出力機能34eは、複数の候補領域のそれぞれに対応した解析結果を、時間軸に対応付けて表示させてもよい。以下、この点について図8を用いて説明する。図8は、測定日時T1、測定日時T2及び測定日時T3において、被検体Pの骨塩定量測定が行われた場合を示す。例えば、設定機能34cは、各測定日時において、候補領域R41、候補領域R42、候補領域R43、候補領域R44及び候補領域R45の候補領域を設定する。
 一例を挙げると、設定機能34cは、測定日時T1に被検体Pから収集された骨密度画像を学習済みモデルに入力し、学習済みモデルから出力された領域を、候補領域R41として設定する。また、設定機能34cは、測定日時T2に被検体Pから収集された骨密度画像を学習済みモデルに入力し、学習済みモデルから出力された領域を、候補領域R41として設定する。また、設定機能34cは、測定日時T3に被検体Pから収集された骨密度画像を学習済みモデルに入力し、学習済みモデルから出力された領域を、候補領域R41として設定する。即ち、設定機能34cは、学習済みモデルから出力された領域を、各測定日時における候補領域R41として設定する。
 また、一例を挙げると、設定機能34cは、第1の学習済みモデルから出力された領域に対するモルフォロジ―処理を実行することにより、各測定日時における候補領域R42を設定する。また、設定機能34cは、第1の学習済みモデルとは異なる第2の学習済みモデルから出力された領域を、各測定日時における候補領域R43として設定する。また、一例を挙げると、設定機能34cは、閾値処理を行なうことにより、各測定日時における候補領域R44を設定する。また、一例を挙げると、設定機能34cは、グラフカット処理を行なうことにより、各測定日時における候補領域R45を設定する。
 例えば、出力機能34eは、図8に示すように、候補領域の種類(ROI TYPE)を示す軸、BMDの値を示す軸、測定日時を示す軸から成る3軸のグラフを表示させる。ユーザは、今回算出されたBMDの他、過去に算出されたBMDを参考にして、関心領域を選択する。換言すると、ユーザは、各候補領域の実績や信頼度を加味して、関心領域を選択できる。
 ここで、出力機能34eは、複数の解析結果の中から異常値候補を検出することとしてもよい。例えば、図8において、測定日時T3に設定された候補領域R44に対応するBMDが突出して高い値となっている。このような場合、出力機能34eは、(R44,T3)のBMDを異常値候補として検出する。例えば、出力機能34eは、各測定日時及び各候補領域のBMDの値について標準偏差を算出し、標準偏差に基づいて誤差範囲を設定する。一例を挙げると、骨密度画像に複数の椎体(椎骨)が含まれている場合、出力機能34eは、椎体ごとに算出されたBMDについて統計処理を行なうことにより、誤差範囲を設定することができる。別の例を挙げると、出力機能34eは、骨密度画像の画素値に基づいて光子数の推定を行ない、推定結果に基づいて誤差範囲を設定することができる。例えば、出力機能34eは、光子数の推定結果に基づいて、ポアソン分布に従った量子ノイズ量を推定し、量子ノイズ量と、回路ノイズに相当する所定のノイズ量とを合算して、誤差範囲を設定する。そして、出力機能34eは、BMDの値が誤差範囲に含まれない場合、異常値候補として検出する。一例を挙げると、出力機能34eは、確率分布上の所定区間(例えば、3σの範囲)に含まれないBMDの値について、異常値候補として検出する。
 或いは、出力機能34eは、測定日時ごとに異常値候補を検出してもよい。例えば、出力機能34eは、測定日時ごとに、各候補領域のBMDの値について標準偏差を算出し、誤差範囲と比較して異常値候補を検出する。或いは、出力機能34eは、候補領域ごとに異常値候補を検出してもよい。例えば、出力機能34eは、候補領域ごとに、各測定日時のBMDの値について標準偏差を算出し、誤差範囲と比較して異常値候補を検出する。
 なお、誤差範囲については、より小さい候補領域に基づいて設定することとしてもよい。即ち、候補領域が小さいほど、候補領域内に不適切な領域が含まれる可能性は低くなる。例えば、骨に対応した関心領域を設定する場合において、候補領域が小さければ、候補領域内に軟部組織等が含まれる可能性は低くなる。一方で、候補領域が小さいほど、候補領域内に含まれる画素数が少なくなるため、統計誤差の影響を受けやすくなる。ここで、出力機能34eは、より小さい候補領域に基づいて設定した誤差範囲を他の候補領域に適用することにより、異常値候補の検出精度を向上させることができる。
 以下では、図8における候補領域R41が最小であり、候補領域R42、候補領域R43、候補領域R44、候補領域R45の順に大きくなる場合を一例として説明する。例えば、出力機能34eは、候補領域R41に基づいて、各候補領域の誤差範囲を設定する。あらかじめ過去の測定、装置の仕様等から候補領域R41の誤差がσである場合、R4X領域の誤差は「σ×R41の領域面積/R4Xの領域面積」に相当する。そして、出力機能34eは、各候補領域のBMDと、各候補領域に対して設定された誤差範囲とを比較することで、異常値候補を検出する。
 また、異常値候補が検出された場合、出力機能34eは、異常値候補に関連する候補領域を示す画像を表示させてもよい。例えば、(R44,T3)のBMDが異常値候補として検出された場合、出力機能34eは、図9に示すように、測定日時T3に設定された候補領域R44を示す画像を表示させる。更に、出力機能34eは、異常値候補として検出されていない測定日時T1やT2に設定された候補領域R44を示す画像を表示させ、候補領域が同一で測定日時の異なる画像を比較できるようにしてもよい。
 さらに、出力機能34eは、骨密度が大きく変化している部分に色付け等を行なって強調表示してもよい。これにより、ユーザは、異常値候補発生の原因を推定することが可能となる。例えば、骨密度が大きく変化している部分が多く存在している場合には、実際に骨密度が変化したことにより、異常値候補が生じたことが推定される。一方で、骨密度が大きく変化している部分が特に存在していない場合には、設定された候補領域が不適切であるために、異常値候補が生じたことが推定される。
 なお、図9の表示は一例であり、種々の変形が可能である。例えば、出力機能34eは、図9に示したグラフを表示する領域に加えて画像表示領域を設け、測定日時T3に設定された候補領域R44を示す画像や、測定日時T2に設定された候補領域R44を示す画像をスタックに表示してもよい。また、図8や図9においては3次元のグラフを表示させるものとして説明したが、出力機能34eは、2次元のグラフに適宜切り替えて表示させることとしてもよい。例えば、出力機能34eは、ユーザ操作に基づいて、候補領域の種類(ROI TYPE)及びBMDの値の2軸から成る2次元のグラフと、測定日時及びBMDの値の2軸から成る2次元のグラフとを切り替えて表示させることとしてもよい。
 また、出力機能34eは、異常値候補に基づいて、表示対象を変更することとしてもよい。例えば、(R44,T3)のBMDが異常値候補として検出された場合、出力機能34eは、図10に示すように、候補領域R44に対応したBMDの値を表示しないこととしてもよい。このような表示対象の変更は、異常値候補が検出された測定日時T3から反映されてもよいし、次回以降に反映されることとしてもよい。また、各候補領域を機械学習の学習データとして使用する場合、異常値候補として検出された候補領域については、学習データから除外することとしてもよい。なお、図10は、第1の実施形態に係る表示例を示す図である。
 なお、これまで、椎骨に対応した関心領域の設定を行なう場合について説明したが、関心領域を複数設定する場合についても同様に適用することができる。一例を挙げると、設定機能34cは、椎骨に対応した関心領域の候補として、候補領域R211及び候補領域R212を設定する。また、設定機能34cは、ニュートラル領域に対応した関心領域の候補として、候補領域R221及び候補領域R222を設定する。また、設定機能34cは、軟部組織に対応した関心領域の候補として、候補領域R231及び候補領域R232を設定する。即ち、関心領域を複数設定する場合、設定機能34cは、関心領域のそれぞれに対して、複数の候補領域を設定する。
 次に、解析機能34dは、候補領域の組み合わせごとに骨塩定量測定を実行する。例えば、解析機能34dは、候補領域R211、候補領域R221及び候補領域R231の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R211、候補領域R221及び候補領域R232の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R211、候補領域R222及び候補領域R231の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R211、候補領域R222及び候補領域R232の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R212、候補領域R221及び候補領域R231の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R212、候補領域R221及び候補領域R232の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R212、候補領域R222及び候補領域R231の組み合わせに基づいて、BMDの算出を行なう。また、解析機能34dは、候補領域R212、候補領域R222及び候補領域R232の組み合わせに基づいて、BMDの算出を行なう。
 次に、出力機能34eは、解析結果の出力を行なう。例えば、出力機能34eは、候補領域の組み合わせに基づいて算出されたBMDを、そのBMDを算出するために使用された候補領域の組み合わせに対応付けて表示させる。例えば、出力機能34eは、横軸を候補領域の組み合わせ、縦軸をBMDとしたグラフをディスプレイ32に表示させる。そして、受付機能34fは、関心領域として複数の候補領域のうちいずれかを選択する操作をユーザから受け付ける。例えば、候補領域R211、候補領域R221及び候補領域R231の組み合わせに基づいて算出されたBMDの値をユーザが選択した場合、受付機能34fは、椎骨に対応した関心領域として候補領域R211が選択され、ニュートラル領域に対応した関心領域の候補として候補領域R221が選択され、軟部組織に対応した関心領域の候補として候補領域R231が選択されたものとして、ユーザからの操作を受け付けることができる。
 次に、医用画像処理装置30による処理の手順の一例を、図11を用いて説明する。図11は、第1の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101は、取得機能34bに対応する。ステップS102は、設定機能34cに対応する。ステップS103は、解析機能34dに対応する。ステップS104は、出力機能34eに対応する。ステップS105及びステップS106は、受付機能34fに対応する。
 処理回路34は、医用画像を取得する(ステップS101)。例えば、処理回路34は、第1のX線画像及び第2のX線画像に基づいて、骨密度画像を生成する。例えば、処理回路34は、ネットワークNWを介して、骨密度画像を取得する。次に、処理回路34は、複数の候補領域を設定する(ステップS102)。次に、処理回路34は、定量解析を実行する(ステップS103)。例えば、処理回路34は、複数の候補領域のそれぞれについて骨塩定量(BMD)測定を行なう。
 次に、処理回路34は、解析結果を表示させる(ステップS104)。例えば、処理回路34は、図6、図7、図8、図9、図10等の表示を行なうことで、複数の候補領域のそれぞれに対応したBMDをディスプレイ32に表示させる。次に、処理回路34は、関心領域の選択を受け付ける(ステップS105)。即ち、処理回路34は、ステップS104において複数の候補領域のそれぞれに対応した解析結果を参照したユーザから、関心領域として複数の候補領域のうちいずれかを選択する操作を受け付ける。
 次に、処理回路34は、関心領域が選択されたか否かを判定する(ステップS106)。関心領域が選択されなかった場合(ステップS106否定)、処理回路34は、待機状態となる。或いは、関心領域が選択されなかった場合、処理回路34は、再度ステップS102に移行して、複数の候補領域を再設定してもよい。ここで、処理回路34は、例えば、前回と異なる学習済みモデルを使用したり、閾値処理における閾値を変更したりして、前回と異なる候補領域を設定してもよい。一方で、関心領域が選択された場合(ステップS106肯定)、処理回路34は、処理を終了する。
 上述したように、第1の実施形態によれば、取得機能34bは、医用画像を取得する。また、設定機能34cは、医用画像上に設定する関心領域の候補として、医用画像上に複数の候補領域を設定する。また、解析機能34dは、複数の候補領域のそれぞれについて、被検体Pの組成に関する定量解析を実行する。また、出力機能34eは、複数の候補領域のそれぞれに対応した複数の解析結果を出力する。
 従って、第1の実施形態に係る医用画像処理装置30は、適切な関心領域の設定を可能とすることができる。具体的には、ユーザは、複数の候補領域のそれぞれに対応した複数の解析結果を参照して、複数の候補領域のうちいずれを関心領域として選択するか判断することができる。即ち、ユーザは、医用画像そのものや、医用画像上に設定された候補領域の形状等の情報に加えて、その候補領域を使用した場合に得られる解析結果を判断材料として更に使用し、より適切な関心領域を選択することができる。
 また、上述したように、関心領域を医用画像上に複数設定する場合、設定機能34cは、関心領域のそれぞれに対して複数の候補領域を設定する。また、解析機能34dは、候補領域の組み合わせごとに定量解析を実行する。従って、医用画像処理装置30は、例えば骨塩定量測定のように複数の関心領域を使用した定量解析を実行する場合においても、適切な関心領域の設定を可能とすることができる。
 また、上述したように、被検体Pについて定量解析が複数回行なわれている場合、出力機能34eは、複数の解析結果を時間軸に対応付けて表示させる。例えば、出力機能34eは、図8に示したように、候補領域の種類を示す軸、BMDの値を示す軸、測定日時を示す軸から成る3軸のグラフを、ディスプレイ32に表示させる。従って、医用画像処理装置30は、より適切な関心領域の設定を可能とすることができる。具体的には、ユーザは、複数の候補領域のうちいずれを関心領域として選択するか判断する際、過去にその候補領域を使用して得られた解析結果を判断材料として更に使用し、より適切な関心領域を選択することができる。
 また、上述したように、第1の実施形態によれば、出力機能34eは、複数の解析結果の中から異常値候補を検出する。従って、医用画像処理装置30は、より適切な関心領域の設定を可能とすることができる。例えば、異常値候補が検出された場合、出力機能34eは、異常値候補に関連する候補領域を示す画像を表示させることができる。これにより、ユーザは、異常値候補が、実際に骨密度等が変化したことによって生じたものなのか、その候補領域が不適切であるために生じたものなのかを判断することができる。また、候補領域が不適切であるために異常値候補が生じたと判断した場合、ユーザは、そのような候補領域を関心領域として選択することを回避することができる。
 なお、骨塩定量測定を実行する場合であって被検体Pについて骨塩定量測定が複数回行なわれる場合、医用画像処理装置30は、基本的には1回目の骨塩定量測定においてのみ上述した処理を行なうこととしてもよい。即ち、1回目の骨塩定量測定においては、設定機能34cは複数の候補領域を設定し、解析機能34dは複数の候補領域のそれぞれについて骨塩定量測定を実行し、出力機能34eは複数の候補領域のそれぞれに対応した複数の解析結果を出力する。これにより、ユーザは、適切な関心領域を選択することができる。ここで、2回目以降の骨塩定量測定においては、1回目の骨塩定量測定において設定された関心領域を使用することができる。これにより、医用画像処理装置30は、複数回行なわれる骨塩定量測定の解析条件を統一し、経時的な変化を評価しやすくすることができる。
 但し、被検体Pの骨密度の変化等によって、1回目の骨塩定量測定において設定された関心領域を2回目以降の骨塩定量測定で使用することが適切でないケースも想定される。この場合には、医用画像処理装置30は、2回目以降の骨塩定量測定においても、上述した処理を行なうこととしてもよい。即ち、設定機能34cは、2回目以降の骨塩定量測定においても複数の候補領域を設定し、解析機能34dは複数の候補領域のそれぞれについて骨塩定量測定を実行し、出力機能34eは複数の候補領域のそれぞれに対応した複数の解析結果を出力することとしてもよい。医用画像処理装置30は、2回目以降の骨塩定量測定においても上述した処理を行なう設定にしておいてもよいし、ユーザからの要望に応じて上述した処理を行なうようにしてもよい。例えば、まずは1回目の骨塩定量測定において設定された関心領域が2回目以降の骨塩定量測定でも使用され、レポートが作成される。ここで、レポートを参照したユーザがレポート上に記載されたBMDの値が適当でないと判断した場合、医用画像処理装置30は、上述した処理を追加で実行することができる。
 (第2の実施形態)
 上述した実施形態では、骨密度画像を生成して候補領域を設定するものとして説明したが、設定機能34cは、候補領域の設定に先立って骨密度画像に対する前処理を行ない、前処理後の骨密度画像に候補領域を設定することとしても構わない。例えば、設定機能34cは、前処理として、骨密度画像に対する皮質骨除去処理を実行する。具体的には、設定機能34cは、骨密度画像のうち皮質骨に相当する領域を抽出し、抽出した領域を背景成分等によって置換する。かかる前処理が行なわれた場合、候補領域は、皮質骨を除いた海綿骨を基準に設定されることとなる。一般に、骨密度の変化は皮質骨においては小さく海綿骨において大きいため、海綿骨を基準にBMDが算出されることで、より有用な情報をユーザに提供することが可能となる。
 また、上述した実施形態では、学習済みモデルを畳み込みニューラルネットワークにより構成する場合について説明したが、他の機械学習手法によって学習済みモデルを構成することとしても構わない。他の機械学習手法としては、デジタルフィルタやパターンマッチングによる特徴量抽出により複数の関心領域候補を抽出し、ブースティングやサポートベクターマシンのような手法で最終的な関心領域を分類、推定する方法があげられる。
 また、上述した実施形態では、定量解析の一例として、骨塩定量測定について説明した。しかしながら、実施形態はこれに限定されるものではなく、被検体Pの組成に関する各種の定量解析についても同様に適用が可能である。
 例えば、解析機能34dは、被検体Pの組成に関する定量解析として乳腺密度測定を実行し、乳腺密度(Breast Density:BD)を算出してもよい。この場合、医用情報処理システム1は、例えば、医用画像診断装置10としてマンモグラフィ装置を備える。例えば、医用画像診断装置10は、被検体Pの乳房を撮影して、MLO(Mediolateral-Oblique)画像やCC(Cranio-Caudal)画像、トモシンセシス画像といったマンモグラフィ画像を収集する。また、取得機能34bは、画像保管装置20又は医用画像診断装置10から、マンモグラフィ画像を取得する。
 乳腺密度測定においては、例えば図12の関心領域R51及び関心領域R52のように、2つの関心領域が設定される。関心領域R51は、乳房に対応する領域である。また、関心領域R52は、乳腺が存在する領域である。例えば、解析機能34dは、関心領域R52の面積を関心領域R51の面積で除算することにより、BDを算出することができる。ここで、BMDの場合と同様、関心領域が適切に設定されていなければ、BDも不適切な値となるおそれがある。なお、図12は、第2の実施形態に係る乳腺密度測定について説明するための図である。
 例えば、設定機能34cは、関心領域R51の候補として、候補領域R511及び候補領域R512を設定する。また、設定機能34cは、関心領域R52の候補として、候補領域R521及び候補領域R522を設定する。即ち、設定機能34cは、複数の関心領域のそれぞれに対して、複数の候補領域を設定する。
 次に、解析機能34dは、候補領域R511及び候補領域R521の組み合わせに基づいて、BDの算出を行なう。また、解析機能34dは、候補領域R511及び候補領域R522の組み合わせに基づいて、BDの算出を行なう。また、解析機能34dは、候補領域R512及び候補領域R521の組み合わせに基づいて、BDの算出を行なう。また、解析機能34dは、候補領域R512及び候補領域R522の組み合わせに基づいて、BDの算出を行なう。即ち、解析機能34dは、候補領域の組み合わせごとに乳腺密度測定を実行する。
 次に、出力機能34eは、解析結果の出力を行なう。例えば、出力機能34eは、候補領域の組み合わせに基づいて算出されたBDを、そのBDを算出するために使用された候補領域の組み合わせに対応付けて表示させる。例えば、出力機能34eは、横軸を候補領域の組み合わせ、縦軸をBDとしたグラフをディスプレイ32に表示させる。
 そして、受付機能34fは、関心領域として複数の候補領域のうちいずれかを選択する操作をユーザから受け付ける。例えば、候補領域R511及び候補領域R521の組み合わせに基づいて算出されたBDの値をユーザが選択した場合、受付機能34fは、関心領域R51として候補領域R511が選択され、関心領域R52として候補領域R521が選択されたものとして、ユーザからの操作を受け付けることができる。
 なお、乳腺密度測定を実行する場合であって被検体Pについて乳腺密度測定が複数回行なわれる場合、医用画像処理装置30は、基本的には毎回、上述した処理を行なうこととしてよい。即ち、乳腺密度測定においては関心領域をその都度設定することが基本であるため、設定機能34cは毎回の乳腺密度測定において複数の候補領域を設定し、解析機能34dは複数の候補領域のそれぞれについて乳腺密度測定を実行し、出力機能34eは複数の候補領域のそれぞれに対応した複数の解析結果を出力する。
 また、上述した実施形態では、医用画像の一例として、骨密度画像やマンモグラフィ画像といったX線画像について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、X線CT(Computed Tomography)画像や、PET(Positron Emission computed Tomography)画像、SPECT(Single Photon Emission Computed Tomography)画像、超音波画像、MR(Magnetic Resonance)画像といった医用画像を用いた定量解析を実行する場合においても、同様に適用が可能である。
 また、図1において、ネットワークNWを介して接続可能であれば、医用画像診断装置10、画像保管装置20及び医用画像処理装置30が設置される場所は任意である。例えば、医用画像処理装置30は、医用画像診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。
 また、上述した実施形態では、医用画像診断装置10と医用画像処理装置30とが別体であるものとして説明したが、医用画像処理装置30は医用画像診断装置10に含まれることとしてもよい。例えば、医用画像診断装置10におけるコンソール装置が、医用画像診断装置10としての機能を実行する場合であってもよい。この場合、取得機能34bは、被検体Pを撮像することで、医用画像を取得することができる。
 上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。一方、プロセッサが例えばASICである場合、記憶回路にプログラムを保存する代わりに、当該機能がプロセッサの回路内に論理回路として直接組み込まれる。なお、実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、各図における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。
 また、図1においては、単一のメモリ33が処理回路34の各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数のメモリ33を分散して配置し、処理回路34は、個別のメモリ33から対応するプログラムを読み出す構成としても構わない。また、メモリ33にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
 上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。
 また、上述した実施形態で説明した医用画像処理方法は、予め用意された医用画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この医用画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この医用画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 (その他の実施形態)
 開示の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 以上説明した少なくとも1つの実施形態によれば、適切な関心領域の設定を可能とすることができる。
 いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 本願は、2020年10月22日提出の日本国特許出願特願2020-177426を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
1 医用情報処理システム 10 医用画像診断装置 30 医用画像処理装置 34 処理回路 34a 制御機能 34b 取得機能 34c 設定機能 34d 解析機能 34e 出力機能 34f 受付機能

Claims (20)

  1.  医用画像を取得する取得部と、
     前記医用画像上に設定する関心領域の候補として、前記医用画像上に複数の候補領域を設定する設定部と、
     複数の前記候補領域のそれぞれについて、被検体の組成に関する定量解析を実行する解析部と、
     複数の前記候補領域のそれぞれに対応した複数の解析結果を出力する出力部と
     を備える、医用画像処理装置。
  2.  複数の前記解析結果を参照したユーザから、前記関心領域として複数の前記候補領域のうちいずれかを選択する操作を受け付ける受付部を更に備える、請求項1に記載の医用画像処理装置。
  3.  前記設定部は、前記関心領域を前記医用画像上に複数設定する場合、前記関心領域のそれぞれに対して、複数の前記候補領域を設定し、
     前記解析部は、前記候補領域の組み合わせごとに前記定量解析を実行する、請求項1又は2に記載の医用画像処理装置。
  4.  前記設定部は、前記医用画像の入力を受け付けて前記関心領域の推定を行なうよう機能付けられた学習済みモデルに対して前記医用画像の入力を行ない、前記関心領域の推定結果として前記学習済みモデルから出力された領域を、複数の前記候補領域の1つとして設定する、請求項1~3のいずれか一項に記載の医用画像処理装置。
  5.  前記設定部は、複数の前記学習済みモデルのそれぞれに対して前記医用画像の入力を行なう、請求項4に記載の医用画像処理装置。
  6.  前記設定部は、前記医用画像の画素値について閾値処理を行なうことにより、複数の前記候補領域のうち少なくとも1つを設定する、請求項1~5のいずれか一項に記載の医用画像処理装置。
  7.  前記設定部は、閾値を変更した複数の前記閾値処理を行なうことにより、複数の前記候補領域のうち少なくとも2つを設定する、請求項6に記載の医用画像処理装置。
  8.  前記設定部は、前記医用画像に対するグラフカット処理を行なうことにより、複数の前記候補領域のうち少なくとも1つを設定する、請求項1~7のいずれか一項に記載の医用画像処理装置。
  9.  前記設定部は、ユーザ操作によって作成された領域を、複数の前記候補領域の1つとして設定する、請求項1~8のいずれか一項に記載の医用画像処理装置。
  10.  前記設定部は、モルフォロジ―処理により、複数の前記候補領域のうち少なくとも1つを設定する、請求項1~9のいずれか一項に記載の医用画像処理装置。
  11.  前記出力部は、複数の前記解析結果と複数の前記候補領域とを対応付けて表示させる、請求項1~10のいずれか一項に記載の医用画像処理装置。
  12.  前記出力部は、更に、前記候補領域を示す画像を、複数の前記解析結果に対応付けて表示させる、請求項11に記載の医用画像処理装置。
  13.  同一の被検体について前記定量解析が複数回行なわれている場合、前記出力部は、複数の前記解析結果を時間軸に更に対応付けて表示させる、請求項11又は12に記載の医用画像処理装置。
  14.  前記出力部は、更に、複数の前記解析結果の中から異常値候補を検出する、請求項11~13のいずれか一項に記載の医用画像処理装置。
  15.  前記出力部は、更に、前記異常値候補に関連する前記候補領域を示す画像を表示させる、請求項14に記載の医用画像処理装置。
  16.  前記出力部は、前記異常値候補の発生時点の前後における経時的な変化を識別できるように、前記候補領域を示す画像を表示させる、請求項15に記載の医用画像処理装置。
  17. 前記出力部は、複数の前記候補領域のそれぞれに対して、より小さい前記候補領域に基づいて誤差範囲を設定し、複数の前記候補領域のそれぞれに対応した前記解析結果と当該候補領域に対して設定された前記誤差範囲とを比較することで、前記異常値候補を検出する、請求項14~16のいずれか一項に記載の医用画像処理装置。
  18.  前記設定部は、更に、前記異常値候補に基づいて、前記候補領域の設定方法の調整を行なう、請求項14~17のいずれか一項に記載の医用画像処理装置。
  19.  前記解析部は、前記定量解析として、骨塩定量測定を実行する、請求項1~18のいずれか一項に記載の医用画像処理装置。
  20.  前記解析部は、前記定量解析として、乳腺密度測定を実行する、請求項1~18のいずれか一項に記載の医用画像処理装置。
PCT/JP2021/037378 2020-10-22 2021-10-08 医用画像処理装置 WO2022085493A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180071085.0A CN116456904A (zh) 2020-10-22 2021-10-08 医学图像处理装置
US18/192,832 US20230245308A1 (en) 2020-10-22 2023-03-30 Medical image processing apparatus, medical image processing method and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-177426 2020-10-22
JP2020177426A JP2022068639A (ja) 2020-10-22 2020-10-22 医用画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/192,832 Continuation US20230245308A1 (en) 2020-10-22 2023-03-30 Medical image processing apparatus, medical image processing method and non-transitory computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2022085493A1 true WO2022085493A1 (ja) 2022-04-28

Family

ID=81290410

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037378 WO2022085493A1 (ja) 2020-10-22 2021-10-08 医用画像処理装置

Country Status (4)

Country Link
US (1) US20230245308A1 (ja)
JP (1) JP2022068639A (ja)
CN (1) CN116456904A (ja)
WO (1) WO2022085493A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05253229A (ja) * 1992-03-11 1993-10-05 Teijin Ltd 骨計測装置
JP2008541889A (ja) * 2005-06-02 2008-11-27 ザ メディパターン コーポレイション コンピュータ支援検出のシステムおよび方法
JP2012095927A (ja) * 2010-11-05 2012-05-24 Toshiba Corp 画像診断装置
US20130114904A1 (en) * 2011-11-03 2013-05-09 Chu-Ho Chang Apparatus and method for detecting error in lesion contour, apparatus and method for correcting error in lesion contour, and apparatus for inspecting error in lesion contour
JP2016198176A (ja) * 2015-04-08 2016-12-01 株式会社日立製作所 骨塩量測定装置
JP2018102916A (ja) * 2016-12-22 2018-07-05 パナソニックIpマネジメント株式会社 制御方法、情報端末、及びプログラム
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05253229A (ja) * 1992-03-11 1993-10-05 Teijin Ltd 骨計測装置
JP2008541889A (ja) * 2005-06-02 2008-11-27 ザ メディパターン コーポレイション コンピュータ支援検出のシステムおよび方法
JP2012095927A (ja) * 2010-11-05 2012-05-24 Toshiba Corp 画像診断装置
US20130114904A1 (en) * 2011-11-03 2013-05-09 Chu-Ho Chang Apparatus and method for detecting error in lesion contour, apparatus and method for correcting error in lesion contour, and apparatus for inspecting error in lesion contour
JP2016198176A (ja) * 2015-04-08 2016-12-01 株式会社日立製作所 骨塩量測定装置
JP2018102916A (ja) * 2016-12-22 2018-07-05 パナソニックIpマネジメント株式会社 制御方法、情報端末、及びプログラム
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置

Also Published As

Publication number Publication date
CN116456904A (zh) 2023-07-18
US20230245308A1 (en) 2023-08-03
JP2022068639A (ja) 2022-05-10

Similar Documents

Publication Publication Date Title
US20190021677A1 (en) Methods and systems for classification and assessment using machine learning
US20180296193A1 (en) Apparatus and method for visualizing anatomical elements in a medical image
US11074688B2 (en) Determination of a degree of deformity of at least one vertebral bone
US20190057504A1 (en) Image Processor, Image Processing Method, And Image Processing Program
US20200058098A1 (en) Image processing apparatus, image processing method, and image processing program
CN110881992B (zh) 使用双能量计算机断层扫描的针对外伤性出血的检测和量化
US20220287665A1 (en) Estimation device, estimation method, and estimation program
JP6747785B2 (ja) 医用画像処理装置及び医用画像処理方法
JP2022076477A (ja) 医用情報処理装置、医用情報処理システム及び医用情報処理方法
WO2022085493A1 (ja) 医用画像処理装置
JP2016137050A (ja) 医用画像処理装置、医用画像処理方法および医用画像診断装置
US10089728B2 (en) Radiation-image processing device and method
JP6687393B2 (ja) 医用画像診断装置
JP7191038B2 (ja) スペクトルイメージングffr
US10463328B2 (en) Medical image diagnostic apparatus
CN106575436B (zh) 用于钙化的肋-软骨关节的视觉评估的轮廓显示
US20130315371A1 (en) Bone density measurement
US20240071069A1 (en) Medical image processing apparatus
CN110742629A (zh) 血管减影图像的显示方法及图形用户界面装置
US20230394673A1 (en) Image processing apparatus, operation method of image processing apparatus, operation program of image processing apparatus, and learning method
JP7130449B2 (ja) 診断支援装置及び診断支援システム
US20230316524A1 (en) Radiation image processing apparatus and operation method thereof
JP7220542B2 (ja) 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JP2023080703A (ja) 医用画像処理装置、方法及びプログラム
JP2023154407A (ja) 医用画像処理装置、医用画像処理方法、及びx線診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21882634

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202180071085.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21882634

Country of ref document: EP

Kind code of ref document: A1