WO2020027228A1 - 診断支援システム及び診断支援方法 - Google Patents

診断支援システム及び診断支援方法 Download PDF

Info

Publication number
WO2020027228A1
WO2020027228A1 PCT/JP2019/030091 JP2019030091W WO2020027228A1 WO 2020027228 A1 WO2020027228 A1 WO 2020027228A1 JP 2019030091 W JP2019030091 W JP 2019030091W WO 2020027228 A1 WO2020027228 A1 WO 2020027228A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
images
feature amount
virtual space
Prior art date
Application number
PCT/JP2019/030091
Other languages
English (en)
French (fr)
Inventor
直輝 富井
弘文 中村
Original Assignee
株式会社Lily MedTech
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Lily MedTech filed Critical 株式会社Lily MedTech
Priority to CN201980051113.5A priority Critical patent/CN112514000A/zh
Priority to EP19843825.1A priority patent/EP3832663A4/en
Priority to JP2020534725A priority patent/JP7138971B2/ja
Priority to US17/264,461 priority patent/US20210319880A1/en
Publication of WO2020027228A1 publication Critical patent/WO2020027228A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the present invention relates to a diagnosis support system and a diagnosis support method for displaying the basis of a result of image diagnosis support determination by a computer.
  • Medical imaging devices such as CT, MRI, and ultrasound do not require a surgical operation of directly incising and observing a living body, and thus are widely used in the medical field as a technology for imaging information inside a subject.
  • the physician uses the acquired images for diagnosis to determine the presence or absence of a tumor, etc.
  • accurate interpretation requires sufficient experience.
  • the number of images for each subject has increased, and the user must effectively identify some of the images that indicate the judgment target from a large number of images. are doing. For example, in the case of breast cancer screening, the probability that a cancer patient is included in the group of subjects is about 0.5%. For this reason, finding breast cancer data that occasionally appears from many non-breast cancer image data without omission is a heavy burden on image interpretation.
  • an examination image is acquired from a medical image capturing device, an abnormal region such as a tumor contained in the image is detected through image processing or machine learning processing, and image diagnosis is supported by presenting it to a doctor or the like.
  • a diagnostic support device that performs the following has been developed.
  • a case image search device including a finding information output unit that outputs finding information corresponding to a feature amount that has contributed to a search for a similar image searched by a search unit to a predetermined output device in association with the similar image (see Patent Document 1) ),
  • a feature amount calculating unit that calculates a feature amount corresponding to a pre-registered lesion pattern, a probability calculating unit that calculates a probability that a lesion pattern exists in a search image based on the feature amount, and calculates a similarity.
  • a similar image search device including a similarity calculation unit has been proposed.
  • the present invention has been made in view of the above points, and provides a diagnosis support system and a diagnosis support method that improve the accuracy of diagnosis by displaying information based on which a diagnosis is performed by a diagnosis support apparatus.
  • a diagnosis support system 1S holds a plurality of images of internal information of a subject acquired in advance as comparative images, for example, as shown in FIG.
  • the plurality of comparative images include image data, label information indicating biological tissue information and shape information, and feature amount information capable of specifying the similarity between the plurality of comparative images.
  • the pre-acquired data holding unit 3 inputting image data of an inspection image acquired from a subject as an inspection object to a learned model in which the plurality of comparison images are learned, and A calculating unit 13 for calculating feature amount information; a similarity between the inspection image and the plurality of comparison images based on the feature amount information of the plurality of comparison images and the feature amount information of the inspection image.
  • Table to display A section (16); is intended to include.
  • the display unit displays the similarity between the test image and the multiple comparison images to assist the doctor's diagnosis compared to simply displaying only the probability of cancer or similar cases. It will be possible to additionally provide useful information that can be provided.
  • the feature amount information is multidimensional. And a distance between the inspection image 53 and the plurality of comparison images 51 and 52 on a feature amount space 50 having coordinates of the multi-dimensional parameters constituting the feature amount information.
  • the control unit 12 further specifies L as a value representing the similarity.
  • the similarity can be represented by a numerical value, so that the similarity can be specified without fail.
  • the diagnosis support system 1S according to the third aspect of the present invention As shown in FIGS. 1 and 4 to 7, for example, in the diagnosis support system 1S according to the first aspect of the present invention, , Generating a first virtual space composed of displayable dimensions for visually recognizing the similarity using the feature amount information. And the display unit 16 displays a first virtual space image in which the inspection image is plotted on the first virtual space in addition to the plurality of comparison images. .
  • the diagnostic support system 1S according to a fourth aspect of the present invention is, for example, as shown in FIG. 1, in the diagnostic support system 1S according to the first aspect of the present invention, the plurality of feature amount information A virtual image for generating a second virtual space for visually recognizing the similarity using the feature amount information, which is information constituted by a linguistic expression corresponding to the comparison image and the inspection image.
  • the display unit 16 further includes a space data holding unit 14, and the display unit 16 displays, on the second virtual space, a second virtual space image in which the inspection image is plotted in addition to the plurality of comparison images.
  • a diagnostic support system 1S according to a fifth aspect of the present invention is, for example, as shown in FIG. 1, in the diagnostic support system 1S according to the third or fourth aspect of the present invention, wherein the similarity is the virtual space. It is specified based on the distance between the inspection image and the plurality of comparison images in the image.
  • the diagnostic support system 1S according to the sixth aspect of the present invention is, for example, as shown in FIGS. 1 and 8, in the diagnostic support system 1S according to any one of the first to fifth aspects of the present invention, wherein the display
  • the unit 16 displays one or a plurality of the comparison images having a high similarity to the inspection image.
  • the diagnostic support system 1S according to the seventh aspect of the present invention is, for example, as shown in FIG. 1, in the diagnostic support system 1S according to any of the first to sixth aspects of the present invention, the display unit 16 And adding a predetermined visual effect to the display of the plurality of comparison images based on the label information.
  • the label information of the comparative image can be additionally displayed in the form of a predetermined visual effect, the doctor can understand the diagnosis result of the comparative image at a glance at the time of diagnosis.
  • the diagnostic support system 1S according to the eighth aspect of the present invention is, for example, as shown in FIG. 1, the diagnostic support system 1S according to any one of the first to seventh aspects of the present invention, It further includes an inference unit 18 that infers whether or not predetermined biological information is included in the inspection image based on the plurality of comparison images.
  • the diagnostic support system 1S according to a ninth aspect of the present invention is, for example, as shown in FIG. 1, the diagnostic support system 1S according to any one of the first to eighth aspects of the present invention described above. It further includes a preprocessing unit 19 for adjusting the data to a format in which the calculation unit 13 can calculate the feature amount information.
  • the diagnostic support method is, for example, as shown in FIG. 2, a diagnostic support method using a computer, wherein a plurality of images of the internal information of the subject acquired in advance are used as comparative images.
  • the accuracy of diagnosis can be increased by displaying the information on which the diagnosis is performed by the diagnosis support device, and the burden of image interpretation can be reduced.
  • FIG. 1 is a schematic block diagram illustrating a configuration of a diagnosis support system according to a first embodiment of the present invention. It is a flowchart which shows the operation
  • FIG. 2 is a schematic diagram of a display unit according to the first embodiment of the present invention.
  • FIG. 2 is a first schematic diagram of a virtual space image according to the first embodiment of the present invention.
  • FIG. 2 is a second schematic diagram of a virtual space image according to the first embodiment of the present invention.
  • FIG. 5 is a third schematic diagram of a virtual space image according to the first embodiment of the present invention.
  • FIG. 7 is a fourth schematic diagram of the virtual space image according to the first embodiment of the present invention.
  • FIG. 3 is another schematic diagram of the display unit according to the first embodiment of the present invention. It is a schematic diagram of a display unit according to a third embodiment of the present invention.
  • Projection is performed via a so-called convolution network on a multidimensional space with high separation accuracy in the classification process. If boundaries between a plurality of sets can be defined in this multidimensional space, data classification becomes possible. However, there are cases where it is difficult to set a boundary line such as classification of a lesion part and a normal part or classification among a plurality of lesions. By visually displaying the ambiguity of the boundary line, even in a multidimensional space where it is difficult to set the boundary line, it is possible for the radiologist to recognize that his or her own judgment is necessary, and to contribute to the doctor's diagnosis judgment. This is a feature of the present invention.
  • a learned model generated so that feature amount information of an input image can be output from an input image by machine learning a comparative image of a case or the like acquired in advance. Is used. Then, the feature amount information of the inspection image to be inspected is calculated using the learned model, and the similarity between the inspection image and the comparison image is displayed based on the feature amount information.
  • Various methods are assumed as a method of indicating the similarity between the inspection image and the comparison image.
  • feature amount information is information constituted by multidimensional parameters, and a distance in a feature amount space having coordinates of the multidimensional parameters is specified and displayed as a value representing the similarity between the inspection image and the comparison image.
  • Method can be adopted.
  • a figure in which a plurality of comparative images and inspection images are arranged in a virtual space formed by using feature amount information as multidimensional parameters or linguistic expression information and displayed as a virtual space image is displayed. It is mentioned. In this case, when an arbitrary comparative image or region on the virtual space image is further selected, it is preferable to display each comparative image and lesion feature information (label information) attached to each comparative image.
  • the virtual space is a virtual space (for display) composed of displayable dimensions for visually recognizing the similarity between the inspection image and the comparison image using the feature amount information.
  • the virtual space image is an image in which the positions of the inspection image and the comparison image in the feature amount space are plotted in the virtual space so that their similarity is visually displayed.
  • the lesion feature information examples include the position of the tumor (position in the breast, position in the mammary gland, distance to the skin), solid or cystic, presence or absence of structures in the tumor, posterior shadow Presence / absence, aspect ratio (a-axis, b-axis, c-axis, ratio of lengths when approximated by a spheroid), properties of the boundary (whether the echo at the boundary is high echo, low echo,
  • the information includes, but is not limited to, information on whether the shape is smooth or not smooth), whether there is a disturbance in the construction of surrounding normal tissues, whether there is a plurality of tumors such as daughter nodules, whether there is calcification, and the like.
  • the feature amount space is determined so that an image having a plurality of different pieces of label information is most separated as a result. Therefore, the feature amount space is not necessarily the same as a feature used by a conventional clinician for determination.
  • the diagnosis support system Since the similarity (particularly, the distance between the comparison image and the inspection image in the feature space or the virtual space) displayed by the diagnosis support system can be confirmed, the existing diagnosis standard that can be recognized by humans By combining this with feature information calculated using machine learning, it is possible to assist users with little interpretation experience in improving diagnostic efficiency and accuracy. If the diagnosis support system also determines the presence or absence of a lesion or benign or malignant, the validity of the judgment result of the diagnosis support system should be confirmed by taking into account information on similarity as the base information. Becomes possible.
  • the determination result indicates a display of a comparison image as a similar image, a probability that a test image contains cancer (malignant tumor) based on such information, and the like.
  • FIG. 1 is a schematic block diagram illustrating a configuration of a diagnosis support system 1S according to the first embodiment of the present invention.
  • the diagnosis support system 1S includes at least a diagnosis support device 2 and a pre-acquired data holding unit 3.
  • the image pickup device 4 is connected to the diagnosis support device 2.
  • the connection form between the diagnosis support device 2 and the image pickup device 4 may be either a wired connection or a wireless connection, and the connection with the image pickup device 4 at a remote place may be made via an Internet line.
  • the image capturing device 4 and the diagnosis support device 2 may be integrally incorporated as the same device.
  • the image capturing device 4 captures a medical image of the subject and obtains an internal information image.
  • an ultrasonic diagnostic apparatus as described in WO2017 / 051903 is applied.
  • This image capturing apparatus 4 is mainly used for a tumor test for breast cancer, and can acquire internal information of a breast as a subject in a 3D image.
  • the subject's breast is inserted into the insertion portion of the probe 31 device.
  • the ultrasonic array arranged around the subject scans up and down while transmitting and receiving ultrasonic waves to generate an inspection image of internal information of the subject.
  • the image capturing apparatus 4 includes, in addition to the probe 31, each unit including a transmission / reception control unit 32, an image generation unit 33, a device control unit 34, a storage unit 35, and the like.
  • the transmission / reception control unit 32 controls transmission / reception of the ultrasonic signal from the probe 31.
  • the device control unit 34 controls operations of the image pickup device 4 including scanning of the probe 31 and the like.
  • the image generation unit 33 reconstructs the ultrasonic signal received by the transmission / reception control unit 32 and generates an inspection image. Note that the inspection image generated here may be an image showing the entire breast as a subject, or may be an image showing only a part of the subject, for example, only a lesion estimation site.
  • the storage unit 35 stores the acquired reception signal, the subject information, the captured image, and the like, and accumulates them so that they can be called at any time.
  • the storage unit 35 is a known storage device such as an HDD or an SSD.
  • the storage unit 35 may be incorporated in the image capturing device 4 or may be connected to a server or the like (not shown) external to the image capturing device 4 to be replaced with the external server or the like.
  • the subject of the present invention is not limited to breast cancer diagnosis using the device.
  • the target site may be internal information of the head, body, limbs, etc., and not only for ultrasonic diagnosis but also for two-dimensional or three-dimensional CT, MRI, and a combination with these other imaging techniques, Applied.
  • the diagnosis support system 1S includes the diagnosis support device 2 and the pre-acquired data holding unit 3.
  • the diagnosis support device 2 includes at least a communication control unit 11, a control unit 12, a calculation unit 13, a virtual space data holding unit 14, a display control unit 15, a display unit 16, and an input unit 17, and is acquired by the image capturing device 4.
  • the medical image diagnosis support is performed using the obtained inspection image.
  • the pre-acquired data holding unit 3 holds a group including a plurality of comparison images to be compared when diagnosing the inspection image.
  • Each of the comparative images is an in-vivo information image acquired in advance, and is composed of two-dimensional or three-dimensional image data, or RF (Radio Frequency, high frequency) data before being converted into image data. It can be image data composed of images.
  • the plurality of comparative images held here further include feature amount information capable of specifying the similarity between the plurality of comparative images.
  • the comparison image in the pre-acquired data holding unit 3 does not necessarily need to directly have this feature amount information (specifically, for example, N-dimensional parameter information to be described later).
  • the comparative image in addition to the case image, a lesion case simulation image acquired by computer calculation, intermediate data of the lesion case simulation image, an image of findings and diagnostic criteria, an image of a normal tissue, and the like may be used. it can.
  • the comparison image may be an image obtained by imaging the entire breast as a subject, or may be an image obtained by capturing only a part of the subject, for example, only a lesion estimation site. In the present embodiment, it is assumed that image comparison between ultrasonic images is performed. However, the comparison image is not limited to such an ultrasonic image, and a medical image acquired by another type such as X-ray CT is compared. It may be an image.
  • the pre-acquired data holding unit 3 holds biological tissue information and information representing shape information (of biological tissue) of each comparative image, specifically, label information including lesion feature information for each of the comparative images. Is associated with each comparative image.
  • the label information including the lesion feature information is used for diagnosis support of the subject, and is read out to indicate the attribute of the comparison image when the comparison image is displayed as an image indicating the basis of the diagnosis support determination result.
  • Label information including the lesion feature information for example, findings and diagnostic results comprehensively determined based on diagnostic criteria or multiple diagnostic criteria, pathological diagnosis by needle biopsy, etc., and time-dependent changes in the subject, treatment history, etc.
  • the information includes diagnosis information by a doctor, biological information of a subject, and the like. Note that this label information needs to be associated with each of the plurality of comparison images in the pre-acquired data holding unit 3, but the label information is associated with all the comparison images in the pre-acquired data holding unit 3. You don't have to.
  • the comparative images constitute a learning data set of a trained model of the calculation unit 13 described later as tagged teacher data.
  • the pre-acquired data holding unit 3 is arranged in a server or the like connected to the outside of the diagnosis support device 2, but may be incorporated in the diagnosis support device 2 (not shown). . Further, the plurality of comparison images in the pre-acquired data holding unit 3 may be provided to the pre-acquired data holding unit 3 via a network or via a portable recording medium.
  • the diagnosis support device 2 is configured by a CPU, a GPU, a main memory, other LSIs, a ROM, a RAM, and the like of the control unit 12. The operation is realized by a diagnosis support program or the like loaded in the main memory. That is, the diagnosis support apparatus 2 can be realized using various computers (calculation resources) such as a personal computer (PC), a mainframe, a workstation, and a cloud computing system.
  • PC personal computer
  • mainframe mainframe
  • workstation a workstation
  • cloud computing system a cloud computing system.
  • the diagnosis support apparatus 2 is realized by executing a program instruction which is software for realizing each function.
  • a program instruction which is software for realizing each function.
  • a “temporary tangible medium” such as a CD, a DVD, a semiconductor memory, or a programmable logic circuit can be used.
  • this program may be supplied to the computer of the diagnosis support apparatus 2 via any transmission medium (such as a communication network or a broadcast wave) capable of transmitting the program.
  • the communication control unit 11 is an interface that controls transmission and reception of data with the image diagnostic apparatus 4 and the pre-acquired data holding unit 3. It mainly acquires inspection information, a group of comparative images, label information including lesion feature information of the comparative images, and the like.
  • the control unit 12 includes at least a processor such as a CPU and a GPU, and controls the entire function units in the diagnosis support apparatus 2.
  • the control unit 12 particularly has a function of specifying the similarity between the inspection image and the plurality of comparison images. This function will be described later.
  • the calculation unit 13 is for obtaining the feature amount information of the inspection image received via the communication control unit 11 and, if necessary, the plurality of comparison images by calculation.
  • the calculator 13 constitutes a so-called classifier, and has a predetermined learned model therein.
  • the trained model is generated through supervised learning using a known machine learning method, for example, a neural network (preferably including a convolutional neural network (CNN)) model.
  • the trained model is trained (trained) to output the feature information to the neurons in the output layer by inputting the data of the inspection image and a plurality of comparison images to the neurons in the input layer. It is.
  • the machine learning method of the trained model is not limited to the above, and substitutes for methods such as a support vector machine (Support Vector Machine: SVM), a model tree, a decision tree, a multiple linear regression, a local weighted regression, and an established search method. It can also be used in combination or appropriately.
  • SVM Support Vector Machine
  • model tree a model tree
  • decision tree a decision tree
  • multiple linear regression a local weighted regression
  • local weighted regression a local weighted regression
  • an established search method it can also be used in combination or appropriately.
  • the learned model of the calculation unit 13 performs learning as a learning data set using a part or all of a plurality of comparative images held in the pre-acquired data holding unit 3 and including the associated label information. Things. Therefore, it should be particularly noted that the data input to the neurons in the input layer of the trained model needs to be in the same format as the plurality of comparison images. For example, when the comparison image includes three-dimensional image data, the data input to each neuron in the input layer includes, for example, the (8-bit) gray scale of each voxel constituting the three-dimensional image data. It can be a value.
  • the data input to each neuron of the input layer is, for example, a gray scale value of each pixel constituting the two-dimensional image data.
  • the data input to the neurons in the input layer is not limited to these, and can be appropriately changed according to the data format of the comparison image, the presence or absence of additional information, and the like.
  • the feature amount information output to the output layer of the learned model of the calculation unit 13 includes information that can specify the features of the image in the machine learning network, and the format and number of the features are not limited.
  • the learned model is generated by machine learning a learning data set including a comparative image and label information associated therewith.
  • a value recognizable by a user such as a diagnostic criterion, for example, the presence or absence of a whitening region having a size equal to or greater than a predetermined size in an image, the size and position of the whitening region, the thickness of surrounding blood vessels, and the like
  • a diagnostic criterion for example, the presence or absence of a whitening region having a size equal to or greater than a predetermined size in an image, the size and position of the whitening region, the thickness of surrounding blood vessels, and the like
  • the indicated value can also be adopted.
  • the virtual space data holding unit 14 is for generating a predetermined virtual space (first virtual space) by using N-dimensional parameters output by a learned model included in the calculation unit 17 described later.
  • the virtual space data holding unit 14 holds various data for plotting a plurality of comparison images and inspection images at predetermined coordinate positions in the virtual space.
  • the various data referred to here is a calculation for plotting an image on a virtual space of displayable dimensions (for example, one to three dimensions) by adjusting the value of an N-dimensional parameter calculated by the calculation unit 17. Including formulas.
  • the calculation unit 17 outputs 10-dimensional parameter information as feature amount information of a plurality of comparison images, and plots a plurality of comparison images on a two-dimensional space as a virtual space. If it is desired to divide the 10-dimensional parameter information into two, multiply them by a preset weight value as necessary, and add them, a calculation formula for specifying the two-dimensional value is obtained. It may be a calculation formula or the like that specifies a two-dimensional value using a well-known multivariate analysis method for the dimensional parameter information.
  • the coordinates of each comparative image have a certain correlation with the related information (that is, the diagnosis result) associated with the comparative image.
  • the parameter information output by the calculation unit 17 and the weight value included in the calculation formula of the virtual space data holding unit 14 are adjusted based on the diagnosis result of the comparative image.
  • the number of dimensions of the N-dimensional parameter output from the calculation unit 17 is small (for example, three-dimensional)
  • the comparison image and the inspection image are output to the same In the virtual space).
  • the virtual space and the feature amount space form the same space.
  • the calculation unit 13 calculates the N-dimensional parameters of a plurality of comparison images each time, but the comparison image is not an image that is frequently added or changed.
  • a plurality of comparison images and their N-dimensional parameters may be stored in the virtual space data storage unit 14. In this way, when generating the virtual space, the amount of calculation by the calculation unit 13 can be reduced, and the load on the calculation unit 13 and the control unit 12 can be reduced.
  • the control unit 12 calls an N-dimensional parameter as feature amount information of the plurality of comparison images calculated by the calculation unit 13 and an N-dimensional parameter as feature amount information of the inspection image similarly calculated by the calculation unit 13, Each is plotted on a feature space constituted by an N-dimensional space having N-dimensional parameters as coordinates. Then, for example, a benign / malignant boundary line is formed in the feature amount space by reading the diagnostic criterion or the label information of the diagnosis result, which is labeled on the comparison image arranged in the feature amount space.
  • the distance L specified here is a value indicating the similarity between the inspection image and the plurality of comparison images. Then, the distance to a set such as a benign tumor (tumor) or a malignant tumor is calculated by the sum of the distances from each comparative image belonging to the set. Of course, the calculation of the distance to the set is not the sum of the distances to all the comparison images belonging to the set, but may be the sum of the top M images selected from the comparison images close to the inspection image in the set, and the boundary may be calculated. The distance may be any, and is not limited at all.
  • the distance L is a value specified as a distance in the feature space, but the space for measuring the distance is not limited to this feature space.
  • each comparison image and inspection image are plotted in the m (1 ⁇ m ⁇ N) -dimensional virtual space obtained by referring to the virtual space data holding unit 14 using the calculated N-dimensional parameters.
  • the distance in the virtual space may be calculated using Expression (ii) or Expression (iii). Adopting the distance in the virtual space as a value indicating the similarity between the inspection image and the plurality of comparison images is particularly advantageous when displaying a virtual space image 45 described later. Specifically, in this case, the distance between the inspection image shown on the virtual space image 45 and the plurality of comparison images and the distance as a value indicating the similarity between the inspection image and the plurality of comparison images are one. Therefore, the similarity can be accurately grasped only by looking at the virtual space image 45.
  • the accuracy of the feature space or the virtual space depends on the quality and quantity of the comparison image, which is a learning data set for generating the learned model of the calculation unit 13, and the label information associated with the comparison image. If the inspection image is arranged at the same distance from the set of comparison images of good and bad in the feature space or virtual space, the attribute distribution map of good and bad etc. changes by increasing the number of comparison images, and the boundary between different attributes Is easier to determine. On the other hand, as the types and number of the comparison images increase, there is a possibility that a set of different attribute sets may overlap in the feature space or the virtual space.
  • the degree of ambiguity in the diagnostic determination increases, and the numerical value of the probability of the determination becomes meaningless.
  • the output of the diagnosis support device 2 does not change with use. May use only batch learning using a learning data set prepared in advance, and need not employ so-called online learning, which updates a learned model using an inspection image or the like for learning.
  • the display control unit 15 generates an image indicating the basis of the diagnosis determination result determined by the control unit 12.
  • the image indicating the basis may be, for example, only a numerical value indicating the similarity specified by the control unit 12, may be a display layout based on the similarity, or may be a control unit.
  • the virtual space image 12 may be a virtual space image in which a plurality of comparison images and inspection images are arranged in the feature space or the virtual space with reference to the virtual space data holding unit 14.
  • the display control unit 15 can add a predetermined visual effect to a point indicating the comparison image plotted in the virtual space.
  • a visual effect for example, a comparative image (a malignant case image) in which the label information includes information indicating that “malignant tumor” is included in consideration of label information such as lesion feature information associated with each comparative information.
  • a comparison image (benign case image) containing information indicating that “benign tumor” is included in blue, and a comparison including information indicating “normal” is included. Points of the image (normal tissue image) can be described in black.
  • the visual effects are not limited to those described above, and other various visual effects can be adopted.
  • the user can determine the reliability of the diagnosis support system 1S in the diagnosis determination, and can effectively guide the diagnostic result of the image interpretation.
  • the display unit 16 is a display device such as a display.
  • the display unit 16 includes an inspection image acquired by the communication control unit 11, a determination result acquired by the control unit 12, and information indicating the similarity generated by the display control unit 15 and indicating the similarity (eg, , Virtual space image, etc.). That is, the determination result (for example, a similar number of comparative images or the inference result of the inference unit 18 to be described later) generated by the comparison is not limited to being displayed, but is displayed on the feature amount space indicating the basis on which the determination result is derived. A distance value, a virtual space image, and the like are also displayed. In addition, image synthesis for displaying necessary information including operation of the diagnosis support system 1S is also performed. Details of the display will be described later with reference to a schematic diagram. In the present embodiment, the display unit 16 is incorporated in the diagnosis support apparatus 2, but may be connected to a display unit such as an external PC terminal or portable terminal via the Internet or the like.
  • the input unit 17 is a keyboard, a touch panel, a mouse, and the like for operation.
  • the diagnosis support device 2 may further include an inference unit 18 and a preprocessing unit 19.
  • the inference unit 18 is for infering whether or not predetermined biological information, specifically, a malignant tumor or the like is included in the inspection image.
  • the inference unit 18 includes a learned model as in the calculation unit 13.
  • the learned model of the inference unit 18 is generated through a well-known machine learning method, for example, supervised learning using a neural network model, similarly to the learned model of the calculation unit 13.
  • the learned model is a set including, for example, a plurality of comparison images held in the pre-acquired data holding unit 2 and presence / absence of biological information as a diagnosis result of label information associated with each comparison image. It can be generated by performing machine learning using a learning data set.
  • the learned model generated in this way is configured to determine whether or not the neurons in the output layer include predetermined biological information by inputting (the image data of) the test image to the neurons in the input layer.
  • This is a learned model that has been learned to output a probability (also referred to as a confidence value) that includes biological information.
  • a probability also referred to as a confidence value
  • the data input to the neurons in the input layer is replaced with image data as image data of the inspection image, but as N-dimensional parameter information calculated for the inspection image by the calculation unit 13 or RF data of the inspection image. Is also good.
  • the machine learning method of the trained model is not limited to the above, and a method such as SVM, model tree, decision tree, multiple linear regression, local weighted regression, established search method, etc.
  • the biological information referred to here includes not only a malignant tumor but also a benign tumor or an artifact, and the learned model of the inference unit 18 includes any of these biological information, It may be possible to output the probability of being included in the inspection image for each.
  • the diagnosis support apparatus 2 determines the probability that the test image contains predetermined biological information in addition to the similarity between the test image and the plurality of comparative images. The result can be provided to the user as the determination result. Therefore, the diagnosis efficiency of the doctor can be further improved.
  • the preprocessing unit 19 adjusts the data format of the data of the inspection image received by the communication control unit 11 before calculating the calculation unit 13 so that the feature amount information can be calculated by the calculation unit 13. It is for.
  • the preprocessing includes various processes in addition to the processes (for example, noise filtering, data amount adjustment, FFT, etc.) that are usually performed in the technical field of the machine learning device. To specifically illustrate these various processes, the learned model of the calculation unit 13 is learned so that the feature amount information can be output by inputting two-dimensional image data, and the communication control unit 11 If the inspection image received in step (1) is three-dimensional image data, a process of generating one or more two-dimensional slice data from the three-dimensional image data (automatically or through a user operation) is executed.
  • the learning model of the calculation unit 13 is learned so that feature amount information can be output by inputting two-dimensional image data, and the inspection image received by the communication control unit 11 is an RF data.
  • a process of generating two-dimensional image data from the RF data is executed. Is input, and the inspection information received by the communication control unit 11 is two-dimensional or three-dimensional image data. And the like. Since the input / output information of the trained model is specified by the data configuration of the learning data set at the time of machine learning, by adopting such a preprocessing unit 19, it is possible to match the data format of the inspection image. This eliminates the need to prepare multiple trained models.
  • FIG. 2 is a flowchart showing an operation outline of the diagnosis support system according to the first embodiment of the present invention.
  • the diagnosis support method shown here is realized by various computers constituting the diagnosis support system, and includes a comparison image holding step (S1000), a multidimensional parameter generation step for a comparison image (S1100), and an inspection image acquisition step (S1200). ), A comparison image and multidimensional parameter acquisition step (S1300), a multidimensional parameter calculation step for the inspection image (S1400), a virtual space image formation display step (S1500), and a comparison image display step (S1600).
  • the diagnosis support method includes unillustrated steps such as storage, storage, accumulation, calculation, and the like.
  • a plurality of comparative images collected in advance are stored in the pre-acquired data storage unit 3 in the comparative image storing step (S1000).
  • the plurality of comparison images collected in advance are, for example, mainly composed of three-dimensional image data.
  • the calculation unit 13 generates a multidimensional (N-dimensional) parameter as feature amount information of the comparison image and stores it in the virtual space data holding unit 14. .
  • N-dimensional multidimensional
  • the multidimensional parameter generation step (S1100) of the comparison image can be omitted.
  • the above-described comparison image holding step (S1000) and the multidimensional parameter generation step of the comparison image (S1100) may be performed for each inspection, but the content of the comparison image is not frequently changed. It may be performed only at the timing of updating the content of the comparison image.
  • an inspection image serving as an inspection object captured by the image capturing device 4 is acquired via the communication control unit 11.
  • This inspection data is also composed of, for example, three-dimensional image data.
  • a comparison image and multidimensional parameter acquisition step (S1300) a set of a plurality of comparison images and their corresponding multidimensional parameters is acquired from the pre-acquisition data holding unit 3 or the virtual space data holding unit 14.
  • the calculation unit 13 calculates a multidimensional parameter as feature amount information (a multidimensional parameter calculation step of the inspection image (S1400)), and further, in a virtual space image formation display step (S1500), A virtual space image for display is formed by the control unit 12 and the display control unit 15 based on various data in the virtual space data holding unit 14 and displayed on the display unit 16.
  • the similarity between the comparative image and the inspection image is displayed by plotting the comparative image and the inspection image at specific coordinate positions on the virtual space image. More preferably, it is preferable that the user can select the coordinates of the comparison image on the virtual space image to display the image of the comparison image and the label information such as the lesion feature information (comparison image display). Step (S1600).
  • a similar image determined to be similar to an inspection image among comparative images is displayed as a determination result, for example, a virtual space image or the like is used as a basis for selection.
  • a virtual space image or the like is used as a basis for selection.
  • the inspection image acquisition step (S1200) and the comparison image acquisition step including multidimensional parameters (S1300) may be performed in parallel or may be performed one after another. Further, instead of the virtual space image forming and displaying step (S1500), a distance in the feature space is specified from the multidimensional parameters of the inspection image and the plurality of comparison images, and the distance is expressed as a value representing similarity. May be displayed on the display unit 16.
  • the diagnosis support device when used for educational purposes, the user can select in advance a mode in which the diagnosis by the machine is not displayed.
  • the virtual space data holding unit 14 that generates a first virtual space using N-dimensional parameters as feature amount information is illustrated, but the virtual space data holding unit 14 according to the present embodiment is exemplified. Is not limited to this.
  • linguistic expression information corresponding to each image may be adopted as the feature amount information, and a linguistic space composed of the linguistic expression information may be generated as the second virtual space.
  • the display unit 16 displays the similarity calculated based on the distance in the language space between the inspection image and the plurality of comparison images.
  • Language space can be based on a linguistic expression such as an interpretation report expression linked to the comparison image, for example.
  • the control unit 12 converts the comparison image into an image interpretation language included in the comparison image using the learned model of the calculation unit 13 and reads the language as the language information.
  • the inspection image is converted into an image interpretation language and read.
  • the interpretation language is, for example, linguistic information, findings, and language data converted into natural language data or the like, which is determined from an image such as a tumor progression level of “2”.
  • the findings include information similar to the above-described lesion feature information, that is, the position of the tumor (position in the breast, position in the mammary gland, distance from the skin), whether the tumor is solid or cystic, and the structure in the tumor.
  • the information may include an echo, whether the shape of the boundary is smooth or not smooth), whether there is a disturbance in the construction of surrounding normal tissue, the presence or absence of a plurality of tumors such as daughter nodules, and the presence or absence of calcification.
  • the control unit 12 replaces the inspection image and the comparison image with an index in the language space (second virtual space), and visually recognizes the similarity between the inspection image and the comparison image in the language space.
  • the display is performed as follows.
  • the distance distribution between the inspection image and the comparison image can be measured, and the similarity between the two can be specified as a numerical value.
  • the feature amount corresponding to the existing diagnostic criterion for the estimated lesion site in the inspection image is expressed in the language.
  • a learned model that can be converted and extracted is provided.
  • the schematic diagram of FIG. 3 is an example of a display on the display of the display unit 16.
  • 3A shows a three-dimensional examination image 40 of a breast as a subject acquired from the image pickup device 4 through the communication control unit 11 and is displayed in the center of the display unit 16. ing. Inside the inspection image 40, there is a characteristic region 41 having a high possibility of a tumor to be watched. At this time, for the purpose of enhancing visibility, a visual effect such as enclosing a region including the characteristic region 41 with a line as the lesion estimation site 46 may be added.
  • the characteristic region 41 and the lesion estimation site 46 As a method of specifying the characteristic region 41 and the lesion estimation site 46, not only the selection by the user but also the automatic identification using a known image recognition technology or a machine learning technology can be performed. Further, as the machine learning technique used here, for example, by inputting image data to a neural network model, more specifically, inputting image data to neurons in an input layer, coordinates indicating a region matching biological information set in advance in an output layer are output. A learned model such as The display of the display unit 16 shown in FIG. 3A also displays a virtual space image 45 composed of a two-dimensional map indicating the similarity between the comparison image and the inspection image in the lower right part. You.
  • FIG. 3B is a schematic diagram showing an example of a display after the coordinates of a specific comparison image in the virtual space image 45 are designated by the pointer 42.
  • the designated comparative image 44 is displayed as a similar case in the center of the display unit 16.
  • another comparison image 44 arranged at a fixed distance from the inspection image in the virtual space may be displayed side by side.
  • the display unit 16 also shows a determination result 43 for the characteristic region 41.
  • the determination result 43 is, for example, a probability that the biological information inferred by the inference unit 18 is included, a benign / malignant discrimination determination, a corresponding diagnosis name, and the like, but is not limited thereto.
  • the method of displaying the determination result 43 may be a method using an arbitrary visual effect, such as highlighting the characteristic region 41 instead of the text information.
  • the virtual space image 45 As an image indicating the basis of the determination result, a doctor or the like can determine the ambiguity of the determination result and use it for confirming the diagnosis. Further, several comparative images corresponding to similar cases are displayed on the display unit 16 together with the determination result 43, so that the diagnosis efficiency can be improved.
  • the display of the display unit 16 displays, for example, a patient information display unit 47 and an imaging condition display unit 48 in addition to various images. Note that the types, arrangements, and the like of the display information are examples, and the present invention is not limited thereto.
  • the displayed comparison image may be three-dimensional.
  • the number of windows for displaying various types of data does not need to be one, and the inspection image 40, the virtual space image 45, and the like may appear in another window or tab display in response to an input instruction.
  • FIG. 1S An image indicating the basis of the determination result by the diagnosis support system 1S is displayed, for example, as the virtual space image 45 in FIG.
  • a plurality of virtual space images may be juxtaposed.
  • FIG. 4 shows an example of a case where a map display is adopted as the feature space and the virtual space image 45 generated by projecting the feature space.
  • FIG. 4A illustrates a feature space 50.
  • the feature amount space 50 shown in FIG. 4A is a case where the feature amount information output by the calculation unit 13 is composed of two-dimensional parameters for ease of explanation.
  • a point 53 indicating the inspection image is arranged on the feature space 50 based on the two-dimensional parameter obtained as a result calculated by the calculation unit 13.
  • the number of dimensions of the feature amount space 50 shown here is not limited at all.
  • points corresponding to a plurality of comparative images are plotted in the same manner as the point 53 indicating the inspection image. These points are, for example, a plurality of malignant cases. Points 51 corresponding to the images are indicated by black circles, and points 52 corresponding to a plurality of benign case images are indicated by white circles.
  • the malignant case refers to a malignant tumor such as breast cancer
  • the malignant case image is a comparative image including the malignant tumor.
  • a benign case refers to a benign tumor
  • a benign case image is a comparative image including a benign tumor.
  • a benign / malignant discrimination line 54 can be defined in the feature space 50 based on the arrangement of these points 51 and 52. Accordingly, for example, the distance indicating the similarity between the inspection image and the comparison image corresponds to the distance between the position of the point 53 in the feature amount space 50 and the benign / malignant determination line 54 or the inspection image.
  • the number and characteristics (whether benign or malignant) of the comparison images having a distance from the point 53 within the predetermined range 55 can be specified, and the information is indicated to assist the doctor in diagnosing the examination image. be able to.
  • the display control unit 15 may generate a one-dimensional, two-dimensional, or three-dimensional virtual space image as an image indicating the basis of the determination result 43 based on the information in the feature amount space 50 and cause the display unit 16 to display the image. it can.
  • FIG. 4B is an example showing a one-dimensional virtual space image 56 generated based on information such as the feature space 50 shown in FIG.
  • the comparative image is plotted with a visual effect so that it can be determined whether the comparative image indicates a malignant case or a benign case.
  • a point 53 corresponding to the examination image is arranged at the center, and the left and right directions are respectively defined in a benign direction (+ direction) and a malignant direction (-direction).
  • Points 51 and 52 corresponding to the comparison image are displayed.
  • the comparison image may be displayed.
  • the display position is based on, for example, the Euclidean distance from the point 53 corresponding to the inspection image.
  • An advantage of the display of FIG. 4B is that the relative Euclidean distance can be easily determined.
  • FIG. 5 shows an example of a case where a histogram display is adopted as the virtual space image 45.
  • FIGS. 5A to 5D show histograms of the number and distance of comparison images existing in a predetermined range 55 centered on 53 corresponding to the inspection image in the feature amount space 50. is there.
  • the horizontal axis in FIGS. 5A to 5D is the Euclidean distance from the point 53 corresponding to the inspection image in the feature amount space 50 to the point corresponding to the comparison image
  • the vertical axis is the comparison image. (The number of data).
  • the line indicating the transition of the number of points 61 corresponding to the malignant case image is indicated by a dotted line
  • the line indicating the transition of the number of points 62 corresponding to the benign case image is indicated by a solid line.
  • the number of points 51 corresponding to the malignant case image is large on the side close to the point 53 corresponding to the examination image, and the number of points 52 corresponding to the benign case image is large on the far side. Will understand. Therefore, it can be seen from this image that the inspection image 53 is highly likely to be malignant.
  • the histogram shown in FIG. 5D shows that the point 53 corresponding to the inspection image has a high probability of benignity.
  • the histogram shown in FIG. 5B shows that the point 53 corresponding to the test image is far from the point 51 corresponding to the malignant case image and the point 52 corresponding to the benign case image. It is suggested that a tumor or the like may not exist in the first place.
  • the histogram shown in FIG. 5C shows that the comparison images of both the point 52 corresponding to the benign case image and the point 51 corresponding to the malignant case image from the point 53 corresponding to the examination image are present at close positions. I have. Therefore, in this case, the accuracy of the support information by the diagnosis support system 1S is low, which suggests the necessity of further examination means such as pathological diagnosis.
  • this display example there is an advantage that the doctor can grasp at a glance the overall relationship between the examination image and a large number of comparative images.
  • only comparative images having characteristics similar to the test subject from a different viewpoint from the image information, such as whether the image is dense breasted, age, genetic information, and the like are displayed. There is also a method.
  • FIG. 6 shows another example in which a histogram display is adopted as the virtual space image 45.
  • FIG. 6A shows a histogram of the correlation between the number of data and the distance between the comparison image and the inspection image of each attribute.
  • four types of comparative images are shown. The four types are a point 61 corresponding to a malignant case image, a point 62 corresponding to a benign case image, a point 63 corresponding to an artifact image, and a point 64 corresponding to a normal tissue image. It is specified based on the label information associated with.
  • the artifact refers to a virtual image captured due to a noise or the like instead of a tumor or a tumor
  • the artifact image is a comparative image including the artifact.
  • the normal tissue image is a comparative image in which data does not include any of a tumor, a tumor, and an artifact.
  • FIG. 6A by displaying a plurality of types of comparison images in a histogram, it is possible to provide more detailed information that is the basis of diagnosis support.
  • FIG. 6B is a diagram showing the correlation of the Euclidean distance between the four types of comparison images and the inspection image.
  • the horizontal axis represents the Euclidean distance in the feature space determined by the feature information output using the calculation unit obtained as a result of performing the machine learning so that the distinction between benign and malignant is clearest.
  • the Euclidean distance (1)) is determined by the feature amount information output by using the calculation unit obtained as a result of performing the machine learning so that the distinction between the benign and malignant union and the other (no finding) is most clear.
  • a virtual space image is generated with the vertical axis (Euclidean distance (2)) being the Euclidean distance in the obtained feature amount space.
  • category 3 is probably benign (malignant probability 2% or less), and category 4 is malignant probability 2 to 95%.
  • the distinction between benign and malignant is not complete with images alone. Since it is difficult to use it as it is as the label information for machine learning, the first machine learning performs machine learning so that discrimination between benign and malignant is the highest, but another machine using the same image data In learning, it is also effective to perform machine learning so that categories 1 and 2 or more are classified. Category 1 is negative and 2 is benign. The reliability of the determination result is improved by combining information output from a plurality of feature amount spaces in this manner.
  • the virtual space image is generated based on only the information of the feature space 50 or the like shown in FIG. 4A so far, the virtual space image in the present embodiment is not limited to such an embodiment.
  • an index which is easy for humans to use as a vertical axis for example, the size of a feature region specified by a well-known image recognition technique or the gray scale value of the feature region It is also possible to generate and display a two-dimensional image by combining the average values.
  • FIG. 7 is a schematic diagram when different virtual spaces are displayed in combination.
  • the virtual space shown in FIG. 7A is a two-dimensional virtual space generated using N-dimensional parameters as feature amount information, in which an inspection image and a comparison image are plotted.
  • the virtual space shown in FIG. 7B is a two-dimensional virtual space generated by using a conventionally used diagnostic index or the like, and similarly, the inspection image and the comparison image are plotted.
  • the diagnostic index and the like here include diagnostic data based on the degree of visual similarity, findings by a doctor or the like, and an index based on the basis of a diagnostic guideline. That is, it can be said that the virtual space shown in FIG. 7A is formed based on the feature amount information calculated by the learned model. On the other hand, it can be said that the virtual space shown in FIG. 7B is formed based on feature amount information that is easily understood by a doctor or the like.
  • information in the virtual space is associated with the virtual space so that the relationship between the virtual spaces can be understood.
  • various processes can be adopted as long as it is a process for specifying a relationship between information displayed in different virtual spaces.
  • This processing includes, for example, processing for adding the same visual effect such as sharing the shape and color of the points of the same comparative image plotted in these two virtual spaces. it can. In this way, for a feature that cannot be separated in one virtual space, another virtual space can be presented to supplement the user's diagnostic judgment.
  • the schematic diagram of FIG. 8 is another example of the display on the display of the display unit 16.
  • comparative images determined to be close to the inspection image are displayed side by side.
  • the inspection image and the benign and malignant similar case images are displayed together.
  • the comparison image having a high similarity that is, the distance from the inspection image to the comparison image existing in the specific area is reduced.
  • a close comparison image is extracted.
  • a predetermined number of the closest malignant case images and a predetermined number of the same benign case images are extracted in the feature amount space 50 within a predetermined range centered on the inspection image.
  • the inspection image 20 is displayed at the center of the display unit 16, and the extracted benign case image 27 and malignant case image 25 are displayed in a benign case image display area 26 and a malignant case image display area 24 provided on both sides thereof.
  • Each is displayed according to the degree of similarity.
  • the benign case image 27 here may include a comparative image including an artifact and a comparative image not including a tumor in addition to a comparative image including a benign tumor.
  • the display shown in FIG. 8A is a display example when a plurality of benign case images close to the inspection image exist within a predetermined range centered on the inspection image in the virtual space, but no malignant case image is detected. is there.
  • the benign case image display area 26 three benign case images 27 are shown.
  • no image is displayed in the malignant case image display area 24.
  • the characteristic region 21 is likely not to be a malignant tumor, and the diagnosis determination result by the diagnosis support system 1S is doubtful. There is no room.
  • 8C is a display example when only the malignant case image 25 is displayed in the malignant case image display area 24 as a similar case.
  • the doctor can clearly judge that the possibility that the characteristic region 21 is a malignant tumor is high, and there is no doubt about the diagnosis judgment result by the diagnosis support system 1S.
  • the display shown in FIG. 8B is a display example in a case where the discrimination between benign and malignant is ambiguous in the feature space 50.
  • the malignant case image display area 24 and the benign case image display area 26 of the inspection image 20 three malignant case images 25 and three benign case images 27 are displayed.
  • the display as shown in FIG. 8B is a case where benign and malignant cannot be clearly distinguished. In such a case, it can be said that it is better to leave the judgment to the doctor because the case is an ambiguous case, rather than forcibly providing the judgment result by the diagnosis support system 1S.
  • the doctor can select each case image and read the case information. This makes it easier for the physician to make further decisions such as tissue biopsy and follow-up, recognizing that the determination of the test image in the case is ambiguous.
  • the similarity of the selected images to the inspection image is high so that they can be understood at a glance. It is preferable to display in ascending order according to the degree, to add a value indicating the similarity specified by the control unit 12, or to add a visual effect according to the degree of similarity.
  • the control unit 12 may select and display a comparative image to be calculated in advance and displayed side by side. In this case, since the distance in the feature space can be specified only from the feature information, it is not always necessary to display the virtual space image 45. Further, the display mode shown in FIG. 8 and the display mode shown in FIG. 3 may be appropriately changed and displayed by, for example, selection by a user.
  • ⁇ Second embodiment> In the above-described first embodiment, an example has been described in which the inspection image and the comparison image are compared, and when a diagnosis determination is derived, a comparison image including three-dimensional image data is displayed. As another display example, when displaying the comparison image, a diagram having a visual effect that more prominently expresses the feature of each pixel, such as a heat map, is added to the lesion estimation portion in the displayed image, It may be shown in each image. At this time, the image and the diagram such as the heat map may be superimposed or juxtaposed.
  • the position of the tumor and the estimated lesion site in the three-dimensional image are defined in advance, and these pieces of information are linked to the comparative image as label information. Therefore, by referring to this label information, a diagram such as a heat map can be additionally shown. On the other hand, a part to be confirmed is not specified in the examination image confirmed by the user. According to the present embodiment, the user can efficiently specify a lesion estimation site to be confirmed from a three-dimensional inspection image with reference to a lesion estimation site estimated by, for example, a machine learning technique. It is possible to reduce.
  • ⁇ Third embodiment> after estimating the lesion estimation site using the machine learning technology, the user determines the validity of the determination. In another embodiment, after the user specifies the lesion estimation site in the examination image first, a comparison image similar to the specified site may be shown.
  • FIG. 9A shows a three-dimensional examination image 40 of a breast as a subject acquired from the image pickup device 4 through the communication control unit 11 on the right side of the display unit 16. Inside the inspection image 40, there is a characteristic region 41 with a high possibility of a tumor to be watched.
  • One cross section or one area (inspection image 40a, characteristic area 41a) in the three-dimensional inspection image is displayed at the center of the display unit 16.
  • the angle and position of the cross section displayed as the inspection image 40a in the three-dimensional inspection image 40 are indicated by using a line 49 indicating the display cross-sectional position shown for the three-dimensional inspection image 40.
  • the position and angle of the line 49 can be changed by a doctor or the like by operating the mouse (not shown) with the pointer 42, and an arbitrary cross section can be selected.
  • the cross section displayed as the inspection image 40a may be automatically determined by the control unit 12 so as to indicate a site having a high tumor existence probability.
  • FIG. 9B is a display example in which a diagnostic determination is performed on the characteristic region 41 a of the inspection image 40 a displayed by selecting the display of the specific cross section with the pointer 42, and the determination is performed at the lower right position of the display unit 16.
  • the result 43 is shown.
  • the determination result is, for example, a tumor existence probability, benign / malignant discrimination determination, a corresponding diagnosis name, and the like, but is not limited thereto.
  • a method of displaying the determination result 43 a method using an arbitrary visual effect, such as highlighting of the characteristic region 41a, may be used instead of the text information.
  • a virtual space image 45 is displayed at the lower right of the display unit 16 as a diagram showing the basis of the determination result, and a comparison image designated by a doctor or the like with the pointer 42 in the virtual space image 45 indicates a similar case.
  • the image 44 is displayed below the center of the display unit 16.
  • the user can specify a site to be inspected and extract a similar case to the lesion site, it is possible to improve the efficiency of the discrimination work by the user to specify the type of the specified lesion. it can.
  • This embodiment corresponds to an example in which the present invention is applied to a so-called CADx (Computer @ Aided Diginosis).
  • the similarity between an inspection image and a plurality of comparison images is matched as a basis for displaying a similar image as a determination result or displaying a probability that biological information is included. Providing it to the user contributes to improving the efficiency of diagnosis.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Data Mining & Analysis (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

事前に取得された被検体の内部情報の画像を比較画像として複数保持する事前取得データ保持部(3)であって、複数の比較画像は、画像データと、生体組織情報や形状情報を表すラベル情報と、複数の比較画像同士の類似度を特定可能な特徴量情報とを備える、事前取得データ保持部(3)と;検査対象物としての被検体から取得された検査画像の画像データを、複数の比較画像を学習した学習済モデルに入力して検査画像の特徴量情報を計算する計算部(13)と;複数の比較画像の特徴量情報と検査画像の特徴量情報とに基づいて、検査画像と複数の比較画像との間の類似性を表示する表示部(16)と;を含む診断支援システム(1S)を提供する。これにより、診断支援装置による判定の根拠とした情報を表示することにより、診断の精度を高めることができる。

Description

診断支援システム及び診断支援方法
 本発明は、コンピュータによる画像診断支援判定結果の根拠表示に関する診断支援システム及び診断支援方法に関する。
 CT、MRI、超音波等の医療画像撮像装置は、生体を直接切開して観察する外科手術が必要ないため、被検体内部の情報を撮像する技術として、医療分野で広く用いられている。
 医師は取得された画像を診断に用い腫瘍の存否等を判断するが、正確な読影には十分な経験を要する。また、撮像技術の発展に伴い被検体毎の画像枚数が増加し、ユーザーは大量の画像の中から判断対象を示唆する一部の画像を効果的に特定しなればならず、読影負担が増加している。また、例えば乳がん検診の場合、被検者群の中にがん患者が含まれる確率は0.5%程度である。このため多くの乳がんでない画像データの中から、たまに現れる乳がんデータを見落としなく見つけるのは、読影の負担が大きい。
 読影を支援する装置として、医療画像撮像装置から検査画像を取得し、画像処理や機械学習処理を通じて画像中に含まれる腫瘍等の異常領域を検出し、医師等に提示することにより画像診断を支援する診断支援装置が開発されている。
 例えば、検索部が検索した類似画像の検索に寄与した特徴量に対応する所見情報を類似画像と対応づけて所定の出力装置に出力する所見情報出力部を備える症例画像検索装置(特許文献1参照)、予め登録された病変パターンに対応する特徴量を算出する特徴量算出部と、特徴量に基づいて検索画像内に病変パターンが存在する確率を算出する確率算出部と、類似度を算出する類似度算出部とを備える類似画像検索装置(特許文献2参照)等が提案されている。
 しかし、機械学習を利用した医師の画像診断支援表示においては、算出したがんの確率、類似画像は示されるものの、その表示内容の根拠は提示されない。
 医師の診断を支援する場合、がんの確率が算出され表示されても、根拠が示されなければ、診断は行いにくい。また確率結果が示されてもその数値の根拠がわからなければ、診断結果は診断医の判断に依存することとなり、数値自体に意味がなくなってしまう。
 また、類似症例が表示されても、表示された類似症例の検出根拠が示されないと、類似症例自体の正確さが判断しにくく、医師による診断の決定への寄与度が低くなる。
特開2011-118543号公報 特開2016-45662号公報
 本発明は前記の点に鑑みなされたものであり、診断支援装置による判定の根拠とした情報を表示することにより、診断の精度を高める診断支援システム及び診断支援方法を提供する。
 上記課題を解決するために、本発明の第1の態様に係る診断支援システム1Sは、例えば図1に示すように、事前に取得された被検体の内部情報の画像を比較画像として複数保持する事前取得データ保持部3であって、前記複数の比較画像は、画像データと、生体組織情報や形状情報を表すラベル情報と、前記複数の比較画像同士の類似度を特定可能な特徴量情報とを備える、前記事前取得データ保持部3と;検査対象物としての被検体から取得された検査画像の画像データを、前記複数の比較画像を学習した学習済モデルに入力して前記検査画像の特徴量情報を計算する計算部13と;前記複数の比較画像の前記特徴量情報と前記検査画像の前記特徴量情報とに基づいて、前記検査画像と前記複数の比較画像との間の類似性を表示する表示部16と;を含むものである。
 このように構成すると、表示部に検査画像と複数の比較画像との間の類似性を表示することにより、単にがんの確率や類似症例のみを表示する場合に比べて、医師による診断を支援できる有益な情報を付加的に提供することができるようになる。
 本発明の第2の態様に係る診断支援システム1Sは、例えば図1及び図4に示すように、上記本発明の第1の態様に係る診断支援システム1Sにおいて、前記特徴量情報は、多次元のパラメータで構成された情報であり、前記特徴量情報を構成する前記多次元パラメータを座標とする特徴量空間50上における、前記検査画像53と前記複数の比較画像51、52との間の距離Lを、前記類似性を表す値として特定する制御部12を更に含む。
 このように構成すると、類似性を数値で表すことができるため、その類似性を確実に特定することができるようになる。
 本発明の第3の態様に係る診断支援システム1Sは、例えば図1、図4乃至図7に示すように、上記本発明の第1の態様に係る診断支援システム1Sにおいて、前記特徴量情報は、多次元のパラメータで構成された情報であり、前記特徴量情報を利用して、前記類似性を視覚的に認識するための表示可能な次元数で構成された第1の仮想空間を生成するための仮想空間データ保持部14を更に含み、前記表示部16は、前記第1の仮想空間上に、前記複数の比較画像に加えて前記検査画像をプロットした第1の仮想空間画像を表示する。
 このように構成すると、検査画像と複数の比較画像との間の類似性を表示する方法として、これらの画像を空間上にプロットした仮想空間画像を表示でき、その類似性を一見して理解することができるようになる。
 本発明の第4の態様に係る診断支援システム1Sは、例えば図1に示すように、上記本発明の第1の態様に係る診断支援システム1Sにおいて、前記複数の特徴量情報は、前記複数の比較画像及び前記検査画像に対応する言語表現で構成された情報であり、前記特徴量情報を利用して、前記類似性を視覚的に認識するための第2の仮想空間を生成するための仮想空間データ保持部14を更に備え、前記表示部16は、前記第2の仮想空間上に、前記複数の比較画像に加えて前記検査画像をプロットした第2の仮想空間画像を表示する。
 このように構成すると、検査画像と複数の比較画像との間の類似性を表示する方法として、これらの画像を空間上にプロットした仮想空間画像を表示でき、その類似性を一見して理解することができるようになる。
 本発明の第5の態様に係る診断支援システム1Sは、例えば図1に示すように、上記本発明の第3又は第4の態様に係る診断支援システム1Sにおいて、前記類似性は、前記仮想空間画像内における、前記検査画像と前記複数の比較画像との間の距離に基づいて特定される。
 このように構成すると、類似性を数値化することができ、類似性の理解を容易にすることができる。
 本発明の第6の態様に係る診断支援システム1Sは、例えば図1及び図8に示すように、上記本発明の第1乃至第5の何れかの態様に係る診断支援システム1Sにおいて、前記表示部16は、前記検査画像に対する前記類似性の高い1乃至複数の前記比較画像を表示する。
 このように構成すると、類似性の高い比較画像を選定して表示でき、医師の診断をより容易にできる。
 本発明の第7の態様に係る診断支援システム1Sは、例えば図1に示すように、上記本発明の第1乃至第6の何れかの態様に係る診断支援システム1Sにおいて、前記表示部16は、前記ラベル情報に基づいて、前記複数の比較画像の表示に所定の視覚効果を付加する。
 このように構成すると、比較画像のラベル情報を所定の視覚効果という形で付加的に表示することができるため、医師は診断に際し、比較画像の診断結果等を一見して理解できるようになる。
 本発明の第8の態様に係る診断支援システム1Sは、例えば図1に示すように、上記本発明の第1乃至第7の何れかの態様に係る診断支援システム1Sにおいて、前記検査画像と前記複数の比較画像に基づいて、前記検査画像内に、予め設定された生体情報が含まれるか否かを推論する推論部18を更に含む。
 このように構成すると、検査画像に生体画像、例えば悪性腫瘍等が含まれるか否かを表示することができるため、医師の診断の決定をより容易にする。
 本発明の第9の態様に係る診断支援システム1Sは、例えば図1に示すように、上記本発明の第1乃至第8の何れかの態様に係る診断支援システム1Sにおいて、前記検査画像の画像データを、前記計算部13において前記特徴量情報が計算可能な形式に調整する前処理部19を更に含む。
 このように構成すると、例えば検査画像の画像データが、そのままでは計算部での特徴量情報の計算が困難であるデータ形式のものであっても、データ形式の調整を行うことができるようになり、検査画像の種類を問わず、診断支援を行うことが可能な診断支援システムを提供することができるようになる。
 本発明の第10の態様に係る診断支援方法は、例えば図2に示すように、コンピュータを用いた診断支援方法であって、事前に取得された被検体の内部情報の画像を比較画像として複数保持するステップS1000であって、前記複数の比較画像は、画像データと前記複数の比較画像同士の類似度を特定可能な特徴量情報とを備える、ステップS1000と;検査対象物としての被検体から取得された検査画像の画像データを、前記複数の比較画像を学習した学習済モデルに入力して前記検査画像の特徴量情報を計算するステップS1400と;前記複数の比較画像の前記特徴量情報と前記検査画像の前記特徴量情報とに基づいて、前記検査画像と前記複数の比較画像との間の類似性を表示するステップS1500と;を含むものである。
 このように構成すると、検査画像と複数の比較画像との間の類似性を表示することにより、単にがんの確率や類似症例のみを表示する場合に比べて、医師による診断を支援できる有益な情報を付加的に提供することができるようになる。
 本発明の診断支援システムによると、診断支援装置による判定の根拠とした情報を表示することにより診断の精度を高め、読影負担軽減を図ることができる。
本発明の第1の実施の形態に係る診断支援システムの構成を示す概略ブロック図である。 本発明の第1の実施の形態に係る診断支援システムの動作概要を示すフローチャートである。 本発明の第1の実施の形態に係る表示部の模式図である。 本発明の第1の実施の形態に係る仮想空間画像の第1模式図である。 本発明の第1の実施の形態に係る仮想空間画像の第2模式図である。 本発明の第1の実施の形態に係る仮想空間画像の第3模式図である。 本発明の第1の実施の形態に係る仮想空間画像の第4模式図である。 本発明の第1の実施の形態に係る表示部の他の模式図である。 本発明の第3の実施の形態に係る表示部の模式図である。
 この出願は、日本国で2018年7月31日に出願された特願2018-144549号に基づいており、その内容は本出願の内容としてその一部を形成する。
 また、本発明は以下の詳細な説明によりさらに完全に理解できるであろう。本願のさらなる応用範囲は、以下の詳細な説明により明らかとなろう。しかしながら、詳細な説明及び特定の実例は、本発明の望ましい実施の形態であり、説明の目的のためにのみ記載されているものである。この詳細な説明から、種々の変更、改変が、本発明の精神と範囲内で、当業者にとって明らかであるからである。
 出願人は、記載された実施の形態のいずれをも公衆に献上する意図はなく、開示された改変、代替案のうち、特許請求の範囲内に文言上含まれないかもしれないものも、均等論下での発明の一部とする。
 初めに、機械学習を用いた分類の方法について、概略を説明する。機械学習を用いた分類を説明するために、まず比較対象として、N次元の正規直交基底E(e,e,...,e)で張る空間上でデータを分類する方法の説明を行う。Eが正規直交基底である場合にはデータdは下記数式(i)のように基底を用いて表現することが可能である。
Figure JPOXMLDOC01-appb-M000001
 例えば三角関数を正規直交基底として用いることで、波形信号をフーリエ展開することは直交基底Eを用いて波形を分解し、重み値wの分布(スペクトル)を用いて分類することが可能となる。フーリエ展開以外の方法としては、固有ベクトルの変換を行い、最もデータが分類できるような固有ベクトルを求める方法が長く研究されてきた。しかし、固有空間の表現力に限界があるため、人が識別可能な画像の分類も、長らく機械による判別は難しかった。近年、深層学習などの機械学習を用いることにより、その獲得表現の多様性から、分類の精度が向上してきたため、画像認識の分野は大きく注目されるようになった。いわゆるコンボリューションネットワークを介して、分類過程における分離精度の高い多次元空間上に投影を行い、この多次元空間上において、複数の集合間の境界が定義できれば、データの分類が可能となる。ただし、病変部と正常部位の分類や、複数の病変の中での分類など、境界線の設定が困難な場合がある。視覚的に境界線の曖昧さを表示することで、境界線の設定が難しい多次元空間においても、読影医に自身の判断が必要であることを認知させ、医師の診断判定に寄与することが、本発明の特徴である。
<第1の実施の形態>
 図1を用いて本発明の第1の実施の形態に係る診断支援システムの概要を説明する。本発明の診断支援システムでは、事前に取得された症例等の比較画像を機械学習することにより、入力される画像からその画像の特徴量情報を出力することができるように生成された学習済モデルを用いている。そして、検査すべき検査画像の当該特徴量情報をこの学習済モデルを用いて計算し、この特徴量情報に基づいて、検査画像と比較画像の類似性を表示する。検査画像と比較画像の類似性を示す方法としては種々の方法が想定される。例えば、特徴量情報を多次元のパラメータで構成された情報とし、この多次元パラメータを座標とする特徴量空間上の距離を、検査画像と比較画像の類似性を表す値として特定して表示する方法を採用できる。また、他の方法としては、特徴量情報を多次元パラメータあるいは言語表現情報とし、これを利用して形成される仮想空間に、複数の比較画像及び検査画像を配置した図を仮想空間画像として表示することが挙げられる。この場合、更に、当該仮想空間画像上の任意の比較画像や領域を選択すると、各比較画像や各比較画像に付随する病変特徴情報(ラベル情報)も表示すると好ましい。ここで、仮想空間とは、特徴量情報を利用して検査画像と比較画像との類似性を視覚的に認識するための表示可能な次元数で構成された(表示のための)仮想の空間であり、仮想空間画像とは、この仮想空間上に検査画像及び比較画像の特徴量空間上の位置がプロットされることでこれらの類似性が視認可能に表示される画像である。また、病変特徴情報(ラベル情報)の例としては、腫瘍の位置(乳房内の位置、乳腺内の位置、皮膚との距離)、充実性か嚢胞性か、腫瘍内の構造の有無、後方陰影の有無、アスペクト比(回転楕円体で近似した場合のa軸、b軸、c軸、それぞれの長さの比)、境界の性状(境界部のエコーが高エコーか、低エコーか、境界の形状が滑らかか、滑らかでないか)、周囲の正常組織の構築の乱れの有無、娘結節等複数腫瘤の存在の有無、石灰化の有無等に関する情報が含まれるがこれに限らない。一方、機械学習においては、結果的に複数の異なるラベル情報を有する画像が最も分離するように特徴量空間が決定されるので、必ずしも従来の臨床医が判断に用いていた特徴と同じではない。
 この診断支援システムによって表示される類似性(特に、特徴量空間上、又は仮想空間上における比較画像と検査画像との距離)の確認が可能になることで、人に認識可能な既存の診断基準と機械学習を利用して計算される特徴量情報を組み合わせ、読影経験の浅いユーザーに対しても診断効率や精度の向上を支援することができる。また、診断支援システムが病変の有無や良悪性の判定をも行う場合には、その根拠となる情報として類似性に関する情報を参酌することで、診断支援システムの判定結果の妥当性を確認することが可能となる。なお、ここでいう判定結果とは、類似画像としての比較画像の表示や、これらの情報に基づいた検査画像内にがん(悪性腫瘍)が含まれる確率等を指すものである。
 以下に、本発明の好ましい態様として、第1の実施の形態を詳細に説明する。図1は、本発明の第1の実施の形態に係る診断支援システム1Sの構成を表す概略ブロック図である。診断支援システム1Sは少なくとも、診断支援装置2と、事前取得データ保持部3とを含む。診断支援装置2には画像撮像装置4が接続される。診断支援装置2と画像撮像装置4との接続形態は、有線接続または無線接続のいずれでもよく、遠隔地の画像撮像装置4とはインターネット回線を介した接続とすることもできる。また、画像撮像装置4と診断支援装置2が同一装置として一体的に組み込まれていてもよい。
 画像撮像装置4は、被検体についての医療画像を撮像し内部情報画像を取得する。本実施の形態にて例示の画像撮像装置4は、例えば、(国際公開第2017/051903号に記載のような)超音波診断装置が適用される。
 この画像撮像装置4は、主に乳がんの腫瘍検査に用いられ、被検体としての乳房の内部情報を3D画像で取得することが可能である。当該プローブ31の装置の挿入部に被検体である乳房が挿入される。そして、被検体の周囲に配置された超音波アレイは超音波を送受信しながら上下方向に走査し、被検体の内部情報の検査画像を生成する。画像撮像装置4は、プローブ31の他、送受信制御部32、画像生成部33、装置制御部34、記憶部35等をはじめとする各部も備える。
 送受信制御部32は、プローブ31からの超音波信号の送受信を制御する。装置制御部34は、プローブ31の走査等を含む画像撮像装置4の動作を制御する。画像生成部33は、送受信制御部32で受信した超音波信号を再構成し、検査画像を生成する。なお、ここで生成される検査画像は、被検体としての乳房全体を示す画像であってもよいし、被検体の一部、例えば病変推定部位のみを示す画像であってもよい。
 記憶部35は、取得した受信信号や被検体情報、撮像画像等を記憶し、随時呼び出し可能に蓄積する。記憶部35は、HDDまたはSSD等の公知の記憶装置等である。なお、記憶部35については、画像撮像装置4の内部に組み込むほか、画像撮像装置4の外部のサーバ等(図示せず)へ接続することにより、この外部のサーバ等で代替してもよい。
 以下、本実施の形態においては、画像撮像装置4で取得された3次元の乳房の医療画像における乳がんの超音波画像診断支援について説明する。むろん、本発明の対象は当該装置による乳癌診断に限らない。例えば、対象部位は頭部、体躯、四肢等の内部情報であってよく、また、超音波診断に限らず2次元または3次元のCT、MRI、及びこれら他の撮像技術との組み合わせにも、応用される。
 本実施の形態における診断支援システム1Sは、上述した通り、診断支援装置2と、事前取得データ保持部3とを含む。診断支援装置2は少なくとも、通信制御部11、制御部12、計算部13、仮想空間データ保持部14、表示制御部15、表示部16、及び入力部17を含み、画像撮像装置4で取得された検査画像を用いて医療画像診断支援を行うものである。
 事前取得データ保持部3は、検査画像を診断する際の比較対象となる複数の比較画像からなる群を保持している。当該比較画像のそれぞれは、事前に取得された生体内情報画像であり、2次元又は3次元のイメージデータ、あるいはイメージデータに変換される前のRF(Radio Frequency、高周波)データで構成された症例画像からなる画像データとすることができる。また、ここで保持される複数の比較画像は、さらに複数の比較画像同士の類似度を特定可能な特徴量情報を含んでいる。ただし、事前取得データ保持部3内の比較画像がこの特徴量情報(詳しくは、例えば後述するN次元パラメータ情報)を直接的に有している必要は必ずしもなく、比較画像のデータから、例えば後述する計算部13を用いてこの特徴量情報を導き出すことができさえすればよい。さらに、この比較画像としては、症例画像のほか、コンピュータ演算によって取得された病巣症例シミュレーション画像、前記病巣症例シミュレーション画像の中間データ、所見や診断基準の画像、正常組織の画像等を採用することができる。さらにまた、比較画像は、被検体としての乳房全体を撮像した画像であってもよいし、被検体の一部、例えば病変推定部位のみを撮像した画像であってもよい。本実施の形態では超音波画像同士の画像比較を行うことを想定しているが、比較画像はこのような超音波画像に限らず、X線CT等他の種類によって取得された医療画像を比較画像としてもよい。
 また、事前取得データ保持部3は、各比較画像の生体組織情報や(生体組織の)形状情報を表す情報、詳しくは当該比較画像のそれぞれについての病変特徴情報を含むラベル情報を保持し、これらは各比較画像と紐づけされている。当該病変特徴情報を含むラベル情報は被検体の診断支援に利用されるほか、診断支援判定結果の根拠を示す画像として比較画像を表示した際に、当該比較画像の属性を示すために読み出される。当該病変特徴情報を含むラベル情報は、例えば、診断基準や複数の診断基準を基に総合判定された所見や診断結果、針生検等による病理診断、また被検体の経時変化、治療の経歴等、医師による診断情報や被検体の生体情報等を含む。なお、このラベル情報は、事前取得データ保持部3内の複数の比較画像にそれぞれ紐づけされている必要があるが、事前取得データ保持部3内の全ての比較画像にラベル情報が紐づけられている必要は必ずしもない。
 また、これら比較画像と画像病変特徴情報を含むラベル情報との紐づけにより、比較画像はタグ付きの教師データとして、後述する計算部13の学習済モデルの学習用データセットを構成している。
 なお、本実施の形態では事前取得データ保持部3は診断支援装置2の外部に接続されたサーバ等に配置されているが、診断支援装置2内部に組み込まれていてもよい(図示せず)。また、事前取得データ保持部3内の複数の比較画像は、ネットワークを介して、あるいは持ち運び可能な記録媒体を介して事前取得データ保持部3に提供されるものであってよい。
 診断支援装置2は、制御部12のCPU、GPU、メインメモリ、その他のLSI、ROM、RAM等により構成される。またその動作はメインメモリにロードされた診断支援プログラム等により実現される。すなわち、診断支援装置2は、パーソナルコンピュータ(PC)、メインフレーム、ワークステーション、クラウドコンピューティングシステム等、種々のコンピュータ(計算リソース)を用いて実現できる。
 診断支援装置2の各機能部をソフトウェアにより実現する場合、診断支援装置2は、各機能を実現するソフトウェアであるプログラムの命令を実行することで実現される。このプログラムを格納する記録媒体には、「一時的でない有形の媒体」、例えば、CD、DVD、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、このプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して診断支援装置2のコンピュータに供給されてもよい。
 通信制御部11は、画像診断装置4及び事前取得データ保持部3とのデータの送受信等を制御するインタフェースである。主に検査画像、比較画像群、及び比較画像の病変特徴情報を含むラベル情報等を取得する。
 制御部12は、CPUやGPU等のプロセッサを少なくとも備え、診断支援装置2内の各機能部全体を制御するものである。この制御部12は、本実施の形態においては特に、検査画像と複数の比較画像との間の類似性を特定する機能を備えている。当該機能については後述する。
 計算部13は、通信制御部11を介して受信した検査画像及び必要に応じて複数の比較画像の特徴量情報を計算により取得するためのものである。この計算部13は、いわゆる分類器を構成するものであり、その内部に所定の学習済モデルを有している。この学習済モデルは、周知の機械学習手法、例えばニューラルネットワーク(好ましくは、畳み込みニューラルネットワーク(CNN)を含む)モデルを用いた教師有り学習を経て生成されたものである。そして、この学習済モデルは、その入力層のニューロンに検査画像及び複数の比較画像のデータを入力することで、出力層のニューロンに特徴量情報を出力するよう学習(訓練)された学習済モデルである。なお、学習済モデルの機械学習手法は上記に限定されず、サポートベクターマシン(Support Vector Machine:SVM)、モデルツリー、決定ツリー、多重線形回帰、局部的重み付け回帰、確立サーチ方法等の手法を代替的にあるいは適宜組み合わせて用いることもできる。
 この計算部13の学習済モデルは、事前取得データ保持部3に保持された、それぞれに紐づけられたラベル情報を含む複数の比較画像の一部乃至全部を学習用データセットとして学習を行ったものである。したがって、この学習済モデルの入力層のニューロンに入力するデータは、複数の比較画像と同一の形式のデータである必要があることは特に留意すべきである。例えば、比較画像が3次元のイメージデータを含むものである場合には、入力層の各ニューロンに入力されるデータとしては、例えばこの3次元のイメージデータを構成する各ボクセルの(8ビットの)グレースケール値とすることができる。同様に、比較画像が2次元のイメージデータを含むものである場合には、入力層の各ニューロンに入力されるデータとしては、例えばこの2次元のイメージデータを構成する各ピクセルのグレースケール値とすることができる。なお、入力層のニューロンに入力されるデータはこれらに限定されず、比較画像を構成するデータ形式や付加情報の有無等に合わせて適宜変更することができる。
 また、この計算部13の学習済モデルの出力層に出力される特徴量情報は、機械学習のネットワークにおいて画像の特徴を特定することができる情報を含み、その形式や数は限定されない。本実施の形態においては、特徴量情報を、上記学習段階において特定された特徴量の値である、多次元、例えばN(N=2以上の自然数)次元のパラメータで構成された情報とする。なお、上述した通り、この学習済モデルは比較画像及びこれに紐づけられたラベル情報からなる学習用データセットを機械学習することで生成されるものである。ラベル情報の分類としては、診断基準などユーザーが認識可能な値、例えば画像内における所定以上の大きさの白色化領域の有無、白色化領域の大きさ及び位置、周囲の血管の太さ等を示す値を採用することもできる。
 仮想空間データ保持部14は、後述する計算部17が備える学習済モデルが出力するN次元パラメータを利用して、所定の仮想空間(第1の仮想空間)を生成するためのものである。この仮想空間データ保持部14は、複数の比較画像及び検査画像を、この仮想空間上の所定の座標位置にプロットするための各種データを保持している。ここでいう各種データとは、計算部17が計算するN次元パラメータの値を調整することで、表示可能な次元数(例えば、1~3次元)の仮想空間上に画像をプロットするための計算式等を含む。この計算式を具体的に例示すると、例えば計算部17が、複数の比較画像の特徴量情報として、10次元のパラメータ情報を出力し、且つ仮想空間として2次元空間上に複数の比較画像をプロットしたい場合には、10次元のパラメータ情報を2つに分け、これらに必要に応じて予め設定した重み値を乗算した上でそれぞれ加算することで、2次元の値を特定する計算式や、10次元のパラメータ情報に対して周知の多変量解析手法を用いて2次元の値を特定する計算式等であってよい。当然ながら、このような仮想空間に複数の比較画像をプロットする場合には、各比較画像の座標が、比較画像に紐づけられたそれぞれの関連情報(すなわち、診断結果)と一定の相関関係を有している必要がある。したがって、例えば計算部17が出力するパラメータ情報やこの仮想空間データ保持部14の計算式に含まれる重み値等は、比較画像の診断結果に基づいて調整される。なお、当然のことであるが、計算部17で出力するN次元パラメータの次元数が少ない(例えば3次元である)場合には、別途の計算等を行うことなく比較画像及び検査画像を(同一の次元数の)仮想空間上にプロットすることができる。結果として、この場合には仮想空間と特徴量空間とは同一の空間を構成する。
 また、本実施の形態においては、複数の比較画像のN次元パラメータを、その都度計算部13で計算することを例示しているが、比較画像は頻繁に追加や変更等される画像ではないから、複数の比較画像及びそのN次元パラメータを、この仮想空間データ保持部14内に保持しておいてもよい。このようにすれば、仮想空間を生成する際に計算部13による計算量を削減でき、計算部13及び制御部12に対する負荷を削減することができる。
 ここで、制御部12による類似性の特定手法の一例を簡単に説明する。制御部12は、計算部13によって計算された複数の比較画像の特徴量情報としてのN次元パラメータと、同じく計算部13によって計算された検査画像の特徴量情報としてのN次元パラメータとを呼び出し、N次元パラメータを座標とするN次元空間で構成される特徴量空間上に、それぞれプロットする。そして、この特徴量空間上に配置された比較画像にラベル付けされた診断基準や診断結果のラベル情報を読み込むことで、特徴量空間上に例えば良悪性の境界線を形成する。ここで特徴量空間はN個の軸を有しているから、検査画像の特徴量空間上での座標がベクトルX=(x,x,...,x)であり、距離を計算する対象となる比較画像の特徴量空間上での座標がベクトルY=(y,y,...,y)であるとすると、距離Lは次に表す数式(ii)で計算される。さらに、特徴量空間上の成分ごとに重みを付けて、数式(iii)のようにしてもよい。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 ここで特定される距離Lは、検査画像と複数の比較画像との間の類似性を表す値である。そして、良性腫瘍(腫瘤)や悪性腫瘍等集合との距離は、集合に属する各比較画像と距離の総和で計算される。もちろん、集合への距離の計算は、集合に属する全ての比較画像との距離の総和ではなく集合の中で検査画像に近い比較画像から上位M個を選んで和をとっても良いし、境界線までの距離としても良く、何ら限定されない。また、上記の距離Lは特徴量空間上における距離として特定される値であるが、距離を測定する空間はこの特徴量空間に限定されない。例えば、上記仮想空間データ保持部14を参照して得られるm(1≦m<N)次元の仮想空間に、計算されたN次元パラメータを利用して各比較画像及び検査画像をプロットし、この仮想空間上での距離を上述した数式(ii)あるいは数式(iii)と同様の数式を用いて計算してもよい。仮想空間上での距離を検査画像と複数の比較画像との間の類似性を示す値として採用することは、特に後述する仮想空間画像45を表示する場合に有利である。詳しくは、この場合、仮想空間画像45上で示される検査画像と複数の比較画像との間の距離と、検査画像と複数の比較画像との間の類似性を示す値としての距離とが一致しているため、仮想空間画像45を見ただけで類似性を正確に把握することができる。
 特徴量空間又は仮想空間の正確性は、計算部13の学習済モデルを生成するための学習用データセットである比較画像及びこの比較画像に紐づけられたラベル情報の質と量に依存する。検査画像が特徴量空間又は仮想空間の良悪性それぞれの比較画像の集合から等距離に配置された場合、比較画像を増加させることにより、良悪性等の属性分布図が変わり、異なる属性との境界に位置する検査画像の判断がより容易になる。一方、比較画像数の種類と数が増加することで、特徴量空間又は仮想空間上において、異なる属性の集合が重なる部分が出てくる可能性がある。このように特徴量空間又は仮想空間上での判定が困難な場合、診断判定の曖昧度が高くなり、判定の確率の数値等に意味がなくなる。このような場合には、機械による診断判定を下さず、仮想空間画像のみを示し、医師自身の判断を加えることで、より正確な診断判定を下すことが可能となる。上記の記載から分かる通り、比較画像の数は計算部の出力に影響を与えることから、診断支援装置2の出力が使用に伴って変化することのないよう、この学習済モデルを生成する際にはあらかじめ準備された学習用データセットを用いたバッチ学習のみを採用すればよく、検査画像等を学習に利用して学習済モデルを更新する、いわゆるオンライン学習は採用しなくてよい。
 表示制御部15は、制御部12で判定された診断判定結果の根拠を示す画像を生成する。当該根拠を示す画像とは、例えば、制御部12で特定した類似性を表す数値のみであってもよいし、類似性に基づいた表示レイアウトを採用することであってもよいし、あるいは制御部12が仮想空間データ保持部14を参酌して特徴量空間や仮想空間上に複数の比較画像及び検査画像を配置した仮想空間画像であってもよい。その他、特徴量空間又は仮想空間上の検査画像と各比較画像とのユークリッド距離の相関関係を示したり、当該比較画像それぞれの座標の関数を表したりした表示例もあり、これらに限られない。また、この表示制御部15は、仮想空間上にプロットされる比較画像を示す点に対し、所定の視覚効果を付加することができる。この視覚効果としては、例えば各比較情報に紐づけられている病変特徴情報等のラベル情報を参酌し、ラベル情報に「悪性腫瘍」を含む旨の情報が含まれている比較画像(悪性症例画像)の点を赤色表記し、「良性腫瘍」を含む旨の情報が含まれている比較画像(良性症例画像)の点を青色表記し、「正常」である旨の情報が含まれている比較画像(正常組織画像)の点を黒色表記することができる。なお、視覚効果は上述したものに限定されるものではなく、他の種々の視覚効果を採用することができる。こうして、検査画像と比較画像との類似性を、医師等に視覚を通じて把握できる形式で表示することで、検査画像に対する複数の比較画像の相対的な類似性が明確化される。これを機械による診断判定の根拠として、ユーザーは診断支援システム1Sの診断判定への信頼度を判断し、読影の診断結果を効果的に導くことができる。
 表示部16は、ディスプレイ等の表示装置である。この表示部16には、通信制御部11によって取得された検査画像、制御部12において取得された判定結果、表示制御部15で生成された当該判定結果の根拠となる類似性を示す情報(例えば、仮想空間画像等)を表示する。すなわち、比較により生じた判定結果(例えば、類似する所定数の比較画像や、後述する推論部18の推論結果)の表示に留まらず、その判定結果が導き出された根拠を示す特徴量空間上の距離の値や仮想空間画像等も併せて表示される。また、診断支援システム1Sの操作をはじめとする必要情報の表示のための画像合成等も行う。表示の詳細については、後述の模式図にて説明する。なお、本実施の形態では表示部16は診断支援装置2に組み込まれているが、外部のPC端末や携帯端末等の表示部にインターネット等を介して接続されていてもよい。
 入力部17は操作用のキーボードやタッチパネル、マウス等である。診断支援装置2の操作のための入力の他、検査画像の検査領域の指定、表示パターンの選択、ワークステーションへの所見コメントの入力等も行うことができる。
 また、本実施の形態に係る診断支援装置2は、推論部18と、前処理部19とを更に備えていてもよい。
 推論部18は、検査画像内に、予め設定された所定の生体情報、詳しくは悪性腫瘍等が含まれているか否かを推論するためのものである。この推論部18は、計算部13と同様に、学習済モデルを含んでいる。この推論部18の学習済モデルとしては、計算部13の学習済モデルと同様に、周知の機械学習手法、例えばニューラルネットワークモデルを用いた教師有り学習を経て生成されたものである。そして、この学習済モデルは、例えば事前取得データ保持部2に保持された複数の比較画像と、各比較画像に紐づけられたラベル情報の特に診断結果としての生体情報の有無とをセットとした学習用データセットを用いて機械学習を行うことにより生成することができる。このようにして生成された学習済モデルは、その入力層のニューロンに検査画像(の画像データ)を入力することで、出力層のニューロンに所定の生体情報が含まれるか否か、あるいは所定の生体情報が含まれる確率(コンフィデンス値ともいう)を出力するよう学習された学習済モデルである。なお、入力層のニューロンに入力するデータを、検査画像の画像データとしてのイメージデータに代えて、検査画像に対して計算部13にて計算されたN次元パラメータ情報や、検査画像のRFデータとしてもよい。また、この学習済モデルの機械学習手法は上記に限定されず、SVM、モデルツリー、決定ツリー、多重線形回帰、局部的重み付け回帰、確立サーチ方法等の手法を代替的にあるいは適宜組み合わせて用いることもできる。また、ここでいう生体情報としては、悪性腫瘍のみならず、良性腫瘍やアーチファクトをも含み、推論部18の学習済モデルは、これらの生体情報のいずれが含まれているか、あるいはこれらの生体情報それぞれに対して、検査画像に含まれる確率を出力できるものであってよい。このような推論部18を採用することで、診断支援装置2は検査画像と複数の比較画像との類似性に加えて、検査画像に所定の生体情報が含まれる確率を、診断支援システム1Sの判定結果としてユーザーに提供することができるようになる。したがって、医師の診断効率を更に向上させることができる。
 前処理部19は、通信制御部11が受信した検査画像のデータを、その特徴量情報を計算部13にて計算することができるよう、計算部13で計算する前にそのデータ形式を調整するためのものである。この前処理としては機械学習装置の技術分野において通常行われる処理(例えばノイズフィルタリング、データ量調整、FFT等)に加えて、種々の処理が含まれる。この種々の処理について具体的に例示すれば、計算部13の学習済モデルが2次元のイメージデータを入力することで特徴量情報を出力できるよう学習されたものであって、且つ通信制御部11で受信した検査画像が3次元のイメージデータである場合に、3次元のイメージデータから1乃至複数の2次元スライスデータを(自動的に、あるいはユーザーによる操作を介して)生成する処理を実行すること、また、計算部13の学習済モデルが2次元のイメージデータを入力することで特徴量情報を出力できるよう学習されたものであって、且つ通信制御部11で受信した検査画像がRFデータである場合に、RFデータから2次元のイメージデータを生成する処理を実行すること、さらに、計算部13の学習済モデルが後述する言語表現情報を入力することで特徴量情報を出力できるよう学習されたものであって、且つ通信制御部11で受信した検査画像が2次元又は3次元のイメージデータである場合に、イメージデータから言語表現情報を生成する処理を実行すること、等を挙げることができる。学習済モデルは機械学習の際の学習用データセットのデータ構成によってその入出力情報が特定されるものであるから、このような前処理部19を採用することで、検査画像のデータ形式に合わせて学習済モデルを複数準備する必要がなくなる。
 図2は本発明の第1の実施の形態に係る診断支援システムの動作概要を示すフローチャートである。ここに示す診断支援方法は、診断支援システムを構成する各種コンピュータによって実現されるものであり、比較画像保持ステップ(S1000)、比較画像の多次元パラメータ生成ステップ(S1100)、検査画像取得ステップ(S1200)、比較画像及び多次元パラメータ取得ステップ(S1300)、検査画像の多次元パラメータ計算ステップ(S1400)、仮想空間画像形成表示ステップ(S1500)、及び比較画像表示ステップ(S1600)を含む。その他、診断支援方法には記憶、格納、蓄積、演算等の図示しないステップも含んでいる。
 まず、診断支援のための事前準備として、比較画像保持ステップ(S1000)において、事前に収集された複数の比較画像を、事前取得データ保持部3に保持しておく。ここで事前に収集されている複数の比較画像は、例えば主に3次元のイメージデータで構成されたものである。次に、比較画像の多次元パラメータ生成ステップ(S1100)において、計算部13により、比較画像の特徴量情報としての多次元(N次元)パラメータが生成され、仮想空間データ保持部14に記憶される。なお、複数の比較画像多次元パラメータを事前に生成しておき、各比較画像とこの多次元パラメータとをセットとして事前取得データ保持部3に記憶しておく構成とすることもできる。その場合にはこの比較画像の多次元パラメータ生成ステップ(S1100)は省略することができる。また、上述した比較画像保持ステップ(S1000)及び比較画像の多次元パラメータ生成ステップ(S1100)は、検査の度に行ってもよいが、比較画像の内容は頻繁に変更されるものではないため、比較画像の内容の更新のタイミングにのみ行うようにしてもよい。
 次に、検査画像取得ステップ(S1200)において、画像撮像装置4で撮像された、検査対象物となる検査画像が通信制御部11を介して取得される。この検査データも、例えば3次元のイメージデータで構成されたものである。さらに比較画像及び多次元パラメータ取得ステップ(S1300)において、複数の比較画像とそれらに対応する多次元パラメータとのセットが事前取得データ保持部3又は仮想空間データ保持部14より取得される。そして、取得された検査画像は、計算部13によって特徴量情報としての多次元パラメータが計算され(検査画像の多次元パラメータ計算ステップ(S1400))、さらに仮想空間画像形成表示ステップ(S1500)において、仮想空間データ保持部14内の各種データに基づいて、制御部12及び表示制御部15により表示用の仮想空間画像が形成され、表示部16に表示される。本実施の形態においては、このように仮想空間画像上に比較画像と検査画像とが特定の座標位置にプロットされることで、両者の類似性が表示される。更に任意には、ユーザーは当該仮想空間画像上の比較画像の座標を選択することで、当該比較画像の画像や病変特徴情報等のラベル情報を表示させることができるようにすると好ましい(比較画像表示ステップ(S1600))。
 以上のように、本実施の形態に係る診断支援システムでは、判定結果として、例えば比較画像のうち検査画像に類似すると判断した類似画像を表示する際に、その選定の根拠として仮想空間画像等の画像間の類似性を示す情報を表示することで、このシステムによる判定の妥当性をユーザーが確認でき、診断効率を向上させることができる。
 なお、検査画像取得ステップ(S1200)及び多次元パラメータを含む比較画像取得ステップ(S1300)は並列で行われてもよいし相前後してもよい。また、上記仮想空間画像形成表示ステップ(S1500)に代えて、検査画像と複数の比較画像のそれぞれの多次元パラメータから、特徴量空間上の距離を特定し、当該距離を、類似性を表す値として表示部16に表示することもできる。
 また、教育用途で診断支援装置が使用される際等には、ユーザーは、機械による診断判定を表示しないモードを予め選択することも可能である。
 上記仮想空間データ保持部14としては、特徴量情報としてのN次元パラメータを利用して第1の仮想空間を生成するものを例示しているが、本実施の形態に係る仮想空間データ保持部14はこれに限定されない。他の形態としては、特徴量情報として各画像に対応する言語表現情報を採用し、この言語表現情報で構成される言語空間を第2の仮想空間として生成するようにしてもよい。この場合、表示部16は、検査画像と複数の比較画像の言語空間上での距離を基準に計算される類似性を表示することとなる。
 言語空間は例えば、比較画像に紐づけされた読影レポート表現等の言語表現に基づくことができる。まず、制御部12は、比較画像を、計算部13の学習済モデルを利用して当該比較画像が包含する読影言語に変換し、当該言語情報として読み込む。同様にして検査画像も読影言語に変換して読み込む。当該読影言語は、例えば、腫瘍の進行度は「2」である等の画像から判断される言語情報、所見、さらには自然言語データ等への変換された言語データである。ここで、所見には、上述した病変特徴情報と同様の情報、すなわち、腫瘍の位置(乳房内の位置、乳腺内の位置、皮膚との距離)、充実性か嚢胞性か、腫瘍内の構造の有無、後方陰影の有無、アスペクト比(回転楕円体で近似した場合のa軸、b軸、c軸、それぞれの長さの比)、境界の性状(境界部のエコーが高エコーか、低エコーか、境界の形状が滑らかか、滑らかでないか)、周囲の正常組織の構築の乱れの有無、娘結節等複数腫瘤の存在の有無、石灰化の有無等に関する情報が含まれてよい。その後、制御部12により検査画像及び比較画像は言語空間上(第2の仮想空間)の指標に置換され、当該言語空間上にて、検査画像と比較画像との類似性を視覚的に認識するべく表示が行われる。加えて、検査画像と比較画像との距離分布の計測を行って両者の類似性を数値として特定することもできる。
 この例では、比較画像の画像と病変特徴情報を含むラベル情報とを学習用データセットとして機械学習を実行することにより、検査画像内の病変推定部位について既存の診断基準に対応する特徴量を言語化して抽出することが可能な学習済モデルが提供される。そこで、これまで人の目には明らかではなかった新たな診断基準を言語化することも可能となる。
 次に、本実施の形態における表示部16の表示内容について、具体的に説明する。図3の模式図は、表示部16のディスプレイへの表示の一例である。このうち、図3(a)には、画像撮像装置4から通信制御部11を通じて取得した被検体としての乳房の3次元検査画像40を、表示部16の中央部分に表示しているものを示している。この検査画像40の内部には、注視すべき腫瘍の可能性の高い特徴領域41が存在している。このとき、視認性を高める目的で、特徴領域41を含む領域を病変推定部位46として線で囲む等の視覚効果を付加してもよい。また、この特徴領域41及び病変推定部位46を特定する方法としては、ユーザーによる選択だけでなく、周知の画像認識技術や機械学習技術を用いて自動的に特定することもできる。さらに、ここで用いられる機械学習技術としては、例えばニューラルネットワークモデル、詳しくは入力層のニューロンに画像データを入力することで、出力層に予め設定された生体情報に合致する領域を示す座標を出力するような学習済モデルを採用することができる。図3(a)に示す表示部16のディスプレイにはまた、その右下部分に、比較画像と検査画像との間の類似性を示す、2次元マップで構成された仮想空間画像45が表示される。
 図3(b)は、ポインタ42により仮想空間画像45内の特定の比較画像の座標が指定された後の表示の一例を示した模式図である。このように、比較画像の座標が指定されると、この指定された比較画像44は類似症例として表示部16の中央部分に表示される。また、仮想空間上における検査画像から一定の距離に配置される他の比較画像44も並置して表示されてもよい。また、表示部16には、併せて特徴領域41に対する判定結果43が示される。この判定結果43としては、例えば、推論部18が推論した生体情報が含まれる確率や、良悪性鑑別判定、該当する診断名等であるがこれらに限られない。また、判定結果43の表示方法として、テキスト情報に代えて、特徴領域41を強調表示する等、任意の視覚効果を用いた方法によるものであってもよい。
 このように、仮想空間画像45が判定結果の根拠を示す画像として表示されることで、医師等は判定結果の曖昧さの判断を下し、診断確定に利用することができる。また、類似症例に該当するいくつかの比較画像が表示部16に判定結果43と併せて表示されることで、診断効率を向上させることができる。
 表示部16のディスプレイには、各種画像の他、例えば患者情報表示部47や撮像条件表示部48等も表示される。なお表示情報の種類、配置等は例示であり、これに限られるものではない。また、検査画像及び比較画像を共に3次元画像で比較する場合、表示される比較画像が3次元となってよい。
 また、各種データを表示するウィンドウは1つである必要はなく、検査画像40や仮想空間画像45等が、入力指示に応じて別ウィンドウやタブ表示で現れてもよい。
 次に、根拠を示す画像の他の表示例について、図4乃至図7を用いて説明する。診断支援システム1Sによる判定結果の根拠を示す画像は、例えば、図3の仮想空間画像45として表示される。また、仮想空間画像は複数を並置してもよい。
 図4の模式図は、特徴量空間と特徴量空間が投影されて生成される仮想空間画像45として、マップ表示を採用した場合の一例を示したものである。図4(a)は特徴量空間50を表現している。なお、この図4(a)に示す特徴量空間50は、説明を容易にするべく、計算部13により出力される特徴量情報が2次元のパラメータで構成された場合であって、この2つのパラメータをそれぞれ縦軸及び横軸と規定した2次元空間で構成されたものを例示している。そして、検査画像を示す点53が、計算部13において計算された結果得られた2次元のパラメータに基づき、特徴量空間50上に配置されている。なお、ここで示す特徴量空間50の次元数については何ら限定されるものではない。図4(a)の特徴量空間50には、検査画像を示す点53と同様に、複数の比較画像に対応する点がプロットされているが、これらの点は、例として、複数の悪性症例画像に対応する点51を黒丸で、複数の良性症例画像に対応する点52を白丸でそれぞれ示している。ここで、悪性症例とは乳がん等の悪性腫瘍を指し、悪性症例画像とは悪性腫瘍を含む比較画像である。同様に、良性症例とは良性腫瘍を指し、良性症例画像とは良性腫瘍を含む比較画像である。また、この特徴量空間50内には、これらの点51及び52の配置に基づき、特徴量空間50内に良性・悪性判別ライン54を規定することができる。これにより、例えば、上述した検査画像と比較画像との間の類似性を示す距離として、特徴量空間50における点53の位置と良性・悪性判別ライン54との間の距離や、検査画像に対応する点53からの距離が一定範囲55内に存在する比較画像の数やその特徴(良性症例か悪性症例か)が特定でき、これらの情報を示すことによって、医師による検査画像の診断支援を行うことができる。表示制御部15は、この特徴量空間50の情報に基づき、1次元や2次元、3次元の仮想空間画像を、判定結果43の根拠を示す画像として生成し、表示部16に表示させることもできる。
 図4(b)は、図4(a)に示す特徴量空間50等の情報に基づいて生成された、1次元仮想空間画像56を示す例である。比較画像は、その比較画像が悪性症例を示すものであるのか良性症例を示すものであるのかが分かるように、視覚効果が付された上でプロットされている。この1次元仮想空間画像56は、検査画像に対応する点53が中心に配置され、その左右方向をそれぞれ良性方向(+の向き)及び悪性方向(-の向き)とした領域内に、それぞれの比較画像に対応する点51、52が表示されている。この比較画像に対応する点51、52を、図示しないポインタ等で選択すると、比較画像が表示されるようにしてもよい。表示の位置は、例えば検査画像に対応する点53からのユークリッド距離に基づく。図4(b)の表示の利点は、相対的なユークリッド距離を判別しやすいことである。
 図5に示す模式図は、仮想空間画像45としてヒストグラム表示を採用した場合の一例を示したものである。図5(a)乃至図5(d)は特徴量空間50内において、検査画像に対応する53を中心とした所定の範囲55内に存在する比較画像の数と距離をヒストグラムで表したものである。ここで、図5(a)乃至図5(d)における横軸は、特徴量空間50における検査画像に対応する点53から比較画像に対応する点までのユークリッド距離であり、縦軸は比較画像の個数(データ数)である。また、悪性症例画像に対応する点61の数の推移を示す線は点線、良性症例画像に対応する点62の数の推移を示す線は実線でそれぞれ表されている。そして、当該ヒストグラムの原点の位置に、基準となる検査画像に対応する点53が設定される。
 図5(a)に示すヒストグラムは、検査画像に対応する点53に近い側に悪性症例画像に対応する点51の数が多く、反対に遠い側に良性症例画像に対応する点52が多いことが理解できるであろう。従って当該検査画像53については、悪性である可能性が高いことがこの画像から分かる。反対に、図5(d)に示すヒストグラムは、検査画像に対応する点53は良性の確率が高いことが分かる。また、図5(b)に示すヒストグラムは、検査画像に対応する点53が、悪性症例画像に対応する点51からも良性症例画像に対応する点52からも遠く、以って検査画像内にそもそも腫瘍等が存在しない可能性が示唆される。しかし、図5(c)に示すヒストグラムは、検査画像に対応する点53から良性症例画像に対応する点52と悪性症例画像に対応する点51の両方の比較画像が近い位置に多く存在している。そのため、この場合には、診断支援システム1Sによる支援情報の精度は低く、病理診断等の更なる検査手段の必要性が示唆される。本表示例では、医師は、検査画像と多量の比較画像との総体的関係が一目で把握できる利点がある。また、比較画像は全てを表示する以外にも、デンスブレストか否か、年齢、遺伝的情報等、画像情報とは別の視点から検査対象者に類似する特性をもつ比較画像だけを表示する等の方法もある。
 図6に示す模式図は、仮想空間画像45としてヒストグラム表示を採用した場合の他の一例を示したものである。図6(a)は各属性の比較画像と検査画像のデータ数と距離の相関をヒストグラムで表している。ここで、比較画像として4種類のものが示される。この4種類とは、悪性症例画像に対応する点61、良性症例画像に対応する点62、アーチファクト画像に対応する点63、及び正常組織画像に対応する点64であり、この種類は各比較画像に紐づけられたラベル情報に基づいて特定される。ここで、アーチファクトとは腫瘍や腫瘤ではなくノイズ等が原因で撮像された虚像を指し、アーチファクト画像とはこのアーチファクトを含む比較画像である。また、正常組織画像とはデータ中に腫瘍、腫瘤及びアーチファクトのいずれも含まない比較画像である。図6(a)のもののように、複数種類の比較画像をヒストグラム表示することで、より詳細な診断支援の根拠となる情報を提供することができる。また、図6(b)は4種類の比較画像と検査画像とのユークリッド距離の相関関係を示した図である。ここで、図6(b)の縦軸及び横軸はいずれもユークリッド距離であるが、ユークリッド距離を計算した特徴量空間が異なっている。すなわち、まず良性と悪性の区別が最もはっきりするように機械学習を行った結果得られた計算部を用いて出力された特徴量情報により決定された特徴量空間上でのユークリッド距離を横軸(ユークリッド距離(1))として、良性悪性の和集合とそれ以外(所見ナシ)の区別が最もはっきりするように機械学習を行った結果得られた計算部を用いて出力された特徴量情報により決定された特徴量空間上でのユークリッド距離を縦軸(ユークリッド距離(2))とした仮想空間画像を生成する。これはBI-RADS(Breast Imaging-Reporting and Data System)を用いた乳癌の診断において、カテゴリー3はおそらく良性(悪性確率2%以下)、カテゴリー4は悪性確率2~95%という診断になるので、画像だけでは良悪性の鑑別は完全ではない。このまま機械学習のラベル情報として利用することには難しさがあるので、1回目の機械学習は良性と悪性の識別が最も高くなるように機械学習を行うが、同じ画像データを使った別の機械学習では、カテゴリー1と2以上が区分けされるように機械学習を行うことも有効である。ちなみにカテゴリー1は陰性、2は良性である。このように複数の特徴量空間によって出力される情報を組み合わせることで判定結果の信頼度が向上する。
 ここまでは、いずれも図4(a)に示す特徴量空間50等の情報のみに基づいて生成されたものであるが、本実施の形態における仮想空間画像はこのような態様に限定されない。例えば、図4(b)に示すような1次元仮想空間画像56に、縦軸として人になじみやすい指標、例えば周知の画像認識技術によって特定される特徴領域の大きさや特徴領域のグレースケール値の平均値を組み合わせて2次元の画像を生成し、表示することもできる。
 図7は異なる仮想空間を組み合わせて表示した場合の模式図である。図7(a)に示す仮想空間は、特徴量情報としてのN次元パラメータを利用して生成された2次元の仮想空間であって、検査画像と比較画像がプロットされている。これに対し、図7(b)に示す仮想空間は、従前から用いられている診断指標等を利用して生成された2次元の仮想空間であって、同じく検査画像と比較画像がプロットされている。ここでいう診断指標等には、見た目の近似具合による診断データ、医師等による所見、診断上のガイドラインの根拠に基づいた指標が含まれる。つまり、図7(a)に示す仮想空間は、学習済モデルが計算する特徴量情報に基づいて形成されているといえる。これに対し、図7(b)に示す仮想空間は、医師等の人になじみやすい特徴量情報に基づいて形成されているといえる。
 好ましくは、これらの仮想空間同士の関連性が理解できるよう、仮想空間内の情報に対して関連付けが行われる。ここでいう関連付けとしては、異なる仮想空間に表示された情報間の関係を特定するための処理であれば種々の処理を採用することができる。この処理としては、例えば、これら2つの仮想空間内にプロットされる同一の比較画像の点に対して、その形状や色を共通化する等といった、同一の視覚効果を付加する処理を挙げることができる。こうすることで、一方の仮想空間では分離できないような特徴について、さらに別の仮想空間を提示し、ユーザーによる診断判定を補うことが可能となる。
 図8の模式図は、表示部16のディスプレイへの表示の他の一例である。図8においては、計算される多次元パラメータに基づいて、検査画像と距離が近いと判断された比較画像を並置表示している。本例においては、検査画像と良性及び悪性の類似症例画像とを併せて表示する。例えば、仮想空間画像45(図3参照)において特定の領域をユーザーが指定することにより、その領域内に存在する比較画像の中から、類似度の高い比較画像、言い換えれば検査画像との距離が近い比較画像が抽出される。類似症例としての比較画像としては、特徴量空間50において検査画像を中心とした所定範囲内で最も近い悪性症例画像が所定数、同じく良性症例画像が所定数抽出される。例えば、検査画像20が表示部16の中央に表示され、その両側に設けられた良性症例画像表示領域26と悪性症例画像表示領域24とに、抽出された良性症例画像27及び悪性症例画像25がその類似度合いに沿ってそれぞれ表示される。このように表示された画像同士を並列して表示することで、これらの間の類似性を視覚的に捉えることができる。なお、ここでいう良性症例画像27には、良性腫瘍を含む比較画像に加えて、アーチファクトを含む比較画像や、腫瘍等を含まない比較画像をも含んでいてよい。
 図8(a)に示す表示は、仮想空間の検査画像を中心とした所定範囲内において、検査画像に近い良性症例画像は複数存在するものの、悪性症例画像は検出されなかったときの表示例である。良性症例画像表示領域26には良性症例画像27が3つ示されている。これに対し、悪性症例画像表示領域24には表示される画像は存在しない。この場合、悪性症例画像に類似画像がないことが明示されているので、医師にとって特徴領域21部分は悪性腫瘍でない可能性が高いことが一目瞭然であり、診断支援システム1Sによる診断判定結果に疑いの余地はない。また、図8(c)に示す表示は、類似症例として悪性症例画像25のみが悪性症例画像表示領域24に表示されたときの表示例である。この場合も同様に、医師にとって特徴領域21が悪性腫瘍である可能性が高いことは明確に判断でき、診断支援システム1Sによる診断判定結果に疑いの余地はない。
 他方、図8(b)に示す表示は、特徴量空間50上において良悪性の鑑別が曖昧な場合の表示例である。検査画像20の悪性症例画像表示領域24と良性症例画像表示領域26とには、悪性症例画像25と良性症例画像27とがそれぞれ3つずつ表示される。図8(b)に示すような表示の場合は、良性と悪性を明確に判別できない場合である。このような場合、無理に診断支援システム1Sによる判定結果を提供するよりは、当該事例は曖昧事例であるとして、医師に判断を委ねることが得策といえる。医師は、各症例画像を選択し、症例情報を読むことができる。こうすると、医師は当該事例の検査画像の判定は曖昧であることを意識して、さらに組織生検、経過観察等の判断を下すことが容易になる。
 図8に示すように、表示部16に悪性症例画像25及び良性症例画像27を表示するに際しては、選定されたこれらの画像の検査画像に対する類似性が一見して理解できるよう、類似性の高さに応じて昇順で表示したり、制御部12で特定された類似性を表す値を併記したり、あるいは類似性の高さに応じた視覚効果を付加したりすると好ましい。
 このように、比較画像として良性(正常)と悪性の性状等、二以上の種類の画像を並列表示することで、医師等は機械による診断の妥当性を確認することができる。なお、仮想空間画像45の所定の領域をユーザーが指定するのではなく、制御部12が予め計算し並置表示する比較画像を選定し表示させても構わない。この場合は、特徴量情報のみから特徴量空間における距離は特定できるため、必ずしも仮想空間画像45を表示する必要はない。また、図8に示す表示の形態と、図3に示す表示の形態とを、例えばユーザーが選択することで適宜変更して表示できるようにしてもよい。
<第2の実施の形態>
 以上の第1の実施の形態では、検査画像と比較画像が比較され、診断判定が導出された際に、3次元のイメージデータからなる比較画像を表示する例を説明した。別の表示例として、比較画像を表示する際に、表示された画像内の病変推定部位に対し、例えばヒートマップ等の、画素毎の特徴をより顕著に表す視覚効果を有する図が追加され、各画像中に示されるようにしてもよい。このとき、画像と当該ヒートマップ等の図は重畳させてもよいし並置させてもよい。
 比較画像には、3次元画像の中の腫瘤の位置や病変推定部位が事前に規定されており、これらの情報はラベル情報として比較画像に紐づけされている。したがって、このラベル情報を参照することで、ヒートマップ等の図を付加的に示すことができる。一方、ユーザーが確認する検査画像では、確認すべき部位の特定がされていない。本実施の形態によれば、ユーザーは、例えば機械学習技術によって推定された病変推定部位を参考に、3次元検査画像の中から確認すべき病変推定部位を効率的に特定できるため、読影負担を軽減することが可能である。
 なお、比較画像が正常組織等であった場合には病変部位を示せない。しかし、機械学習の過程で偽病変と推定された部分は示すことで、偽陽性の判定を低減できる。この実施の形態はいわゆるCADe(Computer Aided Detection)に本発明を適用した例に相当する。
<第3の実施の形態>
 第1の実施の形態及び第2の実施の形態では、機械学習技術を用いて病変推定部位を推定したのちに、ユーザーが判定の妥当性について判断した。別の実施の形態では、ユーザーが先に検査画像内の病変推定部位を特定したのち、その特定部位と類似する比較画像を示してもよい。
 図9の模式図は、本実施の形態の表示部16のディスプレイへの表示の一例である。図9(a)は、表示部16の右側に画像撮像装置4から通信制御部11を通じて取得した被検体としての乳房の3次元検査画像40を表示する。検査画像40の内部には注視すべき腫瘍の可能性の高い特徴領域41が存在している。表示部16の中央には3次元検査画像中のある一断面又は一領域(検査画像40a、特徴領域41a)が表示される。検査画像40aとして表示されている断面の3次元検査画像40中の角度や位置は、3次元検査画像40に対して示された表示断面位置を表すライン49を用いて示されている。このライン49は、医師等によって、図示しないマウス等の操作によりポインタ42で位置や角度を変更でき、任意の断面を選択できる。なお、この検査画像40aとして表示されている断面は、腫瘍存在確率の高い部位を示すよう制御部12によって自動的に決定されてもよい。
 図9(b)は、ポインタ42で特定の断面の表示を選択して表示された検査画像40aの特徴領域41aについて、診断判定を行った表示例であり、表示部16の右下位置に判定結果43が示されている。判定結果は、例えば、腫瘍の存否確率、良悪性鑑別判定、該当する診断名等であるがこれらに限られない。また、判定結果43の表示方法として、テキスト情報に代えて、特徴領域41aを強調表示する等、任意の視覚効果を用いた方法によるものであってもよい。さらに、判定結果の根拠を示す図として、表示部16の右下には仮想空間画像45が表示され、当該仮想空間画像45中でポインタ42によって医師等が指定した比較画像が類似症例を示す比較画像44として表示部16の中央下に表示されている。
 本実施の形態によれば、ユーザーが検査したい部位を特定でき、その病変部位に対する類似症例を抽出するため、特定された病変の種類を特定するようなユーザーによる鑑別作業の効率を向上させることができる。この実施の形態はいわゆるCADx(Computer Aided Diganosis)に本発明を適用した例に相当する。
 本明細書中で引用する刊行物、特許出願及び特許を含むすべての文献を、各文献を個々に具体的に示し、参照して組み込むのと、また、その内容のすべてをここで述べるのと同じ限度で、ここで参照して組み込む。
 本発明の説明に関連して(特に以下の請求項に関連して)用いられる名詞及び同様な指示語の使用は、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、単数及び複数の両方に及ぶものと解釈される。語句「備える」、「有する」、「含む」及び「包含する」は、特に断りのない限り、オープンエンドターム(すなわち「~を含むが限らない」という意味)として解釈される。本明細書中の数値範囲の具陳は、本明細書中で特に指摘しない限り、単にその範囲内に該当する各値を個々に言及するための略記法としての役割を果たすことだけを意図しており、各値は、本明細書中で個々に列挙されたかのように、明細書に組み込まれる。本明細書中で説明されるすべての方法は、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、あらゆる適切な順番で行うことができる。本明細書中で使用するあらゆる例又は例示的な言い回し(例えば「など」)は、特に主張しない限り、単に本発明をよりよく説明することだけを意図し、本発明の範囲に対する制限を設けるものではない。明細書中のいかなる言い回しも、請求項に記載されていない要素を、本発明の実施に不可欠であるものとして示すものとは解釈されないものとする。
 本明細書中では、本発明を実施するため本発明者が知っている最良の形態を含め、本発明の好ましい実施の形態について説明している。当業者にとっては、上記説明を読めば、これらの好ましい実施の形態の変形が明らかとなろう。本発明者は、熟練者が適宜このような変形を適用することを期待しており、本明細書中で具体的に説明される以外の方法で本発明が実施されることを予定している。したがって本発明は、準拠法で許されているように、本明細書に添付された請求項に記載の内容の修正及び均等物をすべて含む。さらに、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、すべての変形における上記要素のいずれの組合せも本発明に包含される。
 本発明の診断支援システム及び診断支援方法によると、判定結果としての類似画像の表示や生体情報が含まれる確率の表示の根拠として、検査画像と複数の比較画像との間の類似性を合わせてユーザーに提供することで、診断の効率の向上に寄与する。
1S 診断支援システム
2 診断支援装置
3 事前取得データ保持部
4 画像撮像装置
11 通信制御部
12 制御部
13 計算部
14 仮想空間データ保持部
15 表示制御部
16 表示部
17 入力部
18 推論部
19 前処理部
20、40、40a、53 検査画像
21、41、41a 特徴領域
24 悪性側表示欄
25 悪性症例画像
26 良性側表示欄
27 良性症例画像
42 ポインタ
43 判定結果
44 (類似症例としての)比較画像
45 仮想空間画像
46 病変推定部位
47 患者情報表示部
48 撮像条件表示部
49 ライン
50 特徴量空間
51、61 悪性症例画像に対応する点
52、62 良性症例画像に対応する点
54 悪性・良性判別ライン
56 1次元仮想空間画像
57 2次元仮想空間画像
63 アーチファクト画像に対応する点
64 正常組織画像に対応する点

Claims (10)

  1.  事前に取得された被検体の内部情報の画像を比較画像として複数保持する事前取得データ保持部であって、前記複数の比較画像は、画像データと、生体組織情報や形状情報を表すラベル情報と、前記複数の比較画像同士の類似度を特定可能な特徴量情報とを備える、前記事前取得データ保持部と;
     検査対象物としての被検体から取得された検査画像の画像データを、前記複数の比較画像を学習した学習済モデルに入力して前記検査画像の特徴量情報を計算する計算部と;
     前記複数の比較画像の前記特徴量情報と前記検査画像の前記特徴量情報とに基づいて、前記検査画像と前記複数の比較画像との間の類似性を表示する表示部と;を備える、
     診断支援システム。
  2.  前記特徴量情報は、多次元のパラメータで構成された情報であり、
     前記特徴量情報を構成する前記多次元パラメータを座標とする特徴量空間上における、前記検査画像と前記複数の比較画像との間の距離を、前記類似性を表す値として特定する制御部を更に備える、
     請求項1に記載の診断支援システム。
  3.  前記特徴量情報は、多次元のパラメータで構成された情報であり、
     前記特徴量情報を利用して、前記類似性を視覚的に認識するための表示可能な次元数で構成された第1の仮想空間を生成するための仮想空間データ保持部を更に備え、
     前記表示部は、前記第1の仮想空間上に、前記複数の比較画像に加えて前記検査画像をプロットした第1の仮想空間画像を表示する、
     請求項1に記載の診断支援システム。
  4.  前記複数の特徴量情報は、前記複数の比較画像及び前記検査画像に対応する言語表現で構成された情報であり、
     前記特徴量情報を利用して、前記類似性を視覚的に認識するための第2の仮想空間を生成するための仮想空間データ保持部を更に備え、
     前記表示部は、前記第2の仮想空間上に、前記複数の比較画像に加えて前記検査画像をプロットした第2の仮想空間画像を表示する、
     請求項1に記載の診断支援システム。
  5.  前記類似性は、前記仮想空間画像内における、前記検査画像と前記複数の比較画像との間の距離に基づいて特定される、
     請求項3又は請求項4に記載の診断支援システム。
  6.  前記表示部は、前記検査画像に対する前記類似性の高い1乃至複数の前記比較画像を表示する、
     請求項1乃至請求項5のいずれか1項に記載の診断支援システム。
  7.  前記表示部は、前記ラベル情報に基づいて、前記複数の比較画像の表示に所定の視覚効果を付加する、
     請求項1乃至請求項6のいずれか1項に記載の診断支援システム。
  8.  前記検査画像と前記複数の比較画像に基づいて、前記検査画像内に、予め設定された生体情報が含まれるか否かを推論する推論部を更に備える、
     請求項1乃至請求項7のいずれか1項に記載の診断支援システム。
  9.  前記検査画像の画像データを、前記計算部において前記特徴量情報が計算可能な形式に調整する前処理部を更に備える、
     請求項1乃至請求項8のいずれか1項に記載の診断支援システム。
  10.  コンピュータを用いた診断支援方法であって、
     事前に取得された被検体の内部情報の画像を比較画像として複数保持するステップであって、前記複数の比較画像は、画像データと前記複数の比較画像同士の類似度を特定可能な特徴量情報とを備える、ステップと;
     検査対象物としての被検体から取得された検査画像の画像データを、前記複数の比較画像を学習した学習済モデルに入力して前記検査画像の特徴量情報を計算するステップと;
     前記複数の比較画像の前記特徴量情報と前記検査画像の前記特徴量情報とに基づいて、前記検査画像と前記複数の比較画像との間の類似性を表示するステップと;を備える、
     診断支援方法。
PCT/JP2019/030091 2018-07-31 2019-07-31 診断支援システム及び診断支援方法 WO2020027228A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980051113.5A CN112514000A (zh) 2018-07-31 2019-07-31 诊断支援系统以及诊断支援方法
EP19843825.1A EP3832663A4 (en) 2018-07-31 2019-07-31 DIAGNOSTIC AID SYSTEM AND DIAGNOSTIC AID METHOD
JP2020534725A JP7138971B2 (ja) 2018-07-31 2019-07-31 診断支援システム及び診断支援方法
US17/264,461 US20210319880A1 (en) 2018-07-31 2019-07-31 Diagnostic Support System and a Diagnostic Support Method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-144549 2018-07-31
JP2018144549 2018-07-31

Publications (1)

Publication Number Publication Date
WO2020027228A1 true WO2020027228A1 (ja) 2020-02-06

Family

ID=69231881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030091 WO2020027228A1 (ja) 2018-07-31 2019-07-31 診断支援システム及び診断支援方法

Country Status (5)

Country Link
US (1) US20210319880A1 (ja)
EP (1) EP3832663A4 (ja)
JP (1) JP7138971B2 (ja)
CN (1) CN112514000A (ja)
WO (1) WO2020027228A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193022A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 情報処理装置、情報処理方法及びプログラム
WO2022209299A1 (ja) * 2021-03-29 2022-10-06 ソニーグループ株式会社 情報処理システム、生体試料処理装置及びプログラム
WO2024090585A1 (ja) * 2022-10-28 2024-05-02 京セラ株式会社 解析装置、解析方法、解析プログラム及び記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3839781A4 (en) * 2018-10-02 2022-04-06 Nippon Telegraph And Telephone Corporation CALCULATION DEVICE, METHOD AND PROGRAM
US11416775B2 (en) * 2020-04-17 2022-08-16 International Business Machines Corporation Training robust machine learning models

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118543A (ja) 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
WO2014024453A1 (ja) * 2012-08-07 2014-02-13 パナソニック株式会社 医用データ処理装置、医用データ処理方法、及び超音波診断装置
JP2016045662A (ja) 2014-08-21 2016-04-04 富士フイルム株式会社 類似画像検索装置、類似画像検索装置の作動方法、および類似画像検索プログラム
WO2017051903A1 (ja) 2015-09-24 2017-03-30 国立大学法人東京大学 超音波診断システム及び超音波診断方法
JP2018144549A (ja) 2017-03-02 2018-09-20 株式会社ブリヂストン タイヤ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201012519D0 (en) * 2010-07-26 2010-09-08 Ucl Business Plc Method and system for anomaly detection in data sets
US9208556B2 (en) * 2010-11-26 2015-12-08 Quantitative Insights, Inc. Method, system, software and medium for advanced intelligent image analysis and display of medical images and information
US11449985B2 (en) * 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
US11126649B2 (en) * 2018-07-11 2021-09-21 Google Llc Similar image search for radiology

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118543A (ja) 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
WO2014024453A1 (ja) * 2012-08-07 2014-02-13 パナソニック株式会社 医用データ処理装置、医用データ処理方法、及び超音波診断装置
JP2016045662A (ja) 2014-08-21 2016-04-04 富士フイルム株式会社 類似画像検索装置、類似画像検索装置の作動方法、および類似画像検索プログラム
WO2017051903A1 (ja) 2015-09-24 2017-03-30 国立大学法人東京大学 超音波診断システム及び超音波診断方法
JP2018144549A (ja) 2017-03-02 2018-09-20 株式会社ブリヂストン タイヤ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MARYELLEN L. GIGER: "Advances in the development of breast CADx using AI", INNERVISION, vol. 33, no. 7, 25 June 2018 (2018-06-25), pages 13 - 17, XP009525668, ISSN: 0913-8919 *
See also references of EP3832663A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193022A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 情報処理装置、情報処理方法及びプログラム
WO2022209299A1 (ja) * 2021-03-29 2022-10-06 ソニーグループ株式会社 情報処理システム、生体試料処理装置及びプログラム
WO2024090585A1 (ja) * 2022-10-28 2024-05-02 京セラ株式会社 解析装置、解析方法、解析プログラム及び記録媒体

Also Published As

Publication number Publication date
CN112514000A (zh) 2021-03-16
US20210319880A1 (en) 2021-10-14
JPWO2020027228A1 (ja) 2021-08-26
EP3832663A4 (en) 2022-04-27
EP3832663A1 (en) 2021-06-09
JP7138971B2 (ja) 2022-09-20

Similar Documents

Publication Publication Date Title
JP7138971B2 (ja) 診断支援システム及び診断支援方法
US11633169B2 (en) Apparatus for AI-based automatic ultrasound diagnosis of liver steatosis and remote medical diagnosis method using the same
JP5954769B2 (ja) 医用画像処理装置、医用画像処理方法および異常検出プログラム
CN111243042A (zh) 基于深度学习的超声甲状腺结节良恶性特征可视化的方法
WO2019062846A1 (zh) 结合影像识别与报告编辑的医学影像辅助诊断方法及系统
US20200226752A1 (en) Apparatus and method for processing medical image
Shin et al. Artificial intelligence in musculoskeletal ultrasound imaging
CN109074869B (zh) 医疗诊断支持装置、信息处理方法以及医疗诊断支持系统
US20210233239A1 (en) Systems and methods for medical image style transfer using deep neural networks
JP5789211B2 (ja) 類似画像検索装置、方法及びプログラム
CN113705586A (zh) 血管内图像中的多模态分割
JP6885517B1 (ja) 診断支援装置及びモデル生成装置
JP2016531709A (ja) 疾患を診断するための画像解析技術
CN111227864A (zh) 使用超声图像利用计算机视觉进行病灶检测的方法与装置
CN112529834A (zh) 病理图像模式在3d图像数据中的空间分布
CN111214255A (zh) 一种医学超声图像计算机辅助诊断方法
WO2022110525A1 (zh) 一种癌变区域综合检测装置及方法
US11996182B2 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
JP2006034585A (ja) 画像表示装置、画像表示方法およびそのプログラム
JP5456132B2 (ja) 診断支援装置、診断支援装置の制御方法、およびそのプログラム
KR20210098381A (ko) 병변 이미지 시각화 장치 및 방법
Yaqub et al. Volumetric segmentation of key fetal brain structures in 3D ultrasound
CN115249279A (zh) 医学图像处理方法、装置、计算机设备和存储介质
JP2022179433A (ja) 画像処理装置及び画像処理方法
Mithila et al. U-net Based Autonomous Fetal Segmentation From 2D and 3D Ultrasound Images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19843825

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020534725

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019843825

Country of ref document: EP

Effective date: 20210301