WO2020158100A1 - 医用画像解析装置、方法およびプログラム - Google Patents

医用画像解析装置、方法およびプログラム Download PDF

Info

Publication number
WO2020158100A1
WO2020158100A1 PCT/JP2019/044388 JP2019044388W WO2020158100A1 WO 2020158100 A1 WO2020158100 A1 WO 2020158100A1 JP 2019044388 W JP2019044388 W JP 2019044388W WO 2020158100 A1 WO2020158100 A1 WO 2020158100A1
Authority
WO
WIPO (PCT)
Prior art keywords
execution
analysis
medical image
unit
processing
Prior art date
Application number
PCT/JP2019/044388
Other languages
English (en)
French (fr)
Inventor
勇哉 久藤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DE112019006773.7T priority Critical patent/DE112019006773T5/de
Priority to CN201980090652.XA priority patent/CN113365557B/zh
Priority to JP2020569386A priority patent/JP7105927B2/ja
Publication of WO2020158100A1 publication Critical patent/WO2020158100A1/ja
Priority to US17/378,761 priority patent/US20210342195A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • the present disclosure relates to a medical image analysis apparatus, method, and program for analyzing medical images.
  • AI Artificial Intelligence
  • a high-performance computer is required to execute such analysis processing.
  • the resources include a CPU, a memory, a hard disk, a network, and the like.
  • the usage fee of the cloud service becomes more expensive as the amount of resources used increases. That is, although many resources can be secured in the cloud service, the usage fee increases when many resources are used.
  • analysis processing is often prepared for each site such as the lung, heart, liver, and brain, and also for each detectable lesion. Also, the amount of resources required for processing differs for each analysis processing.
  • the methods described in JP-A-2017-68393 and JP-A-2010-165259 can allocate appropriate resources to a plurality of processes. However, even when the methods described in JP-A-2017-68393 and JP-A-2010-165259 are used, if it is necessary to perform analysis processing that requires many resources, many resources are secured. I need to put it. When a large number of resources are secured in this way, resources are wasted a lot when executing analysis processing that can perform processing with relatively few resources.
  • the present disclosure has been made in view of the above circumstances, and an object thereof is to enable resources to be used without waste.
  • the medical image analysis apparatus is a plurality of analysis processes for analyzing a medical image, and each of the plurality of analysis processes includes one or more execution units to analyze the medical image using a predetermined resource.
  • a medical image analysis device for analysis An image acquisition unit that acquires at least one medical image; A part recognition unit that recognizes a part included in at least one medical image; An analysis process selection unit that selects one or more analysis processes for analyzing at least one medical image based on the recognized region, from a plurality of analysis processes; An execution characteristic acquisition unit that acquires resource usage and processing time as execution characteristics for each of a plurality of execution units included in the selected analysis process, An allocation determining unit that determines allocation of a plurality of execution units to a predetermined resource, based on the execution characteristics, the execution unit common to the selected analysis processes, and the processing order of the plurality of execution units, An analysis execution unit that executes analysis of at least one medical image by a selected analysis process according to the determined allocation.
  • Resources refer to physical resources of a computer, such as the CPU, memory, storage, and network of the computer.
  • the allocation determining unit may determine allocation of a plurality of execution units to a predetermined resource for minimizing the processing time.
  • the allocation determination unit selects the execution characteristics of the unexecuted execution units other than the execution unit in which the processing has been completed, when the processing in at least one execution unit is completed. Based on the execution unit common to the analysis processing and the processing order of the plurality of execution units, the allocation of the unexecuted execution unit to the predetermined resource is determined again, The analysis unit may execute processing in an unexecuted execution unit according to the determination made again.
  • a storage unit that stores execution characteristics for each of a plurality of execution units is further provided.
  • the execution characteristic acquisition unit may acquire the execution characteristic from the storage unit.
  • the medical image analysis device may further include an allocation information generation unit that generates allocation information representing the determined allocation.
  • the allocation information generation unit includes a rectangle that defines the relationship between the processing time and the resource usage amount on the coordinate plane that defines the relationship between the processing time and the resource usage amount.
  • the allocation information may be generated by arranging the execution characteristics represented by the regions according to the determined allocation.
  • the allocation information generation unit includes a rectangle that defines the relationship between the processing time and the resource usage amount on the coordinate plane that defines the relationship between the processing time and the resource usage amount.
  • the unprocessed execution characteristic represented by the area may be arranged on the time axis according to the determined allocation to further generate processing waiting information.
  • the medical image analysis apparatus may further include an output unit that outputs allocation information.
  • a medical image analysis method is a plurality of analysis processes for analyzing a medical image, each of which includes one or more execution units, and uses a predetermined resource to analyze the medical image.
  • a medical image analysis method for analyzing, Acquire at least one medical image, Recognize a part included in at least one medical image, Selecting one or more analysis processes for analyzing at least one medical image based on the recognized region from a plurality of analysis processes; Obtain the resource usage and processing time for each of the multiple execution units included in the selected analysis process as execution characteristics, Based on the execution characteristic, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units, the allocation of the plurality of execution units to the predetermined resource is determined, Analysis of at least one medical image is performed by the selected analysis process according to the determined assignment.
  • the medical image analysis method according to the present disclosure may be provided as a program for causing a computer to execute the method.
  • a medical image analysis apparatus is a plurality of analysis processes for analyzing a medical image, each of which includes a plurality of analysis units including one or more execution units.
  • a medical image analysis device for analyzing images, A memory storing instructions for causing a computer to execute; A processor configured to execute the stored instructions, the processor Acquire at least one medical image, Recognize a part included in at least one medical image, Selecting one or more analysis processes for analyzing at least one medical image based on the recognized region from a plurality of analysis processes; Obtain the resource usage and processing time for each of the multiple execution units included in the selected analysis process as execution characteristics, Based on the execution characteristic, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units, the allocation of the plurality of execution units to the predetermined resource is determined, Analysis of at least one medical image is performed by the selected analysis process according to the determined assignment.
  • resources can be used without waste.
  • Schematic configuration diagram of a medical image analysis system to which a medical image analysis apparatus according to an embodiment of the present disclosure is applied Schematic configuration diagram of a medical information system including a terminal device
  • Schematic configuration diagram of a medical image analysis apparatus according to an embodiment of the present disclosure Diagram showing multiple analysis processes
  • Diagram showing medical image after analysis processing Flowchart showing processing performed in the present embodiment
  • FIG. 6 is a diagram for explaining another example of determining the processing order of each execution unit.
  • FIG. 1 is a schematic configuration of a medical image analysis system to which a medical image analysis device according to an embodiment of the present disclosure is applied.
  • the terminal device 2 is a computer provided in each medical institution Bk, and well-known hardware such as CPU (Central Processing Unit), memory, storage, input/output interface, communication interface, input device, display device, and data bus. With configuration.
  • CPU Central Processing Unit
  • a well-known operation system or the like is installed in the terminal device 2. Further, it has a keyboard and a mouse as an input device, and has a display and the like as a display device.
  • the medical image analysis apparatus 3 according to this embodiment will be described later.
  • the network 4 is a wide area network (wide area communication network WAN: Wide Area Network) that connects a terminal device 2 placed in a plurality of medical institutions Bk and a medical image analysis device 3 in a wide area via a public line network or a dedicated line network. )
  • WAN wide area communication network
  • FIG. 2 is a schematic configuration diagram of a medical information system including the terminal device 2. As shown in FIG. 2, the terminal device 2 is connected to the medical information system 5 of each medical institution Bk via a local area network (LAN) 6.
  • the medical information system 5 includes a modality (imaging device) 7 and an image database 8 and is configured to exchange image data with each other via a network 6.
  • the modality 7 includes a device that captures an inspection target part of a subject, generates an inspection image representing the part, adds the supplementary information specified by the DICOM standard to the image, and outputs the image.
  • a CT apparatus Computed Tomography: computer tomography apparatus
  • an MRI apparatus magnetic resonance imaging: magnetic resonance imaging apparatus
  • a PET apparatus Positron Emission Tomography: positron emission tomography apparatus
  • an ultrasonic apparatus and
  • a CR device Computed Radiography using a flat panel X-ray detector (FPD) may be used.
  • the image database 8 is a general-purpose computer in which a software program that provides the functions of a database management system is incorporated, and has a large-capacity storage.
  • the storage may be a large-capacity hard disk device or a disk device connected to a NAS (Network Attached Storage) or SAN (Storage Area Network) connected to the network 6.
  • NAS Network Attached Storage
  • SAN Storage Area Network
  • the medical image analysis device 3 is a computer for analyzing a medical image by a plurality of analysis processes using a predetermined resource.
  • FIG. 3 is a schematic configuration diagram of a medical image analysis apparatus according to an embodiment of the present disclosure, which is realized by installing a medical image analysis program on a computer.
  • the medical image analysis apparatus 3 includes a CPU 11, a memory 12 and a storage 13. Further, the medical image analysis apparatus 3 includes an input/output interface, a communication interface, a data bus, and the like (not shown), a well-known operation system and the like are installed, and has a server function.
  • the medical image analysis device 3 may be provided with a GUP (Graphics Processing Unit) if necessary. Further, the medical image analysis device 3 may be composed of a plurality of computers.
  • GUP Graphics Processing Unit
  • a display unit 14 and an input unit 15 such as a mouse and a keyboard are connected to the medical image analysis apparatus 3.
  • the medical image analysis apparatus 3 is composed of a plurality of computers, each of the computers has a CPU 11, a memory 12, and a storage 13, and a medical image analysis program is installed in each of them.
  • the storage 13 stores a plurality of analysis processes for analyzing medical images.
  • the analysis process is a process of analyzing a medical image to detect a lesion or the like included in the medical image, and is composed of, for example, AI.
  • a plurality of types of analysis processing are stored in the storage 13 depending on the body part.
  • FIG. 4 is a diagram schematically showing a plurality of analysis processes. As shown in FIG. 4, in the present embodiment, analysis processing is prepared for each of a plurality of regions, such as brain analysis processing, lung analysis processing, heart analysis processing, and liver analysis processing. .. Further, the analysis processing of the brain includes analysis processing such as cerebral infarction detection processing and cerebral hemorrhage detection processing.
  • the lung analysis processing includes analysis processing such as emphysema detection processing, lung nodule detection processing, and ground glass shadow detection processing.
  • the storage 13 also stores the execution characteristics of each analysis process. The execution characteristics will be described later. Further, the storage 13 stores various kinds of information including medical images to be analyzed and acquired from the terminal device 2 via the network 4, and information necessary for the processing.
  • a medical image analysis program is stored in the memory 12.
  • the medical image analysis program includes an image acquisition process for acquiring at least one medical image to be processed, a region recognition process for recognizing a region included in at least one medical image, and a recognized region as processes to be executed by the CPU 11.
  • Determination processing for determining the allocation of the execution unit, analysis execution processing for executing analysis of at least one medical image by the selected analysis processing according to the determined allocation, allocation for generating allocation information representing the determined allocation It defines an information generation process and an output process of outputting the allocation information and the analysis result of the medical image to the terminal device 2 which has been requested to process.
  • the CPU 11 executes these processes according to the program, so that the computer obtains the image acquisition unit 21, the part recognition unit 22, the analysis processing selection unit 23, the execution characteristic acquisition unit 24, the allocation determination unit 25, the analysis execution unit 26, It functions as the allocation information generation unit 27 and the output unit 28.
  • the medical image analysis apparatus 3 is composed of a plurality of computers, for example, one computer among the plurality of computers includes an image acquisition unit 21, a site recognition unit 22, an analysis processing selection unit 23, and an execution characteristic acquisition unit. 24, the allocation determination unit 25, the analysis execution unit 26, the allocation information generation unit 27, and the output unit 28 may execute all the functions, and the other computer may execute only the function as the analysis execution unit 26. ..
  • the image acquisition unit 21 is composed of, for example, a communication interface or the like, and acquires at least one medical image G0 to be analyzed, which is transmitted from the terminal device 2 via the network 4. Specifically, the medical image G0 is acquired by receiving the transmission of the medical image G0 from the terminal device 2 of the doctor who wants to analyze the medical image G0. When the medical image G0 is already stored in the storage 13, the image acquisition unit 21 may acquire the medical image G0 from the storage 13. It should be noted that in the present embodiment, description will be made assuming that one medical image G0 is acquired.
  • the part recognition unit 22 recognizes the part of the subject included in the medical image G0.
  • the part recognition unit 22 has a learned model that has been learned so as to recognize a part included in the medical image G0.
  • the learned model is generated by learning a neural network by using a large number of medical images of which parts are known as teacher data, and when the medical image G0 is input, the parts included in the medical image G0 are selected. It is output as the part recognition result.
  • the part recognition unit 22 is not limited to one that recognizes a part using the learned model.
  • any method such as a method of recognizing a part included in the medical image G0 by template matching can be used.
  • the analysis process selection unit 23 selects one or more analysis processes for analyzing the medical image G0 from a plurality of analysis processes stored in the storage 13 based on the site recognition result by the site recognition unit 22. For example, when the medical image G0 is a medical image of the head, the region recognition result is the brain, and therefore the analysis process selection unit 23 selects one or more brain analysis processes. Further, when the medical image G0 is a medical image of the upper half of the human body, the region recognition results are the heart and the lungs, so the analysis processing selection unit 23 selects the heart analysis processing and the lung analysis processing.
  • the lung analysis process includes a plurality of execution units such as lung extraction from the medical image G0, detection of lesion candidates, and narrowing down of lesions, and can be divided into respective execution units.
  • FIG. 5 is a diagram schematically showing execution units of analysis processing. Note that FIG. 5 schematically shows the emphysema detection processing 40, the lung nodule detection processing 41, and the ground glass shadow detection processing 42 included in the lung analysis processing. In the emphysema detection processing 40 shown in FIG.
  • the lung extraction unit 50 for extracting lungs from the medical image G0, the emphysema candidate detection unit 51A for detecting emphysema candidates from the extracted lungs, and the emphysema candidates are emphysema. It is divided into three execution units of an emphysema discriminating unit 52A for discriminating whether or not.
  • the lung nodule detection processing 41 determines the lung extraction unit 50, the lung nodule candidate detection unit 51B for detecting a lung nodule candidate from the extracted lungs, and whether or not the lung nodule candidate is a lung nodule.
  • the lung nodule discrimination unit 52B is divided into three execution units.
  • the ground glass shadow detection processing 42 determines the lung extraction unit 50, the ground glass shadow candidate detection unit 51C for detecting ground glass shadow candidates from the extracted lungs, and whether or not the ground glass shadow candidates are ground glass shadows.
  • the ground glass shadow discrimination unit 52C is divided into three execution units. In FIG. 5, the execution units are arranged in the processing order from the left side.
  • the execution characteristic acquisition unit 24 acquires the resource usage amount and the processing time for each of the plurality of execution units included in the selected analysis process as execution characteristics.
  • the resources are the CPU 11, the memory 12, and the storage 13 included in the medical image analysis apparatus 3. It should be noted that the amount of available resources is determined in advance according to the charge according to the medical institution Bk. In the present embodiment, it is assumed that the usable capacity of the memory 12 in the medical image analysis apparatus 3 is predetermined according to the usage fee.
  • the execution characteristic defines the relationship between the processing time required for the execution unit of the analysis processing to perform the processing and the memory usage amount.
  • the execution characteristics are generated in advance for each execution unit of analysis processing and stored in the storage 13.
  • FIG. 6 is a diagram schematically showing generation of execution characteristics.
  • the execution characteristic acquisition unit 24 is assumed to generate the execution characteristic, but a unit different from the execution characteristic acquisition unit 24 may be provided to generate the execution characteristic.
  • a plurality of sample images Sk for generating execution characteristics are prepared.
  • the execution characteristic acquisition unit 24 executes processing on each sample image Sk in units of execution, and measures processing time and memory usage. The processing time and the memory usage amount change depending on the sample image Sk.
  • the execution characteristic acquisition unit 24 generates histograms H1 and H2 that represent the processing time and the frequency of the memory usage when the execution unit processes a plurality of sample images Sk. Then, the execution characteristic acquisition unit 24 calculates the average value H1m of the histogram H1 for the processing time and the average value H2m of the histogram H2 for the memory usage amount, respectively, and calculates the average value H1m for the processing time and the average value of the memory usage amount.
  • the value H2m is generated as the execution characteristic for the execution unit of the analysis processing.
  • the execution characteristic is schematically shown as a rectangle whose horizontal axis represents the average value H1m of processing time and whose vertical axis represents the average value H2m of memory usage.
  • the generated execution characteristic is stored in the storage 13 in association with the execution unit of the analysis process.
  • the allocation determining unit 25 determines allocation of a plurality of execution units to a predetermined resource based on the acquired execution characteristic, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units. The determination of allocation will be described below.
  • four analysis processes 61 to 64 are selected.
  • the analysis process 61 consists of execution units U1, U2, U3, the analysis process 62 consists of execution units U1, U2, U4, and the analysis process 63 consists of execution units U1, U5, U6.
  • the process 64 includes execution units U1, U5, and U7.
  • the execution units are arranged in the processing order from the left side.
  • the allocation determining unit 25 identifies the execution unit common to the analysis processes 61 to 64. As shown in FIG. 7, the execution unit common to all the analysis processes 61 to 64 is the execution unit U1. The execution unit common to the analysis processes 61 and 62 is the execution unit U2. The execution unit common to the analysis processes 63 and 64 is the execution unit U5. Next, the allocation determining unit 25 specifies the processing order of the execution units. For example, in the execution unit U2 and the execution units U3 and U4, if the execution unit U2 is not executed, the execution unit U3. U4 cannot be executed. Moreover, in the execution unit U5 and the execution units U6 and U7, the execution unit U6 and U7 cannot be executed unless the execution unit U5 is executed.
  • the allocation determination unit 25 specifies the processing order of each execution unit as shown in FIG. 8 in consideration of the processing order of each execution unit in the selected analysis processing 61 to 64.
  • the allocation determining unit 25 determines allocation of a plurality of execution units to a predetermined resource based on the execution unit common to the selected analysis process and the processing order of the plurality of execution units. For this purpose, the allocation determining unit 25 creates a processing queue for each execution unit.
  • FIG. 9 is a diagram showing a processing queue. In the processing queue M0 shown in FIG. 9, each execution unit is represented by a rectangle having a size reflecting the execution characteristics, and the horizontal axis defines the processing order.
  • the allocation determining unit 25 refers to the processing queue M0 and allocates an execution unit to a resource having a predetermined capacity.
  • the allocation determining unit 25 determines allocation of a plurality of execution units to a predetermined resource in order to minimize the processing time.
  • the processing order of the execution units is U1, U2, U3, U4,..
  • FIG. 10 is a diagram showing a result of allocation of execution units.
  • the vertical axis represents the resource, and in the present embodiment, it represents the resource available to the medical institution Bk that requested the analysis, that is, the memory capacity.
  • the vertical axis shows the maximum value max of the available memory capacity.
  • the analysis execution unit 26 executes the analysis of the medical image G0 by the selected analysis process according to the allocation determined by the allocation determination unit 25. According to the allocation shown in FIG. 10, the analysis execution unit 26 first executes the execution unit U1 common to all the analysis processes 61 to 64, and when the processing of the execution unit U1 ends, the analysis execution units 61 and 62 execute the common execution. The unit U2 and the execution unit U5 common to the analysis processes 63 and 64 are executed in parallel. This is because the resource has a capacity capable of executing the execution unit U2 and the execution unit U5 at the same time. In the execution unit U2 and the execution unit U5, the processing of the execution unit U5 ends first.
  • the analysis execution unit 26 executes the execution unit U6 that is performed after the execution unit U5 in the analysis processing 63. Further, even if the execution units U2 and U6 are executed, the analysis execution unit 26 executes the execution unit U7, which is performed after the execution unit U5 in the analysis processing 64, because the resources are available.
  • the analysis execution unit 26 executes the execution unit U3 that is performed after the execution unit U2 in the analysis processing 61. In this state, the execution unit U7 is executing, and during execution of the execution unit U3 and the execution unit U7, there is no available resource for executing the execution unit U4.
  • the analysis execution unit 26 does not execute the execution unit U4 that is executed after the execution unit U2 in the analysis process 62.
  • the analysis execution unit 26 executes the execution unit U4.
  • the allocation information generation unit 27 generates allocation information indicating the determined allocation.
  • the allocation information is an image representing the allocation result shown in FIG. 10 determined by the allocation determining unit 25.
  • the allocation information generation unit 27 may generate a processing queue as processing waiting information.
  • the processing waiting information is an image representing the processing queue M0 shown in FIG.
  • the output unit 28 is composed of, for example, a communication interface or the like, and transmits the allocation information generated by the allocation information generation unit 27 to the terminal device 2 of the doctor who has requested the analysis of the medical image G0 via the network 4.
  • the output unit 28 also transmits the process waiting information to the terminal device 2 if the process waiting information is generated. By this.
  • allocation information indicating the allocation result shown in FIG. 10 is displayed.
  • the analysis execution unit 26 finishes analyzing the medical image G0
  • the output unit 28 transmits the analysis result to the terminal device 2.
  • the analysis result is information indicating the position of the abnormal part in the medical image G0. By using this information, the medical image G0 in which the abnormal part is specified is displayed on the terminal device 2 as shown in FIG. As shown in FIG. 11, the abnormal portion C1 is detected in the medical image G0.
  • the image acquisition unit 21 and the output unit 28 are separately provided in the present embodiment, the image acquisition unit 21 may have the function of the output unit 28, and the output unit 28 may be the image acquisition unit. It may have the function of 21.
  • FIG. 12 is a flowchart showing the processing performed in this embodiment.
  • the image acquisition unit 21 acquires the analysis-target medical image G0 transmitted from the terminal device 2 of the medical institution Bk (step ST1).
  • the part recognition unit 22 recognizes the part of the subject included in the medical image G0 (step ST2).
  • the analysis process selection unit 23 selects one or more analysis processes for analyzing the medical image G0 from the plurality of analysis processes stored in the storage 13 based on the site recognition result by the site recognition unit 22. (Step ST3).
  • the execution characteristic acquisition unit 24 acquires the resource usage amount and the processing time for each of the plurality of execution units included in the selected analysis process from the storage 13 as the execution characteristic (step ST4).
  • the allocation determining unit 25 determines allocation of a plurality of execution units to a predetermined resource based on the acquired execution characteristic, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units. Yes (step ST5).
  • the allocation information generating unit 27 generates allocation information representing the determined allocation (step ST6), and the output unit 28 transmits the allocation information to the terminal device 2 (step ST7).
  • the analysis executing unit 26 executes the analysis of the medical image G0 by the selected analysis process according to the determined allocation (step ST8).
  • step ST8 may be performed before the processes of steps ST6 and ST7, or the process of step ST8 and the processes of steps ST6 and ST7 may be performed in parallel. Then, the output unit 28 transmits the analysis result to the terminal device 2 (step ST9), and the process ends.
  • the part included in the medical image G0 is recognized, and one or more analysis processes are selected from a plurality of analysis processes based on the recognized part. Then, the resource usage amount and processing time for each of the plurality of execution units included in the selected analysis process are acquired as execution characteristics. Then, based on the execution characteristics, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units, the allocation of the plurality of execution units to the predetermined resource is determined, and according to the determined allocation, The analysis of the medical image is executed by the selected analysis process. Therefore, according to this embodiment, the execution unit can be assigned to the resource so that the waste of the execution unit is reduced. Therefore, according to this embodiment, resources can be used without waste.
  • the terminal device 2 can recognize how the execution unit is allocated to the resource and the analysis process is executed. it can. Further, in the medical institution Bk, it is possible to consider increasing or decreasing the resource by checking the allocation information, and as a result, it is possible to easily determine the resource capacity suitable for the analysis processing performed by the medical institution. can do.
  • the analysis is executed according to the determined allocation, but when the processing by at least one execution unit is completed, the allocation determination unit 25 does not execute the unexecuted units other than the completed execution unit. Even if the allocation of the execution unit to the predetermined resource is again determined based on the execution characteristics of the execution unit, the execution unit common to the selected analysis process, and the processing order of the plurality of execution units. Good. In this case, the analysis execution unit 26 executes the processing in the unexecuted execution unit according to the determination made again. This will be described below as another embodiment.
  • FIG. 13 is a diagram for explaining allocation of execution units in another embodiment.
  • the processing queue and the allocation are shown in correspondence with each other.
  • seven execution units U11 to U17 having the execution characteristics shown in FIG. 13 are assigned.
  • the allocation determining unit 25 generates a processing queue M10 for the execution units U11 to U17, and allocates the execution units U11 to U17 to resources according to the processing queue M10.
  • the allocation result R10 is shown below the processing queue M10.
  • the execution units U15 to U17 are not shown.
  • an arrow indicates that the current processing time is the initial processing time t0.
  • the execution unit U11 and the execution unit U13 are executed in parallel, and after the execution unit U11 and the execution unit U13 are completed, the execution unit U12 and the execution unit U14 are executed in parallel.
  • the analysis execution unit 26 executes the analysis process according to the allocation result R10. As a result, the analysis execution unit 26 first executes the execution unit U11 and the execution unit U13.
  • the execution unit U11 and the execution unit U13 are executed, whereby the allocation determination unit 25 deletes the execution unit U11 and the execution unit U13 from the processing queue M10 to generate the processing queue M11.
  • the allocation determination unit 25 refers to the processing queue M11 and again determines the allocation of the execution unit based on the capacity of the resource after the execution unit U13 ends.
  • the execution unit U12 and the execution unit U15 are executed before the execution unit U14 after the execution unit U13 is completed.
  • the execution units U16 and U17 are omitted.
  • the analysis execution unit 26 continues to execute the execution unit U11, and executes the execution unit U12 and the execution unit U15 after the execution unit U13 ends.
  • the allocation determining unit 25 deletes the execution unit U12 and the execution unit U15 from the processing queue M11 to generate the processing queue M12.
  • the analysis processing by the analysis executing unit 26 it is assumed that the execution unit U11 requires more time than expected and the processing ends at the time t2 at the same time as the execution unit U15.
  • the execution units U11, U13, and U15 whose processing has been completed are shaded.
  • the allocation determination unit 25 again determines the allocation of the execution unit by referring to the processing queue M12 based on the resource capacity after the execution units U11 and U15 are completed.
  • the execution units U11 and U15 are completed, the execution areas of the execution units U12 and U14 on the resource are changed and the execution units U16 and U17 are allocated.
  • the analysis execution unit 26 continuously executes the execution unit U12, and executes the execution unit U15 and the execution unit U16 after the execution units U11 and U15 are completed. Further, when the execution unit U12 and the execution unit U16 are completed, the execution unit U17 is executed.
  • the analysis process is performed on one medical image G0, but the present disclosure can be applied to the case where the analysis process is performed on a plurality of medical images.
  • three medical images G1 to G3 of a CT CT medical image G1 acquired by a CT device, a brain MRI medical image G2 acquired by an MRI device, and a chest CT medical image G3 acquired by a CT device are analyzed. Think about when.
  • CT cerebral infarction detection processing 71 and CT cerebral hemorrhage detection processing 72 are selected for the CT medical image G1 of the brain, and the MRI medical image G2 of the brain is selected.
  • a cerebral infarction detection process 73 for MRI and a cerebral hemorrhage detection process 74 for MRI are selected, and a lung analysis process 75 for CT and a heart analysis process 76 for CT are selected for the medical image G3 of CT of the chest.
  • the cerebral infarction detection process 71 for CT is composed of execution units U21, U22, U23
  • the cerebral hemorrhage detection process 72 for CT is composed of execution units U21, U22, U24
  • the cerebral infarction detection process 73 for MRI is composed of execution units U25, U26, U27
  • the cerebral hemorrhage detection process 74 for MRI is composed of execution units U25, U26, U28.
  • the lung analysis processing 75 is composed of execution units U29 and U30
  • the heart analysis processing 76 is composed of execution units U31 and U32.
  • the allocation determination unit 25 identifies the execution unit common to each analysis process.
  • execution units common to the CT cerebral infarction detection process 71 and the CT cerebral hemorrhage detection process 72 are execution units U21 and U22.
  • the execution units common to the cerebral infarction detection process 73 for MRI and the cerebral hemorrhage detection process 74 for MRI are execution units U25 and U26.
  • the allocation determination unit 25 specifies the processing order of each execution unit, as shown in FIG. 15, in consideration of the processing order of each execution unit. That is, with respect to the CT cerebral infarction detection processing 71 and the CT cerebral hemorrhage detection processing 72, the allocation determination unit 25 executes the processing in the order of the execution unit U21 and the execution unit U22, and after the execution unit U22 ends, The processing order of each execution unit is specified so that U23 and execution unit U24 are executed in parallel.
  • the allocation determination unit 25 executes processing in the order of execution unit U25 and execution unit U26, and after execution unit U26 ends, execution unit U26 The processing order of each execution unit is specified so that U27 and execution unit U28 are executed in parallel. Further, regarding the lung analysis processing 75, the allocation determination unit 25 specifies the processing order of each execution unit so that the processing is executed in the order of the execution unit U29 and the execution unit U30. Further, regarding the cardiac analysis processing 76, the allocation determination unit 25 specifies the processing order of each execution unit so that the processing is executed in the order of the execution unit U31 and the execution unit U32.
  • the allocation determining unit 25 determines allocation of a plurality of execution units to a predetermined resource based on the execution unit common to the selected analysis process and the processing order of the plurality of execution units.
  • FIG. 16 is a diagram showing a result of allocation of execution units. Then, the analysis execution unit 26 analyzes the medical images G1 to G3 by the selected analysis process according to the allocation determined by the allocation determination unit 25.
  • the analysis process is divided into the minimum execution units, but it is not limited to this.
  • the analysis process may be divided so that the plurality of minimum execution units become one execution unit.
  • two or more analysis processes are selected from a plurality of analysis processes, but only one analysis process may be selected.
  • the allocation of the execution unit included in one analysis process is determined and the analysis process is performed.
  • the medical image analysis device 3 is placed on the cloud side.
  • the medical image G0 may be analyzed using the terminal device 2 in the medical institution Bk.
  • the medical image analysis device 3 may be included in the terminal device 2.
  • the terminal 2 of the medical institution Bk can efficiently use the resources of the terminal 2 to analyze the medical image G0.
  • a processing unit that executes various processes such as 28
  • the following various processors can be used.
  • the CPU which is a general-purpose processor that executes software (programs) and functions as various processing units
  • the above-mentioned various processors include circuits after manufacturing FPGA (Field Programmable Gate Array) etc.
  • Programmable Logic Device which is a processor whose configuration can be changed, and dedicated electrical equipment, which is a processor that has a circuit configuration specifically designed to execute specific processing such as ASIC (Application Specific Integrated Circuit) Circuits etc. are included.
  • One processing unit may be configured by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ). Further, the plurality of processing units may be configured by one processor.
  • one processor is configured with a combination of one or more CPUs and software, as represented by computers such as clients and servers. There is a form in which this processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a processor that realizes the functions of the entire system including a plurality of processing units by one IC (Integrated Circuit) chip is used. is there.
  • the various processing units are configured by using one or more of the above various processors as a hardware structure.
  • circuitry in which circuit elements such as semiconductor elements are combined can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

部位認識部が、医用画像に含まれる部位を認識する。解析処理選択部が、認識された部位に基づいて、医用画像を解析するための1以上の解析処理を、複数の解析処理から選択する。実行特性取得部が、選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得する。割り当て決定部が、実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する。解析実行部が、決定された割り当てに従って、選択された解析処理により医用画像の解析を実行する。

Description

医用画像解析装置、方法およびプログラム
 本開示は、医用画像を解析する医用画像解析装置、方法およびプログラムに関する。
 医療分野においては、画像解析技術の性能が向上してきている。特に、近年では、深層学習により学習がなされたニューラルネットワークを利用した人工知能(AI;Artificial Intelligence)を用いることにより、病変を認識したり、病変を特定したりするための解析処理の精度が向上している。このような解析処理を実行するためには、高性能なコンピュータが必要になる。
 一方、近年、複数のサーバを用いた様々なクラウドサービスが提供されるようになってきている。例えば、高価なコンピュータを保有することなくクラウドを利用したサービスが提供されるようになってきている。上述したAIを用いた解析処理を、クラウドサービスを用いて行うことにより、ハードウェアの保守、運用および管理を、クラウドを提供する企業に一任することが可能となる。その結果、クラウドサービスの利用者は、コストおよび人的リソースの削減を図ることができる。
 上述したようなクラウドサービスにおいては、リソースの確保が容易である。ここで、リソースとしては、CPU、メモリ、ハードディスクおよびネットワーク等が挙げられる。しかしながら、クラウドサービスの利用料金は、使用するリソース量が多いほど高価なものとなる。すなわち、クラウドサービスにおいては多くのリソースを確保できるものの、多くのリソースを利用すると利用料金が高くなる。
 このため、リソースを効率よく利用するための手法が提案されている。例えば、特開2017-68393号公報においては、データの予測および分類を行うモデルを学習するための分析処理を実行する際に、第1のデータに対する分析処理を処理装置で実行したときの処理時間とリソース消費量とを予測し、予測された処理時間とリソース消費量とに基づいて、第2のデータの分析処理に係る処理性能を予測し、予測された処理性能をもとに、複数の処理装置のうち、第2のデータに対する分析処理を実行すべき処理装置を選定する手法が提案されている。また、特開2010-165259号公報においては、複数のタスクからなる人工知能等のワークロードを処理ユニットに割り当てて実行する際に、要求する処理ユニットの数、各処理ユニットにおける優先度、および最大の処理ユニット割り当て数等の割り当て条件に基づいて、ワークロードを処理ユニットに割り当てる手法が提案されている。
 一方、解析処理は、肺、心臓、肝臓および脳等の部位毎に、さらには検出可能な病変毎に用意されることが多い。また、解析処理毎に処理に必要なリソース量が異なる。特開2017-68393号公報および特開2010-165259号公報に記載された手法は、複数の処理に対して適切なリソースを割り当てることができる。しかしながら、特開2017-68393号公報および特開2010-165259号公報に記載された手法を用いても、多くのリソースを必要とする解析処理を行う必要がある場合、多くのリソースを確保しておく必要がある。このように多くのリソースを確保した場合、比較的少ないリソースにより処理を行うことが可能な解析処理を実行する場合には、リソースの無駄が多くなる。
 本開示は上記事情に鑑みなされたものであり、リソースを無駄なく利用できるようにすることを目的とする。
 本開示による医用画像解析装置は、医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて医用画像を解析する医用画像解析装置であって、
 少なくとも1つの医用画像を取得する画像取得部と、
 少なくとも1つの医用画像に含まれる部位を認識する部位認識部と、
 認識された部位に基づいて、少なくとも1つの医用画像を解析するための1以上の解析処理を、複数の解析処理から選択する解析処理選択部と、
 選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得する実行特性取得部と、
 実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する割り当て決定部と、
 決定された割り当てに従って、選択された解析処理により少なくとも1つの医用画像の解析を実行する解析実行部とを備える。
 「リソース」とは、コンピュータの物理的な資源をいい、例えば、コンピュータのCPU、メモリ、ストレージ、およびネットワーク等である。
 なお、本開示による医用画像解析装置においては、割り当て決定部は、処理時間を最小にするための予め定められたリソースに対する複数の実行単位の割り当てを決定するものであってもよい。
 また、本開示による医用画像解析装置においては、割り当て決定部は、少なくとも1つの実行単位による処理が完了した際に、処理が完了した実行単位以外の未実行の実行単位についての実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、未実行の実行単位の予め定められたリソースへの割り当てを再度決定し、
 解析部は、再度の決定に従って、未実行の実行単位による処理を実行するものであってもよい。
 また、本開示による医用画像解析装置においては、複数の実行単位のそれぞれについての実行特性を記憶する記憶部をさらに備え、
 実行特性取得部は、記憶部から実行特性を取得するものであってもよい。
 また、本開示による医用画像解析装置においては、決定された割り当てを表す割り当て情報を生成する割り当て情報生成部をさらに備えるものであってもよい。
 また、本開示による医用画像解析装置においては、割り当て情報生成部は、処理時間とリソースの使用量との関係を規定する座標面上に、処理時間とリソースの使用量との関係を規定する矩形領域により表した実行特性を、決定された割り当てに従って配置することにより、割り当て情報を生成するものであってもよい。
 また、本開示による医用画像解析装置においては、割り当て情報生成部は、処理時間とリソースの使用量との関係を規定する座標面上に、処理時間とリソースの使用量との関係を規定する矩形領域により表した未処理の実行特性を、決定された割り当てに従って時間軸上に配置した処理待ち情報をさらに生成するものであってもよい。
 また、本開示による医用画像解析装置においては、割り当て情報を出力する出力部をさらに備えるものであってもよい。
 本開示による医用画像解析方法は、医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて医用画像を解析する医用画像解析方法であって、
 少なくとも1つの医用画像を取得し、
 少なくとも1つの医用画像に含まれる部位を認識し、
 認識された部位に基づいて、少なくとも1つの医用画像を解析するための1以上の解析処理を、複数の解析処理から選択し、
 選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得し、
 実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定し、
 決定された割り当てに従って、選択された解析処理により少なくとも1つの医用画像の解析を実行する。
 なお、本開示による医用画像解析方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示による他の医用画像解析装置は、医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて医用画像を解析する医用画像解析装置であって、
 コンピュータに実行させるための命令を記憶するメモリと、
 記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
 少なくとも1つの医用画像を取得し、
 少なくとも1つの医用画像に含まれる部位を認識し、
 認識された部位に基づいて、少なくとも1つの医用画像を解析するための1以上の解析処理を、複数の解析処理から選択し、
 選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得し、
 実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定し、
 決定された割り当てに従って、選択された解析処理により少なくとも1つの医用画像の解析を実行する。
 本開示によれば、リソースを無駄なく利用できる。
本開示の実施形態による医用画像解析装置を適用した医用画像解析システムの概略構成図 端末装置を含む医療情報システムの概略構成図 本開示の実施形態による医用画像解析装置の概略構成図 複数の解析処理を模式的に示す図 解析処理の実行単位を模式的に示す図 実行特性の生成を模式的に示す図 選択された解析処理を模式的に示す図 各実行単位の処理順序の決定を説明するための図 処理待ち行列を示す図 実行単位の割り当て結果を示す図 解析処理後の医用画像を示す図 本実施形態において行われる処理を示すフローチャート 他の実施形態における処理待ち行列および割り当て結果を示す図 選択された解析処理の他の例を模式的に示す図 各実行単位の処理順序の決定の他の例を説明するための図 実行単位の割り当て結果の他の例を示す図
 図1は、本開示の実施形態による医用画像解析装置を適用した医用画像解析システムの概略構成である。図1に示すように、医用画像解析システム1は、複数の医療機関Bk(k=1~n)に設置される複数の端末装置2、およびクラウド側に置かれる医用画像解析装置3がネットワーク4により接続されて構成される。
 端末装置2は、各医療機関Bkに設けられたコンピュータであり、CPU(Central Processing Unit)、メモリ、ストレージ、入出力インターフェース、通信インターフェース、入力装置、表示装置、およびデータバス等の周知のハードウェア構成を備える。端末装置2には周知のオペレーションシステム等がインストールされる。また、入力装置として、キーボードおよびマウス等を有し、表示装置としてディスプレイ等を有している。なお、本実施形態による医用画像解析装置3については後述する。
 ネットワーク4は、公衆回線網または専用回線網を介して複数の医療機関Bkに置かれた端末装置2と医用画像解析装置3とを広域的に結ぶワイドエリアネットワーク (広域通信網 WAN:Wide Area Network) である。
 図2は、端末装置2を含む医療情報システムの概略構成図である。図2に示すように、端末装置2は、ローカルエリアネットワーク(LAN:Local Area Network)6を介して、各医療機関Bkの医療情報システム5に接続されている。医療情報システム5は、モダリティ(撮影装置)7および画像データベース8を備え、ネットワーク6を介して互いに画像データの送受信が行われるように構成される。
 モダリティ7には、被写体の検査対象部位を撮影することにより、その部位を表す検査画像を生成し、その画像にDICOM規格で規定された付帯情報を付加して出力する装置が含まれる。具体例としては、CT装置(Computed Tomography:コンピュータ断層撮影装置)、MRI装置(magnetic resonance imaging:磁気共鳴画像撮影装置)、PET装置(Positron Emission Tomography:陽電子放射断層撮影装置)、超音波装置、および平面X線検出器(FPD:flat panel detector)を用いたCR装置(Computed Radiography:コンピュータX線撮影装置)等が挙げられる。
 画像データベース8は、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムが組み込まれたものであり、大容量ストレージを備えている。ストレージは、大容量のハードディスク装置であってもよいし、ネットワーク6に接続されているNAS(Network Attached Storage)またはSAN(Storage Area Network)に接続されたディスク装置であってもよい。モダリティ7において取得された画像データは、DICOM規格に準拠した格納フォーマットおよび通信規格に従って、ネットワーク6を介して画像データベース8に送信されて格納される。
 医用画像解析装置3は、予め定められたリソースを用いて、複数の解析処理により医用画像を解析処理するためのコンピュータである。図3は、コンピュータに医用画像解析プログラムをインストールすることにより実現される、本開示の実施形態による医用画像解析装置の概略構成図である。図3に示すように、医用画像解析装置3は、CPU11、メモリ12およびストレージ13を備えている。また、医用画像解析装置3は、不図示の入出力インターフェース、通信インターフェース、およびデータバス等を備え、周知のオペレーションシステム等がインストールされ、かつサーバの機能を有する。なお、医用画像解析装置3には、必要に応じてGUP(Graphics Processing Unit)を設けるようにしてもよい。また、医用画像解析装置3は、複数のコンピュータにより構成されてもよい。
 また、医用画像解析装置3には、表示部14並びにマウスおよびキーボード等の入力部15が接続されている。なお、医用画像解析装置3が複数のコンピュータにより構成される場合、コンピュータのそれぞれがCPU11、メモリ12、およびストレージ13を備え、そのそれぞれに医用画像解析プログラムがインストールされる。
 ストレージ13には、医用画像を解析するための複数の解析処理が記憶されている。解析処理は医用画像を解析して、医用画像に含まれる病変等を検出する処理を行うものであり、例えばAIからなる。本実施形態においては、人体の部位に応じて複数種類の解析処理がストレージ13に記憶される。図4は、複数の解析処理を模式的に示す図である。図4に示すように、本実施形態においては、解析処理として、脳の解析処理、肺の解析処理、心臓の解析処理、肝臓の解析処理等の複数の部位毎に解析処理が用意されている。また、脳の解析処理には、脳梗塞検出処理および脳出血検出処理等の解析処理が含まれる。肺の解析処理には、肺気腫検出処理、肺結節検出処理およびすりガラス影検出処理等の解析処理が含まれる。
 また、ストレージ13には、各解析処理の実行特性が記憶されている。実行特性については後述する。また、ストレージ13には、ネットワーク4を経由して端末装置2から取得した、解析処理の対象となる医用画像、および処理に必要な情報を含む各種情報が記憶されている。
 メモリ12には、医用画像解析プログラムが記憶されている。医用画像解析プログラムは、CPU11に実行させる処理として、処理対象となる少なくとも1つの医用画像を取得する画像取得処理、少なくとも1つの医用画像に含まれる部位を認識する部位認識処理、認識された部位に基づいて、少なくとも1つの医用画像を解析するための1以上の解析処理を、複数の解析処理から選択する解析処理選択処理、選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得する実行特性取得処理、実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する割り当て決定処理、決定された割り当てに従って、選択された解析処理により少なくとも1つの医用画像の解析を実行する解析実行処理、決定された割り当てを表す割り当て情報を生成する割り当て情報生成処理、並びに割り当て情報および医用画像の解析結果を処理の依頼があった端末装置2に出力する出力処理を規定する。
 そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、部位認識部22、解析処理選択部23、実行特性取得部24、割り当て決定部25、解析実行部26、割り当て情報生成部27および出力部28として機能する。なお、医用画像解析装置3が複数のコンピュータから構成される場合、例えば複数のコンピュータのうちの1台のコンピュータが、画像取得部21、部位認識部22、解析処理選択部23、実行特性取得部24、割り当て決定部25、解析実行部26、割り当て情報生成部27および出力部28のすべての機能を実行し、他のコンピュータは解析実行部26としての機能のみを実行するものであってもよい。
 画像取得部21は、例えば通信インターフェース等からなり、端末装置2からネットワーク4経由で送信された解析の対象となる少なくとも1つの医用画像G0を取得する。具体的には、医用画像G0の解析を所望する医師の端末装置2からの医用画像G0の送信を受けることにより、医用画像G0を取得する。なお、医用画像G0が既にストレージ13に保存されている場合には、画像取得部21は、ストレージ13から医用画像G0を取得するようにしてもよい。なお、本実施形態においては、1つの医用画像G0を取得するものとして説明する。
 部位認識部22は、医用画像G0に含まれる被検体の部位を認識する。例えば、部位認識部22は、医用画像G0に含まれる部位を認識するように学習がなされた学習済みモデルを有する。学習済みモデルは、部位が既知の多数の医用画像を教師データとして用いることによって、ニューラルネットワークを学習することにより生成されてなり、医用画像G0が入力されると、医用画像G0に含まれる部位を部位認識結果として出力する。なお、部位認識部22は、学習済みモデルにより部位を認識するものには限定されない。例えば、部位認識の手法としては、テンプレートマッチングにより医用画像G0に含まれる部位を認識する手法等、任意の手法を用いることができる。
 解析処理選択部23は、部位認識部22による部位認識結果に基づいて、ストレージ13に記憶された複数の解析処理から、医用画像G0を解析するための1以上の解析処理を選択する。例えば、医用画像G0が頭部の医用画像である場合には、部位認識結果は脳となるため、解析処理選択部23は、1以上の脳の解析処理を選択する。また、医用画像G0が人体の上半身の医用画像である場合には、部位認識結果が心臓および肺となるため、解析処理選択部23は、心臓の解析処理および肺の解析処理を選択する。
 ここで、肺の解析処理は、医用画像G0からの肺の抽出、病変候補の検出および病変の絞り込み等の複数の実行単位からなり、それぞれの実行単位に分割することが可能である。図5は解析処理の実行単位を模式的に示す図である。なお、図5においては、肺の解析処理に含まれる肺気腫検出処理40、肺結節検出処理41およびすりガラス影検出処理42を模式的に示す。図5に示す肺気腫検出処理40は、医用画像G0から肺を抽出するための肺抽出単位50、抽出された肺から肺気腫候補を検出するための肺気腫候補検出単位51A、および肺気腫候補が肺気腫であるか否かを判別するための肺気腫判別単位52Aの3つの実行単位に分割される。また、肺結節検出処理41は、肺抽出単位50、抽出された肺から肺結節候補を検出するための肺結節候補検出単位51B、および肺結節候補が肺結節であるか否かを判別するための肺結節判別単位52Bの3つの実行単位に分割される。また、すりガラス影検出処理42は、肺抽出単位50、抽出された肺からすりガラス影候補を検出するためのすりガラス影候補検出単位51C、およびすりガラス影候補がすりガラス影であるか否かを判別するためのすりガラス影判別単位52Cの3つの実行単位に分割される。なお、図5において、各実行単位は左側から処理順序に従って並べられている。
 実行特性取得部24は、選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得する。ここで、リソースとは、医用画像解析装置3が有するCPU11およびメモリ12およびストレージ13である。なお、医療機関Bkに応じて、利用可能なリソースの量が支払う料金に応じて予め定められている。本実施形態においては、医用画像解析装置3における使用可能なメモリ12の容量が、利用料金に応じて予め定められているものとする。
 本実施形態において、実行特性は、解析処理の実行単位が処理を行う際に要する処理時間とメモリ使用量との関係を規定したものである。実行特性は解析処理の実行単位毎に予め生成されてストレージ13に記憶されている。図6は実行特性の生成を模式的に示す図である。なお、本実施形態においては、実行特性取得部24が実行特性を生成するものとするが、実行特性取得部24とは別の手段を設けて実行特性を生成してもよい。本実施形態においては、図6に示すように、実行特性を生成するための複数のサンプル画像Skが用意される。実行特性取得部24は、各サンプル画像Skに対して実行単位により処理を実行し、処理時間およびメモリ使用量を計測する。処理時間およびメモリ使用量はサンプル画像Skに応じて変化する。
 このため、実行特性取得部24は、複数のサンプル画像Skについて実行単位が処理を行った場合の処理時間およびメモリ使用量についての頻度を表すヒストグラムH1,H2を生成する。そして、実行特性取得部24は、処理時間についてのヒストグラムH1の平均値H1mおよびメモリ使用量についてのヒストグラムH2の平均値H2mをそれぞれ算出し、処理時間についての平均値H1mおよびメモリ使用量についての平均値H2mをその解析処理の実行単位についての実行特性として生成する。実行特性を模式的に示すと、横軸を処理時間の平均値H1m、縦軸をメモリ使用量の平均値H2mとする矩形となる。生成された実行特性は解析処理の実行単位と対応づけられてストレージ13に記憶される。
 割り当て決定部25は、取得した実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する。以下、割り当ての決定について説明する。本実施形態においては、図7に示すように、4つの解析処理61~64が選択されているものとする。図7に示すように、解析処理61は実行単位U1,U2,U3からなり、解析処理62は実行単位U1,U2,U4からなり、解析処理63は実行単位U1,U5,U6からなり、解析処理64は実行単位U1,U5,U7からなるものとする。なお、図7において、各実行単位は左側から処理順序に従って並べられている。
 割り当て決定部25は、解析処理61~64に共通の実行単位を特定する。図7に示すように、すべての解析処理61~64に共通の実行単位は実行単位U1となる。また、解析処理61,62に共通の実行単位は実行単位U2となる。また、解析処理63,64に共通の実行単位は実行単位U5となる。次に割り当て決定部25は、実行単位の処理順序を特定する。例えば、実行単位U2と実行単位U3,U4とでは、実行単位U2を実行しないと実行単位U3.U4を実行することはできない。また、実行単位U5と実行単位U6,U7とでは、実行単位U5を実行しないと実行単位U6,U7を実行することはできない。一方、実行単位U2と実行単位U5とは並列に処理を行うことが可能である。また、実行単位U3,U4,U6,U7も並列に処理を行うことが可能である。このため、割り当て決定部25は、選択された解析処理61~64における各実行単位の処理順序を考慮して、図8に示すように、各実行単位の処理順序を特定する。
 次に、割り当て決定部25は、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する。このために、割り当て決定部25は、実行単位についての処理待ち行列を生成する。図9は処理待ち行列を示す図である。なお、図9に示す処理待ち行列M0においては、各実行単位を実行特性を反映させたサイズの矩形で表し、横軸が処理の順序を定めているものとする。割り当て決定部25は、処理待ち行列M0を参照して、予め定められた容量のリソースに実行単位を割り当てる。
 本実施形態において、割り当て決定部25は、処理時間を最小にするための、予め定められたリソースに対する複数の実行単位の割り当てを決定する。ここで、図9に示すように、処理待ち行列M0においては、実行単位の処理順序は、U1,U2,U3,U4…であるため、リソースを最大限に使用しつつ処理時間が最小となるように、複数の実行単位を割り当てる。図10は実行単位の割り当て結果を示す図である。なお、図10において、縦軸はリソースであり、本実施形態においては解析を依頼した医療機関Bkが利用可能なリソース、すなわちメモリの容量を表している。また、縦軸には利用可能なメモリの容量の最大値maxを示している。
 解析実行部26は、割り当て決定部25が決定した割り当てに従って、選択された解析処理により医用画像G0の解析を実行する。図10に示す割り当てに従うと、解析実行部26は、まずすべての解析処理61~64に共通の実行単位U1を実行し、実行単位U1の処理が終了すると、解析処理61,62に共通の実行単位U2と解析処理63,64に共通の実行単位U5とを並列に実行する。これは、リソースが実行単位U2および実行単位U5を同時に実行可能な容量を有するからである。実行単位U2と実行単位U5とでは、実行単位U5の処理が先に終了する。このため、実行単位U5の処理が終了すると、解析実行部26は、解析処理63において実行単位U5の後に行われる実行単位U6を実行する。また、実行単位U2,U6が実行されていてもリソースには空きがあるため、解析実行部26は、解析処理64において実行単位U5の後に行われる実行単位U7を実行する。実行単位U2の処理が終了すると、解析実行部26は、解析処理61において実行単位U2の後に行われる実行単位U3を実行する。この状態においては実行単位U7は実行中であり、実行単位U3および実行単位U7の実行中は、実行単位U4を実行可能なリソースの空きがない。このため、解析実行部26は、解析処理62において実行単位U2の後に実行される実行単位U4は実行しない。実行単位U7の処理が終了すると、実行単位U4を実行可能なリソースの空きが生じるため、解析実行部26は、実行単位U4を実行する。
 割り当て情報生成部27は、決定された割り当てを表す割り当て情報を生成する。割り当て情報は、割り当て決定部25が決定した図10に示す割り当て結果を表す画像である。なお、割り当て情報生成部27は、処理待ち行列を処理待ち情報として生成してもよい。処理待ち情報は、図9に示す処理待ち行列M0を表す画像である。
 出力部28は、例えば通信インターフェース等からなり、割り当て情報生成部27が生成した割り当て情報を、ネットワーク4を介して医用画像G0の解析を依頼した医師の端末装置2に送信する。なお、出力部28は、処理待ち情報が生成されていれば、処理待ち情報も端末装置2に送信する。これにより。医師の端末装置2の表示部は、図10に示す割り当て結果を表す割り当て情報が表示される。なお、出力部28は解析実行部26による医用画像G0の解析が終了すると、解析結果を端末装置2に送信する。解析結果は、医用画像G0における異常部位の位置を表す情報である。この情報を用いることにより、端末装置2には、図11に示すように異常部位が特定された医用画像G0が表示される。図11に示すように、医用画像G0において異常部位C1が検出されている。
 なお、本実施形態では、画像取得部21と出力部28とを別個に設けているが、画像取得部21が出力部28の機能を備えるものであってもよく、出力部28が画像取得部21の機能を備えるものであってもよい。
 次いで、本実施形態において行われる処理について説明する。図12は本実施形態において行われる処理を示すフローチャートである。画像取得部21が、医療機関Bkの端末装置2から送信された解析対象の医用画像G0を取得する(ステップST1)。次いで、部位認識部22が、医用画像G0に含まれる被検体の部位を認識する(ステップST2)。次に、解析処理選択部23が、部位認識部22による部位認識結果に基づいて、ストレージ13に記憶された複数の解析処理から、医用画像G0を解析するための1以上の解析処理を選択する(ステップST3)。
 続いて、実行特性取得部24が、選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性としてストレージ13から取得する(ステップST4)。そして、割り当て決定部25が、取得した実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する(ステップST5)。また、割り当て情報生成部27が、決定された割り当てを表す割り当て情報を生成し(ステップST6)、出力部28が割り当て情報を端末装置2に送信する(ステップST7)。一方、解析実行部26が、決定された割り当てに従って、選択された解析処理により医用画像G0の解析を実行する(ステップST8)。なお、ステップST8の処理をステップST6,ST7の処理よりも先に行ってもよく、ステップST8の処理とステップST6,ST7の処理とを並列に行ってもよい。そして、出力部28が解析結果を端末装置2に送信し(ステップST9)、処理を終了する。
 このように、本実施形態によれば、医用画像G0に含まれる部位を認識し、認識された部位に基づいて複数の解析処理から1以上の解析処理を選択する。そして、選択された解析処理に含まれる複数の実行単位のそれぞれについての、リソースの使用量および処理時間を実行特性として取得する。そして、実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定し、決定された割り当てに従って、選択された解析処理により医用画像の解析を実行する。このため、本実施形態によれば、実行単位の無駄が少なくなるように、実行単位をリソースに割り当てることができる。したがって、本実施形態によれば、リソースを無駄なく利用できる。
 また、割り当て結果を表す割り当て情報を生成し、端末装置2に送信することにより、端末装置2においては、実行単位がどのようにリソースに割り当てられて解析処理が実行されているかを認識することができる。また、医療機関Bkにおいては、割り当て情報を確認することにより、リソースを増やしたり減らしたりする検討を行うことができ、その結果、その医療機関が行う解析処理に適したリソースの容量を容易に決定することができる。
 なお、上記実施形態においては、決定された割り当てに従って解析を実行しているが、割り当て決定部25は、少なくとも1つの実行単位による処理が完了した際に、処理が完了した実行単位以外の未実行の実行単位についての実行特性、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、実行単位の予め定められたリソースへの割り当てを再度決定するようにしてもよい。この場合、解析実行部26は、再度の決定に従って、未実行の実行単位による処理を実行する。以下これを他の実施形態として説明する。
 図13は、他の実施形態における実行単位の割り当てを説明するための図である。図13においては、処理待ち行列と割り当てとを上下で対応づけて示している。なお、他の実施形態においては、図13に示すような実行特性を有する7つの実行単位U11~U17の割り当てを行うものとする。まず、割り当て決定部25は、実行単位U11~U17についての処理待ち行列M10を生成し、処理待ち行列M10に従って、実行単位U11~U17をリソースに割り当てる。割り当て結果R10を処理待ち行列M10の下方に示す。なお、割り当て結果R10においては、実行単位U15~U17の図示を省略している。また、割り当て結果R10の横軸において、現在の処理時刻が初期の処理時刻t0であることを矢印にて示している。割り当て結果R10においては、実行単位U11と実行単位U13とが並列に実行され、実行単位U11および実行単位U13の終了後、実行単位U12と実行単位U14とが並列に実行される。解析実行部26は、割り当て結果R10に従って解析処理を実行する。これにより、解析実行部26は、まず実行単位U11および実行単位U13を実行する。
 実行単位U11および実行単位U13が実行されることにより、割り当て決定部25は、処理待ち行列M10から実行単位U11および実行単位U13を削除して、処理待ち行列M11を生成する。一方、解析実行部26による解析処理において、実行単位U13の処理が予定よりも早い時刻t1において終了したとする。図13においては、処理が終了した実行単位U13に斜線を付与している。割り当て決定部25は、実行単位U13が終了した後のリソースの容量に基づいて、処理待ち行列M11を参照して実行単位の割り当てを再度決定する。これにより得られる割り当て結果R11においては、実行単位U13の終了後、実行単位U12および実行単位U15が実行単位U14よりも先に行われることとなる。なお、割り当て結果R11においては、実行単位U16,U17を省略している。これにより、解析実行部26は引き続き実行単位U11を実行し、実行単位U13の終了後に実行単位U12および実行単位U15を実行する。
 実行単位U12および実行単位U15が実行されることにより、割り当て決定部25は、処理待ち行列M11から実行単位U12および実行単位U15を削除して、処理待ち行列M12を生成する。一方、解析実行部26による解析処理において、実行単位U11が予定よりも時間を要し、実行単位U15と同時に時刻t2において処理が終了したとする。図13においては、処理が終了した実行単位U11,U13,U15に斜線を付与している。割り当て決定部25は、実行単位U11,U15が終了した後のリソースの容量に基づいて、処理待ち行列M12を参照して実行単位の割り当てを再度決定する。これにより得られる割り当て結果R12においては、実行単位U11,U15の終了後、リソース上における実行単位U12および実行単位U14の実行領域が変更され、実行単位U16および実行単位U17が割り当てられる。これにより、解析実行部26は引き続き実行単位U12を実行し、実行単位U11,U15の終了後に実行単位U15および実行単位U16を実行する。さらに、実行単位U12および実行単位U16が終了すると、実行単位U17を実行する。
 このように、実行単位の割り当てを再度決定することにより、実行単位の処理の終了が早まったり遅くなったりしても、空いているリソースに対して効率よく実行単位を割り当てることができる。
 また、上記実施形態においては、1つの医用画像G0に対して解析処理を行っているが、複数の医用画像に対して解析処理を行う場合にも本開示を適用できる。例えば、CT装置により取得した脳のCTの医用画像G1、MRI装置により取得した脳のMRIの医用画像G2およびCT装置により取得した胸部のCTの医用画像G3の3つの医用画像G1~G3を解析する場合を考える。
 この場合、図14に示すように、脳のCTの医用画像G1に対してCT用の脳梗塞検出処理71およびCT用の脳出血検出処理72が選択され、脳のMRIの医用画像G2に対してMRI用の脳梗塞検出処理73およびMRI用の脳出血検出処理74が選択され、胸部のCTの医用画像G3に対してCT用の肺解析処理75およびCT用の心臓解析処理76が選択されたものとする。
 また、図14に示すように、CT用の脳梗塞検出処理71は実行単位U21,U22,U23からなり、CT用の脳出血検出処理72は実行単位U21,U22,U24からなるものとする。また、MRI用の脳梗塞検出処理73は実行単位U25,U26,U27からなり、MRI用の脳出血検出処理74は実行単位U25,U26,U28からなるものとする。また、肺解析処理75は実行単位U29,U30からなり、心臓解析処理76は実行単位U31,U32からなるものとする。
 このような場合、6つの解析処理を行う必要があるが、上記実施形態と同様に、割り当て決定部25が、各解析処理に共通の実行単位を特定する。図14に示すように、CT用の脳梗塞検出処理71およびCT用の脳出血検出処理72に共通の実行単位は実行単位U21,U22である。また、MRI用の脳梗塞検出処理73およびMRI用の脳出血検出処理74に共通の実行単位は実行単位U25,U26である。
 また、割り当て決定部25は、各実行単位の処理順序を考慮して、図15に示すように、各実行単位の処理順序を特定する。すなわち、CT用の脳梗塞検出処理71およびCT用の脳出血検出処理72に関して、割り当て決定部25は、実行単位U21および実行単位U22の順で処理を実行し、実行単位U22の終了後、実行単位U23と実行単位U24とを並列に実行するように、各実行単位の処理順序を特定する。また、MRI用の脳梗塞検出処理73およびMRI用の脳出血検出処理74に関して、割り当て決定部25は、実行単位U25および実行単位U26の順で処理を実行し、実行単位U26の終了後、実行単位U27と実行単位U28とを並列に実行するように、各実行単位の処理順序を特定する。また、肺解析処理75に関して、割り当て決定部25は、実行単位U29および実行単位U30の順で処理を実行するように、各実行単位の処理順序を特定する。また、心臓解析処理76に関して、割り当て決定部25は、実行単位U31および実行単位U32の順で処理を実行するように、各実行単位の処理順序を特定する。
 さらに、割り当て決定部25は、選択された解析処理に共通の実行単位、および複数の実行単位の処理順序に基づいて、予め定められたリソースに対する複数の実行単位の割り当てを決定する。図16は実行単位の割り当て結果を示す図である。そして、解析実行部26は、割り当て決定部25が決定した割り当てに従って、選択された解析処理により医用画像G1~G3を解析する。
 また、上記実施形態においては、解析処理を最小の実行単位に分割しているが、これに限定されるものではない。複数の最小の実行単位が1つの実行単位となるように解析処理を分割してもよい。
 また、上記実施形態においては、複数の解析処理から2以上の解析処理を選択しているが、選択される解析処理は1つのみであってもよい。この場合、1つの解析処理に含まれる実行単位の割り当てが決定されて、解析処理が行われる。
 また、上記実施形態においては、医用画像解析装置3をクラウド側に置かれるものとしているが、医療機関Bk内において端末装置2を用いて医用画像G0の解析を行う場合がある。この場合、端末装置2に医用画像解析装置3を内包するようにしてもよい。これにより、医療機関Bkの端末装置2において、端末装置2が有するリソースを効率よく利用して医用画像G0の解析を行うことができる。
 また、上記各実施形態において、例えば、画像取得部21、部位認識部22、解析処理選択部23、実行特性取得部24、割り当て決定部25、解析実行部26、割り当て情報生成部27および出力部28といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1  医用画像解析システム
   2  端末装置
   3  医用画像解析装置
   4  ネットワーク
   5  医療情報システム
   6  ネットワーク
   7  モダリティ
   8  画像データベース
   11  CPU
   12  メモリ
   13  ストレージ
   14  ディスプレイ
   15  入力部
   21  画像取得部
   22  部位認識部
   23  解析処理選択部
   24  実行特性取得部
   25  割り当て決定部
   26  解析実行部
   27  割り当て情報生成部
   28  出力部
   40  肺気腫検出処理
   41  肺結節検出処理
   42  すりガラス影検出処理
   50  肺抽出単位
   51A  肺気腫候補検出単位
   51B  肺結節候補検出単位
   51C  すりガラス影候補検出単位
   52A  肺気腫判別単位
   52B  肺結節判別単位
   52C  すりガラス影判別単位
   61~64,71~76  解析処理
   Bk  医療機関
   G0,G1~G3  医用画像
   M0,M10,M11,M12  処理待ち行列
   H1,H2  ヒストグラム
   R10~R12  割り当て結果
   Sk  画像
   U1~U7、U11~U17,U21~U32  実行単位

Claims (10)

  1.  医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて前記医用画像を解析する医用画像解析装置であって、
     少なくとも1つの前記医用画像を取得する画像取得部と、
     前記少なくとも1つの医用画像に含まれる部位を認識する部位認識部と、
     認識された前記部位に基づいて、前記少なくとも1つの医用画像を解析するための1以上の解析処理を、前記複数の解析処理から選択する解析処理選択部と、
     前記選択された解析処理に含まれる複数の実行単位のそれぞれについての、前記リソースの使用量および処理時間を実行特性として取得する実行特性取得部と、
     前記実行特性、前記選択された解析処理に共通の実行単位、および前記複数の実行単位の処理順序に基づいて、前記予め定められたリソースに対する前記複数の実行単位の割り当てを決定する割り当て決定部と、
     前記決定された割り当てに従って、前記選択された解析処理により前記少なくとも1つの医用画像の解析を実行する解析実行部とを備えた医用画像解析装置。
  2.  前記割り当て決定部は、処理時間を最小にするための前記予め定められたリソースに対する前記複数の実行単位の割り当てを決定する請求項1に記載の医用画像解析装置。
  3.  前記割り当て決定部は、少なくとも1つの前記実行単位による処理が完了した際に、該処理が完了した実行単位以外の未実行の実行単位についての前記実行特性、前記選択された解析処理に共通の実行単位、および前記複数の実行単位の処理順序に基づいて、前記未実行の実行単位の前記予め定められたリソースへの割り当てを再度決定し、
     前記解析実行部は、前記再度の決定に従って、前記未実行の実行単位による処理を実行する請求項2に記載の医用画像解析装置。
  4.  前記複数の実行単位のそれぞれについての前記実行特性を記憶する記憶部をさらに備え、
     前記実行特性取得部は、前記記憶部から前記実行特性を取得する請求項1から3のいずれか1項に記載の医用画像解析装置。
  5.  前記決定された割り当てを表す割り当て情報を生成する割り当て情報生成部をさらに備えた請求項1から4のいずれか1項に記載の医用画像解析装置。
  6.  前記割り当て情報生成部は、処理時間とリソースの使用量との関係を規定する座標面上に、前記処理時間と前記リソースの使用量との関係を規定する矩形領域により表した前記実行特性を、前記決定された割り当てに従って配置することにより、前記割り当て情報を生成する請求項5に記載の医用画像解析装置。
  7.  前記割り当て情報生成部は、処理時間とリソースの使用量との関係を規定する座標面上に、前記処理時間と前記リソースの使用量との関係を規定する矩形領域により表した未処理の前記実行特性を、前記決定された割り当てに従って時間軸上に配置した処理待ち情報をさらに生成する請求項5または6に記載の医用画像解析装置。
  8.  前記割り当て情報を出力する出力部をさらに備えた請求項5から7のいずれか1項に記載の医用画像解析装置。
  9.  医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて前記医用画像を解析する医用画像解析方法であって、
     少なくとも1つの前記医用画像を取得し、
     前記少なくとも1つの医用画像に含まれる部位を認識し、
     認識された前記部位に基づいて、前記少なくとも1つの医用画像を解析するための1以上の解析処理を、前記複数の解析処理から選択し、
     前記選択された解析処理に含まれる複数の実行単位のそれぞれについての、前記リソースの使用量および処理時間を実行特性として取得し、
     前記実行特性、前記選択された解析処理に共通の実行単位、および前記複数の実行単位の処理順序に基づいて、前記予め定められたリソースに対する前記複数の実行単位の割り当てを決定し、
     前記決定された割り当てに従って、前記選択された解析処理により前記少なくとも1つの医用画像の解析を実行する医用画像解析方法。
  10.  医用画像を解析するための複数の解析処理であって、それぞれが1以上の実行単位を含む複数の解析処理により、予め定められたリソースを用いて前記医用画像を解析する医用画像解析方法をコンピュータに実行させるための医用画像解析プログラムであって、
     少なくとも1つの前記医用画像を取得する手順と、
     前記少なくとも1つの医用画像に含まれる部位を認識する手順と、
     認識された前記部位に基づいて、前記少なくとも1つの医用画像を解析するための1以上の解析処理を、前記複数の解析処理から選択する手順と、
     前記選択された解析処理に含まれる複数の実行単位のそれぞれについての、前記リソースの使用量および処理時間を実行特性として取得する手順と、
     前記実行特性、前記選択された解析処理に共通の実行単位、および前記複数の実行単位の処理順序に基づいて、前記予め定められたリソースに対する前記複数の実行単位の割り当てを決定する手順と、
     前記決定された割り当てに従って、前記選択された解析処理により前記少なくとも1つの医用画像の解析を実行する手順とをコンピュータに実行させる医用画像解析プログラム。
PCT/JP2019/044388 2019-01-30 2019-11-12 医用画像解析装置、方法およびプログラム WO2020158100A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112019006773.7T DE112019006773T5 (de) 2019-01-30 2019-11-12 Medizinische Bildanalysevorrichtung, Verfahren und Programm
CN201980090652.XA CN113365557B (zh) 2019-01-30 2019-11-12 医用图像分析装置、方法及计算机可读存储介质
JP2020569386A JP7105927B2 (ja) 2019-01-30 2019-11-12 医用画像解析装置、方法およびプログラム
US17/378,761 US20210342195A1 (en) 2019-01-30 2021-07-18 Medical image analysis device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-014455 2019-01-30
JP2019014455 2019-01-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/378,761 Continuation US20210342195A1 (en) 2019-01-30 2021-07-18 Medical image analysis device, method, and program

Publications (1)

Publication Number Publication Date
WO2020158100A1 true WO2020158100A1 (ja) 2020-08-06

Family

ID=71842068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044388 WO2020158100A1 (ja) 2019-01-30 2019-11-12 医用画像解析装置、方法およびプログラム

Country Status (5)

Country Link
US (1) US20210342195A1 (ja)
JP (1) JP7105927B2 (ja)
CN (1) CN113365557B (ja)
DE (1) DE112019006773T5 (ja)
WO (1) WO2020158100A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021004715T5 (de) 2020-09-08 2023-07-06 Fujifilm Corporation Verarbeitungssystem für medizinische bilder, verarbeitungsverfahren für medizinische bilder, informationsverarbeitungsvorrichtung und programm

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011025056A (ja) * 2009-03-31 2011-02-10 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2017016541A (ja) * 2015-07-06 2017-01-19 富士通株式会社 情報処理装置、並列計算機システム、ジョブスケジュール設定プログラムおよびジョブスケジュール設定方法
US20180088979A1 (en) * 2016-09-23 2018-03-29 Ati Technologies Ulc Virtual machine liveliness detection

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3862591B2 (ja) * 2002-04-23 2006-12-27 キヤノン株式会社 画像処理装置、画像処理方法
JP4606142B2 (ja) * 2004-12-01 2011-01-05 株式会社ソニー・コンピュータエンタテインメント スケジューリング方法、スケジューリング装置およびマルチプロセッサシステム
US8013859B2 (en) * 2008-03-20 2011-09-06 Vmware, Inc. Graphical display for illustrating effectiveness of resource management and resource balancing
JP5324934B2 (ja) 2009-01-16 2013-10-23 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2013037453A (ja) * 2011-08-05 2013-02-21 Toshiba Corp 医用画像処理システムおよび画像診断装置
JP6165468B2 (ja) * 2012-03-05 2017-07-19 東芝メディカルシステムズ株式会社 医用画像処理システム
JP6424632B2 (ja) * 2015-01-08 2018-11-21 富士通株式会社 負荷算出方法、負荷算出プログラム及び負荷算出装置
JP6613763B2 (ja) 2015-09-29 2019-12-04 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
US20170371713A1 (en) * 2016-06-27 2017-12-28 Sidra Medical and Research Center Intelligent resource management system
US10318348B2 (en) * 2016-09-23 2019-06-11 Imagination Technologies Limited Task scheduling in a GPU
JP2018092311A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、その制御方法、及びプログラム
CN107274402A (zh) * 2017-06-27 2017-10-20 北京深睿博联科技有限责任公司 一种基于胸部ct影像的肺结节自动检测方法及系统
CN108305671B (zh) * 2018-01-23 2021-01-01 深圳科亚医疗科技有限公司 由计算机实现的医学图像调度方法、调度系统及存储介质
US10740866B2 (en) * 2018-06-26 2020-08-11 International Business Machines Corporation Determining appropriate medical image processing pipeline based on machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011025056A (ja) * 2009-03-31 2011-02-10 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2017016541A (ja) * 2015-07-06 2017-01-19 富士通株式会社 情報処理装置、並列計算機システム、ジョブスケジュール設定プログラムおよびジョブスケジュール設定方法
US20180088979A1 (en) * 2016-09-23 2018-03-29 Ati Technologies Ulc Virtual machine liveliness detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021004715T5 (de) 2020-09-08 2023-07-06 Fujifilm Corporation Verarbeitungssystem für medizinische bilder, verarbeitungsverfahren für medizinische bilder, informationsverarbeitungsvorrichtung und programm

Also Published As

Publication number Publication date
DE112019006773T5 (de) 2021-11-04
JPWO2020158100A1 (ja) 2021-11-11
CN113365557A (zh) 2021-09-07
JP7105927B2 (ja) 2022-07-25
US20210342195A1 (en) 2021-11-04
CN113365557B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
RU2529381C2 (ru) Формирование модели усовершенствованного изображения
Blanc et al. Artificial intelligence solution to classify pulmonary nodules on CT
US10817753B2 (en) Learning assistance device, method of operating learning assistance device, learning assistance program, learning assistance system, and terminal device
US11797846B2 (en) Learning assistance device, method of operating learning assistance device, learning assistance program, learning assistance system, and terminal device
US20090136096A1 (en) Systems, methods and apparatus for segmentation of data involving a hierarchical mesh
CN110992376A (zh) 基于ct图像的肋骨分割方法、装置、介质及电子设备
US11449210B2 (en) Method for providing an image base on a reconstructed image group and an apparatus using the same
CA3111320A1 (en) Determination of a growth rate of an object in 3d data sets using deep learning
US20080075345A1 (en) Method and System For Lymph Node Segmentation In Computed Tomography Images
US11075004B2 (en) Discrimination result providing apparatus, operating method of discrimination result providing apparatus, discrimination result providing program, and discrimination result providing system
WO2020158100A1 (ja) 医用画像解析装置、方法およびプログラム
KR102558096B1 (ko) 흉부 방사선 영상 특징을 활용한 비전 변환기 기반의 감염병 중증도 정량화 방법 및 그 장치
Bhusal et al. Multi-label classification of thoracic diseases using dense convolutional network on chest radiographs
JP2023516651A (ja) 訓練データにおける欠落したアノテーションに対処するためのクラス別損失関数
Droste et al. Discovering salient anatomical landmarks by predicting human gaze
Jian et al. Cloud image processing and analysis based flatfoot classification method
Gautam et al. Lung cancer detection from thoracic CT scans using an ensemble of deep learning models
CN103778620A (zh) 医学图像的处理方法和装置
US20210295524A1 (en) Robust pulmonary lobe segmentation
Mahalakshmi et al. A novel approach to find tumor in MRI brain images using image segmentation techniques
WO2022070574A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20220076796A1 (en) Medical document creation apparatus, method and program, learning device, method and program, and trained model
JP7204781B2 (ja) 画像処理装置、方法及びプログラム
US20240203591A1 (en) System and method for providing an analytical result based on a medical data set using ml algorithms
Preetha Evangeline et al. Non-rigid registration of brain MR images for image guided neurosurgery using cloud computing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19912306

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569386

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19912306

Country of ref document: EP

Kind code of ref document: A1